Você está na página 1de 5

Não existe sistema inteligente?

Artigo de Marcelo Pita e Fernando Buarque enviado ao JC Email pelos autores.

Em ciência, como em várias outras atividades humanas, algumas polêmicas surgem


em torno de tópicos específicos, muitas vezes pela importância e densidade de
conceitos que encerram, ou ainda por sua polissemia. No começo de agosto passado
foi veiculado no Jornal da Ciência (JC-email 4313, de 02 de agosto de 2011) um
artigo intitulado "Não existe sistema inteligente", publicado originalmente no jornal
Estado de Minas no final de Julho. Esse texto apresenta uma série de argumentos que
defendem a visão de que não há (nem haverá) sistemas de computação que
poderiam ser rotulados de inteligentes.

Não obstante a correta crítica ao exagero de uso do termo "inteligente" nos dias de
hoje, a visão e os argumentos apresentados parecem ter se fixado em apenas uma
parte da extensão do tópico "inteligência", não ter considerado apropriadamente uma
multitude de pesquisadores e pesquisas existentes e, eventualmente, não ter
aprofundado suficientemente o debate em seus aspectos filosófico e técnico. Não
fosse a possibilidade, certamente não intencional, de alguma desqualificação de
pesquisas em Ciência Cognitiva e da Computação que tratam de inteligência artificial
com seriedade, o presente artigo seria desnecessário. Esperamos, portanto, trazer
algumas visões e informações que ampliem este tão interessante debate.

Inteligência - A palavra "inteligência" representa um desses conceitos


sobrecarregados usados para referenciar um grande conjunto de capacidades que
permeiam a cognição humana. Para complicar, conceitos com similar potencial de
gerar confusões semânticas, como pensamento, razão, entendimento, evolução,
consciência, vida, dentre outros, são facilmente incorporados em tentativas informais,
e até mesmo formais, de definir a inteligência. Contudo, um dos poucos pontos em
comum entre a maioria das tentativas é a certeza de que a inteligência se expressa,
em seres humanos e mesmo em outros animais, por meio de habilidades cognitivas
fundamentadas no aprendizado. A questão aqui posta é se podemos construir
sistemas que possuam inteligência.

Se aceitarmos axiomaticamente que a inteligência também se instrumentaliza via


aprendizado, podemos então, à la Turing, substituir a questão "é possível construir
sistemas inteligentes?" por "é possível construir sistemas que aprendem?".

Mas o que é aprender? Objetivamente, é a capacidade que seres possuem de se


auto-organizar dinamicamente a fim de maximizar seu sucesso em um ambiente. Por
exemplo, quando estamos começando a aprender xadrez não fazemos movimentos
muito espertos, mas por meio da experiência de acertar e errar repetidamente, nosso
cérebro aprende a produzir movimentos que maximizem os acertos. Esse exemplo foi
oferecido justamente também para que a própria noção de sucesso seja posta em
perspectiva. Ou seja, aproveitamos para arguir que sucesso não precisa
necessariamente estar ligado diretamente à sobrevivência. Neste caso, o cérebro é a
estrutura na qual ocorre o aprendizado. Continuando o raciocínio, citamos agora
outras estruturas naturais que possuem factualmente a capacidade de aprender:
sistemas imunológicos, colônias de formigas e porque não, a própria evolução como
propôs Darwin. Claro que nos dois últimos exemplos, a noção de aprendizado é mais
ampla pois não mais está individualizada.

Nesta rápida análise acerca da inteligência, é muito importante destacar três


constatações: (i) uma visão antropocêntrica é completamente desnecessária, ou se
usada é limitante; (ii) a inteligência, enquanto expressa por meio de habilidades
cognitivas fundamentadas no aprendizado, não deve ser confundida com outros
fenômenos cognitivos propriamente; (iii) a individualização da inteligência também é
limitante do conceito, já que coletivamente pode haver aprendizado.
De fato, a inteligência não é exclusividade de seres humanos, nem o modo humano
de se comportar inteligentemente é o único. Não se deve, portanto, julgar a
inteligência de um sistema apenas pela sua capacidade de imitar ações humanas ou
muito menos de usar a linguagem humana como referencial. Quanto ao segundo
ponto, note-se que outros fenômenos, como a consciência, também podem emergir a
partir de estruturas de aprendizado como o cérebro, podendo até influenciar
reflexivamente em muitas habilidades cognitivas, mas mesmo assim, isso não as
torna pré-requisitos para a inteligência. Portanto, um sistema pode, facilmente, ser
inteligente sem ser consciente. O terceiro ponto reforça tacitamente o primeiro, já
que ignorar aprendizado coletivo seria negar a inteligência envolvida no processo de
evolução natural (e também negar a poderosa sinergia que emerge da interação de
seres simples, como abelhas).

Então um entendimento mais universal (não antropocêntrico) da inteligência, que a


coloque como (mais) um dos fenômenos emergentes possíveis de estruturas capazes
de aprender, é de suma importância para avançarmos com mais largura no próximo
questionamento desta análise: é possível construir estruturas de aprendizado?

Inteligência Artificial - O termo Inteligência Artificial (IA) foi cunhado por John
McCarthy em 1956, que definiu IA como "a ciência e engenharia de fazer máquinas
inteligentes". Mas o interessante é que pelo menos uma década antes do surgimento
desse termo já havia importantes trabalhos na área, a maioria em modelos
conexionistas conhecidos hoje por redes neurais artificiais. Conexionismo, como
proposto, é uma forma de pensar sistemas nos quais a inteligência emerge de
estruturas de aprendizado representadas por redes compostas de unidades de
processamento simples. A inspiração dos conexionistas foi/é o cérebro, que nada
mais é que uma rede imensa, dinâmica auto-organizável de células nervosas
altamente especializadas (mas simples) - os neurônios, que por sua vez se conectam
a milhares de outros resultando num processamento amplamente paralelo e não
linear.

Um segundo movimento se desenvolveu quase que em paralelo ao conexionismo,


iniciado por Herbert Simon e Allen Newell, com seus provadores automáticos de
teoremas. Os trabalhos de Simon e Newell trouxeram para a IA sistemas baseados
em aprendizado simbólico usando linguagens lógicas fortemente inspiradas nos
mecanismos de inferência humana. Neste caso, as estruturas de aprendizado
representam conceitos que possuem conexão direta com o mundo real
(diferentemente da representação altamente distribuída dos modelos conexionistas).
Além disso, há importantes diferenças de processamento; nos sistemas simbólicos,
novos conhecimentos são incorporados (ou aprendidos) em grande parte por novas
percepções (fatos) e inferências lógicas dedutivas (e não pelas induções dos sistemas
conexionistas).

É razoável afirmar que por um longo tempo houve confrontos ideológicos entre
modelos conexionistas e simbólicos, mas atualmente a visão dominante é integrativa,
como em sistemas híbridos; por exemplo, nós humanos podemos manipular símbolos
mas nossa representação de conhecimento é completamente distribuída. E nesse
processo de amadurecimento, a área de IA evoluiu bastante e incorporou muitos
novos modelos e abordagens com diferentes estruturas de aprendizado. Isso
possibilitou a representação e resolução de vários tipos de problemas que exigem
habilidades cognitivas não triviais, tais como classificação, busca, processamento de
linguagem natural, etc. Mas, importante, em qualquer um desses casos, não há o que
se discutir: a inteligência dos sistemas não é um produto de programação explícita de
regras. Ela emerge de estruturas de aprendizado artificiais. Pensar que a inteligência
é fruto direto da programação é retroceder ao pensamento talvez de Ada (Lovelace)
nos primórdios da Computação, como bem refuta Turing em seu artigo para a revista
Mind na década de 50 (ver a seguir).
A busca por um modelo geral de inteligência que incorpore todos os outros e
eventualmente permita que sistemas se igualem ou excedam as habilidades
cognitivas humanas ficou conhecida como IA forte. O que se convencionou chamar de
IA fraca, por outro lado, consiste no uso de sistemas inteligentes em problemas
(muitas vezes extremamente complexos) que envolvam a necessidade de
aprendizado mas que não necessariamente incorporem aspectos de consciência,
ética, crenças, desejos e intencionalidade.

O argumento mais inocente contra a IA é afirmar que sistemas inteligentes só são


assim possíveis porque seus programadores (que são inteligentes) codificaram regras
que criam a aparência de comportamento inteligente. Quando Arthur Samuel
desenvolveu no final da década de 50 um programa jogador de xadrez que aprendia
com vitórias e derrotas, e que havia se tornado melhor que próprio Samuel nesta
atividade, ele não codificou no sistema todos os truques que fazem um bom jogador
de xadrez, o que seria impossível. Ao invés de tentar programar todas as regras e
jogadas do xadrez, Arthur Samuel deu um passo à frente criando uma estrutura de
aprendizado artificial que permitiu ao programa se tornar cada vez melhor através de
milhares de tentativas com erros e acertos. Samuel define o aprendizado de
máquinas como "o campo de estudo que dá a computadores a habilidade de aprender
sem serem explicitamente programados". Sistemas verdadeiramente inteligentes não
são explicitamente programados.

Outro tipo comum de crítica à IA, tão inocente quanto creditar a inteligência do
sistema ao programador, é questionar se um sistema inteligente pode revelar
Inteligência quando se compõe apenas de programas (imutáveis) de computador, um
sistema operacional e hardware que não são inteligentes individualmente. Ora, esse
argumento nega as evidências de existência da evolução e da inteligência (humana)
como fenômeno emergente. Encontramos uma grande quantidade de fenômenos
emergentes inteligentes na natureza, a começar pelo próprio homem. Estruturas de
aprendizado naturais estão apoiadas sobre uma infraestrutura química/biológica que
não são necessariamente, de longe, inteligentes.

O teste de inteligência de Turing - Os ecléticos trabalhos de Alan Turing,


considerado por muitos como o pai da Ciência da Computação e da Inteligência
Artificial, no fundo foram motivados pela possibilidade de construção de máquinas
inteligentes. Um de seus artigos mais famosos, Computer Machinery and Intelligence,
publicado na revista Mind, trata especificamente disto. No artigo ele propõe um teste
de inteligência, conhecido como teste de Turing, que trata da questão "máquinas
podem pensar?" ("Can machines think?"). O interessante é que Turing escreveu esse
trabalho há 60 anos para instruir seus concidadãos dessa possibilidade.

De forma genial, Turing propõe um jogo de imitação e afirma que se um computador


puder estabelecer um diálogo aberto e justo com um humano de forma natural, sem
o ser humano ter a convicção de que se trata de outro humano ou de um
computador, o sistema terá passado no teste (de "ser inteligente"). O teste de Turing
reduz a avaliação de inteligência de sistemas artificiais à sua capacidade de imitar um
dos mais interessantes produtos cognitivos humanos: a linguagem escrita.

Não obstante sua importância, o teste de Turing representa apenas um primeiro


ensaio em torno das questões da IA e se máquinas podem pensar. Embora a
habilidade humana de dialogar seja uma obra prima da nossa inteligência, ela não é a
única evidência de inteligência em um sistema. O ponto aqui é que nem todo tipo de
inteligência computacional envolve produção de resultados que são representados em
linguagem humana. Afirmar que somente o que é veiculado em linguagem humana é
inteligente é o mesmo que afirmar que gênios da matemática não são inteligentes
porque usam abstrações em formalismo matemático, muitos deles absolutamente não
representáveis de outro modo. De forma mais simplista, seria equivalente também a
afirmar que cães, gatos, chimpanzés e golfinhos jamais poderiam ser rotulados de
inteligentes.

Sistemas inteligentes artificiais - A maioria de nós usa sistemas inteligentes


artificiais todos os dias, eventualmente, sem nunca ter se dado conta. Por exemplo,
quando fazemos uma busca no Google ou usamos seu recurso de autocompletar,
estamos fazendo uso de um sistema inteligente. Quando o Facebook detecta faces em
fotografias publicadas por usuários ou sua máquina fotográfica digital detecta
sorrisos, um sistema inteligente está trabalhando muito para nós. Quando mandamos
uma carta para um amigo e esta carta é automaticamente separada com base no
endereço de destino, um sistema inteligente é que faz o reconhecimento de
caracteres manuscritos. Quando a Amazon ou outra loja na internet faz boas
recomendações de produtos com base no seu perfil, também de forma discreta existe
um sistema inteligente responsável por aprender as preferências e as refinar com o
tempo.

Enfim, atualmente a quantidade de programas que foram preparados para aprender,


e portanto melhorarem com o tempo, inseridos em aplicações usuais é enorme. Em
nenhum desses sistemas um programador ensinou as tarefas ao computador, pelo
contrário, o programador usa o seu tempo e inteligência para criar condições nas
quais as informações disponíveis sejam utilizadas e combinadas com outras
eventualmente preexistentes para que o desempenho do sistema aumente de forma
automática; a isso podemos sem traumas referenciar como capacidade de aprender
e, portanto, ser inteligente. Nós humanos funcionamos de forma análoga; por isso
todos - inclusive os sistemas artificiais preparados para assim funcionar, podem
tranquilamente ser referidos como inteligentes. Claro que os frequentemente
anunciados "prédios inteligentes" ou "brinquedos inteligentes" são abusos do
conceito, já que muitas vezes o prédio é referido como inteligente apenas por conter
cabeamento estruturado para dados e os brinquedos por se moverem ao cumprirem
scripts (à la Ada).

Hoje muitos sistemas manipulam conceitos, estabelecem conexões entre eles,


inferem novos, reveem alguns, podem estar cientes de contextos, e muito mais. E
dado o crescente interesse em aplicações de computação social e para a Web
semântica (aquela que além da atual vai ter alguma "consciência" do
contexto/temática), sistemas inteligentes se tornarão cada vez mais comuns e
poderosos. Ainda bem, pois livrará a inteligência do homem (essa tão peculiar) para
outros aspectos mais agradáveis de nossa experiência humana (que nenhum
computador vai poder experimentar)!

Reflexões complementares - Concluímos este artigo destacando que qualquer


conotação às aplicações atuais em inteligência artificial como algo simples deve
urgentemente ser repensada - pois não há nada simples em muitas das construções
teóricas e aplicações correntes dessa área. E se críticas necessitarem ser tecidas,
sugerimos que argumentos contrários tenham uma profundidade filosófica aceitável,
como por exemplo as de John Searle (conhecido por sua "Sala Chinesa").

Aliás, há uma década tivemos (Fernando) o privilégio de, num mesmo mês, assistir o
embate de ideias de Searle e Daniel Dennett, exatamente sobre o tema desse artigo.
Lá, debateu-se assuntos certamente mais importantes que saber se os estádios
brasileiros vão ficar prontos para a Copa de 2014: "the ghost in the machine",
epifenomenologia, solipsismo, livre-arbítrio, cibernética e muitos outros.

De qualquer forma, estamos convencidos de que, além de toda a aplicabilidade da IA


na indústria, críticas mais profundas à área devem vir e certamente a fortalecerão
epistemologicamente. Por isso mesmo é que não há nenhuma grande Universidade no
mundo hoje que não possua laboratórios bem produtivos, dedicados para pesquisas
em IA desde os seus aspectos teóricos-filosóficos até suas aplicações práticas. No que
diz respeito à indústria, o conhecimento em "aprendizado de máquinas" ficou no topo
da lista publicada pela Computerworld em seu artigo "12 IT skills that employers can't
say no".

Ficamos felizes ao podermos brevemente ampliar um pouco mais este fascinante


debate que não é novo e certamente vai perdurar por algum tempo. Por fim,
gostaríamos de sugerir outros debates análogos a este no sentido de fortalecer a
ciência brasileira; precisamos romper com a prática da "filosofia de fim de semana".
Certamente, esta parte de um problema maior: a formação conteudista que teima em
não nos deixar. Essa que faz com que muitos egressos (e mesmo presentes) das
universidades brasileiras não se importam em aprofundar seus conhecimentos, suas
áreas de pesquisa ou mesmo suas práticas profissionais, apenas porque a
transferência de conteúdo já aconteceu ou parece estar acontecendo bem. O que
obviamente não é de longe verdade, infelizmente.

Marcelo Pita é mestre em Engenharia de Computação, Pesquisador do CIRG/UPE e


Analista do Serpro. Fernando Buarque é doutor em Inteligência Artificial (Imperial
College London), pesquisador do CNPq e professorda Escola Politécnica da
Universidade de Pernambuco.

Você também pode gostar