Você está na página 1de 6

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/266369213

Inteligência Artificial Introdução

Article

CITATIONS READS

0 1,706

1 author:

Wagner Toscano
University of São Paulo
8 PUBLICATIONS   0 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Training of a RNN with genetic algorithm. View project

All content following this page was uploaded by Wagner Toscano on 26 May 2017.

The user has requested enhancement of the downloaded file.


Inteligência Artificial
Introdução
Prof. Wagner Toscano
wt@wagnertoscano.eti.br

19 de fevereiro de 2009

Conceito
O objetivo da inteligência artificial é construir entidades que aprendem, compreendem e adaptam-se. Dessa forma,
tornar-se semelhante à inteligência humana. Uma outra definição é o desenvolvimento de sistemas que percebam,
argumentam e efetivamente atuam em ambientes incertos.
Para contornar o problema da falta de uma definição para inteligência artificial, em 1950, Alan Turing [2] propôs
um teste capaz de determinar se uma máquina demonstra ou não inteligência artificial, com base no seguinte argu-
mento:
Não sabemos definir precisamente o que é inteligência e, conseqüentemente, não podemos definir o que é
inteligência artificial. Entretanto, embora não tenhamos uma definição de inteligência, podemos assumir
que o ser humano é inteligente. Portanto, se uma máquina fosse capaz de se comportar de tal forma
que não pudéssemos distingüı́-la de um ser humano, essa máquina estaria demonstrando algum tipo de
inteligência que, nesse caso, não poderia ser inteligência artificial.

Essencialmente, o teste proposto por Turing era que, por meio de um terminal, um ser humano deveria se
comunicar com alguém em um local remoto (como num chat); se, após um determinado tempo, o ser humano não
fosse capaz de perceber que se esse alguém era uma máquina, então a hipótese da existência de inteligência artificial
estaria confirmada.

Histórico
Um breve histórico da evolução da inteligência artificial.

1943-1950 Pesquisas voltadas ao modelo de neurônios artificiais (McCulloch & Pitts, 1943), que possibilitavam o
desenvolvimento de máquinas capazes de aprender.
1951-1969 Surgiram, os primeiros programas capazes de jogar xadrez (Shannon, 1950 e Turing, 1953), provar
teoremas de lógica e imitar a forma de raciocı́nio do ser humano (Newell & Simon, 1956), planejamento de
tarefas (Green, 1963), comunicação em linguagem natural (Weizenbaum, 1965), resolver problemas de analogia
(Evans, 1968) e analisar estruturas moleculares (Buchan et al., 1969). Foi uma fase de grande entusiasmo; já
que, até bem pouco tempo atrás, o computador era visto meramente como uma máquina de calcular.
1970-1980 Começa-se a esbarrar em problemas relacionados ao armazenamento de dados e ao tempo de processa-
mento. Com o surgimento da teoria de Complexidade Computacional, ficou comprovado que a solução desses
problemas não dependia apenas de memória adicional ou de processadores mais rápidos. Em conseqüência,
muitas das expectativas iniciais se mostraram impossı́veis e o entusiasmo diminuiu.
1981-presente Os japoneses anunciaram um projeto de computador de quinta geração, que teria o Prolog como
linguagem de máquina e seria capaz de realizar milhões de inferências por segundo. Com medo do domı́nio
japonês, grandes investimentos começaram a serem feitos na Europa e nos Estados Unidos. Atualmente, a IA
tornou-se uma indústria e as pesquisas estão mais voltadas para aplicações práticas dos modelos já conhecidos,
do que para descoberta de novas teorias, que ficaram restritas a alguns poucos laboratórios e institutos de
pesquisa [1].

1
IA Introdução

Linha de Pesquisa
Existem três grandes linhas de pesquisa [8]:
1. Simbólica: ou cognitiva, ou descendente, dá ênfase aos processos cognitivos, ou seja, a forma como o ser
humano raciocina. Tem como objetivo encontrar uma explicação para comportamentos inteligentes com base
em aspectos psicológicos e processos algoritmicos. Os pioneiros dessa corrente foram Jonh McCarthy, Marvin
Minsky, Newell e Simon. As primeiras modelagens da inteligência surgiram na década de 50 e tiveram como base
as regras de produção e a lógica dos predicados. A formalização da lógica facilitou o processo de formalização
e representação dos conhecimentos a serem utilizados pelos programas de computador. Inicialmente, esses
conhecimentos foram restritos a esquemas de raciocı́nios para jogos, aplicações matemáticas e simuladores. Em
suma, com base na hipótese do sistema de sı́mbolos fı́sicos, segundo a qual um conjunto de estruturas simbólicas
e um conjunto de regras de manipulação dessas estruturas são os meios necessários e suficientes para se criar
inteligência. Essa linha de pesquisa trata de problemas bem definidos e seu principal produto é o sistema com
base em regras.
2. Conexionista: ou biológica ou ascendente, dá ênfase no modelo de funcionamento do cérebro, dos
neurônios e das conexões neurais. Os pioneiros dessa corrente foram McCulloch, Pitts, Hebb, Rosenblatt e
Widrow. Em 1943 surgiu a representação e formalização matemática dos neurônios artificiais, que fêz surgir os
primeiros modelos de redes neurais artificiais. A corrente conexista sofreu grande impacto quando os cientistas
Marvin Minsky e Seymour Papert publicaram (1969) o livro Perceptrons, no qual criticaram e sustentaram
que os modelos das redes neurais não tinham sustentação matemática suficiente que lhes fosse possı́vel atribuir
alguma confiabilidade. Apesar das pesquisas nesta área não terem parado, foi apenas na década de 80 que o
fı́sico e biólogo do Instituto de Tecnologia da Califórnia, Jonh Hopfield conseguiu recuperar a credibilidade
da utilização das redes neurais. Em suma, com base na hipótese da causa-efeito, segundo a qual um modelo
suficientemente preciso do cérebro humano é suficiente para reproduzir a inteligência que o cérebro real possui.
Essa linha de pesquisa trata de problemas sem definição precisa, mas que são conhecidos por meio de exemplos,
e seu principal produto é a rede neural
3. Evolucionária: com base na teoria evolutiva de Darwin, a hipótese é que podemos modelar sistemas inteligentes
simulando a evolução de uma população de indivı́duos (soluções aleatórias), que carregam genes com informação
suficiente para solução de um problema, utilizando operações genéticas de recombinação e mutação. Essa linha
de pesquisa trata de problemas de otimização e seu principal produto é o algoritmo genético.
Existe, também, uma quarta linha de pesquisa, denominada Hı́brida, na qual se combinam ferramentas para se
obter a soluções de problemas.
Russell e Norvig [8], classificaram os sistemas de IA em 4 categorias. A primeira categoria, tem como referência,
os sistemas que atuam como seres humanos. A segunda categoria são os sistemas que pensam como seres humanos.
A terceira categoria são os sistemas que pensam racionalmente, de acordo com as leis da lógica. E por fim, a quarta
categoria são os sistemas que atuam racionalmente ou fazem as tarefas corretamente.
• Sistemas que atuam como os humanos:
Em 1950, Turing propôs uma definição operacional de inteligência, reconhecida até hoje como “Teste de Turing”.
Uma entidade é julgada inteligente, de acordo com Turing, se demonstrar habilidade em alcançar desempenho
ao nı́vel de um humano, em tarefas cognitivas (processo de adquirir conhecimento), de tal forma que engane
um interrogador.
• Sistemas que pensam como seres humanos:
Em 1963, Newell e Simon projetaram o Solucionador Geral de Problemas (General Problem Solver - GPS), o
qual tinha como objetivo simular o pensamento humano. O nome GPS derivou da arquitetura do programa que
distinguiu entre conhecimento geral, sobre argumentos e o conhecimento de domı́nio especı́fico. GPS utilizou
a solução de mapear o estado atual e o estado objetivo, e como caminho para a solução tenta minimizar a
diferença entre os dois estados. Comparando os processos de solução Newell e Simon descobriram que o GPS
é um subconjunto do comportamento humano.
• Sistemas que pensam racionalmente, de acordo com as leis da lógica:
As leis de aproximação do pensamento, para IA, utilizam padrões estruturados de argumentos, com base nos
silogismos de Aristóteles, como exemplo, o famoso argumento:

Todos os homens são mortais; Sócrates é um homem; então, Sócrates é mortal.

De Aristóteles (384 -322aC, criador da ciência da Lógica) até próximo ao fim do século XVIII, não houve avanço
significativo. A partir desse momento, houve um avanço considerável dado por

19 de fevereiro de 2009 2 Prof. Wagner Toscano


IA Introdução

– Boole (1815-1864): publica em 1849 “Investigação sobre as leis do pensamento”, e consegue criar um
sistema simbólico para a lógica, surgindo assim a lógica simbólica clássica ou Lógica Matemática. Essa
lógica matemática representa um cálculo lógico, conhecido atualmente como álgebra de boole. Boole
publica ainda “Mathematical Analysis of Logic”. Nesse mesmo perı́odo de publicação, Augustus de Morgan
(1806-1871) publica “Formal Logic”;
– Gottlob Frege (1848-1925), filósofo e matemático alemão. publicou em 1879 “Conceitografia” (Begriff-
sschrift). A preocupação básica de Frege era a sistematização do raciocı́nio matemático, ou seja encontrar
uma caracterização do que é uma demonstração matemática. Uma demonstração matemática não é feita
por experimentos, e sim por uma seqüência argumentativa, demonstrando que existe uma seqüência lógica
de outras proposições aceitas para se chegar à conclusão. Frege formalizou regras de demonstração, in-
iciando com regras elementares. Tendo como resultado a revolução da lógica com a criação do cálculo de
predicados. Frege foi reconhecido pelos lógicos a partir de 1905. Com o uso de linguagens artificiais, fêz
com que a lógica fosse denominada de lógica simbólica;
– Giuseppe Peano (1858-1932) e sua escola com Burali-Forti, Vacca, Pieri, Pádoa, Vailati, entre outros,
deram origem a quase toda a simbologia da matemática, desenvolvendo o sistema de notação empregue
pelos lógicos e matemáticos. Demonstrando, como Frege, que os enunciados matemáticos não são obtidos
por intuição, mas sim deduzidos a partir de premissas;
– Alfred North Whitehead (1861-1947) e Bertrand Russell (1872-1970), tem inı́cio o perı́odo atual da lógica,
com a obra de referência matemática, “Principia Mathematica”, em que procuram desenvolver o projeto
do logicismo, isto é, a redução;
– David Hilbert (1862-1943) e sua escola alemã com von Neuman, Bernays, Ackerman entre outros;
– Alfred Tarski (1902-1983) e Kürt Gödel (1906-1978), desenvolveram a lógica matemática até sua forma
contemporânea. Isto é distanciando da lógica filosófica para a lógica fı́sica da computação. Essa tendência
recebeu o nome de logicismo.
• Sistemas que atuam racionalmente ou fazem as tarefas corretamente:
A IA moderna, pode ser caracterizada como a engenharia de agentes racionais. Agente é uma entidade que
percebe, raciocina e atua.
Agentes são distintos de processos computacionais, por serem autônomos, isto é, operam sem intervenção humana.
Além de que, os agentes são reativos, percebendo e atuando no ambiente; proativos pois o comportamento está
direcionado a um objetivo, e por último possui “habilidades” sociais que permite interagir com outros agentes (ou
humanos).

Campos da IA
Com base no agente, a IA pode ser classificada em termos de regras fundamentadas na percepção, raciocı́nio e ação
[5].
• Com relação à percepção:
– Visão por computador: Busca desenvolver formas do computador trabalhar com a visão bidimensional e
tridimensional. Hoje os estudos estão voltados à técnica de visão onminidirecional.
– Reconhecimento de padrões: A capacidade de reconhecimento de padrões permite ao programa reconhecer
a fala em linguagem natural, os caracteres digitados e a escrita (ex.: assinatura). Os scanner, por exemplo,
utilizam programas de reconhecimento óptico desenvolvidos pelas pesquisas em IA.
– Processamento de linguagem natural: É o estudo voltado para a construção de programas capazes de
compreender a linguagem natural (interpretação) e gerar textos a partir de um conteúdo semântico re-
presentado internamente no próprio programa. Objetiva aperfeiçoar a comunicação entre as pessoas e os
computadores.
• Com relação ao raciocı́nio (solução de problemas), mapeia da percepção à ação.
– representação do conhecimento;
– pesquisa e otimização;
– máquina de aprendizado: Existem programas de IA que conseguem aprender certos fatos por meio da
experiência, desde que esse conhecimento possa ser representado de acordo com o formalismo adotado
pelo programa.
– teoria da decisão;

19 de fevereiro de 2009 3 Prof. Wagner Toscano


IA Introdução

– teoria dos jogos;


– planejamento;
Como exemplo genérico nesta classe tem-se a programação de jogos. A programação de jogos é o estudo voltado
para a construção de programas de jogos envolvendo raciocı́nio. Os jogos computadorizados exibem um tipo de
inteligência capaz de desafiar as habilidades do jogador. O jogo de xadrez, por exemplo, foi utilizado para as
primeiras experiências em programação do raciocı́nio artificial, onde o computador se tornou capaz de analisar
milhões de jogadas por segundo para tentar derrotar o adversário. Além de analisar as jogadas, os programas
utilizam um método heurı́stico que consiste na utilização de uma árvore de busca, a mesma possui ramificações
a partir de certos nós, que representam pontos de decisão no caminho a tomar, com um certo número de etapas,
para chegar a um objetivo. Deste modo, ele pode analisar vários nós, de acordo com a situação atual do jogo,
e escolher o melhor caminho (o mais curto, o menos arriscado ou o mais vantajoso).
• Com relação à ação: Robótica: é o campo de estudo voltado para desenvolver meios de construir máquinas que
possam interagir com o meio (ver, ouvir e reagir aos estı́mulos sensoriais). A expressão robô vem do tchêco
robota, significa trabalhador, foi criada por Karel Capek, em 1917. O primeiro robô industrial do mundo,
batizado de UNIMATE, surgiu em 1962, utilizado na GM no processo de produção.

Exemplos de sistemas de IA
Alguns exemplos de sistemas IA, com base nos mecanismos de percepção, raciocı́nio e ação:

• IA no futebol [7]:
Soluciona problemas complexos, freqüentemente envolvendo múltiplos agentes em ambientes dinâmicos e que
necessitam de aprendizado por feedback além de ter conhecimento prévio background knowledge. O futebol de
robô é um exemplo da execução de muitas tarefas complexas, nas quais múltiplos agentes, em um ambiente
diverso, devem colaborar para atingir um objetivo especı́fico.
• COG [6]:
O MIT, na cidade de Cambridge, Estados Unidos, projetou o robô denominado de Cog. Composto por um
conjunto de sensores e atuadores (64 microcomputadores, de última geração), que tenta aproximar as dinâmicas
sensoriais e motoras de um corpo humano, com exceção das pernas e uma coluna flexı́vel, possui o controle
sobre os graus de liberdade do tronco, cabeça e braços. Possui visão, sob a forma de câmeras de vı́deo, audição e
tato. As mãos, propriamente ditas, estão sendo construı́das, bem como um sistema de vocalização, O objetivo,
inicial, de Cog era aprender, simulando o comportamento equivalente de um recém nascido de 6 meses e evoluir,
cognitivamente, como um ser humano. Devendo reconhecer uma mulher de verdade, relacionando-a à figura
materna.

• Kismet [3]:
Robô de expressões faciais, também do MIT. Desenvolvido para simular emoções humanas por meio de ex-
pressões faciais, representadas por meio de movimento de orelhas, sobrancelhas, pálpebras, lábios, mandı́bula
e cabeça.
A visão é simulada por 4 câmeras CCD. Câmeras CCD são micro câmeras na faixa de 0.1 3.0Lux, quanto
menor melhor; possuem ı́ris eletrônica semelhante à visão humana, isto é compensa o excesso de claridade em
lugares com pouca luz; a resolução está na faixa de 420Tvl 470Tvl, quanto maior melhor. A disposição dessas
câmeras fornecem uma visão estéreo, auxiliando na decisão no que deverá prestar mais atenção, para estimar
uma distância.
Os movimentos das câmeras são obtidos por servo motores DC, que permitem três nı́veis de movimento dos
olhos.
O dispositivo auditivo é simulado por um microfone. Softwares, desenvolvidos no MIT pela Spoken Language
Systems Group, pode processar as freqüências emitidas em tempo real

• Xavier [9]:
Xavier é um robô desenvolvido sobre uma arquitetura composta de múltiplos robôs independentes, e de dife-
rentes tipos, de tal forma que trabalhem em conjunto como uma equipe. Esse processo de trabalho é denominado
Arquitetura de Robôs Distribuı́da (Distributed Robôt Architecture).

19 de fevereiro de 2009 4 Prof. Wagner Toscano


Modelos de Inteligência Artificial
View publication stats

A seguir uma pequena relação dos modelos de inteligência artificial [4].


Algoritmos Genéticos : É um modelo para o aprendizado da máquina, inspirado no livro “Origem das Espécies,
através da Seleção Natural”, escrito pelo naturalista inglês Charles Darwin (1809-1882), criador da teoria
evolucionista, segundo a qual somente os mais aptos sobrevivem. Algoritmo genético é um método utilizado
pelos Algoritmos Evolutivos, que inclui o estudo dos algoritmos genéticos, estratégia de evolução, programação
evolutiva e sistemas classificatórios. Os algoritmos genéticos foram criados por Jonh Holland (1975), objetivam
emular operadores genéticos (especı́ficos, como crossing-over, mutação e reprodução) da mesma forma como é
observado na natureza. Isso é feito criando-se dentro da máquina uma população de indivı́duos representados
por cromossomas. Os indivı́duos passam por um processo simulado de evolução, seleção e reprodução, gerando
uma nova população.
Programação Evolutiva : Campo da IA concebido por Lawrence J. Fogel (1960), assemelha-se aos algoritmos
genéticos, sendo que é dado maior ênfase na relação comportamental entre os parentes e seus descendentes. As
soluções para os problemas são obtidas por meio tentativas e transmitidas para a nova população (simulada
em programas).
Lógica Fuzzy : Também denominada de Conjuntos Difusos ou Lógica Nebulosa. Foi estruturada por Lofti Zadeh da
University of Califórnia, no ano de 1965. É uma metodologia que serve para representar, manipular e modelar
informações incertas.
Sistemas Baseados em Conhecimento : São sistemas que implementam comportamentos inteligentes de espe-
cialistas humanos.
Programação Genética : É um campo de estudo da IA voltado para a construção de programas que visam imitar
o processo natural da genética. Trabalha com métodos de busca aleatória.
Raciocı́nio Baseado em Casos : É o campo de estudo da IA que utiliza uma grande biblioteca de casos para
consulta e resolução de problemas . Os problemas atuais são resolvidos, através da recuperação e consulta de
casos já solucionados e da conseqüênte adaptação das soluções encontradas. Por exemplo, o Sistema CASEY,
que faz o diagnóstico em pacientes cardı́acos baseado na consulta de arquivos de pacientes com o mesmo
diagnóstico.
Redes Neurais Artificiais : Possui várias denominações, como redes neuronais, modelo conexista, neurocom-
putação, modelo de processamento paralelo distribuı́do, sistemas neuromórficos e computadores biológicos.
Autômatos Celulares : São simulações computacionais que tentam emular a suposta maneira pela qual as leis da
natureza funcionam. A idéia utópica é a de que nosso complexo mundo pode ser governado por um conjunto
pequeno de regras simples.

Referências
[1] BALCH, Tucker; HAIGH, Karen. Video Proceedings of the AAAI-98 Mobile robôt Exhibition,
http://www.aaai.org/Press/Proceedings/AAAI/1998/
robôtvideo98.html, 1998.
[2] BARKER-PLUMMER, David Turing Machines. Disponı́vel em: http://plato.stanford.edu/entries/turing-machine/.
Acessado em 09/01/2008.
[3] KERSHAW, Mike KISMET. MIT, Cambridge. Disponı́vel em: http://www.kismetwireless.net. Acessado em:
09/01/2008.
[4] LIMA, Cynthia Moreira. Introdução à inteligência artificial. Disponı́vel em:
http://cynthia m lima.sites.uol.com.br/ia.html. Acessado em:09/01/2008.
[5] LUGER, George F.; STUBBLEFIELD, William A. Artificial Intelligence: Structures and Strategies for Complex
Problem Solving. Addison-Wesley, 1998.
[6] MENZEL, Peter Cog. MIT, Cambridge. Disponı́vel em: http://www.ai.mit.edu/projects/humanoid-robotics-group/cog/.
Acessado em: 09/01/2008.
[7] ROBINSON, Paul FIRA ROBOT FOOTBALL. University of Plymouth. Disponı́vel em:
http://www.tech.plym.ac.uk/robofoot/. Acessado em: 09/01/2008.
[8] RUSSELL,S NORVIG, P Artificial Intelligence: A Modern Approach. Prentice-Hall, 1995.
[9] SIMMONS, Reid Xavier. Carnegie Mellon University Robotics Institute, Pittsburgh. Disponı́vel
em:http://www.ri.cmu.edu/projects/project 91.html. Acessado em: 09/01/2008.