Você está na página 1de 2

Chapter - 2

History of AI

Uma Breve História da IA: Ao longo da história humana, as pessoas usaram a tecnologia
para se modelar. Há evidências disso na China, Egito e Grécia antigos que atestam a
universalidade dessa atividade. Cada nova tecnologia, por sua vez, foi explorada para
construir agentes inteligentes ou modelos mentais. Mecanismos de relojoaria, sistemas
hidráulicos, de comutação telefônica, hologramas, computadores analógicos e digitais foram
todos propostos tanto como metáforas tecnológicas para a inteligência quanto como
mecanismos para modelar a mente.

Cerca de 400 anos atrás, as pessoas começaram a escrever sobre a natureza do


pensamento e da razão. Hobbes (1588–1679), que foi descrito por Haugeland [1985, p. 85]
como o “Avô da IA”, defendeu a posição de que pensar era um raciocínio simbólico, como
falar em voz alta ou elaborar uma resposta com caneta e papel. A ideia de raciocínio
simbólico foi posteriormente desenvolvida por Descartes (1596-1650), Pascal (1623-1662),
Spinoza (1632-1677), Leibniz (1646-1716) e outros que foram pioneiros na filosofia da
mente.
A ideia de operações simbólicas tornou-se mais concreta com o desenvolvimento dos
computadores. O primeiro computador de uso geral projetado (mas não construído até
1991, no Science Museum of London) foi o Analytical Engine de Babbage (1792-1871). No
início do século 20, muito trabalho foi feito para entender a computação. Vários modelos de
computação foram propostos, incluindo a máquina de Turing de Alan Turing (1912-1954),
uma máquina teórica que escreve símbolos em uma fita infinitamente longa, e o cálculo
lambda de Church (1903-1995), que é um formalismo matemático para reescrever fórmulas.
Pode-se mostrar que esses formalismos muito diferentes são equivalentes no sentido de
que qualquer função computável por um é computável pelos outros. Isso leva à tese de
Church-Turing: Qualquer função efetivamente computável pode ser realizada em uma
máquina de Turing (e assim também no cálculo lambda ou qualquer um dos outros
formalismos equivalentes).
Aqui, efetivamente computável significa seguir operações bem definidas; “Computadores”
na época de Turing eram pessoas que seguiam etapas bem definidas e os computadores
como os conhecemos hoje não existiam. Esta tese afirma que toda computação pode ser
realizada em uma máquina de Turing ou em uma das outras máquinas computacionais
equivalentes. A tese de Church-Turing não pode ser provada, mas é uma hipótese que
resistiu ao teste do tempo. Ninguém construiu uma máquina que executasse cálculos que
não pudessem ser computados por uma máquina de Turing. Não há evidências de que as
pessoas possam calcular funções que não sejam computáveis ​por Turing. As ações de um
agente são uma função de suas habilidades, sua história e seus objetivos ou preferências.
Isso fornece um argumento de que a computação é mais do que apenas uma metáfora para
a inteligência; raciocínio é computação e a computação pode ser realizada por um
computador.
Depois que os computadores reais foram construídos, algumas das primeiras aplicações
dos computadores foram programas de IA. Por exemplo, Samuel [1959] construiu um
programa de damas em 1952 e implementou um programa que aprende a jogar damas no
final dos anos 1950. Newell e Simon [1956] construíram um programa, Logic Theorist, que
descobre provas em lógica proposicional. Além disso, para o raciocínio simbólico de alto
nível, também houve muito trabalho sobre o aprendizado de baixo nível inspirado em como
os neurônios funcionam. McCulloch e Pitts [1943] mostraram como um simples “neurônio
formal” de limiar poderia ser a base para uma máquina de Turing-completa. O primeiro
aprendizado para essas redes neurais foi descrito por Minsky [1952]. Um dos primeiros
trabalhos significativos foi o Perceptron de Rosenblatt [1958]. O trabalho com redes neurais
entrou em declínio por vários anos após o livro de 1968 de Minsky e Papert [1988], que
argumentava que as representações aprendidas eram inadequadas para uma ação
inteligente.
Esses primeiros programas concentravam-se no aprendizado e na pesquisa como
fundamentos do campo. Ficou claro desde o início que um dos principais problemas era
como representar o conhecimento necessário para resolver um problema. Antes de
aprender, um agente deve ter um idioma alvo adequado para o conhecimento aprendido.
Tem havido muitas propostas para representações, desde representações simples
baseadas em recursos até representações lógicas complexas de McCarthy e Hayes [1969]
e muitas outras, como os quadros de Minsky [1975]. Durante as décadas de 1960 e 1970,
teve-se sucesso na construção de sistemas de compreensão de linguagem natural em
domínios limitados. Por exemplo, o programa STUDENT de Daniel Bobrow [1967] poderia
resolver problemas de álgebra do ensino médio expressos em linguagem natural. O sistema
SHRDLU de Winograd [1972] poderia, usando linguagem natural restrita, discutir e realizar
tarefas em um mundo de blocos simulados. O CHAT-80 [Warren e Pereira, 1982] poderia
responder a questões geográficas colocadas a ele em linguagem natural. A Figura 1.2
mostra algumas perguntas que o CHAT-80 respondeu com base em um banco de dados de
fatos sobre países, rios e assim por diante. Todos esses sistemas só podiam raciocinar em
domínios muito limitados usando voca restrita bulary e estrutura da frase.
Durante as décadas de 1970 e 1980, houve um grande volume de trabalho em sistemas
especialistas, onde o objetivo era capturar o conhecimento de um especialista em algum
domínio para que um computador pudesse realizar tarefas de especialista. Por exemplo,
DENDRAL [Buchanan e Feigenbaum, 1978], desenvolvido de 1965 a 1983 no campo da
química orgânica, propôs estruturas plausíveis para novos compostos orgânicos. MYCIN
[Buchanan e Shortliffe, 1984], desenvolvido de 1972 a 1980, diagnosticou doenças
infecciosas do sangue, prescreveu terapia antimicrobiana e explicou seu raciocínio. As
décadas de 1970 e 1980 também foram um período em que o raciocínio da IA se espalhou
em linguagens como Prolog [Colmerauer e Roussel, 1996; Kowalski, 1988]. Durante os
anos 1990 e 2000, houve um grande crescimento nas subdisciplinas da IA, como
percepção, raciocínio probabilístico e teórico da decisão, planejamento, sistemas
incorporados, aprendizado de máquina e muitos outros campos

Você também pode gostar