Você está na página 1de 3

A Linha do tempo da IA- Inteligência Artificial

Não há dúvidas de que vivemos na “era da Inteligência Artificial”, em um ano completamente atípico, como
o de 2020/2021, ela pôde mostrar todo seu potencial nos mais diversos âmbitos, destacando-se como um
elemento fundamental e necessário para a sociedade e a economia.
Para termos uma idéia de como a IA vem se desenvolvendo ao longo dos anos, vamos descrever sucintamente
as principais fases de pesquisa nessa área.
A IA é uma área na Ciência da Computação responsável por simular a inteligência e o comportamento
humano usando apenas máquinas. Indo um pouco na contramão do imaginário comum estimulado pelos
filmes de ficção científica, o objetivo da Inteligência Artificial é de executar atividades humanas desde as
mais simples até as mais complexas, como dirigir um carro

1308: As Rodas da O poeta e teólogo catalão Ramon Llull publica sua Ars Magna Generalis
Inteligência Ultima (Suprema Arte Geral), aperfeiçoando seu método de usar meios
mecânicos baseados em rodas de papel para criar novos conhecimentos a
partir de combinações de conceitos.
1666: O conhecimento O matemático e filósofo Gottfried Leibniz publica Dissertatio de Arte
combinatório Combinatoria, seguindo Ramon Llull ao propor um alfabeto do pensamento
humano e argumentando que todas as idéias poderiam ser vistas como
combinações de um número relativamente pequeno de conceitos simples.
Sua ambição era chegar à characteristica universalis, a linguagem perfeita
para se obter uma representação direta das ideias.
Início dos anos 1700: O Representações de máquinas oniscientes semelhantes a computadores
Engine começam a ser mais amplamente discutidas na literatura popular. O romance
“Viagens de Gulliver”, de Jonathan Swift, mencionava um dispositivo
chamado Engine, que pode ser considerado uma das primeiras referências à
tecnologia moderna, especificamente a um computador.
1936: A Máquina de O matemático britânico Alan Turing propõe o primeiro modelo de um
Turing computador universal, conhecido como como “máquina de Turing”, que é
capaz de executar processos cognitivos, desde que eles possam ser divididos
em múltiplos passos individuais e representados por um algoritmo. Ao
publicar suas ideias, Turing estabelece as bases para o que chamamos da
computabilidade e da inteligência artificial moderna

1943 Warren McCulloch e Walter Pitts criam um modelo computacional para


redes neurais baseadas em matemática e algoritmos denominados lógica de
limiar.
1956: A história No verão de 1956, os cientistas se reuniram para uma conferência no
contemporânea começa e Dartmouth College, em New Hampshire. Eles acreditavam que aspectos da
o termo “IA” é cunhado aprendizagem, bem como outras características da inteligência humana,
pudessem ser simulados por máquinas. O cientista John McCarthy propõe
chamar a essa aventura de “inteligência artificial”. O primeiro programa de
inteligência artificial do mundo, Logic Theorist – que conseguiu demonstrar
várias dezenas de teoremas matemáticos – foi escrito durante a conferência.
Frank Rosenblatt costrói A estrutura básica de uma rede neural é chamada de "perceptron". As redes
o perceptron (1957) neurais de hoje, rodando em computadores poderosos, conectam bilhões
dessas estruturas. Mas os perceptrons existiam muito antes dos
computadores. No fim da década de 1950, um psicólogo chamado Frank
Rosenblatt construiu um modelo eletromecânico chamado Mark I
Perceptron, que hoje fica no museu Smithsonian
1958 Frank Rosenblatt cria o Perceptron, um algoritmo para o reconhecimento de
padrões baseado em uma rede neural computacional de duas camadas usando
simples adição e subtração. Ele também propôs camadas adicionais com
notações matemáticas, mas isso não seria realizado até 1975.
Em 1959, o termo O termo Machine Learning — em português, aprendizado de máquina —
Machine Learning surgiu pela primeira vez, descrevendo um sistema que dá aos computadores
a capacidade de aprender algumas funções sem que sejam programados para
tal fim. Traduzindo, alimentar um algoritmo com dados, para que a máquina
aprenda a executar algo automaticamente.
1966: Nascimento do ELIZA, o primeiro programa de computador para processamento de
primeiro chatbot linguagem natural, foi criado em 1966 no Laboratório de Inteligência
Artificial do MIT por Joseph Weizenbaum. ELIZA representa diálogos entre
um usuário humano e um psicoterapeuta Rogeriano artificial. A simplicidade
dos meios necessários para que ELIZA crie a ilusão de um parceiro de
conversação humana é surpreendente, e ajuda o sonho de se chegar à IA.
1970: Por duas décadas, o A partir dos anos 70, apesar de algum otimismo, a indústria da IA entra em
“Inverno da IA” um período descrito como AI Winter, ou “Inverno da IA”. A frase foi tirada
do “Inverno Nuclear”, uma teoria segundo a qual explosões nucleares
apagariam o sol com fumaça e poeira, causando a queda das temperaturas
globais, congelando a terra e extinguindo a humanidade. De fato, durante o
Inverno da IA as atividades comerciais e científicas ligadas à IA diminuíram
drasticamente. De certo modo, a IA ainda está se recuperando do inverno
que durou quase duas décadas.’
1980 Kunihiko Fukushima propõe a Neoconitron, uma rede neural de hierarquia,
multicamada, que foi utilizada para o reconhecimento de caligrafia e outros
problemas de reconhecimento de padrões.
1989 1989: os cientistas conseguiram criar algoritmos que usavam redes neurais
profundas, mas os tempos de treinamento para os sistemas foram medidos
em dias, tornando-os impraticáveis para o uso no mundo real.
1992 Juyang Weng publica o Cresceptron, um método para realizar o
reconhecimento de objetos 3-D automaticamente a partir de cenas
desordenadas.
1997: Um computador O computador Deep Blue da IBM derrota o então campeão mundial de
vence o campeão mundial xadrez Garry Kasparov em um torneio. Este é considerado um sucesso
de xadrez histórico em uma área anteriormente dominada por seres humanos. Os
críticos, no entanto, encontraram falhas no Deep Blue, que no fundo ganhou
por mera força bruta, calculando todos os movimentos possíveis, ao invés de
trabalhar com inteligência cognitiva
2000 Meados dos anos 2000: o termo “aprendizagem profunda” começa a ganhar
popularidade após um artigo de Geoffrey Hinton e Ruslan Salakhutdinov
mostrar como uma rede neural de várias camadas poderia ser pré-treinada
uma camada por vez.
2009 Acontece o NIPS Workshop sobre Aprendizagem Profunda para
Reconhecimento de Voz e descobre-se que com um conjunto de dados
suficientemente grande, as redes neurais não precisam de pré-treinamento e
as taxas de erro caem significativamente.
2011: “Watson” da IBM O programa de computador Watson compete em um programa de perguntas
vence um show de na televisão dos EUA sob a forma de um símbolo animado na tela, e vence
perguntas os jogadores humanos. Ao fazê-lo, o Watson mostrou ser capaz de entender
a linguagem natural, e ser capaz de responder rapidamente a perguntas
complexas.
2012 Algoritmos de reconhecimento de padrões artificiais alcançam desempenho
em nível humano em determinadas tarefas. E o algoritmo de aprendizagem
profunda do Google é capaz de identificar gatos.

2014 O Google compra a Startup de Inteligência Artificial chamada DeepMind,


do Reino Unido, por £ 400m

2015: A advertência Elon Musk, Stephen Hawking e Steve Wozniak, entre outros 3.000 cientistas
e cidadãos do mundo todo, assinam uma carta aberta pregando a proibição
do desenvolvimento e uso de armas autônomas (para fins de guerra).
2015-2017: AlphaGo O sistema AlphaGo do Google DeepMind, um programa de computador
baseado em redes neurais especializado no jogo de tabuleiro Go, derrota
vários campeões humanos.
AlphaGo é tido por muitos como um verdadeiro triunfo da IA. Mas será
realmente inteligente um sistema que aprende com milhares de repetições e
não oferece nenhuma explicação para o que faz?
2017: O debate simbólico Iniciou um grande debate em duas vertentes da IA. Por um lado, a
versus conexionista Inteligência Artificial simbólica, conhecida como Good Old Fashioned AI
(GOFAI), ou “Boa e Antiquada IA”, utiliza strings (sequências ou cadeias
de símbolos) que representam entidades ou conceitos do mundo real O
grande assunto do momento é o Machine Learning, ou aprendizado de
máquina, que em geral combina o enfoque simbólico e o conexionista. A
proposta é criar algoritmos de autoaprendizado para permitir que
desenvolvedores e programadores resolvam problemas sem criar modelos
específicos.
Referencias Uma brevíssima história da Inteligência Artificial: de Leibniz a Turing, e até
hoje. Disponível em https://modal.org.br/2019/08/uma-brevissima-historia-
da-inteligencia-artificial-de-leibniz-a-turing-e-ate-hoje/ acesso aos
22/10/2021
Aluna CELIA MARIA LIMA MENDES DA ROCHA

Você também pode gostar