Você está na página 1de 10

UNIVERSIDADE ESTÁCIO DE SÁ

GUSTAVO MAGALHÃES PEREIRA

Pais da computação (Alan Turing, John von Neumann e Claude Shannon)

Recife
2011
GUSTAVO MAGALHÃES PEREIRA

Pais da computação (Alan Turing, John von Neumann e Claude Shannon)

Trabalho de pesquisa da disciplina


Organização de Computadores da
Universidade Estácio de Sá do curso de
Sistemas de Informação.
Orientador: Prof. Márcio Nogueira.

Recife
2011
SUMÁRIO

ALAN TURING................................................................................................................ 04

JOHN VON NEUMANN.................................................................................................. 06

CLAUDE SHANNON...................................................................................................... 09

Alan Turing

Alan Mathison Turing foi um matemático, lógico, criptoanalista e cientista da


computação britânico. Foi influente no desenvolvimento da ciência da computação e
proporcionou uma formalização do conceito de algoritmo e computação com a
máquina de Turing, desempenhando um papel importante na criação do moderno
computador.
Durante a Segunda Guerra Mundial, Turing trabalhou para a inteligência britânica
em Bletchley Park, num centro especializado em quebra de códigos. Por um tempo
ele foi chefe de Hut 8, a seção responsável pela criptoanálise da frota naval alemã.
Planejou uma série de técnicas para quebrar os códigos alemães, incluindo o
método da bombe, uma máquina eletromecânica que poderia encontrar definições
para a máquina Enigma. Após a guerra, trabalhou no Laboratório Nacional de Física
do Reino Unido, onde criou um dos primeiros projetos para um computador de
programa armazenado, o ACE.
Mais para o fim de sua vida, Turing tornou-se interessado em química. Escreveu um
artigo sobre a base química da morfogênese e previu as reações químicas
oscilantes como a reação Belousov-Zhabotinsky, que foram observadas pela
primeira vez na década de 1960.
A homossexualidade de Turing resultou em um processo criminal em 1952 -
os atos homossexuais eram ilegais no Reino Unido na época, e ele aceitou o
tratamento com hormônios femininos, castração química, como alternativa à prisão.
Morreu em 1954, algumas semanas antes de seu aniversário de 42 anos, devido a
um aparente auto-administrado envenenamento por cianeto, apesar de sua mãe (e
alguns outros) ter considerado a sua morte acidental. Em 10 de setembro de 2009,
após uma campanha de internet, o primeiro-ministro britânico Gordon Brown fez um
pedido oficial de desculpas público, em nome do governo britânico, devido à maneira
pela qual Turing foi tratado após a guerra.
A maior parte de seu trabalho foi desenvolvida na área de espionagem e, por isso,
somente em 1975 veio a ser considerado o Pai da informática.
Dedicava-se a teoremas que podiam ser comprovados, e à Teoria da
Computabilidade. A sua preocupação depois de formado era o que se poderia fazer
através da computação. Suas respostas iniciais vieram sob a forma teórica.
Consagração
Aos 24 anos de idade, consagrou-se com a projeção de uma máquina que, de
acordo com um sistema formal, pudesse fazer operações computacionais. Mostrou
como um simples sistema automático poderia manipular símbolos de um sistema de
regras próprias. A máquina teórica de Turing pode indicar que sistemas poderosos
poderiam ser construídos. Tornou possível o processamento de símbolos, ligando a
abstração de sistemas cognitivos e a realidade concreta dos números. Isto é
buscado até hoje por pesquisadores de sistemas com Inteligência Artificial (IA). Para
comprovar a inteligência artificial ou não de um computador, Turing desenvolveu um
teste que consistia em um operador não poder diferenciar se as respostas a
perguntas elaboradas pelo operador eram vindas ou não de um computador. Caso
afirmativo, o computador poderia ser considerado como dotado de inteligência
artificial. Sua máquina pode ser programada de tal modo que pode imitar qualquer
sistema formal. A ideia de computabilidade começou a ser delineada.
Devido a todos esses feitos, Alan Turing é tido como o Pai da ciência da
computação.
Em 1943, sob sua liderança foi projetado o Colossus, computador inglês que
foi utilizado na Segunda Guerra Mundial. Utilizava símbolos perfurados em fitas de
papel que processava a uma velocidade de 25 mil caracteres por segundo. O
Colossus tinha a missão de quebrar códigos alemães ultra-secretos produzidos por
um tipo de máquina de codificação chamada Enigma. Os códigos mudavam
frequentemente, obrigando a que o projeto do Colossus devesse tornar a decifração
bastante rápida. Turing foi depois até os EUA para um projeto de transmissão de
dados transatlânticos de forma segura.
Como homossexual declarado, no início dos anos 1950 foi humilhado em público,
impedido de acompanhar estudos sobre computadores, julgado por "vícios
impróprios" e condenado a terapias à base de estrogénio, um hormônio feminino o
que, de fato, equivalia a castração química e que teve o humilhante efeito
secundário de lhe fazer crescer seios.
Em 8 de junho de 1954, um criado de Turing encontrou-o morto, o que tinha ocorrido
no dia anterior, em sua residência em Wilmslow, Cheshire. Um exame estabeleceu
que a causa da morte foi envenenamento por cianeto. Quando seu corpo foi
descoberto, uma maçã estava meio comida ao lado de sua cama e embora a maçã
não foi testada quanto ao cianeto especula-se que este foi o meio pelo qual uma
dose fatal foi ingerida. Um inquérito determinou que ele tinha cometido suicídio,
tendo sido então cremado no crematório de Woking em 12 de junho de 1954.
A mãe de Turing argumentou que a ingestão foi acidental, causada pelo
armazenamento descuidado de seu filho de produtos químicos de laboratório. O
biógrafo Andrew Hodges, sugere que Turing pode ter se matado deliberadamente de
forma bastante ambígua para dar à sua mãe alguma negação plausível. Outros
sugerem que Turing estava encenando uma cena do filme Branca de Neve, de 1937,
seu conto de fadas favorito, salientando que ele tinha "um prazer especialmente
mordaz na cena em que a bruxa malvada mergulha a maçã na poção venenosa."
Parte de sua vida foi retratada no telefilme Breaking the Code de 1996 com o ator
Derek Jacobi no papel principal.

John von Neumann

John von Neumann foi um matemático húngaro de etnia judaica, naturalizado


estadunidense. Contribuiu na teoria dos conjuntos, análise funcional, teoria ergódica,
mecânica quântica, ciência da computação, economia, teoria dos jogos, análise
numérica, hidrodinâmica das explosões, estatística e muitas outras as áreas da
Matemática. De fato é considerado um dos mais importantes matemáticos do século
XX.
Foi membro do Instituto de Estudos Avançados em Princeton, New Jersey, do
qual também faziam parte Albert Einstein e Erwin Panofsky, quando emigraram para
os Estados Unidos, além de Kurt Gödel, Robert Oppenheimer, George F. Kennan e
Hermann Weyl. Com Edward Teller e Stanislaw Ulam, von Neumann trabalhou em
desenvolvimentos chave da Física Nuclear, relacionados com reações
termonucleares e com a bomba de hidrogênio. Participou também do Projeto
Manhattan, responsável pelo desenvolvimento das primeiras bombas atômicas.
Foi professor na Universidade de Princeton e um dos construtores do ENIAC.
Entre os anos de 1946 e 1953, von Neumann integrou o grupo reunido sob o nome
de Macy Conferences, contribuindo para a consolidação da teoria cibernética junto
com outros cientistas renomados: Gregory Bateson, Heinz von Foerster, Kurt Lewin,
Margaret Mead, Norbert Wiener, Paul Lazarsfeld, William Ross Ashby, Claude
Shannon, Erik Erikson e Max Delbrück, entre outros. von Neumann faleceu pouco
depois, aos 53 anos, vítima de um tumor cerebral.
John von Neumann propôs que as instruções, lidas na época por cartões
perfurados, fossem gravadas na memória do computador; o que faria sua execução
e leitura mais rápidas, uma vez que se davam eletronicamente. Neumann contribuiu
para a construção dos computadores de forma grandiosa, pois, ainda hoje a maioria
destas máquinas seguem o modelo inventado pelo mesmo.
Em meados da década de 30, Johnny estava fascinado pelo problema da
turbulência hidrodinâmica. Foi então que tomou consciência dos mistérios
subjacentes ao tema das equações diferenciais parciais não lineares. O seu
trabalho, desde o início da Segunda Guerra Mundial, foca o estudo das equações da
hidrodinâmica e da teoria dos choques. Os fenômenos descritos por estas equações
não lineares são analiticamente estranhos e desafiam mesmo a visão qualitativa dos
métodos presentes. O trabalho numérico parecia-lhe o caminho mais promissor para
obter uma ideia do comportamento destes sistemas. Isto impeliu-o a estudar as
novas possibilidades da computação em máquinas eletrônicas.
O projecto da bomba de hidrogénio teve, portanto, uma grande importância no
desenvolvimento da computação, uma vez que von Neumann e Stanislaw Ulam
desenvolveram simulações no computador digital de von Neumann, usado para
computações hidrodinâmicas. Durante esse período, contribuiu para o
desenvolvimento do método de Monte Carlo, que permitia a aproximação de
problemas complexos através de números aleatórios. Uma vez que usar listas de
números aleatórios verdadeiros tornava o ENIAC extremamente lento, von Neumann
desenvolveu uma maneira de criar números pseudo-aleatórios, usando o middle
square method (na verdade, este não é um método muito eficaz, pois o seu período
é muito curto e tem defeitos graves. Von Neumann estava consciente destes
defeitos do método, mas para os seus objetivos o método era rápido e os seus erros
fáceis de detectar.) Logo após von Neumann ter se interessado pelo ENIAC, a
escola Moore solicitou e recebeu um contrato para o desenvolvimento de um
computador mais potente, denominado EDVAC. Enquanto era consultor da Moore
School of Electrical Engineering sobre o EDVAC (Electronic Discrete Variable
Automatic Calculator), um dos primeiros computadores eletrônicos binários e
sucessor do ENIAC, von Neumann escreveu um artigo intitulado First Draft of a
Report on the EDVAC, no qual propunha um computador composto por uma
estrutura simples mas fixa com um controlo programado, que seria capaz de
executar qualquer comando sem haver necessidade de se alterar o hardware (a sua
ideia era a técnica do programa-guardado).
O relatório sobre o EDVAC se tornou um dos primeiros documentos a
descrever a disposição interna e os princípios de funcionamento dos computadores
modernos. Ao assinar tal relatório com o seu nome de matemático prestigiado, von
Neumann conferiu-lhe uma audiência e uma legitimidade inesperadas, muito úteis
para obter os créditos militares, mas, ao mesmo tempo, atribuiu a si próprio toda a
glória da invenção do computador. Ainda que tenha sido um personagem importante
na história da computação, a atribuição desse mérito a von Neumann ignora o
trabalho de seus colaboradores, contemporâneos e até predecessores, que
igualmente trabalharam no desenvolvimento do computador.
Sugeria a existência de uma instrução máquina, chamada conditional control
transfer, que permitia a interrupção e reinício do programa em qualquer ponto da
computação. Sugeria igualmente guardar programas na mesma unidade de memória
que os dados, o que permitiria que as instruções fossem aritmeticamente
modificadas do mesmo modo que os dados. Uma unidade central de
processamento, composta pela unidade de controlo e por uma ou mais unidades de
execução, extrairia quer dados quer instruções da memória, operando sobre elas e
devolvendo-as de novo à memória. O resultado era muito mais rápido, a
programação e computação mais eficientes, pois permitiam que as instruções
fossem escritas como sub-rotinas que não requeriam uma nova programação para
cada novo problema (as rotinas mais longas podiam ser alteradas por partes, sendo
os resultados intermédios guardados na memória e sendo usados para o resultado
final).
Quer a implementação das componentes físicas independentes, quer as
interações entre elementos, têm variado ao longo do tempo, dependendo das
tecnologias de fabrico, mas a sua arquitetura mantém-se. Tal arquitetura de
memória única tornou-se conhecida como arquitetura de von Neumann, apesar de a
sua concepção ter envolvido J. Presper Eckert ou John William Mauchly, inventores
do ENIAC, e é utilizada em quase todos os minicomputadores, microcomputadores e
computadores domésticos. Para além da criação de uma nova arquitetura de
computadores, von Neumann também criou os autômatos celulares sem a ajuda de
computadores: nos anos 1940, estudava sistemas auto-replicativos e enfrentava
algumas dificuldades em explicitar o modelo inicial de um robot que fosse capaz de
se copiar sozinho a partir de um conjunto de peças separadas. Stanislaw Ulam,
colega de von Neumann que na altura modelava o crescimento de cristais usando
uma grelha, sugeriu-lhe que se inspirasse nos seus trabalhos para ultrapassar o
problema. Baseando-se numa grelha bidimensional na qual cada célula podia estar
num de 29 estados distintos, von Neumann criou um modelo matemático abstrato
para o seu problema, um “copiador e construtor universal”, que se tornou no primeiro
autômato celular auto-replicante. Uma vez mais se comprova que von Neumann ia
inventando a matemática à medida das suas necessidades e dá crédito ao que
diziam sobre ele: “Matemáticos em geral, provam o que são capazes de provar. Von
Neumann prova o que quer.”

Aplicando esta descoberta ao seu gosto por explosivos, von Neumann provou que a
maneira mais eficaz de realizar operações mineiras como minar uma lua inteira ou
uma cintura de asteróides seria usar máquinas auto-replicativas, aproveitando o seu
crescimento exponencial. von Neumann foi um dos pioneiros da computação, tendo
feito grandes contribuições para o desenvolvimento do design lógico, que Shannon
resume do seguinte modo:
Von Neumann passou parte considerável dos seus últimos anos de vida a
trabalhar na teoria dos autômatos. Representava para ele uma síntese do seu
interesse inicial em lógica e teoria das demonstrações, e do seu posterior trabalho,
durante e após a Segunda Guerra Mundial, em computadores eletrônicos em larga
escala. Envolvendo uma mistura de matemática pura e aplicada bem como outras
ciências, a teoria dos autômatos era um campo ideal para o intelecto abrangente de
von Neumann. Ele trouxe-lhe várias perspectivas novas e abriu pelo menos duas
novas direções de pesquisa.
Ainda no campo da ciência da computação, Donald Knuth cita von Neumann
como o inventor do algoritmo Mergesort, em 1945, cujo objetivo é criar uma
sequência ordenada a partir de outras duas já ordenadas. Para tal, divide-se a
sequência original em pares de dados, e ordena-se. Depois, agrupa-se em
sequências de quatro elementos, e assim por diante até a sequência original estar
separada em apenas duas partes. Este é um exemplo de algoritmo de ordenação do
tipo “dividir-para-conquistar”, cujos passos do algoritmo são: 1- A sequência a
ordenar é dividida em duas; 2- Conquistar: cada uma das metades é ordenada
independentemente; 3- Combinar: as duas metades são juntas numa sequência
ordenada. O seu algoritmo para simular uma moeda equilibrada usando uma moeda
viciada é usado na etapa de Software Whitening de alguns geradores de números
aleatórios.
Também se aventurou na resolução de problemas na hidrodinâmica numérica
e com R.D. Richtmyer desenvolveu um algoritmo sobre viscosidade artificial que
contribuiu para a compreensão das ondas de choque. Sem esse trabalho,
provavelmente não compreenderíamos muita da astrofísica atual e não teríamos
desenvolvido os motores de jacto e de foguete. A viscosidade artificial foi um truque
matemático usado para atenuar ligeiramente a transição de choque, uma vez que os
computadores, ao resolverem problemas de hidrodinâmica ou aerodinâmica, têm
tendência para por demasiados pontos na grelha em regiões de descontinuidade
acentuada (ondas de choque).

Claude Shannon

Claude Elwood Shannon (o pai do bit) nasceu nos USA em 1916. Formou-se
em Matemática e Engenharia Elétrica na Universidade de Michigan, e fez seu
mestrado e doutorado no MIT. Trabalhou a maior parte de sua vida nos Laboratórios
Bell e, após uma rapidíssima vida de professor, aposentou-se com cerca de 50
anos. Ainda é vivo e ativo intelectualmente (poderíamos dizer que, principalmente,
financeiramente uma vez que tem dedicado-se a desenvolver programas de análise
do sistema financeiro de Wall Street e com os quais acabou formando um imenso
capital). Apesar de sua vida extremamente reclusa e estar afastado dos meios
acadêmicos é um dos mais famosos matemáticos vivos. Este pequeno trabalho
objetiva lhe dar uma idéia da razão dessa fama.
Motivado por necessidades de cálculos militares em balística, o Prof. Bush do
MIT construiu em 1930 um potentíssimo computador analógico eletro-mecânico: o
analisador diferencial de Bush. Na época era o computador mais potente em
existência no mundo. Contudo, como todo computador analógico, era uma máquina
capaz de resolver um único tipo de problema, no caso: equações diferenciais.
Apesar disso, tinha duas inovações que mais tarde foram decisivas para a invenção
dos computadores eletrônicos digitais : usava componentes eletrônicos e tinha certa
capacidade de programação (era capaz de resolver qualquer equação diferencial
dada desde que suas componentes fossem reconfiguradas em função dessa).
Nessa época, Shannon trabalhava como assistente de Bush e esse sugeriu-lhe que
tentasse fazer um estudo matemático procurando descobrir o princípio que
possibilitava o funcionamento da máquina construída um tanto quanto
empiricamente. Shannon dedicando-se ao problema, descobriu que os circuítos
baseados em relays tinham seus estados de ON ou OFF regidos pelas leis da
Algebra de Boole. Mais do que isso, fazendo as associações: ON - verdadeiro - 1 e
OFF - falso - 0. Foi capaz de mostrar como construir circuítos baseados em relays e
capazes de realizar cada uma das quatro operações aritméticas.
Hoje, em plena Era da Informática, poucas pessoas são capazes de se dar
conta de quanto enraizado estava o sistema de numeração decimal na mente dos
engenheiros da época. Shannon, além de provar a possibilidade de se construir um
computador totalmente eletrônico, foi o primeiro a atinar que os respectivos circuítos
ficavam muito mais simples (e mais baratos) com o abandono do sistema decimal
em favor do sistema binário.
Após a Segunda Guerra começaram a se multiplicar as tecnologias de
transferência de informação. Contudo, não havia uma teoria que fosse capaz de
quantificar a quantidade de informação que precisava ser transportada. Por
exemplo, os engenheiros de então achavam que seria apenas uma questão de
progresso tecnológico se conseguir transmitir mensagens telegráficas com maior
velocidade do que se podia fazer na época. Shannon (em 1948) criou uma teoria,
hoje fundamental no trabalho cotidiano em Engenharia de Comunicações e
chamada Teoria da Informação, que mostrou que cada canal de comunicações (seja
ele um fio telegráfico, fio telefônico, cabo axial ou etc) tem uma velocidade limite
característica. Por exemplo, cada linha telefônica permite transmitir dados até uma
certa velocidade de transmissão. Se precisarmos usar uma velocidade maior
teremos de usar um canal de maior velocidade limite, por exemplo um cabo de fibras
ópticas. Se insistirmos usar a linha telefônica em velocidades maiores do que seu
limite teremos uma transmissão cada vez mais poluída por erros. Hoje, esse
fenômeno é até facilmente constatável por qualquer um que use seu
microcomputador e modem para fins de comunicação.
A Teoria de Informação que Shannon construiu, contudo, transcende em
muito as aplicações em comunicações. Shannon mostrou que aos elementos
básicos do trabalho científico, massa e energia, precisamos acrescentar um terceiro:
a informação. Mais do que isso, usando a Teoria das Probabilidades, Shannon
mostrou como medir a quantidade de informação. Sempre dando preferência ao
sistema de numeração binário, introduziu a unidade de medida de informação: o bit:
binary digit.
Dizemos que recebemos um bit de informação quando ficamos sabendo qual,
dentre duas alternativas equiprováveis, a que efetivamente ocorreu.
Por exemplo: recebemos um bit de informação quando soubermos qual o resultado
do lance de uma moeda, não viciada. No instante que os cientistas passaram a ter
condições de medir não apenas massa e energia mas também a informação
passaram a investigar uma gama enorme de novos fenômenos nas ciências
biológicas, sociais, etc. Os engenheiros puderam desenvolver uma grande
quantidade de novas tecnologias de comunicações.

Você também pode gostar