Escolar Documentos
Profissional Documentos
Cultura Documentos
Recife
2011
GUSTAVO MAGALHÃES PEREIRA
Recife
2011
SUMÁRIO
ALAN TURING................................................................................................................ 04
CLAUDE SHANNON...................................................................................................... 09
Alan Turing
Aplicando esta descoberta ao seu gosto por explosivos, von Neumann provou que a
maneira mais eficaz de realizar operações mineiras como minar uma lua inteira ou
uma cintura de asteróides seria usar máquinas auto-replicativas, aproveitando o seu
crescimento exponencial. von Neumann foi um dos pioneiros da computação, tendo
feito grandes contribuições para o desenvolvimento do design lógico, que Shannon
resume do seguinte modo:
Von Neumann passou parte considerável dos seus últimos anos de vida a
trabalhar na teoria dos autômatos. Representava para ele uma síntese do seu
interesse inicial em lógica e teoria das demonstrações, e do seu posterior trabalho,
durante e após a Segunda Guerra Mundial, em computadores eletrônicos em larga
escala. Envolvendo uma mistura de matemática pura e aplicada bem como outras
ciências, a teoria dos autômatos era um campo ideal para o intelecto abrangente de
von Neumann. Ele trouxe-lhe várias perspectivas novas e abriu pelo menos duas
novas direções de pesquisa.
Ainda no campo da ciência da computação, Donald Knuth cita von Neumann
como o inventor do algoritmo Mergesort, em 1945, cujo objetivo é criar uma
sequência ordenada a partir de outras duas já ordenadas. Para tal, divide-se a
sequência original em pares de dados, e ordena-se. Depois, agrupa-se em
sequências de quatro elementos, e assim por diante até a sequência original estar
separada em apenas duas partes. Este é um exemplo de algoritmo de ordenação do
tipo “dividir-para-conquistar”, cujos passos do algoritmo são: 1- A sequência a
ordenar é dividida em duas; 2- Conquistar: cada uma das metades é ordenada
independentemente; 3- Combinar: as duas metades são juntas numa sequência
ordenada. O seu algoritmo para simular uma moeda equilibrada usando uma moeda
viciada é usado na etapa de Software Whitening de alguns geradores de números
aleatórios.
Também se aventurou na resolução de problemas na hidrodinâmica numérica
e com R.D. Richtmyer desenvolveu um algoritmo sobre viscosidade artificial que
contribuiu para a compreensão das ondas de choque. Sem esse trabalho,
provavelmente não compreenderíamos muita da astrofísica atual e não teríamos
desenvolvido os motores de jacto e de foguete. A viscosidade artificial foi um truque
matemático usado para atenuar ligeiramente a transição de choque, uma vez que os
computadores, ao resolverem problemas de hidrodinâmica ou aerodinâmica, têm
tendência para por demasiados pontos na grelha em regiões de descontinuidade
acentuada (ondas de choque).
Claude Shannon
Claude Elwood Shannon (o pai do bit) nasceu nos USA em 1916. Formou-se
em Matemática e Engenharia Elétrica na Universidade de Michigan, e fez seu
mestrado e doutorado no MIT. Trabalhou a maior parte de sua vida nos Laboratórios
Bell e, após uma rapidíssima vida de professor, aposentou-se com cerca de 50
anos. Ainda é vivo e ativo intelectualmente (poderíamos dizer que, principalmente,
financeiramente uma vez que tem dedicado-se a desenvolver programas de análise
do sistema financeiro de Wall Street e com os quais acabou formando um imenso
capital). Apesar de sua vida extremamente reclusa e estar afastado dos meios
acadêmicos é um dos mais famosos matemáticos vivos. Este pequeno trabalho
objetiva lhe dar uma idéia da razão dessa fama.
Motivado por necessidades de cálculos militares em balística, o Prof. Bush do
MIT construiu em 1930 um potentíssimo computador analógico eletro-mecânico: o
analisador diferencial de Bush. Na época era o computador mais potente em
existência no mundo. Contudo, como todo computador analógico, era uma máquina
capaz de resolver um único tipo de problema, no caso: equações diferenciais.
Apesar disso, tinha duas inovações que mais tarde foram decisivas para a invenção
dos computadores eletrônicos digitais : usava componentes eletrônicos e tinha certa
capacidade de programação (era capaz de resolver qualquer equação diferencial
dada desde que suas componentes fossem reconfiguradas em função dessa).
Nessa época, Shannon trabalhava como assistente de Bush e esse sugeriu-lhe que
tentasse fazer um estudo matemático procurando descobrir o princípio que
possibilitava o funcionamento da máquina construída um tanto quanto
empiricamente. Shannon dedicando-se ao problema, descobriu que os circuítos
baseados em relays tinham seus estados de ON ou OFF regidos pelas leis da
Algebra de Boole. Mais do que isso, fazendo as associações: ON - verdadeiro - 1 e
OFF - falso - 0. Foi capaz de mostrar como construir circuítos baseados em relays e
capazes de realizar cada uma das quatro operações aritméticas.
Hoje, em plena Era da Informática, poucas pessoas são capazes de se dar
conta de quanto enraizado estava o sistema de numeração decimal na mente dos
engenheiros da época. Shannon, além de provar a possibilidade de se construir um
computador totalmente eletrônico, foi o primeiro a atinar que os respectivos circuítos
ficavam muito mais simples (e mais baratos) com o abandono do sistema decimal
em favor do sistema binário.
Após a Segunda Guerra começaram a se multiplicar as tecnologias de
transferência de informação. Contudo, não havia uma teoria que fosse capaz de
quantificar a quantidade de informação que precisava ser transportada. Por
exemplo, os engenheiros de então achavam que seria apenas uma questão de
progresso tecnológico se conseguir transmitir mensagens telegráficas com maior
velocidade do que se podia fazer na época. Shannon (em 1948) criou uma teoria,
hoje fundamental no trabalho cotidiano em Engenharia de Comunicações e
chamada Teoria da Informação, que mostrou que cada canal de comunicações (seja
ele um fio telegráfico, fio telefônico, cabo axial ou etc) tem uma velocidade limite
característica. Por exemplo, cada linha telefônica permite transmitir dados até uma
certa velocidade de transmissão. Se precisarmos usar uma velocidade maior
teremos de usar um canal de maior velocidade limite, por exemplo um cabo de fibras
ópticas. Se insistirmos usar a linha telefônica em velocidades maiores do que seu
limite teremos uma transmissão cada vez mais poluída por erros. Hoje, esse
fenômeno é até facilmente constatável por qualquer um que use seu
microcomputador e modem para fins de comunicação.
A Teoria de Informação que Shannon construiu, contudo, transcende em
muito as aplicações em comunicações. Shannon mostrou que aos elementos
básicos do trabalho científico, massa e energia, precisamos acrescentar um terceiro:
a informação. Mais do que isso, usando a Teoria das Probabilidades, Shannon
mostrou como medir a quantidade de informação. Sempre dando preferência ao
sistema de numeração binário, introduziu a unidade de medida de informação: o bit:
binary digit.
Dizemos que recebemos um bit de informação quando ficamos sabendo qual,
dentre duas alternativas equiprováveis, a que efetivamente ocorreu.
Por exemplo: recebemos um bit de informação quando soubermos qual o resultado
do lance de uma moeda, não viciada. No instante que os cientistas passaram a ter
condições de medir não apenas massa e energia mas também a informação
passaram a investigar uma gama enorme de novos fenômenos nas ciências
biológicas, sociais, etc. Os engenheiros puderam desenvolver uma grande
quantidade de novas tecnologias de comunicações.