Você está na página 1de 126

JOS OCTVIO DE CARVALHO PINEDA

A ENTROPIA SEGUNDO CLAUDE SHANNON:


O DESENVOLVIMENTO DO CONCEITO FUNDAMENTAL
DA TEORIA DA INFORMAO

So Paulo 2006

JOS OCTVIO DE CARVALHO PINEDA

A ENTROPIA SEGUNDO CLAUDE SHANNON:


O DESENVOLVIMENTO DO CONCEITO FUNDAMENTAL
DA TEORIA DA INFORMAO

Dissertao apresentada Banca Examinadora


da Pontifcia Universidade Catlica de So
Paulo, como exigncia parcial para obteno do
ttulo de mestre em Histria da Cincia sob a
orientao do Prof. Dr. Jos Luiz Goldfarb.

Pontifcia Universidade Catlica


So Paulo 2006

Aprovao da Banca Examinadora:

_____________________________
_____________________________
_____________________________

A Beatriz.

Agradecimentos

Ao Prof. Dr. Jos Luiz Goldfarb, pela orientao e incentivo;


ao Prof. Dr. Luiz Carlos Petry, pelas referncias valiosas;
aos Professores do Programa, pela iniciao;
ERM Brasil, seus colaboradores e gestores, pelas oportunidades;
a Terezinha e Christian, pela leitura atenta e paciente;
a minha famlia, pelo apoio e compreenso.

Resumo

Esta dissertao tem por objetivo investigar as origens do conceito de


Entropia formulado por Claude Shannon no desenvolvimento da Teoria da
Informao, bem como as influncias que este e outros conceitos da mesma
teoria tiveram em outras cincias, em especial a Fsica.
Partindo de sua origem na Mecnica Estatstica, o conceito de Entropia foi
transformado numa medida de quantidade de informao por Shannon. Desde
ento, a abordagem proposta pela Teoria da Informao influenciou outras
reas do conhecimento, e ocorreram vrias tentativas de integr-la s teorias
fsicas. A anlise das obras dos principais formuladores da Teoria da
Informao, colocadas em seu contexto histrico, aliada anlise das propostas
de integrao desta teoria com a Fsica permitir demonstrar que a interao
atual entre as reas ainda se d ao nvel de abordagem dos problemas fsicos, e
no numa forma mais fundamental como era a expectativa de alguns cientistas.

Palavras-chave: Entropia, Teoria da Informao, Mecnica Estatstica,


Fsica, Cincia do Sculo XX, Segunda Guerra Mundial, Telecomunicaes,
Criptografia, Claude Shannon.

Abstract

This dissertations objective is to investigate the origins of the concept of


Entropy as defined by Claude Shannon in the development of the Information
Theory, as well as the influences that this concept and other ones from the same
theory had over other sciences, especially in Physics.
Starting from its origin in Mechanical Statistics, the concept of entropy
was transformed into a measure of amount of information by Shannon. Since
then the approach proposed by Information Theory has influenced other areas
of knowledge and there were many attempts of integrating it with physical
theories. The analysis on Information Theory main authors works viewed under
a historical outlook, added to the analysis of proposals for its integration with
Physics will allow to demonstrate that the integration is currently at the level of
approach to physical problems and not at a more fundamental level as it was
some scientists expectation.

Keywords: Entropy, Information Theory, Statistical Mechanics, Physics,


20th Century Science, World War II, Telecommunications, Cryptography,
Claude Shannon.

Sumrio

INTRODUO ....................................................................................................................................... 8
1. FUNDAMENTOS DA TEORIA DA INFORMAO..................................................................... 14
1.1. ASPECTOS BIOGRFICOS E DO PENSAMENTO DE SHANNON ............................................................ 15
1.2. ORIGEM DO CONCEITO DE ENTROPIA USADO POR SHANNON .......................................................... 25
1.3. FUNDAMENTOS DE TEORIA DA INFORMAO ................................................................................. 28
1.4. APLICAES E VERIFICAO EXPERIMENTAL ................................................................................ 36
2. ENTROPIA E TEORIA DA INFORMAO .................................................................................. 42
2.1. CONTEXTO HISTRICO.................................................................................................................... 43
2.1.1. O Rdio .................................................................................................................................. 43
2.1.2. A Mquina Enigma ................................................................................................................ 51
2.1.3. Alan Turing ............................................................................................................................ 54
2.1.4. Telecomunicaes e Geopoltica............................................................................................ 57
2.2. BOLTZMANN E A ENTROPIA NA TEORIA DO GS ............................................................................. 61
2.2.1. O Teorema-H.......................................................................................................................... 66
2.2.2. Crtica Fenomenologia ........................................................................................................ 69
2.2.3. A Transio para o Estado Mais Provvel.............................................................................. 70
2.3. SHANNON E A TEORIA MATEMTICA DA COMUNICAO ............................................................... 73
2.3.1. O Problema de Engenharia..................................................................................................... 75
2.3.2. Modelo de um Sistema de Comunicao ............................................................................... 76
2.3.3. Entropia de Fontes Discretas.................................................................................................. 78
2.3.4. Codificao Eficiente, Redundncia e Compresso ............................................................... 82
2.4. WIENER E A ENTROPIA NA CIBERNTICA ........................................................................................ 89
2.5. O DILOGO CONFLITUOSO ENTRE A TI E A FSICA ......................................................................... 94
3. NOVAS PERSPECTIVAS E CONCLUSES ................................................................................ 101
3.1. ANTECEDENTES CONCEITUAIS E OUTRAS CORRELAES ............................................................. 102
3.1.1. Antecedentes no Pensamento Econmico ............................................................................ 104
3.1.2. Relaes com a Psicologia ................................................................................................... 108
3.2. CONCLUSES ................................................................................................................................ 111
BIBLIOGRAFIA ................................................................................................................................... 114
ICONOGRAFIA .................................................................................................................................... 119
ANEXOS................................................................................................................................................. 120
1. METODOLOGIA DA VERIFICAO EXPERIMENTAL........................................................................... 121
2. ALGORITMO DE GERAO DE ARQUIVOS COM DISTRIBUIO EQUIPROVVEL DE SMBOLOS ........ 123
3. CONTEDO DO CD-ROM ................................................................................................................ 124

Ilustraes

FIG. 1 - CLAUDE E. SHANNON, 1995.......................................................................................................... 15


FIG. 2 - CLAUDE SHANNON E THESEUS, DCADA DE 1950. ........................................................................ 21
FIG. 3 A REFLEXO DAS ONDAS ELETROMAGNTICAS EM FUNO DE SUAS FREQNCIAS..................... 46
FIG. 4 PATENTE NORTE-AMERICANA DA MQUINA ENIGMA, CONCEDIDA EM 1928. ............................... 51
FIG. 5 - UM EXEMPLAR DE MQUINA ENIGMA ........................................................................................... 52
FIG. 6 C&W GREAT CIRCLE MAP, CORTESIA DE CABLE & WIRELESS ARCHIVE, PORTHCURNO. ....... 58
FIG. 7 - DIAGRAMA ESQUEMTICO DE UM SISTEMA DE COMUNICAO .................................................... 77
FIG. 8 - VARIAO DA ENTROPIA NO CASO DE DUAS POSSIBILIDADES COM PROBABILIDADES P E (1-P) ..... 80

Introduo

As tecnologias digitais permeiam nosso cotidiano, estando presentes de


formas ora evidentes, ora sutis. Convivemos com suas bnos e maldies,
freqentemente ignorando os fundamentos cientficos que explicam e
viabilizam o funcionamento de todos os dispositivos a nos rodear e servir. A
Teoria da Informao, desenvolvida a partir da dcada de 1940, um dos
pilares da assim chamada Era Digital. A compreenso de seus conceitos
favoreceu o desenvolvimento de aplicaes jamais pensadas at ento, e
elevando ao nvel de cincia a atividade de engenheiros e tcnicos daquela
poca. Ainda, demonstrou formalmente como quantizar informao obtida de
fontes contnuas, fornecendo as bases tericas para a convergncia digital, que
no incio do sculo XXI comea a se materializar. A Teoria da Informao
tambm importante pela influncia que tem causado no pensamento cientfico
desde ento.
Qualquer atividade cientfica que passa a ter ampla aceitao corre os
riscos da notoriedade. Suas proposies podem ser simplificadas em excesso
para consumo popular, seus pensadores mais influentes podem ser elevados ao
status de precursores ou pais da cincia, e suas concluses podem ser
generalizadas de maneira imprpria noutras reas do conhecimento. Talvez o
exemplo acabado deste fenmeno seja a Mecnica Quntica: atualmente ela
invocada para explicar no apenas fenmenos subatmicos, mas por que a lua
est no lugar onde esperamos que ela esteja, e tambm por que o universo
conspira a nosso favor na literatura dita auto-ajuda. Outros exemplos, porm
limitados esfera acadmica, nos so dados por Sokal em Imposturas
Intelectuais, dentre os quais destaca o uso indevido da Matemtica, da Teoria
do Caos e da Prova de Gdel por pensadores de grande reputao.

Num grau menor que a Mecnica Quntica, o que acontece com a Teoria
da Informao: inicialmente destinada a resolver problemas de engenharia de
telecomunicao, ganhou aceitao quase que imediata das comunidades
tecnolgica e acadmica onde militava Claude Shannon, seu autor mais
influente. Desde ento, parece ter se tornado um modismo cientfico, tendo
influenciado outras reas como a Fsica, Qumica, Biologia e Economia. A
situao se propagou de tal forma que provocou a interveno de Shannon,
poucos anos aps a publicao de sua obra que causou tamanho furor, a Teoria
Matemtica da Comunicao. Num editorial publicado no principal peridico
de engenharia eltrica da poca, Shannon declarou-se surpreso com as
repercusses da Teoria, que estaria gerando contribuies significativas em
outras reas, mas alertou para o uso inconseqente dos conceitos e descobertas
que poderiam advir do modismo (bandwagon). A advertncia, como se sabe,
no foi completamente eficaz, o que parece ter contribudo para o afastamento
de Shannon da Teoria. Obviamente, a interao da Teoria da Informao com
outros saberes no nem imprpria nem indesejvel. De fato, tal interao tem
produzido trabalhos interdisciplinares interessantes, inclusive no Brasil1.
Talvez a Teoria da Informao trilhe o caminho da popularizao entre o
pblico leigo: bastaria a adeso de um punhado de celebridades cientficas e
algum apoio dos veculos de comunicao (atravs do jornalismo cientfico e dos
peridicos de divulgao cientfica). Vemos sinais desta tendncia ao
encontrarmos artigos de cientistas da estatura de Stephen Hawking e Leonard
Susskind sobre a possibilidade de um buraco negro consumir informao. De

Isaac Epstein, (Universidade Metodista de So Paulo) e Norbert Fenzl (Universidade Federal do Par)
produziram obras interessantes que sero citadas no devido tempo.

10

qualquer forma, a Informao pode vir a ser um novo paradigma da cincia,


uma vez que pensadores como Mrio Schenberg2 reconhecem sua importncia
na Fsica e antecipam uma possvel transformao.
A Teoria da Informao e sua histria so relativamente desconhecidas no
Brasil. Seja pelos interesses das elites dirigentes em formar mo-de-obra
tecnicamente capacitada ao invs de pensadores e cientistas, ou pelas
deficincias estruturais da Universidade, ou quaisquer outros motivos (os
motivos so importantes, mas no sero abordados neste trabalho), o fato que
a Teoria da Informao e seus principais autores so desconhecidos pelos
graduados em Cincias da Computao e pela elite profissional de Tecnologia da
Informao. Transcender o carter instrumental do saber nesta e em qualquer
rea ser sempre oportuno e desejvel, a menos que se pretenda dar
continuidade formao de tcnicos e tecnlogos que por vezes parece ser a
prioridade da formao universitria nos dias de hoje.
Numa obra de Histria da Cincia natural que as fronteiras entre
historiografia e cincia sejam elsticas. Como ensina Roberto Martins3, entre os
diversos nveis discursivos que uma obra de Histria da Cincia aceita, o
contedo cientfico em si vlido e relevante. Indo um pouco alm, este
trabalho incluir alguns contedos da cincia em questo, demonstrando que
algumas previses da Teoria da Informao so facilmente verificveis, e para
elucidar alguns aspectos controvertidos da teoria, especialmente da aparente
tenso que existe entre os pensadores da Comunicao e os Matemticos a

2
3

Schenberg expressa esta opinio em Pensando a Fsica.


Martins discorre sobre o tema em Cincia versus historiografia: os diferentes nveis discursivos nas
obras sobre histria da cincia, in A. M. Alfonso-Goldfarb & M. H. R. Beltran, orgs., Escrevendo a
histria da cincia: tendncias, propostas e discusses historiogrficas, pp. 115-45.

11

respeito da irrelevncia do contedo na determinao da quantidade de


informao de uma mensagem. Estas idias sero apresentadas j no captulo 1,
que tratar de alguns aspectos relevantes da vida, da personalidade e dos
trabalhos de Shannon; dos fundamentos da Teoria da Informao e suas
aplicaes; e da origem e significado do conceito de Entropia utilizado para
designar a quantidade de informao de uma mensagem, que conta com verses
contraditrias atribudas ao prprio Shannon.
O captulo 2 se iniciar com a histria da primeira metade do sculo XX,
com nfase aos desenvolvimentos cientficos e tecnolgicos que concorreram
para a elaborao da Teoria da Informao, colocados em funo do contexto
poltico e econmico. A nfase ser no desenvolvimento do rdio e sua
aplicaes militares, as quais empregavam maciamente tcnicas de criptografia
e criptologia, que tm muitos pontos em comum com a Teoria da Informao.
Alan Turing, o cientista cuja contribuio individual criptologia reconhecida
como mais relevante, teve uma breve interao com Shannon durante o curso
da Segunda Guerra Mundial, quando descobriram as similaridades de suas
idias e trabalhos. A seguir, tratar em maior profundidade a gnese do conceito
de Entropia empregado na Teoria da Informao: a Teoria dos Gases, de
Boltzmann, que define Entropia como uma medida estatstica de desordem
molecular, e a Entropia na Teoria Matemtica da Comunicao, de Shannon. O
conceito de Informao na Ciberntica de Wiener tambm ser considerado,
apesar de estar relacionado influncia de Szilard, o que leva a posies
irreconciliveis com a Teoria da Informao conforme proposta por Shannon.
Ainda neste captulo, sero abordadas as tentativas de generalizao dos
conceitos da Teoria da Informao na Fsica do sculo XX, em especial por

12

Brillouin (que se baseia em Szilard e Wiener), e algumas de suas contradies,


dificuldades e crticas. Tambm se abordar a liberdade com que se usam os
conceitos da Teoria da Informao na Fsica contempornea nos trabalhos de
Hawking, Preskill e Susskind, que parece fornecer uma nova alternativa de
abordagem de certas questes ao invs de uma estrutura formal consolidada.
Encerrando este trabalho, o captulo 3 tratar de novas perspectivas da
Teoria da Informao, iniciadas com o trabalho de integrao de Epstein para,
em seguida, indicar possveis antecedentes conceituais na Economia baseados
em alguns conceitos formulados por Adam Smith e Alfred Marshall. A seguir,
partindo da proposio de Vilfredo Pareto de que a Economia regida pelos
fenmenos psicolgicos, sero analisados alguns aspectos da Neuropsicologia de
Alexander Luria, cujas relaes com alguns fenmenos estudados pela Teoria da
Informao aparentemente no foram identificadas at hoje. Por fim, propor
uma abordagem mais ampla para o conceito de Entropia, antes da concluso em
si, que resumir as principais idias apresentadas ao longo da dissertao.
As obras primrias desta dissertao so: The Mathematical Theory of
Communication, de Claude Shannon; Lectures on Gas Theory, de Ludwig
Boltzmann; Cybernetics, de Norbert Wiener; Science and Information Theory,
de Leon Brillouin. Utiliza-se o sistema de notas numeradas para as referncias
(conforme definido no Manual de Estilo de Chicago), que costumeiramente
usado em Humanidades e Cincias Sociais.

13

1. Fundamentos da Teoria da Informao

14

1.1. Aspectos Biogrficos e do Pensamento de Shannon


Muito se tem escrito a respeito da vida e da obra de Claude Shannon.
Como geralmente acontece, mais destaque dado aos aspectos pitorescos de seu
comportamento de que a suas idias e motivaes, e suas obras so mais
celebradas do que entendidas4. Os aspectos de sua imagem pblica que aderem
ao esteretipo do cientista excntrico sero contextualizados em funo de seus
pensamentos e interesses. Ao abordar aspectos de sua biografia, pretende-se
destacar os aspectos relevantes de suas idias e motivaes, o que possivelmente
contribuir para uma melhor compreenso de sua obra e sua trajetria
acadmica. Como Shannon no registrou em suas obras suas idias filosficas, a
inferncia a partir de seus dados biogrficos e das poucas entrevistas que
concedeu parece constituir a nica forma de penetrar em suas convices.
Claude Elwood Shannon nasceu em 30 de
abril de 1916 em Petoskey, no estado de
Michigan, Estados Unidos, e faleceu em 24 de
fevereiro de 2001 de causas naturais. Passou
seus primeiros 16 anos na pequena cidade de
Gaylord, Michigan, e freqentou a escola
pblica onde sua me foi professora de lnguas
e diretora. Seu interesse por objetos mecnicos
se manifestou desde a infncia, e foram
Fig. 1 - Claude E. Shannon, 1995.

Este fenmeno pode ser atribudo popularidade de algumas de suas obras, em especial a Teoria
Matemtica a Comunicao. De fato, a Teoria da Informao teve grande repercusso na mdia em
geral, chegando a ser considerada mais importante que a Teoria da Relatividade na edio de
Dezembro de 1953 da revista Fortune. Para detalhes, consultar: O. Aftab et alii, Information Theory
after Shannon's 1948 Work, pp. 6-7.

15

inmeras as engenhocas que construiu para sua prpria diverso, como um


barco controlado por rdio e um telgrafo entre sua casa e a de um vizinho
usando um par de fios de arame farpado que rodeava um pasto. Tinha gosto por
jogos mentais, como a resoluo de criptogramas, adquirido pela leitura de O
escaravelho dourado, de Edgar Allan Poe, e similares. Ele admirava o inventor
Edison, e os cientistas Newton, Darwin, Einstein e Von Neumann5. Na
universidade, obteve dupla graduao em Matemtica e Engenharia, e
tornando-se Mestre em Engenharia e Doutor em Matemtica6. Profissional da
pesquisa cientfica e tecnolgica, ele trabalhou como pesquisador nos
Laboratrios Bell durante cerca de 15 anos a partir da dcada de 1940, at se
dedicar totalmente a sua atividade de docente no MIT. Sobre os tempos nos
Laboratrios Bell, recorda sua satisfao com as condies de trabalho que lhe
eram oferecidas:
Trabalhei nos Laboratrios Bell por quinze anos, e depois disso
tornei-me consultor deles. Eles me davam uma grande liberdade.
Para comear, podia-se trabalhar com o que se quisesse, em sua
prprias idias; eles no vinham e diziam trabalhe nisto! Pelo
menos, no para mim7.
Entretanto, em entrevista concedida a Robert Price, Shannon se contradiz
a respeito da pretensa liberdade que gozava nos Laboratrios Bell. Perguntado
sobre sua Teoria da Comunicao dos Sistemas de Sigilo, um trabalho
cientfico sobe criptografia com evidentes finalidades militares (e que contm
muito do contedo da posterior Teoria Matemtica da Comunicao), ele
afirma:

5
6
7

[s.a.], Biography of Claude Elwood Shannon, in C. E. Shannon, Collected Papers, p. xi.


Ibid., pp. xi-xii;
A. Liversidge, Profile of Claude Shannon, in C. E. Shannon, Collected Papers, pp. xxiii. Citao no
original: I worked at Bell Labs for fifteen years, and after that I was a consultant there. They gave you
great freedom. To begin with you could work on what you wanted, your own ideas; they didnt come
and say, work on this! At least, not to me.

16

Minha primeira motivao foi a teoria da informao, e eu usei a


criptografia como um meio de legitimar o trabalho8.
Em entrevista concedida a Anthony Liversidge, Shannon revela seus interesses e
motivaes. Segundo ele mesmo, desde menino ele apreciava jogos, no s os
que exigiam destreza fsica, mas tambm os que exigiam raciocnio: ele possua
estes atributos em graus elevados. Isto explica o gosto pelo malabarismo e pelas
invenes inteis (segundo seu prprio critrio9) que desenvolveu durante
toda a vida. Shannon afirma ser movido pela curiosidade e pelo prazer de
resolver problemas e aumentar seus conhecimentos; prmios e retorno
financeiro nunca foram suas intenes. Ele admite que sempre se envolveu com
atividades que considerava divertidas, o que inclui sua dissertao de
mestrado em engenharia eltrica (A Symbolic Analysis of Relay and Switching
Circuits), no qual estabelece a relao entre o mecanismo de chaveamento
eltrico de circuitos (usado nos computadores de ento) e a lgebra de Boole.
Resolver aquilo [relacionar a topologia dos circuitos de chaveamento
com a lgica booleana] foi muito divertido. Acho que me diverti mais
fazendo isso do que em qualquer outra coisa em minha vida, falando
em termos criativos10.
importante salientar que sua dissertao considerada um marco na
Cincia da Computao por ter provido os fundamentos necessrios para a
construo de computadores cada vez mais sofisticados11. At ento, as
mquinas de clculo mais poderosas eram analgicas, como o Analisador

9
10

11

R. Price, A conversation with Claude Shannon: one mans approach to problem solving, p. 124.
Citao no original: My first getting at that was information theory, and I used cryptography as a way
of ligitimizing the work.
Ibid., pp. xxiii.
Ibid., pp. xxii-xxvi. Citao no original: Working that out was a lot of fun. I think I had more fun
doing that than anything else in my life, creatively speaking.
Esta opinio compartilhada por alguns especialistas. Para mais detalhes, consultar: M. Waldrop,
Reluctant Father of the Digital Age, pp. 66-7; consultar tambm: UCSD-TV, Claude Shannon, Father
of the Information Age, depoimento de Andrew Viterbi.

17

Diferencial de Vannevar Bush, de quem Shannon foi assistente antes de obter


seu grau de Mestre em Engenharia Eltrica. Entretanto, os dispositivos
analgicos eram projetados e resolver problemas determinados (como resolver
parcial ou totalmente equaes diferenciais) e tinham limitaes de preciso,
pois se valiam de medies de propriedades fsicas macroscpicas. A
transformao dos processos de clculo da forma analgica para a digital
(contvel) atravs de formulao algbrica possibilitou fazer do computador
uma mquina programvel, ao mesmo tempo em que aumentava a preciso dos
resultados12.
Na mesma entrevista, Shannon rejeita as tentativas de transformar a
Teoria da Informao numa espcie de crena religiosa13, e declara suas
verdadeiras crenas. Ele se declara ateu, e afirma crer na teoria de Darwin e na
concepo de que os seres vivos nada mais so do que mquinas complexas.
Quanto s mquinas construdas pelo homem, ele pensa que um dia elas
podero ser aperfeioadas a ponto de superar os seres humanos em qualquer
atividade fsica ou intelectual14. Numa pergunta anterior, ele j havia declarado
sua crena na segunda lei da termodinmica, no Big-Bang e no aumento da
entropia em longo prazo (mesmo que, de forma localizada, ela possa decrescer
por algum tempo)15. interessante observar os pontos de contato de suas
crenas pessoais com o pensamento positivista em voga na poca, e sua total

12

13

14
15

Para uma anlise contextualizada sobre a longa transio da computao analgica para a digital,
consultar: P. Edwards, The Closed World: computers and the politics of disclosure in Cold War
America, pp. 66-70.
A este respeito, existem relatos de que na dcada de 1950 a Teoria da Informao era levada to a srio
a ponto de ser quase que como uma religio no M.I.T e em outras universidades norte-americanas. Os
adeptos da TI julgavam estar vivenciando um momento de transformao no qual diversos problemas
cientficos seriam resolvidos pela nova abordagem oferecida pela Teoria da Informao. Para mais
detalhes, consultar J. Gleick, Caos, a Criao de Uma Nova Cincia, pp. 245-7.
A. Liversidge, in C. E. Shannon, Collected Papers, p. xxx.
Ibid., p. xxviii.

18

concordncia com os princpios desenvolvidos por Boltzmann a respeito da


entropia e o universo16.
Os aspectos materialistas de seu pensamento podem ajudar a explicar seu
afastamento em relao Teoria da Informao. Para alguns, o afastamento
teria se dado pelo descontentamento com os rumos que a Teoria havia tomado:
a distoro de seus conceitos quando aplicados noutras disciplinas o
incomodava17. Soma-se a isto a averso a linhas de pensamento msticoreligiosas, que era a reao que o conhecimento da Teoria da Informao
provocava em muitos. O resultado pode ter causado em Shannon o desejo de
no mais participar de tais derivaes e digresses realizadas a partir de suas
idias. Sobre este assunto, respondendo a Liversidge se seu afastamento era
decorrente da exausto da teoria18, ele responde:
...eu apenas desenvolvi interesses diferentes19.
Entretanto, os motivos declarados por Shannon podem no ser os nicos.
Parecem haver indcios de que estava em curso uma disputa dentro da
sociedade de estudos da TMC, o PGIT20. O primeiro grupo era formado pelos
puristas, que defendiam o uso da TMC em assuntos tecnolgicos, enquanto
que no segundo grupo estavam os pesquisadores que defendiam as extenses da
teoria. Entre os puristas estavam Shannon, Wiener e Fano, que eram os
pesquisadores mais influentes do PGIT, e sendo que os dois primeiros eram
tidos como os criadores da rea. O descontentamento dos puristas parece no

16

17
18

19
20

O pensamento de Boltzmann a este respeito ser abordado mais adiante neste captulo, e com maior
profundidade no captulo 2.
M. Waldrop, op. cit., p. 71.
A. Liversidge, in C. E. Shannon, Collected Papers, p. xxviii. Segundo o entrevistador, Marvin Minsky
teria dito que todos os teoremas importantes da Teoria da Informao j tinham sido provados.
Ibid., p.71. Citao no original: ...I just developed different interests.
O Grupo Profissional da Teoria da Informao (PGIT) foi criado pelo Instituto de Engenheiros de
Rdio (IRE) para estimular a difuso, o debate e o desenvolvimento da Teoria da Informao.

19

estar apenas relacionado ao uso inadequado da TMC, mas tambm pela


manuteno da seriedade da rea, que contava com macio suporte financeiro
dos militares norte-americanos: alguns pesquisadores de outras reas estariam
modificando seus projetos para tentar inser-los na Teoria da Informao com o
propsito de obter verbas de pesquisa mais facilmente. O posicionamento de
Shannon, expresso no editorial The Bandwagon21 serviu para coibir os abusos,
mas pode ter abortado muitas tentativas srias de aplicao da TMC em outras
reas, uma vez que o prprio foro de debates passou a ser controlado pelo grupo
dominante22.
Debates sobre a Teoria da Informao e suas extenses tambm ocorriam
nas conferncias sobre ciberntica patrocinadas pela Fundao Macy. As
Confererncias Macy foram em nmero de dez, e ocorreram de 1946 a 1953
sob a coordenao de Norbert Wiener e John von Neumann, que reuniam um
seleto grupo multidisciplinar de pesquisadores para as apresentaes e
discusses. Os coordenadores estavam interessados em explorar as analogias
entre seres vivos e mquinas para, principalmente, possveis aplicaes
militares (como, por exemplo, a criao de sistemas de orientao para msseis
teleguiados)23. Shannon participou algumas vezes como convidado, e numa de
suas apresentaes ocorreu um intenso debate a respeito de um tipo particular
de extenso: a aplicao da TMC no nvel semntico da comunicao24. Noutra

21

22
23
24

O termo bandwagon empregado no sentido de modismo (ou, para usar um termo mais antigo e
direto, de coqueluche), ou seja, uma atividade qual indivduos se lanam simplesmente porque
outros tambm o fazem. O editorial, publicado no IRE IT Newsletter de Dezembro de 1953, pedia que
os assuntos fossem abordados com mais rigor matemtico e preferencialmente em aplicaes de
engenharia, embora reconhecesse que a Teoria da Informao pudesse contribuir noutras reas de
conhecimento. O estilo do texto elegante e conciliatrio, mas deixa clara a posio de Shannon em
favor da limitao da abrangncia da teoria.
O. Aftab et alii, Information Theory after Shannon's 1948 Work, pp. 8-12.
P. Edwards, op. cit., p. 189.
Ibid., pp. 203-4.

20

conferncia, Shannon apresentou Theseus, um camundongo eletrnico que


conseguia encontrar a sada de um labirinto. Foi uma das poucas vezes em que
uma mquina em funcionamento foi apresentada nestas conferncias25. Com
relao ao Theseus e suas engenhocas em geral, interessante notar que
Shannon parece subestimar a importncia delas em seu trabalho, referindo-se a
elas como divertidas ou inteis. No entanto, algumas delas constituram
demonstraes da viabilidade de suas idias (proof of concept), como caso
do Theseus e da mquina que jogava xadrez. Se Shannon age assim por
convico, por modstia ou por qualquer outro motivo uma questo para
futuras investigaes.

Fig. 2 - Claude Shannon e Theseus, dcada de 1950.

25

Ibid., p. 191.

21

interessante mencionar a breve interao Shannon com Alan Turing


durante a Segunda Guerra (que ser abordada no captulo 2), bem como sua
participao no Project X, que foi um projeto secreto conduzido pelos
Laboratrios Bell para a criptografia da voz humana. At ento, eram utilizados
mtodos analgicos de distoro de ondas sonoras, o que era pouco eficaz por
requerer apenas um ouvinte atento e paciente para entender o que se
transmitia. O Sistema X, ao contrrio, trabalhava com a quantizao das ondas
sonoras, sendo que ao resultado deste processo seriam adicionados valores
arbitrrios determinados por uma chave, que deveria ser de conhecimento
apenas do transmissor e do receptor da mensagem26. Este mtodo foi proposto e
descrito matematicamente por Shannon em sua Teoria da Comunicao dos
Sistemas de Sigilo (finalizada em 1945, mas mantida secreta at 1948), e
posteriormente na prpria TMC sem o componente criptogrfico. O
desenvolvimento do Sistema X propiciou a colaborao de Shannon no trabalho
de lingstica de Chomsky:
Shannon posteriormente trabalhou com Noam Chomsky, para quem a
Lingstica se tornou o estudo do humano como um Sistema X,
executando transformaes complexas sobre ncleos de
informao, decodificados por transformao reversa pelo ouvinte27.
Embora no tenhamos detalhes sobre este trabalho conjunto, certo que
Shannon exerceu alguma influncia no pensamento de Chomsky, que chegou a
publicar um artigo no IEEE Transactions on Information Theory28. Neste

26
27

28

Ibid., pp. 199-201.


Ibid., p. 202. Citao no original: Shannon later worked with Noam Chomsky, for whom linguistics
became the study of the human as X system, performing complex transformations on kernels of
information, decoded by reverse transformations by the listener.
O IEEE Transactions on Information Theory foi criado aps a fuso do IRE (Instituto dos
Engenheiros de Rdio) e do AIEE (Instituto Norte-Americano de Engenheiros Eltricos), gerando o
IEEE (Instituto de Engenheiros Eltricos e Eletrnicos). Para mais detalhes, consultar:
http://www.ieee.org/portal/pages/about/whatis/index.html.

22

trabalho, que foi previamente apresentado num simpsio de ciberntica em


1956, Chomsky questiona algumas premissas de Shannon na TMC no que diz
respeito a linguagens naturais29, ao mesmo tempo em que aplica conceitos
derivados do Sistema X, no que talvez possa ser considerada uma verso
preliminar de sua Gramtica Gerativa Transformacional30.
Concluindo: embora Shannon tenha declarado que tinha total liberdade
para escolher o tema de seu trabalho nos Laboratrios Bell, a escolha de
trabalhar com sistemas de sigilo talvez no tenha sido simples coincidncia
entre suas vontades e os interesses de seu empregador (determinados pelo
contexto da Segunda Guerra Mundial), caso contrrio no lhe teria sido preciso
mudar a abordagem de seu trabalho em teoria da comunicao para uma teoria
sobre criptografia. Parece lcito questionar se a liberdade no seria melhor
entendida como a possibilidade de trabalhar em qualquer um dos projetos em
curso nos Laboratrios Bell, somada ao ambiente informal e abundncia de
recursos tecnolgicos que eram oferecidas a seus pesquisadores mais
importantes.
Sobre o temperamento e a personalidade de Shannon, possvel supor que
sua criatividade parece estar bastante ligada busca de divertimento e
percepo de que muito de seu trabalho era diverso. Seu interesse pelo ldico e
seu temperamento jovial coexistiam com aspectos mais srios de sua

29

30

Segundo observa Verd, Chomsky discorda que as estatsticas das linguagens naturais podem ser
aproximadas to bem quanto se queira ao modelo das Cadeias de Markov. Para mais detalhes sobre
este comentrio, consultar: S. Verd, Fifty Years of Shannon Theory, in S. Verd & S. McLaughlin,
orgs., Information Theory 50 Years of Discovery, pp. 26-7. Para mais detalhes sobre a
argumentao e as propostas de Chomsky em questo, consultar: N. Chomsky, Three models for the
description of language, pp. 113-24.
P. Edwards, op. cit., p. 229. Miller sugere que Chomsky tenha se aproveitado da notoriedade da Teoria
da Informao para divulgar sua Gramtica Gerativa Transformacional. Para detalhes sobre esta
opinio no contexto da histria das Cincias Cognitivas, consultar: G. Miller, The cognitive
revolution: a historical perspective, p. 142.

23

personalidade, que se manifestam no formalismo de seus trabalhos, na


dedicao com que se empenhava em cada projeto, e na tenacidade com que
enfrentava cada desafio intelectual. Todos estes aspectos, exercidos em graus
elevados, somados a uma formao acadmica slida e oportunidade de
trabalhar com ampla liberdade, parecem ter sido decisivos para o pleno
exerccio de suas potencialidades31. No menos importante notar a rede de
relaes e de influncias mtuas estabelecidas entre Shannon e os mais
destacados cientistas de sua poca, em especial com Wiener, von Neumann e
Turing: cada um deles tinha objetivos especficos, mas todos atuavam na
soluo de problemas militares, em conformidade com o contexto histrico no
qual estavam inseridos.

31

As consideraes sobre caractersticas da personalidade de Shannon so anlises de senso comum


baseadas nos dados disponveis, e no devem ser tomadas como uma avaliao psicolgica
profissional.

24

1.2. Origem do Conceito de Entropia usado por Shannon


O conceito fsico de Entropia est relacionado tanto a um estado como a
uma tendncia: no primeiro caso, ao grau de desorganizao da matria; no
segundo, tendncia de desorganizao de toda matria. A Termodinmica
afirma que a entropia nunca diminui num sistema fechado, ou seja, seu grau de
desorganizao pode aumentar, mas jamais diminuir. Disto decorre que a
entropia um estado dinmico que varia em funo do estado inicial de
organizao da matria e do tempo, caracterizando um processo irreversvel. As
inmeras interpretaes e conseqncias fsicas e cosmolgicas so abrangentes
e profundas; entretanto, este trabalho impe que apenas os aspectos que mais
se relacionam com a Teoria da Informao sejam considerados, o que impe
abordar a entropia conforme pensada por Ludwig Boltzmann.
Boltzmann define a entropia em termos estatsticos dentro de um contexto
mecnico. Como se sabe, a estatstica estuda as propriedades de uma
amostragem ou populao, ou seja, de um conjunto finito de objetos. De fato,
impossvel

estudar

as

propriedades

macroscpicas

da

matria

pelas

caractersticas individuais de cada molcula. Assim sendo, a entropia que


Boltzmann define uma estatstica sobre uma quantidade de matria, ou seja,
um nmero que descreve as molculas coletivamente32. As dificuldades de se
chegar a uma frmula satisfatria so imensas: 1) as molculas tm vrias
propriedades fsicas, que so expressas por grandezas fundamentais, como
massa e extenso, e derivadas, como velocidade e momento (e, ainda, o
momento uma grandeza vetorial e a posio espacial expressa por 3

32

L. Brillouin, Science and Information Theory, p. 119.

25

distncias); 2) o domnio das grandezas derivadas das molculas contnuo, ou


seja, cada molcula pode apresentar infinitas velocidades e momentos33; 3) a
quantidade de molculas num sistema observvel muito grande para um
mapeamento individual34.
A abordagem de Boltzmann baseou-se numa proposio de Maxwell,
conhecida como Lei da Distribuio de Velocidades. A descrio do que
aconteceria dentro de um recipiente repleto de gs fornece a explicao: as
molculas, partindo de um estado inicial organizado (supondo que fossem
introduzidas no recipiente com a mesma velocidade), comeariam pouco a
pouco exibir variaes de suas velocidades individuais em decorrncia das
colises entre elas (no modelo, o choque com as paredes do recipiente foi
considerado como perfeitamente elstico, o que no mudaria a velocidade da
molcula que colidisse contra ela), at que atingisse um estado de desordem
mxima35. As velocidades que uma molcula pode assumir so infinitas, mesmo
que a variao entre a menor e a maior delas seja finita. Boltzmann prope que
o estado mais molecularmente desorganizado seria aquele em que a distribuio
das velocidades fosse homognea. conveniente notar que a distribuio das
velocidades, e no as velocidades em si, que so homogneas: velocidades
homogenias provocariam, ao contrrio, uma distribuio desigual de
velocidades.
A proposio de Boltzmann resulta em equaes integrais cuja resoluo
impraticvel (uma alternativa melhor surgiria posteriormente com Max Planck).

33

34
35

Como explica Penrose, para mapear posies e momenta necessrio um espao de fase de dimenso
6n, onde n o nmero de partculas. Para mais detalhes, consultar: R. Penrose, The road to reality: a
complete guide to the laws of the universe, pp. 217-21, 690-1.
Ibid., pp. 119-20.
L. Boltzmann, Lectures on Gas Theory, p. 36.

26

Segundo a teoria quntica, tomos e molculas no se encontram em qualquer


estado, mas somente em estados estveis discretos, sendo que a transio de um
estado para outro envolve absoro ou emisso de energia. A contagem destes
estados quantizados d a medida da entropia do sistema36. Ainda assim, a
determinao precisa da entropia continua impraticvel, o que levou ao
desenvolvimento de mtodos de clculo aproximados, atravs da criao de
amostras discretas de velocidade, ou seja, criando faixas de velocidades37.
interessante notar que Shannon empregou princpios semelhantes na Teoria
Matemtica da Comunicao quando formulou o mtodo de transformao de
sinais contnuos em discretos. Ele prope a diviso do continuum de sinais num
nmero grande, mas finito, de pequenas regies s quais se aplicariam os
mesmos clculos dos sinais contnuos38.

36
37

38

L. Brillouin, op. cit., p. 120.


O mtodo conhecido como coarse graining. Para mais detalhes, consultar: R. Penrose, op.cit., pp.
690-2.
C. Shannon, The Mathematical Theory of Communication, in C. Shannon & W. Weaver, The
Mathematical Theory of Communication, p. 81. Uma anlise mais aprofundada ser apresentada no
captulo 3.

27

1.3. Fundamentos de Teoria da Informao


A palavra informao tem vrios significados, e seu entendimento pode
ser to vago a ponto de se precisar conhecer o contexto em que empregada
para entend-la. Os principais autores adotam definies diferentes, baseadas
nas caractersticas que pretendem destacar. Georges Ifrah apresenta 26
diferentes definies de informao para tentar esboar uma nova definio
que contemplasse todos os aspectos importantes39. A falta de consenso tal que
Devlin prope em Logic and Information que no se d muita importncia
definio de informao, argumentando que tal definio seria prematura e que
ela seria possvel a seu tempo, semelhana de outros conceitos cientficos cujo
entendimento original diferia de maneira significativa do entendimento atual40.
Segundo Weaver, informao o grau de liberdade que se tem ao
selecionar uma mensagem, mas no a uma mensagem em si, mas considerandose todo o processo de seleo das possveis mensagens41. Ele, entretanto, adverte
que informao tem um sentido especfico na Teoria, e que no se deve
confundir informao com significado 42, reforando o que Shannon j havia
afirmado:
Freqentemente, as mensagens tm significado; isto , elas se referem
a, ou esto correlacionadas de acordo com, algum sistema com certas
entidades fsicas ou conceituais. Estes aspectos semnticos da

39
40

41
42

G. Ifrah, Histria universal dos algarismos, T. 2, pp. 805-14.


K. Devlin, Logic and Information, pp. 1-2. Para conhecer o pensamento de Devlin sobre informao,
interessante assistir ao vdeo de sua apresentao Does information really exist? no Simpsio de
Filosofia da Informao (Instituto de Lgica, Linguagem e Computao da Universidade de Amsterd,
2004) em: http://live.izi-services.nl/poi_kdevlin.
Ibid., p. 9.
W. Weaver, Some Recent Contributions to the Mathematical Theory of Communication, in C.
Shannon & W. Weaver, op. cit., p. 8. Citao no original: The word information, in this theory, is
used in a special sense that must not be confused with its ordinary usage. In particular, information
must not be confused with meaning.

28

comunicao so irrelevantes para o problema de engenharia. (grifo


do original) 43
Tratar a informao independente do sentido que ela possa ter uma
reduo ao nvel bsico de qualquer linguagem, uma vez que no ser tratada a
informao em si, mas sua codificao: isto garante que a informao possa ser
quantificada. Quanto ao significado da informao, parece lcito afirmar que ele
tenha algum grau de subjetividade: o significado depende de interpretao, o
que implica que uma mesma mensagem pode ter significados diferentes,
embora a informao transmitida seja a mesma. Por exemplo: na mensagem a
bolsa caiu a quantidade de informao sempre a mesma quer ela signifique
que uma valise foi acidentalmente jogada ao cho ou houve uma variao
negativa no ndice da bolsa de valores44. Alm das ambigidades, a
interpretao um processo influenciado pelas caractersticas do receptor,
como, por exemplo: o conhecimento da lngua em que a mensagem est
codificada, o conhecimento do tema ao qual a mensagem se refere, o interesse
que o receptor tem pelo assunto ou relevncia que ele atribui mensagem45.
Neste contexto, os conceitos de sinal e rudo deixam de ser precisos:
Se uma pessoa recebe algo (uma mensagem) por telefone, sendo que
ela considera uma parte (da mensagem) til e outra no, e se algum
quiser chamar a parte til de sinal, isto dificilmente ser um problema
matemtico46.

43

44

45

46

Ibid., p. 31. Citao no original: Frequently the messages have a meaning; that is they refer to or are
correlated according to some system with certain physical or conceptual entities. These semantic
aspects of communication are irrelevant to the engineering problem.
Extrair o significado de uma mensagem uma tarefa complexa que ainda no tem uma soluo
adequada: uma conseqncia disto o desempenho insatisfatrio dos softwares de traduo de textos,
e mesmo dos de correo ortogrfica.
A respeito das limitaes da linguagem escrita, consultar D. Olson, O mundo no papel: as implicaes
conceituais e cognitivas da leitura e da escrita, pp. 107-30.
C. Shannon, apud P. Edwards, op. cit., p. 204. Citao no original: if a person receives something
over a telephone, part of which is useful to him and part of which is not, and you want to call the useful
part the signal, that is hardly a mathematical problem.

29

Uma definio que parece aderir melhor essncia da Teoria da


Informao a de Isaac Epstein, que sintetiza o pensamento de Shannon de
forma objetiva e clara:
Informao uma reduo de incerteza, oferecida quando se obtm
resposta a uma pergunta47.
Tambm esclarecedora a explicao oferecida por Fenzl e Hofkirchner,
propondo uma de teoria unificada da informao, na qual informao se
relaciona com a identificao da diversidade:
O conceito de informao est intimamente relacionado com a idia
de transformao, emergncia da novidade. (grifos do original) 48
Antes de se receber uma mensagem, suposto que exista um conjunto
finito de mensagens possveis de serem recebidas, e que cada uma destas
mensagens tenha probabilidade de ocorrncia. Assim sendo, a incerteza quanto
informao a ser recebida diminui quando a mensagem recebida. O quanto
de incerteza que a mensagem recebida reduz est relacionado probabilidade
de sua ocorrncia: o recebimento de uma mensagem mais provvel tem menos
informao que uma mensagem menos provvel. Exemplificando: num informe
meteorolgico que prev as condies climticas na cidade de Macei,
ensolarado tem menos informao do que nevasca. Enquanto que o
recebimento da primeira mensagem no seja novidade para qualquer um que
esteja familiarizado com o clima do Nordeste brasileiro, o recebimento da
segunda mensagem ser genuinamente uma ocorrncia notvel.

47
48

I. Epstein, Teoria da Informao, p. 35.


N. Fenzl & W. Hofkirchner, Emmergence and Interaction of natural systems: the role of information,
energy and matter in the perspective of a Unified Theory of Information, p. 6. Citao no original:
The concept of information is closely related to the idea of transformation, emergence of
novelty.

30

Para Shannon, a descrio de processo genrico de comunicao inclui


agentes, recursos e mtodos. Numa anlise simplificada, temos: como agentes, o
Emissor e o Receptor; como recurso, o canal de comunicao e a codificao;
como mtodo, a codificao das mensagens em smbolos. O emissor, valendo-se
de um canal de comunicao, envia ao receptor uma mensagem codificada por
um processo conhecido por ambos os agentes. O processo de codificao
envolve a traduo da informao em smbolos discretos, retirados de um
repertrio de smbolos previamente acordado49. Shannon prope que a
quantidade de informao deve ser entendida como a entropia da mecnica
estatstica, e observa que a entropia tem caractersticas interessantes: medida
que a ocorrncia de um grupo de smbolos se torna mais provvel que a dos
outros sinais do repertrio, a entropia decresce. A entropia mxima s
atingida quando a ocorrncia de todos os smbolos equiprovvel (ou seja, no
existe tendncia de concentrao de probabilidades em algum grupo de
smbolos). Quando existe certeza sobre qual smbolo vai ser transmitido, a
entropia zero50. Utilizando os conceitos previamente expostos, lcito
entender que a quantidade de informao decresce quando ocorre uma
tendncia de concentrao das probabilidades de ocorrncia de certos smbolos,
ou seja, que o conjunto apresenta menor diversidade. No limite, quando no
houver diversidade no conjunto, a quantidade de informao ser nenhuma.
Shannon observa tambm que as mensagens usualmente transmitidas so
codificadas numa linguagem natural. Analisando a estrutura sinttica do idioma

49

50

C. Shannon, The Mathematical Theory of Communication, in C. Shannon & W. Weaver, op. cit.,pp.
33-5.
Ibid., pp. 50-1.

31

ingls, ele conclui que existe um alto grau de redundncia51. Redundncia


tudo aquilo que no fundamental para o entendimento de uma mensagem, e
pode ser entendida como uma medida complementar entropia, ou seja, a
quantidade de entropia que seria necessria para que a mensagem tivesse
entropia mxima. Neste sentido, aps definir que a entropia de uma mensagem
deve considerar as probabilidades de ocorrncia de todos os sinais da
mensagem, Shannon estabelece o conceito de entropia relativa, que a relao
entre a entropia da mensagem e a mxima entropia possvel52. A necessidade de
fazer sentido faz com que a lngua imponha construes (por exemplo:
regncias, concordncias, radicais) que fazem com que algumas palavras e letras
sejam mais provveis do que outras53. Obviamente, nem tudo que se pode
escrever faz sentido, resultando em que a eqiprobabilidade dos smbolos seja
impossvel: a entropia de um texto que tem significado jamais ser a maior
possvel. Curiosamente, a premissa de que o significado nada tem a ver com
informao passa a ter nova dimenso aps esta constatao: o significado
impede que a mensagem tenha informao codificada da forma mais eficiente.
Parece ser bastante improvvel que uma mensagem com significado possa
atingir a entropia mxima, a menos que seja relativamente curta (como um
provrbio, um hai-kai ou um limerick) a ponto de no permitir a repetio
de sinais: neste caso, a redundncia devida codificao, no ao significado.
Por outro lado, parece ser igualmente improvvel que qualquer mensagem com
entropia mxima possa ter significado: esta possibilidade s seria concebvel se
fosse possvel tomar qualquer mensagem deste tipo, rearranjar seus

51
52
53

Ibid., p. 56.
Ibid.
Ibid., pp. 39-40.

32

componentes numa ordem qualquer, e a mensagem ainda assim fizesse sentido


(qualquer que ele fosse)54.
A partir da definio de entropia relativa, Shannon formula o conceito de
Capacidade de Canal: num canal de transmisso qualquer, a velocidade nominal
do canal equivale entropia mxima que ele pode transmitir por unidade de
tempo. Isto ocorrer quando a mensagem tiver redundncia mxima. Neste
caso, necessrio distinguir as unidades de sinalizao das unidades de
informao: ambas so medidas em bits, porm um bit de sinalizao costuma
conter menos de um bit de informao, ou seja: um bit de sinalizao s
transportar um bit de informao quando sua entropia relativa for mxima55.
Como a motivao principal da Teoria Matemtica da Comunicao era
tecnolgica, Shannon aborda o problema fundamental da transmisso de
informaes: garantir que a mensagem enviada seja recebida sem erros. Erros,
segundo Shannon, so ocorrncias fortuitas que causam interferncias no canal
de comunicao, podendo fazer com que os sinais sejam corrompidos56. Ele
prope que o risco de corrupo de sinais numa mensagem seja mitigado pela
insero intencional de redundncia: deveriam ser adicionados sinais que
permitissem identificar se a mensagem foi corrompida. Tais sinais deveriam ser
calculados em funo dos sinais previamente enviados, sendo que o receptor
deveria realizar o mesmo clculo e, se a mensagem estiver ntegra, chegar ao

54

55
56

Ibid., pp. 40-4. Shannon prope um processo de gerao de mensagens baseado em probabilidades de
ocorrncias de letras e de palavras que demonstra a transio de um texto sem sentido para um texto
com algum sentido.
Ibid., pp. 59-61.
Ibid., pp. 65-6.

33

mesmo resultado57. Shannon tambm prope que seria possvel elaborar um


algoritmo de recuperao de erros, no que chamou de Codificao Eficiente58.
Shannon, at este ponto, tratou apenas as fontes de informao discretas,
que geralmente so formas de transmisso de textos por diferentes mtodos.
Para fontes contnuas, a situao diferente, pois a prpria codificao da
informao introduz rudo na mensagem. Shannon justifica esta situao pelo
fato de que uma fonte contnua necessitaria de um repertrio infinito de
smbolos, que por sua vez exigiria uma capacidade de transmisso infinita, o
que impossvel por na existir um canal livre de rudo. Desta forma, a
codificao de sinais de fontes contnuas , por definio, inexata. Com este
problema identificado, introduzido o conceito de fidelidade de reproduo,
que o grau de similaridade entre a informao obtida na fonte contnua com
sua representao em valores discretos59.
Em sntese, Shannon inicia a Teoria Matemtica da Comunicao
afirmando que a informao de uma mensagem pode ser mensurada por
quantidade que ele chamou de entropia, e que relacionada com a freqncia
dos smbolos transmitidos (os smbolos fazem parte de um repertrio finito, que
define a forma de codificao das mensagens). Ele adverte que a quantidade de
informao de uma mensagem independente de seu significado. Como
conseqncia da abordagem estatstica adotada, demonstra que a entropia zero
obtida quando existe a certeza da transmisso de um nico smbolo e, no caso
oposto, a entropia mxima obtida quando a freqncia dos smbolos
equiprovvel. Tendo resumido os principais conceitos da teoria, torna-se vivel

57
58
59

Ibid., pp. 66-70.


Ibid., p. 80.
Ibid., pp. 108-9.

34

citar as principais aplicaes decorrentes dela e conduzir uma breve verificao


experimental.

35

1.4. Aplicaes e Verificao Experimental


Uma aplicao que foi impulsionada pela Teoria Matemtica da
Comunicao a incluso de redundncia controlada nas transmisses e
armazenamento de informao para mitigar o risco de corrupo por rudos.
Como o prprio Shannon reconhece, outros cientistas j haviam se dedicado ao
problema da deteco e correo de erros e ele no gasta mais de que uma
pgina para abordar o assunto e coloc-lo no contexto de sua teoria. Devido
repercusso que a Teoria causou, de se supor que esta breve meno tenha
contribudo para despertar a ateno de outros para a questo60. Atualmente,
todos os protocolos de transmisso de dados contm algoritmos de verificao e
correo de erros, em geral uma variante do CRC61. No armazenamento de
informao digital, existem circuitos de verificao de erros em memria voltil
e sistemas RAID62 de tolerncia a erros para dados armazenados em baterias
(arrays) de discos rgidos.
O conhecimento da relao que existe entre entropia e freqncia
proporcionou a criao de algoritmos de compresso de dados. sabido que as
mensagens digitais transmitidas ou armazenadas so codificadas usando-se um
repertrio comum, que a tabela de caracteres ASCII63, que contem 256 valores

60

61

62

63

Para mais detalhes sobre a influncia da Teoria da Informao nas tcnicas de deteco e correo de
erros, consultar: http://en.wikipedia.org/wiki/Error_correcting_code.
CRC o acrnimo de cyclic redundant code e designa uma classe de algoritmos que geralmente
empregam equaes polinomiais na deteco e correo de erros. Para mais detalhes, consultar:
http://en.wikipedia.org/wiki/CRC-32.
RAID acrnimo de redundant array of independent disks e designa uma classe de sistemas de
tolerncia a falhas, que usa um conjunto de discos operando de forma sincronizada, e que permite a
continuidade do funcionamento em caso de falha de um dos discos. Para mais detalhes, consultar:
http://en.wikipedia.org/wiki/Redundant_Array_of_Independent_Disks.
Na verdade, usa-se uma variante ou extenso do padro ASCII. Existem outras formas de codificao,
como o EBCDIC, ainda empregada em redes privadas que usam computadores ditos de grande porte
(mainframe). Os padres ASCII e EBCDIC codificam o alfabeto latino e sinais grficos comuns;
outras lnguas necessitam de conjuntos diferentes. A despeito das origens independentes e

36

discretos, cada um correspondendo a uma letra, algarismo ou smbolo. A forma


original de qualquer contedo digital no considera a entropia existente em seu
contedo, o que significa que, em geral, a quantidade de bits gerados seja maior
que a entropia. A compresso de dados pode ser entendida como um processo
de eliminao de redundncia, ou de adequao do tamanho da mensagem
sua entropia.
Para que as predies da Teoria da Informao sejam verificadas
empiricamente, foi realizado o seguinte experimento: foram gerados 8 arquivos
de dados com extenso (tamanho) em bits idnticos (1 Megabyte, ou 1.048.576
octetos), mas com contedos diferentes; estes arquivos sero submetidos a 3
processos de compactao diferentes, e

suas extenses resultantes foram

comparadas com o tamanho original de forma a verificar se o contedo de cada


arquivo tem influncia na eficincia da compactao64. Detalhes da metodologia
encontram-se descritos no anexo 1.
A Teoria da Informao afirma que: 1) a entropia relacionada com a
freqncia dos smbolos transmitidos (ou armazenados); 2) a entropia zero
obtida quando existe a certeza da transmisso de um nico smbolo; 3) a

64

desenvolvimentos prprios, atualmente todas as formas de codificao so consideradas subconjuntos


do
padro
Unicode.
Para
mais
detalhes,
consultar:
http://www.unicode.org/
e
http://en.wikipedia.org/wiki/Unicode.
A respeito dos programas compactadores, necessrio notar que: 1) o contedo adicionado pelos
compactadores a ttulo de controle (como, por exemplo, o novo repertrio que codifica informao)
deve ser subtrado; 2) a eficincia de cada algoritmo depende, em ltima anlise, de sua capacidade de
reconhecer padres dentro do arquivo e de codificar o contedo buscando reduzir o espao ocupado. A
implementao dos conceitos da teoria na forma de programa de computador produz resultados
compatveis com os valores calculados pela teoria, mas no significa que a extenso do arquivo gerado
em bits corresponda entropia do arquivo original, nem mesmo nos casos onde a compactao produz
um arquivo idntico ao arquivo original (quando, teoricamente, a entropia mxima alcanada j na
origem). Isto se d porque o algoritmo pode ter falhado em detectar um padro suficientemente
complexo. Para uma anlise mais aprofundada sobre a importncia do reconhecimento de padres na
Teoria da Informao, consultar A. D. Wyner, J. Ziv, & A.J. Wyner, On the Role of Pattern Matching
in Information Theory, in S. Verd & S. McLaughlin, orgs, op. cit., pp. 1-12.

37

entropia mxima obtida quando a freqncia dos smbolos equiprovvel; 4)


a entropia no est relacionada ao significado ou a questes subjetivas. Estas
so as conseqncias da teoria que sero postas prova. Os arquivos gerados
tiveram seu contedo atribudo de forma a verificar se os resultados so
consistentes com as previses tericas: Texto1.txt contm apenas espaos em
branco; Testo2.txt contm a letra H repetida por toda a extenso do arquivo;
Texto3.txt contm uma seqncia de 16 caracteres distintos, repetida ao longo
do arquivo; Texto4 contm uma seqncia de 32 caracteres repetida ao longo do
arquivo; Texto5.txt contm uma seqncia aleatria de algarismos; Texto6.txt
contm uma seqncia aleatria de letras maisculas; Texto7.txt contm uma
seqncia aleatria de todos os caracteres da tabela ASCII; Texto8.txt contm a
transcrio da Bblia, truncada em 1 MB65.
Os resultados obtidos, sumarizados na tabela que se segue, comprovam
todas as previses, validando os princpios e as concluses da Teoria da
Informao:
Arquivo

Extenso Compactada (octetos)


Windows XP

WinZip

WinRAR

Variao
Mdia (%)

Contedo

Consequncias
Verificadas

Texto1.txt

1152

1152

602

-99,91 espaos em branco

1, 2

Texto2.txt

1152

1152

602

-99,91 repetio de "H"

1, 2

Texto3.txt

2185

2185

623

-99,84 repetio de seqncia de 16 caracteres

1, 2

Texto4.txt

2708

2708

639

-99,81 repetio de seqncia de 32 caracteres

1, 2

Texto5.txt

492.641

492.553

485.997

-53,23 algarismos aletrios

1, 3

-36,46 letras maisculas aleatrias

Texto6.txt

665.995

665.571

667.227

Texto7.txt

1.052.672

1.048.854

1.048.650

Texto8.txt

292.291

291.249

246.019

0,14 caracteres aleatrios


-73,63 Bblia em ingls, verso King James

1, 3
1, 3
1, 4

Os arquivos Texto1.txt e Texto2.txt resultaram em compactao idntica


apesar de diferirem totalmente no contedo (um todo em branco, e o outro

65

importante evidenciar que a eficincia dos programas de compactao no o objetivo do teste,


embora os resultados possam indicar que algum programa produza melhores resultados. As situaes
reais so muito mais complexas, e os programas de compactao empregam algoritmos adaptados a
cada tipo de arquivo. Considerando-se que a aderncia a uma necessidade especfica costuma ser mais
relevante que um benchmark genrico, no esperado que os resultados obtidos sejam conclusivos a
respeito da pretensa superioridade de um produto sobre outro. O que se pretende com o teste
avaliar a consistncia dos resultados frente s previses da TMC.

38

inteiramente preenchido com a letra H). A caracterstica comum entre eles


que s h um smbolo possvel em toda a mensagem, ou seja, existe a certeza
com relao a qual smbolo ser usado: a teoria diz que a entropia zero. De
fato, a compactao destes arquivos foi de 99,91%66.
Os arquivos Texto3.txt e Texto4.txt contm vrias vezes a mesma
seqncia de caracteres. O resultado deixa claro que existe pouca entropia na
mensagem: , basicamente, a entropia contida na primeira ocorrncia do textobase, que se dilui progressivamente a cada repetio.
Os arquivos Texto5.txt, Texto6.txt e Texto7.txt contm seqncias
aleatrias. Entretanto, nos dois primeiros o repertrio limitado (10 e 26
smbolos, respectivamente), enquanto que no ltimo o repertrio coincide com
todo o conjunto de caracteres disponveis (256 smbolos). A quantidade de
smbolos do repertrio influencia no clculo da entropia: em se tratando de
smbolos cujas ocorrncias so equiprovveis, quanto maior for o repertrio,
menos freqente ser a ocorrncia de cada smbolo individualmente67. Os
resultados da compactao destes arquivos confirmam estes argumentos: a
eficincia da compactao progressivamente menor, ou seja, as entropias
progressivamente aumentam68.
Finalmente, a compactao do arquivo Texto8.txt, que contem um texto
com significado, foi maior que a obtida pela compactao da seqncia aleatria

66

67

68

Este um dos objetivos do Algoritmo de Codificao de Entropia, de Huffman (aluno de Fano no


MIT). Para mais detalhes, consultar http://en.wikipedia.org/wiki/Huffman_coding.
W. Weaver, Recent Contributions to the Mathematical Theory of Communications, in C. Shannon &
W. Weaver, op. cit., p. 16.
Como se pode perceber, a compactao do Texto7.txt resultou num arquivo maior que o original. Este
fenmeno se explica pela necessidade de se gravar dados de controle no arquivo compactado em todos
os processos de compresso: tais dados orientam a descompactao do arquivo, uma vez que o
contedo foi recodificado segundo um novo repertrio. Para mais detalhes sobre compresso de
dados, consultar http://en.wikipedia.org/wiki/Data_compression.

39

de algarismos (Texto5.txt). Este resultado comprova a existncia de significativo


grau de redundncia nas linguagens humanas, o que diminui a entropia das
mensagens, alm de fornecer a demonstrao definitiva de que o significado no
tem qualquer influncia na entropia69.
Estas concluses se aplicam s fontes discretas, onde a compactao
fidedigna (lossless) possvel. Para fontes contnuas, a prpria codificao da
informao intrinsecamente inexata. Aliando-se os princpios da teoria sobre
fontes discretas ao conhecimento da fisiologia dos rgos sensoriais humanos70,
possvel modificar o contedo dos arquivos de forma a produzir compactaes
mais eficientes. Neste caso, a compactao de informaes captadas de fontes
contnuas pode tambm no ser fidedigna codificao originalmente gerada. A
compactao no-fidedigna, dita com perdas (lossy) consegue taxas de
compresso significativamente mais altas, o que especialmente til devido s
extenses maiores dos arquivos multimdia71.
No caso de arquivos de som, possvel eliminar as freqncias fora
espectro audvel, o que comumente se faz na prpria digitalizao dos sons.
Tambm possvel, dentro de determinados limites, modificar a taxa de
amostragem do som (quantidade de vezes em que o som captado e

69

70

71

importante notar que o algoritmo que gerou o arquivo Texto8.txt no garante que a freqncia de
todos os smbolos do repertrio equiprovvel em termos estritos: para obter-se tal condio, seria
necessrio garantir que a contagem de cada smbolo do repertrio resultasse num mesmo nmero.
Nestes termos, as freqncias dos smbolos gerados so muito prximas, mas no necessariamente
iguais. Um algoritmo que garante que a contagem de cada smbolo seja igual pode ser encontrada no
anexo 2.
Ibid., p.111. Shannon fornece como exemplo dados experimentais sobre a sensibilidade da audio
humana em relao s caractersticas das ondas sonoras: com relao fase, praticamente
insensvel; com relao amplitude e freqncia, aproximadamente logartmica.
A compactao com perdas aceitvel nestes tipos de contedo porque o objetivo final deles a
apreciao humana. A capacidade cognitiva dos seres humanos faz com que consigamos lidar com
informaes imprecisas e parciais (o que, como se sabe, um dos fundamentos da Psicologia Gestalt).

40

reproduzido), sem que haja perda significativa na percepo que ele provoca no
ouvinte quanto executado.
Em se tratando de imagens, outras tcnicas so possveis, como, por
exemplo: 1) reduzir a quantidade de cores, o que corresponde a uma reduo do
repertrio; 2) usar algoritmos de suavizao na imagem inteira ou em parte
dela, que aproximam a cor de cada ponto da imagem em funo das cores dos
pontos adjacentes, o que faz com que as freqncias de ocorrncia das cores
aumentem pela convergncia imposta pelo algoritmo, resultando numa entropia
menor, ao mesmo tempo em que reduz o repertrio pela eliminao de cores
no mais usadas.

41

2. Entropia e Teoria da Informao

42

2.1. Contexto Histrico


O perodo que ser analisado se inicia cerca de 50 anos antes da publicao
da Teoria Matemtica da Comunicao. Dentre as inmeras possibilidades de
abordagem de um perodo to estudado e complexo como o Sculo XX, o recorte
temtico impe que se d nfase ao desenvolvimento das telecomunicaes, que
foi instrumento de transformao geopoltica em tempos de guerra antes dos
impactos scio-culturais em tempos de paz. A trajetria narrativa abordar: 1) a
inveno do rdio e sua importncia estratgica nas comunicaes diplomticas
e militares; 2) o uso generalizado de transmisses telegrficas criptografadas de
complexidade crescente a partir da Primeira Guerra Mundial; 3) os esforos dos
servios de inteligncia ingls, francs e polons em decifrar as mensagens
alems; 4) o trabalho de Alan Turing em criptologia durante a Segunda Guerra
Mundial. O objetivo desta abordagem evidenciar as relaes existentes entre a
nova tecnologia de comunicaes sem fio com os interesses militares
decorrentes das duas Grandes Guerras, a importncia dos sistemas de
criptografia como estratgia defensiva, culminando com o trabalho de Alan
Turing, que tem pontos de contato interessantes com os trabalhos de Shannon
em sistemas de sigilo (que, como foi mostrado no captulo I, contm os
elementos bsicos da TMC).

2.1.1. O Rdio
Nos cinqenta anos anteriores ao aparecimento da rdio-difuso, surgiu e
se disseminou a transmisso pblica de mensagens por telgrafo. Uma rede

43

mundial, que utilizava cabos de transmisso terrestres e submarinos, chegou a


ser estabelecida pelo do imprio britnico:
Foi a Inglaterra que primeiro construiu um sistema de telgrafo
submarino global e que se manteve a (apenas) um passo adiante de
seus competidores em todas as formas de telecomunicaes civis e
militares at 194572.
O emprego de comunicao sem fio (wireless), ou seja, via rdio, surgiu
no incio do sculo XX. Entre os vrios pesquisadores que trabalhavam no
desenvolvimento do rdio na mesma poca73, destaca-se Marconi, que, por sua
atuao empreendedora, esteve prximo de construir um monoplio mundial de
telecomunicaes. O monoplio no foi efetivamente implantado devido
progressiva percepo de que a nova tecnologia era fundamentalmente
importante para os interesses estratgicos das potncias nacionais de ento, que
conseguiram desenvolver formas de impedir que Marconi obtivesse o controle
global das comunicaes:
Desde o princpio, Marconi entendeu a importncia do rdio para
comunicao internacional. Ao contrrio de outros inventores, ele
no poupou esforos para controlar patentes, tanto suas como de
outros. Seus competidores individuais jamais conseguiram controlar
tantas patentes como ele conseguiu. Na luta geopoltica pelo rdio
internacional, trs tcnicas foram desenvolvidas para evitar que
Marconi construsse um monoplio efetivo: o acordo internacional, a
manipulao da poltica domstica, e a combinao de patentes74.

72

73

74

P. Hugill, Global Communications since 1844: Geopolitics and Technology, p. 2. Citao no original:
It was Britain that first constructed a global submarine telegraph system and Britain kept (just) one
step ahead of its competitors in all forms of civil and military telecommunications until 1945.
A inveno do rdio, entendido como o uso de ondas eletromagnticas a transmisso de informaes
sem a utilizao de cabos, disputada por Nikola Tesla, Guglielmo Marconi e Alexander Popov, entre
outros. Neste trabalho, que no tem como objetivo discutir a inveno do rdio, no nos
posicionaremos a favor de Marconi apesar de ele ser reconhecido como o inventor do rdio pelas obras
de referncia pesquisadas. Entretanto, ele ser amplamente citado devido a seus bem-sucedidos
esforos em estabelecer uma indstria a partir de suas invenes.
Ibid., p. 92. Citao no original: From de beginning Marconi understood the importance of radio for
international communication. Unlike other inventors, he therefore went to considerable lengths to
control patents, both his owns and those originated by others. His individual competitors were never
able to control as many patents as he did. In the geopolitical struggle for international radio three
techniques were developed to block Marconi from developing an effective monopoly: the international
agreement; manipulation of domestic politics; and patent pooling.

44

No final do sculo XIX, Marconi investigava um fenmeno peculiar que


acontecia aos circuitos eltricos, que era a induo de corrente eltrica
distncia, produzido por um circuito em outro, sob certas circunstncias. Aps
sucessivas experimentaes e modificaes nos circuitos, Marconi conseguia
transmitir pulsos de informao distncia de 2,5 km. O telgrafo, forma de
comunicao distncia predominante durante as cinco dcadas anteriores,
exigia linhas de transmisso ponto-a-ponto e o conseqente controle territorial
por onde passassem os cabos75, o que no seria necessrio com o sistema de
Marconi. Tendo emigrado da Itlia para a Inglaterra pouco depois, dedicou-se
ao melhoramento do sistema aps obter a patente da inveno, e conseguiu
enviar mensagens atravs do Canal da Mancha. Seu invento ganhou notoriedade
durante a cobertura da competio de iatismo mais importante da poca, o
Americas Cup de 1899: os jornalistas que cobriam o evento mandavam
relatrios dirios da corrida atravs do rdio para suas editorias em Nova
Iorque a tempo de serem includas na edio do dia seguinte76.
Porm, o grande desafio de Marconi era provar que a transmisso seria
possvel entre pontos muito distantes. Desafiando os crticos de sua inveno,
que alegavam ser um sistema de alcance limitado j que o sinal no poderia
vencer a curvatura da Terra77, Marconi conseguiu enviar sinais telegrficos da
Inglaterra ao Canad, a uma distncia de 3.500 km. Surgiram vrias teorias

75
76

77

Ibid., p. 83.
S. Singh, The Code Book: the Science of Secrecy from Ancient Egypt to Quantum Cryptography, pp.
101-2.
A idia de que era necessrio haver mtua visibilidade entre transmissor e receptor no absurda. De
fato, grande parte das telecomunicaes necessita de visada, como o caso de algumas transmisses
por satlites, como nas transmisses de TV e de dados: a antena receptora precisa estar apontada para
o satlite para que a reflexo das ondas no disco parablico as faa convergir para um ponto focal,
ampliando a intensidade do sinal, grandemente diminuda pela longa distncia percorrida, uma vez
que tais satlites geoestacionrios orbitam a Terra a cerca de 40.000 km de altura. Para mais detalhes,
consultar: http://en.wikipedia.org/wiki/Satellite_television.

45

para explicar o fenmeno, entre elas a que afirmava que as ondas


eletromagnticas acompanhavam a superfcie da Terra, e a que previa a
existncia de uma alta camada atmosfrica refletora. O fenmeno permaneceu
sem uma explicao definitiva por mais de duas dcadas, quando foi descoberta
a ionosfera e houve a verificao experimental de que as ondas de rdio de
determinadas freqncias ricocheteiam entre a ionosfera e a terra, fazendo com
uma transmisso possa dar vrias voltas no planeta se tiver potncia
suficiente78. Hoje sabido que tanto os crticos iniciais como os tericos
posteriores tinham sua parte de razo: dependendo da freqncia, a onda
eletromagntica pode se curvar superfcie do planeta, ser refletida na ionosfera
ou seguir em direo ao espao, conforme representa a ilustrao a seguir:

Fig. 3 A reflexo das ondas eletromagnticas em funo de suas freqncias

78

A histria da primeira transmisso transatlntica por Marconi foi questionada recentemente, embora
no haja dvida de seu sucesso numa segunda transmisso realizada um ano depois. Para mais
detalhes, consultar: http://en.wikipedia.org/wiki/Ionosphere .

46

A ilustrao mostra as trajetrias das ondas eletromagnticas em funo


de suas freqncias e da insolao: as ondas longas acompanham a curvatura da
Terra; as ondas curtas se propagam em linha reta e so refletidas na ionosfera;
as ondas mdias se propagam em linha reta e so refletidas pela ionosfera
somente noite.
A realizao de Marconi enseja uma breve digresso a respeito dos
caminhos nem sempre concordantes da Cincia e das Tecnologias.
interessante ver um feito tecnolgico pondo em dvida as crenas cientficas de
seu tempo. Mrio Schenberg cita outro exemplo deste fenmeno: a mquina a
vapor, que transformava calor em trabalho mecnico, foi amplamente usada
pela indstria num tempo em que a conversibilidade entre as vrias formas de
energia no era bem compreendida, uma vez que a teoria do calor predominante
era a do fluido calrico79. Avaliando as ltimas trs dcadas do sculo XX
segundo os termos de Khun, assistimos crescente interdependncia da Cincia
e da Tecnologia, possivelmente decorrente do longo perodo de cincia normal
que se seguiu s revolues cientficas do incio do sculo XX: a Relatividade e a
Mecnica Quntica. Estas duas teorias, embora ainda sejam incompatveis, no
rivalizam uma com a outra, e ambas transformaram o modo de vida da
humanidade, e possvel argumentar que estamos aprimorando e ajustando o
que foi introduzido por elas, enquanto aguardamos uma nova revoluo que
subverta o saber consensual. A intimidade entre Cincia e Tecnologia poder
fazer com que uma precise da outra para a prxima revoluo. Mais importante,
a atitude de inconformismo com a situao estabelecida, e o reconhecimento
de que o que sabemos no definitivo, como adverte Schenberg:

79

M. Schenberg, op. cit., p. 142.

47

H um conservadorismo que nos deixa presos a muitas idias


complicadas80.
A inveno de Marconi despertou o interesse do militares. At ento, s
era possvel ter comunicao rpida distncia atravs de cabos telegrficos, de
custo elevado. Alm disso, embarcaes ficavam incomunicveis por longos
perodos, e era impossvel faz-las participar de uma sbita mudana de
estratgia. Entretanto, a grande desvantagem do rdio era a impossibilidade de
garantir sigilo nas transmisses, uma vez que as mensagens so irradiadas para
todos os lados e trafegam pelo ar, o que facilita o trabalho de intercept-las81.
Uma das formas de introduzir sigilo neste tipo de comunicao o
emprego de tcnicas de criptografia. Criptografia a arte de tornar a mensagem
inteligvel apenas para seu receptor, na qual so usadas tcnicas de transposio
e de substituio de sinais. A reversibilidade um pressuposto bsico para
qualquer processo criptogrfico, e o elemento secreto que garante sua correta
reverso chamado de chave82. Para a criptografia ser eficiente, ela deve
evitar as caractersticas que tornam o texto decifrvel, sendo que a principal
delas a anlise estatstica dos sinais e das palavras. Esta a rea de contato
entre a criptografia e a criptologia com a Teoria da Informao, como ser
mostrado no decorrer deste captulo.
As primeiras aplicaes militares de criptografia por rdio consistiam em
duas etapas: na primeira, ocorria a transformao da mensagem original numa
mensagem cifrada, que era realizada por um especialista; na segunda, a

80
81
82

Ibid., p. 204.
S. Singh, op.cit., p. 102.
Existem outras tcnicas de sigilo, como a Esteganografia, que busca esconder a existncia de uma
mensagem secreta dentro uma mensagem aparentemente inocente. Para mais detalhes sobre
terminologia e tcnicas bsicas de criptografia, consultar D. Kahn, The Codebreakers: the story of
secret writing, pp. xv-xvii.

48

mensagem cifrada era passada a um telegrafista, que transmitia a mensagem tal


qual a recebeu. Tal procedimento era repetido na ordem inversa pelo receptor,
que assim obtinha a mensagem original. Para que o processo fosse bemsucedido, a chave de cifragem deveria mudar a cada mensagem, caso contrrio o
algoritmo poderia facilmente ser descoberto por anlise estatstica sobre as
mensagens interceptadas. Isto impunha um procedimento rigoroso de criao e
uso de chaves, que eram registradas em livros. A mesma sistemtica era usada
pelas grandes potncias militares do incio do sculo XX.
Em 1914, durante a Primeira Guerra Mundial, um livro de cdigos
criptogrficos alemo foi recuperado do naufrgio do Magdeburg, afundado
pela marinha russa no Golfo da Finlndia. Os Russos, aps comprovarem a
eficcia dos cdigos, cederam-nos ao Almirantado Ingls. Esta informao foi
mantida em segredo at 1923, quando foi tornada pblica por Winston
Churchill83, na poca o comandante do almirantado84. Alm deste, outros livros
de cdigos foram recuperados pelos ingleses: o primeiro de um destroyer
alemo na batalha de Heligoland Bight, ainda em 1914

85;

e outro em 1916 do

Zeppelin Z-32, abatido em Billericay86. Estes livros auxiliaram o grupo de


criptlogos britnicos (conhecidos por Room 40, um dos endereos que
ocuparam nas instalaes da marinha) a decifrarem muitas das mensagens
interceptadas. A decodificao das mensagens poderia ser feita sem eles, mas a
informao contida nos livros facilitava o processo. A inteligncia francesa no
usava os livros, o que no a impediu de realizar decodificaes importantes,

83
84
85
86

Ibid., p. 141.
D. Kahn, op. cit., p. 268.
Ibid., p. 269.
Ibid., p. 273.

49

mesmo que parciais e fragmentadas. A cesso deste tipo de informao aos


franceses teria sido considerada um risco para manuteno do domnio naval
britnico87.
O trabalho dos servios de inteligncia, obviamente, no se resume a
decifrar mensagens: para garantir superioridade estratgica, desejvel que o
inimigo ignore que seus cdigos foram violados, caso contrrio ele tomar
medidas para mud-los ou refor-los. Um exemplo deste estratagema foi a
decifrao do conhecido Telegrama Zimmermann. Como preparativo para a
guerra, o governo alemo planejava manter os Estados Unidos ocupados em seu
prprio territrio para que no se envolvesse no conflito europeu. O plano era
financiar o governo mexicano numa incurso ao territrio norte-americano para
a retomada de algumas regies anexadas aos Estados Unidos, como o Novo
Mxico, Texas e Arizona. Entretanto, a mensagem do chanceler Zimmermann
ao presidente do Mxico foi interceptada e decifrada pelo Room 40, e em
seguida repassada ao governo norte-americano. Este ato de guerra aos Estados
Unidos foi retaliado a sangue-frio: foi montada uma sofisticada operao para
ocultar a capacidade de decifrao dos aliados, que envolveu o acionamento de
uma agente secreto americano no Mxico para que invadisse a central
telegrfica mexicana e roubasse a mensagem j traduzida. A mensagem roubada
foi revelada opinio pblica e justificou o ingresso dos Estados Unidos na
Primeira Guerra Mundial. Ainda como manobra de diversionismo, a inteligncia
inglesa plantou na imprensa de seu pas uma crtica fictcia do comandante da
inteligncia inglesa a sua prpria equipe por terem sido incapazes de antever o
plano alemo. O inqurito alemo concluiu que houve traio de um

87

Ibid., p. 277.

50

colaborador no Mxico, e eles continuaram usando cdigos similares durante


toda a guerra88.

2.1.2. A Mquina Enigma


A revelao de que os ingleses tinham livros de cdigos alemes deu
impulso a uma mquina de criptografia inventada em 1918 na Alemanha, mas
que no tinha sido adotada em larga-escala devido a seu alto custo unitrio: a
mquina Enigma. Este dispositivo foi inventado por A. Scherbius, que obteve a
patente de sua inveno em 1928 nos Estados Unidos, conforme mostra a
reproduo que se segue:

Fig. 4 Patente norte-americana da Mquina Enigma, concedida em 1928.

A representao esquemtica exibida na patente revela parcialmente sua


complexidade, que pode ser melhor entendida pela observao de sua aparncia
real, exibida a seguir:
88

S. Singh, op.cit., pp. 107-15.

51

Fig. 5 - Um exemplar de Mquina Enigma

A mquina Enigma era composta por engrenagens de seleo de chaves,


um painel iluminado e um teclado que cobriam um intrincado mecanismo: com
a regulagem correta de seu mecanismo, cada letra teclada acendia outra letra no
painel, sendo que os ajustes da mquina se alteravam a cada toque. O total de
possibilidades de ajuste era de cerca de 1016. Inicialmente rejeitada pelas
grandes empresas privadas, tambm no foi bem recebida pelos militares
alemes:
Os militares alemes foram igualmente indiferentes porque
ignoravam o dano causado por suas cifras inseguras durante a
Grande Guerra89.
Esta viso mudou com a revelao de Churchill, reforada pela histria da
guerra segundo a Marinha Real Britnica, na qual era atribuda grande
89

Ibid., p.138. Citao no original: The German military were equally unenthusiastic, because they were
oblivious to the damage caused by their insecure ciphers during the Great War.

52

importncia ao servio do Room 40 para a vitria dos aliados. Os militares


alemes, desejosos de no repetir o recm-descoberto fiasco, acharam na
mquina Enigma a soluo de seus problemas90.
Os alemes comearam a utilizar a Enigma a partir de 1926. As mensagens
criptografadas pela mquina Enigma eram to complexas que provocou a
desistncia dos servios de inteligncia ingleses, americanos e franceses em
tentar decifra-las. Os aliados, tendo vencido a guerra, no temiam mais a
Alemanha, o que pode ter causado uma falsa sensao de segurana. Entretanto,
o servio de inteligncia polons no compartilhava deste sentimento91. A
Polnia, tornada independente aps a guerra, estava encravada entre dois
inimigos poderosos: a leste, a Rssia, vida pela expanso do estado comunista,
e a oeste a Alemanha, desejosa de recuperar o territrio perdido. Seu servio de
inteligncia, apesar dos fracassos em decifrar as mensagens da Enigma,
perseverou, coletando e organizando, por anos a fio, todas as mensagens alems
interceptadas. Ajudado pela traio de um alemo, o manual de operao da
mquina Enigma foi obtido pelos franceses, que os repassaram aos poloneses92.
Os poloneses continuaram a estudar as mensagens e descobriram alguns pontos
vulnerveis decorrentes do uso de palavras e expresses da lngua alem, mas
ainda no conseguiam decifrar mensagens inteiras. Em 1939, com a iminncia
da invaso da Polnia pelo exrcito nazista, o servio de inteligncia polons
enviou o resultado de suas pesquisas aos ingleses e aos franceses. Duas semanas
depois, a Polnia foi invadida93.

90
91
92
93

Ibid., pp. 141-2.


Ibid., pp. 143-4.
Ibid., pp. 144-6.
Ibid., pp. 158-60.

53

2.1.3. Alan Turing


As descobertas polonesas deram novo nimo aos ingleses, que decidiram
investir num novo servio de criptologia. Foi criado um centro de treinamento
em criptologia, o GC&CS (Government Code & Cipher School) em Bletchley
Park, Buckinghamshire, sendo que matemticos e cientistas eram os alvos do
recrutamento, ao invs de lingistas e eruditos como no Room 40. Em Bletchley
Park, durante o outono de 1939, os matemticos e cientistas recrutados
aprenderam sobre o funcionamento da mquina Enigma e as tcnicas
polonesas94. Em seguida, comearam a desenvolver suas prprias tcnicas de
explorao das mensagens alems, basicamente pela mesma falha que ajudou os
poloneses: as repeties de palavras e de chaves, que de fato no eram um
problema da tecnologia Enigma, mas uma questo de uso inadequado dela95.
Dentre os muitos colaboradores, o que mais se destacou foi Alan Turing.
Alan Turing ingressou no Kings College em Cambridge em 1931, num
perodo de intenso debate sobre matemtica e lgica deflagrado por Gedel e do
qual participavam Russel, Whitehead e Wittgenstein96. Influenciado por estas
idias e tambm pelas de von Neumann, publicou em 1937 o trabalho On
Computable Numbers97, onde prope formas de encontrar problemas
indecidveis, que acabou por fornecer o modelo conceitual do computador
moderno98. Ele foi convidado para ingressar em Bletchley Park em 1939, no dia
seguinte declarao de guerra da Inglaterra Alemanha. Alm de ajudar na

94
95
96
97

98

Ibid., pp. 158-60.


Ibid., pp. 164-5.
Ibid., p. 166.
Para mais detalhes as influncias de Turing no desenvolvimento do On Computable Numbers,
consultar A. Hodges, Alan Turing: the Enigma, pp.79-110.
S. Singh, op.cit., pp. 168-9.

54

decifrao de mensagens, Turing atuava no ncleo consultivo (think tank) do


grupo, onde seu trabalho era desenvolver uma nova tcnica de ataque s
mensagens da Enigma antes que os alemes se dessem conta dos erros que
cometiam deste o 1926 e decidissem corrig-los99. Baseando-se em suas idias
expressas em On Computable Numbers, Turing projetou uma mquina que
acoplava diversas mquinas Enigma trabalhando para achar chaves, a partir de
ajustes previamente selecionados por um criptlogo experiente100. O fato que
o aumento de eficincia decorrente da mecanizao da gerao de mensagens
criptografadas (pelo uso da Enigma) s teve uma contrapartida no processo de
decifrao com a inveno de Turing (chamada de bombe). No fim da Segunda
Guerra Mundial, 50 destas mquinas, estavam em operao, e abasteciam o
almirantado com informaes vitais sobre as tticas inimigas101.
Em 1943, durante o curso da guerra, Turing viajou aos Estados por conta
do acordo de cooperao militar entre ingleses e norte-americanos. Entre os
lugares que visitou, estavam os Laboratrios Bell: l, encontrava-se diariamente
com Claude Shannon na hora do ch, o que resultou numa interao
significante para ambos102. Segundo Andrew Hodges, Turing teria se fascinado
pelo tipo de trabalho que Shannon fazia e com a liberdade que os Laboratrios
Bell lhe oferecia: este modelo de trabalho no existia na Inglaterra,
supostamente por no ser bem-visto pelas empresas britnicas103. Turing teria
se identificado com Shannon por sua bagagem acadmica e por ter, como ele,
abordado a criptologia por mtodos cientficos. Comparando os aspectos de

99
100
101
102
103

Ibid., pp. 169-70.


Ibid., pp. 174-6.
Ibid., pp. 185-7.
A. Hodges, op. cit., pp. 249-50.
Ibid., p. 250.

55

identificao de Turing com Friedman, outro pesquisador da Bell, e Shannon,


Hodges afirma:
Em profundidade intelectual, Shannon que era o correspondente de
Alan, e eles descobriram muito em comum104.
De acordo com Hodges, as definies de mquina e comunicao, dois
conceitos existentes desde o incio da civilizao humana, s foram formuladas
de forma precisa e matemtica, respectivamente, por Turing em On Computable
Numbers, e Shannon em Mathematical Theory of Secrecy Systems. Alm do
paralelo entre os trabalhos de ambos, haveria uma espcie de reciprocidade,
pois Turing tinha proposto uma medida de informao, o deciban, semelhante
ao bit de Shannon (a diferena seria a base do logaritmo usada no clculo):
Um ban de peso de evidncia fazia algo dez vezes mais provvel; um
dgito binrio ou bit fazia algo duas vezes mais certo. (grifos do
original) 105
Apesar da conexo fundamental entre as duas teorias, eles no estavam
autorizados a discuti-las abertamente. Shannon tambm tinha pensado, de
forma independente, a respeito de mquinas lgicas, o que o levou a sua famosa
dissertao de mestrado. Turing teria deixado Shannon impressionado ao lhe
apresentar seu On Computable Numbers, sendo que seus principais
pressupostos de ambas as obras seriam de aceitao recproca. Ambos tambm
estariam interessados em reproduzir o funcionamento do crebro numa
mquina, mas com uma amplitude (ou pretenso) maior por parte de Shannon,
uma vez que Turing teria comentado a outros, num almoo:

104

105

Ibid., p. 250. Citao no original: In intellectual depth it was Shannon who was Alans opposite
number, and they found a good deal in common.
Ibid., p. 250. Citao no original: A ban of weight of evidence made something ten times as likely; a
binary digit or bit made something twice as definite.

56

Shannon quer alimentar o Crebro no apenas com dados, mas com


coisas culturais! Ele quer tocar msica para ele! (grifos do
original)106
Infelizmente para Turing, as semelhanas entre sua vida e a de Shannon
no foram muitas. Enquanto Shannon obteve condies nicas para
desenvolver seus interesses e conquistou reconhecimento imediato por suas
realizaes, o trabalho de Turing foi mantido secreto pelo governo britnico
ainda por muitos anos alm do trmino da Segunda Guerra. O governo britnico
distribuiu milhares de mquinas Enigma tomadas dos alemes a suas antigas
colnias, que acreditavam que as mensagens produzidas por elas eram
impenetrveis: assim, os ingleses tiveram acesso irrestrito s comunicaes de
suas ex-colnias ainda por muitos anos107. Turing cometeu suicdio em 1954,
motivado pela perseguio que sofreu depois que sua homossexualidade foi
descoberta. As informaes sobre as atividades desenvolvidas em Bletchley
Park, conhecidas pelo codinome de Ultra, foram tornadas pblicas somente na
dcada de 1970108.

2.1.4. Telecomunicaes e Geopoltica


A respeito da importncia geopoltica do domnio das telecomunicaes,
Hugill oferece uma sntese:
Se informao poder, quem quer que domine os sistemas mundiais
de telecomunicao comanda o mundo109.

106

107
108
109

Ibid., p. 250. Citao no original: Shannon wants to feed not just data to the Brain, but cultural
things! He wants to play music to it!.
S. Singh, op.cit.,p. 187.
Ibid., p. 189.
P. Hugill, op.cit., p. 2. Citao no original: If information is power, whoever rules the worlds
telecommunications system commands the world.

57

A empresa de Marconi conseguiu ligar por rdio todos os territrios do


imprio britnico em 1927, e foi forada em 1929 a se fundir com a companhia
telegrfica (via cabos) inglesa, formando a Imperial and International
Communications, mais tarde renomeada para Cable & Wireless. Insatisfeito
com os termos da fuso, que no lhe garantia o controle da empresa apesar de
sua participao acionria majoritria, Marconi retirou-se do negcio e a Cable
& Wireless passou a servir exclusivamente aos interesses hegemnicos
ingleses110, cujas intenes podem ser inferidas do mapa-mndi peculiar
reproduzido a seguir:

Fig. 6 C&W Great Circle Map, cortesia de Cable & Wireless Archive, Porthcurno.

110

Ibid., p. 49.

58

O mapa representa as linhas de telecomunicaes britnicas em 1945, e


posiciona Londres no centro do mundo, que para onde convergem as linhas de
comunicao internacionais. Na parte superior, l-se: Bretanha, o Centro do
Mundo, e os pases da comunidade britnica so destacados em vermelho. A
julgar pelo mapa, parece ser evidente que a pretenso inglesa era de permanecer
no controle das telecomunicaes mundiais.
Os britnicos s comearam a fazer concesses nesta rea devido s
necessidades da guerra, mas apenas para os Estados Unidos, cujos canais de
comunicao transatlnticos passavam necessariamente por Londres at ento:
Uma medida de reteno do poder britnico que s no final de 1943
o governo americano teve acesso a um cabo transatlntico de
telgrafo que no passasse pela Inglaterra111.
Da mesma forma, a capacidade de decifrao de mensagens dos ingleses
foi mantida em segredo enquanto foi possvel:
Os ingleses atribuam mais importncia ao Ultra do que a qualquer
outro aspecto da Segunda Guerra Mundial. Embora tivessem
compartilhado as tecnologias do radar centimtrico e do motor a jato
com a Amrica durante a Misso Tizard de 1940, bem antes da
entrada oficial dos americanos na guerra, no antes de maio de 1943
eles compartilhariam plenamente o Ultra112.
Em sntese, o rdio ofereceu como vantagens a mobilidade de
comunicao e o barateamento das telecomunicaes. A falta de sigilo que lhe
inerente

no

impediu

sua

disseminao,

tendo

ainda

propiciado

desenvolvimento de tcnicas de sigilo manuais e mecanizadas. Parece


apropriado considerar a criptografia uma aplicao da Teoria da Informao,

111

112

Ibid., p. 50. Citao no original: One measure of the retention of British power is that not until late
1943 did the American government have access to a transatlantic teleph cable that did not pass
through Britain.
Ibid., p. 144. Citao no original: The British attached more importance to Ultra than to any other
aspect of World War II. Although they shared the technologies of centimetric radar and the jet engine
with America during the 1940 Tizard Mission, well before official American entry into war, it was May
1943 before they fully shared Ultra.

59

apesar da primeira ter precedido a segunda na obra de Shannon. A entropia,


entendida como uma grandeza que mede quantidade de informao por
processos estatsticos, o conceito central da TMC e que tambm permeia os
trabalhos de criptografia de Shannon e Turing.
Com relao s telecomunicaes, parece acertado inferir sua importncia
geopoltica pela estratgia da Inglaterra de manter o controle sobre a maior
parte das linhas de comunicao internacionais at a dcada de 1940, somente
vindo a fazer concesses aos Estados Unidos em funo da fragilidade de sua
posio durante a Segunda Guerra Mundial. Considerando-se ainda que os
trabalhos de Turing permaneceram secretos at a dcada de 1970, possvel
inferir o grau de importncia atribudo a estes aspectos no contexto geopoltico
mundial113.

113

interessante notar que as mesmas questes sobre poder e dominao ocorrem atualmente nos
debates a respeito da internacionalizao do controle da internet (que est sob o controle de um rgo
do governo norte-americano).

60

2.2. Boltzmann e a Entropia na Teoria do Gs


O cientista alemo Ludwig Boltzmann, no sculo XIX e incio do XX,
dedicou-se ao estudo da termodinmica estatstica, a qual descrevia a presso e
temperatura dos gases como funo do movimento de suas molculas. Numa
poca em que a existncia dos tomos ainda era questionada, seu trabalho
sofreu crticas contundentes que contriburam para lev-lo ao isolamento e ao
suicdio114. No obstante, os princpios que defendia demonstraram-se
adequados para descrever diversos aspectos da natureza dos gases, e seu
conceito

de

Entropia

influenciou

pesquisadores

do

sculo

XX

no

desenvolvimento da Teoria da Informao. Sua obra fundamental o Lectures


on Gas Theory (traduo em lngua inglesa do Vorlesungen ber Gastheorie,
editada em dois volumes em 1896 e 1898, respectivamente); dela sero
retirados o conceito e as implicaes da entropia na Teoria dos Gases.
Os principais pressupostos da teoria so antecipados j no ttulo da Parte I
do Lectures on Gas Theory: Teoria dos gases com molculas mono-atmicas
cujas dimenses so desprezveis comparadas ao livre percurso mdio. Nele se
pode distinguir a viso mecanicista da matria, entendida como composta por
unidades discretas de tamanho diminuto. Baseado nos conceitos da
Termodinmica de Clausius, que definiu o Calor como movimento molecular,
Boltzmann estabelece os limites de sua teoria: as questes epistemolgicas
sobre as relaes entre modelos com a realidade, motivo de discusses

114

Boltzmann tinha sade frgil e sofria de neurastenia. Seu temperamento causou-lhe diversas
inimizades no meio acadmico e mesmo o afastamento de amigos, como Ostwald. Sofreu oposio
continuada de Mach e seus partidrios, que alegavam que a existncia de tomos seria metafsica por
ser um fato no observvel e, portanto, incompatvel com temas cientficos. Mais informao a
respeito da vida, obra e polmicas de Boltzmann pode ser obtida em D. Lindley, Boltzmanns Atom:
the great debate that launched a revoltuion in physics.

61

infindveis, seriam evitadas. Prope-se a desenvolver sua teoria livre de


posies dogmticas, sejam elas tanto atomistas como anti-atomistas,
descrevendo sua Teoria dos Gases inicialmente como analogia mecnica115,
embora afirme acreditar na descontinuidade real da matria116 e se propunha a
provar que a analogia mecnica no apenas aparncia superficial117.
Tendo definido o calor como movimento das molculas, Boltzmann explica
que o calor uma forma de energia cintica, mas que no visvel porque somos
capazes de perceb-la apenas quando ela atua igualmente em todas as molculas
de um corpo: nos demais casos, o movimento molecular seria percebido como
calor. Ele procura justificar o engano de se considerar o calor como sendo uma
substncia (uma clara referncia teoria do fluido calrico), que ocorreria
pelo fato da energia cintica se transmitir sempre de um corpo cujas molculas
tm mais energia para outro cujas molculas tm menos energia, aliado ao fato
de que a energia cintica no se destri. Continuando, afirma que a natureza das
foras de coeso molecular no ocupao da presente teoria, embora
reconhea que sua incompreenso at aquele tempo pudesse causar impreciso
nas definies de estado fsico118.
A relao entre o movimento molecular e estado fsico caracterizada por
Boltzmann de forma simplificada, o que se justificaria, segundo o autor, pelo
desconhecimento da natureza das foras de atrao e repulso em nvel
molecular at ento. Assim sendo, define o estado slido como aquele em que
cada molcula tem uma posio de repouso, na qual mantida pela repulso das

115
116
117
118

L. Boltzmann, op. cit., p. 26.


Ibid., pp. 27-8.
Ibid., p. 28.
Ibid., pp. 28-9.

62

molculas adjacentes quando delas se aproxima e pela atrao quando delas se


afasta. Desta forma, o movimento trmico colocaria a molcula em oscilao
pendular ao redor de sua posio de descanso, e se todas as molculas tiverem o
mesmo tipo de movimento, suas posies relativas seriam mantidas e o corpo
teria uma forma fixa. A nica conseqncia visvel do movimento molecular
seria a dilatao do corpo medida que a amplitude do movimento pendular de
cada molcula se ampliasse. O estado lquido, por sua vez, foi caracterizado pelo
movimento molecular de intensidade suficiente a permitir que uma molcula se
imiscusse entre molculas vizinhas, sobrepujando as foras de atrao e
repulso moleculares: o corpo slido, neste caso, se derreteria. Alm de um
limite definido, o movimento trmico seria de intensidade tal que as foras de
atrao e repulso seriam desprezveis, e as molculas se movimentariam
livremente pelo espao: o corpo, ento, se evaporaria119.
Partindo destes princpios, Boltzmann expe seu conceito de gs:
molculas que se movimentam livremente num espao fechado suficientemente
grande. Na ausncia de foras externas, o movimento das molculas seria
retilneo com velocidade constante, assemelhando-se a projteis disparados por
uma arma de fogo; somente se desviariam caso passassem muito perto de outras
molculas, ou quando se chocassem contra as paredes do recipiente que as
contivesse. Neste sentido, a presso do gs seria interpretada como a ao das
molculas contra as paredes do recipiente120. Boltzmann prossegue com o
clculo da presso de um gs a partir de fundamentos exclusivamente
mecnicos, como a conservao da energia cintica e o movimento dos centros

119
120

Ibid., p.30.
Ibid., p. 30.

63

de gravidade das molculas. O modelo se inicia de forma muito simples:


considera que as molculas so esferas totalmente elsticas e que sua
deformao desprezvel ao se chocarem com as paredes do recipiente que
contm o gs, consideradas como superfcies completamente lisas e elsticas.
Desta forma, elabora equaes que relacionam a fora dos choques das
molculas com a fora de reao da parede do recipiente, concluindo que a
presso do gs o valor mdio da soma de todas as pequenas presses que as
molculas transmitem ao se chocarem com o recipiente. Boltzmann prossegue
com as demonstraes e prepara as equaes bsicas para os captulos que se
seguem121.
O Captulo 1 da Parte 1 antecipa em seu ttulo os principais pressupostos
do Teorema-H: as molculas so esferas elsticas e no existe movimento
macroscpico aparente no gs. Boltzmann inicia com a prova da Lei da
Distribuio de Velocidades de Maxwell122. Como pressuposto inicial, considera
que o recipiente contm apenas um gs, composto por molculas idnticas que
se comportam como esferas completamente elsticas ao colidirem entre si.
Neste cenrio, mesmo que todas as molculas tenham velocidades iguais num
momento inicial, em algum tempo ocorreriam colises que determinariam que
as velocidades das molculas se alterassem (aumentando ou diminuindo), aps
cada coliso. No decorrer do tempo, existindo um nmero suficientemente
grande de molculas no recipiente, todas as possveis velocidades ocorreriam, e
cada molcula assumiria uma velocidade entre zero e uma velocidade que seria

121
122

Ibid., pp. 30-5.


Segundo Penrose, a distribuio Maxwelliana normal (gaussiana). Para mais detalhes, consultar: R.
Penrose, op. cit., pp. 694-6. Mais especificamente, uma distribuio qui (do tipo exponencial) com
trs graus de liberdade. Para mais detalhes, consultar:
http://en.wikipedia.org/wiki/Maxwell-Boltzmann_distribution#Distribution_of_speeds .

64

muito superior velocidade inicial comum a todas as molculas. Neste estado


final, poder-se-ia calcular a lei de distribuio de velocidades entre as
molculas. Num caso mais geral, poder-se-ia considerar a existncia de dois
gases no recipiente que naturalmente teriam molculas de massas distintas,
chamando-as de molculas-m e o de molculas-m1. Boltzmann prope que se
considere a inexistncia de foras externas, e que as paredes do recipiente
atuem apenas como refletoras das molculas que se chocassem a elas. Nestas
circunstncias simplificadas, a velocidade de cada molcula s seria alterada por
colises com outras molculas123.
Na seqncia, Boltzmann procura demonstrar a validade de se aplicar a
Lei da Distribuio de Velocidades de Maxwell ao modelo que prope. Esta lei
demonstraria que um gs, partindo de um estado molecular ordenado, tende a
um estado molecular desordenado medida que o tempo passa, atingindo um
estado final estvel no qual seriam observadas molculas se deslocando em
todas as velocidades possveis. Os conceitos de ordem e desordem molecular,
embora no formalmente definidos, podem ser inferidos pelos exemplos e
situaes hipotticas descritas no captulo: a ordem seria o estado advindo de
propriedades dinmicas comuns entre as molculas do gs, principalmente
velocidade e direo de movimento124. A primeira etapa da argumentao de
Boltzmann consiste na tentativa de provar que tal estado desordenado e
irreversvel um estado possvel no sistema em questo. A segunda etapa
consiste em demonstrar que este estado Maxwelliano o nico possvel: este
o objetivo do Teorema-H.

123
124

L. Boltzmann, op.cit., p. 36.


Ibid., pp. 40-1.

65

2.2.1. O Teorema-H
O Teorema-H se inicia com a declarao de seu objetivo: provar que um
gs que tenha atingido a distribuio de velocidades de suas molculas de
acordo com a lei de Maxwell permaneceria neste estado indefinidamente, sendo
que as colises entre as molculas no mais alterariam a distribuio de
velocidades. Boltzmann parece t-lo chamado de Teorema do Mnimo quando
de sua publicao, mas o nome pelo qual a demonstrao passou a ser
referenciada e conhecida leva o nome da grandeza que mede a desordem
molecular de um gs (nas condies j apresentadas). O autor utiliza a letra H
para nomear uma grandeza que soma um aspecto particular de todas as
molculas do gs:
Devemos agora calcular a soma H de todos os valores das funes
logartmicas correspondentes num dado momento a todas as
molculas-m e molculas-m1 contidas num elemento de volume125.
Boltzmann emprega as equaes formuladas at ento para somar as
variaes em H decorrentes dos 3 tipos de colises possveis: o das molculas-m
entre si (que ocorre em dos casos), o das molculas-m1 entre si (que tambm
ocorre em dos casos), e entre as molculas-m e molculas-m1 (que ocorre em
1/2 dos casos). Ele verifica que a frmula resultante composta por elementos
que tm sempre o mesmo sinal e que sempre aumentam quando seus
argumentos aumentam. Desta forma, a quantidade H, por somar 3 termos de
sinal negativo que sempre aumentam, s pode diminuir. Esta grandeza poderia
permanecer constante ao longo do tempo caso o gs estivesse em estado
estacionrio. Conclui, finalmente, a partir da assuno de que o estado de

125

Ibid., p. 50.

66

distribuio de velocidades molecularmente desordenado no se altera uma vez


atingido, que H s pode decrescer e que a distribuio de velocidades no gs
deve convergir para aquela preconizada por Maxwell126.
Boltzmann faz, a seguir, algumas consideraes sobre os significados
matemtico

fsico

da

quantidade

H,

incluindo

algumas

questes

epistemolgicas. Conclui, aps extensa argumentao, exemplificao e


analogias, que a fato de H somente decresce uma condio probabilstica: o
aumento da ordem molecular de um gs no seria impossvel, mas altamente
improvvel. Assim sendo, o gs, partindo de um estado menos provvel,
tenderia a lentamente assumir um estado mais provvel. Quanto s
simplificaes que teria usado em seus modelos, procura justific-las como
necessrias para se conseguir o entendimento dos processos, diferenciando-as
de meras omisses que introduziriam erros nos clculos. Admite que o uso de
equaes diferenciais sejam frmulas de aproximao (no seriam corretas
porque as quantidades envolvidas no seriam infinitas, embora muito grandes),
o que seria compensado pela vantagem de se obter uma melhor percepo.
Quanto ao significado fsico de H, Boltzmann associa-o ao negativo da entropia,
relacionado com a segunda lei da Termodinmica, qual atribui carter
probabilstico127.
Na seo final do Lectures, Boltzmann tece extensas consideraes a
respeito das leis fsicas deduzidas ao longo da obra, das quais selecionaremos
algumas que mais se relacionam com o tema deste trabalho. Boltzmann
reafirma de forma sinttica e articulada as premissas, demonstraes e

126
127

Ibid., pp. 50-5.


Ibid., pp. 74-5.

67

concluses previamente expostas, acrescentando consideraes de ordens


fsicas e filosficas. O autor parece acreditar que seu modelo mecnico pode ser
extrapolado do laboratrio ao universo, como se pode observar na seguinte
passagem:
Para explicar o fato de que os clculos baseadas nestes pressupostos
correspondem a processos realmente observveis, deve-se assumir
que um sistema mecnico enormemente complicado representa uma
boa imagem do mundo, e que todas as partes, ou pelo menos a
maioria delas, ao nosso redor esto inicialmente num estado muito
ordenado e, consequentemente, muito improvvel. Quando este o
caso, e sempre que duas ou mais partes dele interagem, o sistema
formado por estas partes inicialmente um estado ordenado, que por
si mesmo vai rapidamente proceder para o estado desordenado mais
provvel128.
O autor reafirma que a transio de um estado desordenado para
ordenado apenas extremamente improvvel: num sistema fechado e com
quantidade finita de molculas, o sistema poderia voltar a um estado ordenado
aps um intervalo de tempo inconcebivelmente longo o que deve ser tomado
no como uma refutao, mas como uma confirmao da teoria. Segundo seus
clculos, gases misturados num recipiente de volume 100 ml, s manifestariam
alguma ordem perceptvel aps um intervalo de aproximadamente 1010000000000
anos, o que em termos prticos significaria nunca. Observa que, num espao
de tempo to longo, eventos muito improvveis poderiam acontecer e se repetir,
como, por exemplo, todos os edifcios do mundo se incendiando num mesmo
dia, ou todos os habitantes de um pas morrendo por causas acidentais num
mesmo dia: comenta, de forma bem-humorada, que as seguradoras sempre
tiveram bons resultados ignorando estes riscos129.

128
129

Ibid., p. 443.
Ibid., p. 443-4.

68

2.2.2. Crtica Fenomenologia


Sobre a irreversibilidade dos processos naturais, Boltzmann expe suas
reservas ao analisar os procedimentos da Termodinmica Geral: considera que a
irreversibilidade inferida da observao, e adverte que o dogma da autosuficincia da fenomenologia deve ser evitado, uma vez que as possibilidades de
observao so extremamente restritas (inclusive em termos de tempo). Esta
posio, segundo o autor, deve ser entendida com os devidos cuidados: no se
trataria de ignorar os resultados da observao, mas de reconhecer suas
limitaes130. A auto-suficincia da fenomenologia que Boltzmann combatia era
sua defesa contra as crticas de Ernst Mach, com quem manteve um tenso
relacionamento acadmico. Mach defendia que se deveria embasar qualquer
conhecimento em evidncias experimentais, e rejeitava a teoria cintica dos
gases por ela se basear na existncia de tomos, cuja existncia no poderia ser
comprovada pela observao; o segundo argumentava que a rejeio da
natureza atmica em favor da natureza contnua da matria era uma questo de
escolha entre duas hipteses que deveria ser decidida em prol daquela que
oferecesse os melhores resultados131. interessante notar o claro engajamento
de ambos aos ideais positivistas, embora o fizessem com interpretaes
divergentes.
Ao longo do Lectures, Boltzmann desenvolve uma sntese do pensamento
cientfico de seus contemporneos sobre a Teoria do Gs, qual acrescenta,
desenvolve e demonstra idias e conceitos prprios. Sua posio cientficofilosfica sempre colocada de forma clara: ele busca uma explicao mecnica

130
131

Ibid., p. 445-6.
J. Uffink, Boltzmann's Work in Statistical Physics.

69

para os fenmenos termodinmicos baseada na concepo de que a natureza da


matria corpuscular. Sua abordagem da Termodinmica estatstica, baseado
no fato de que impossvel mapear cada partcula individualmente devido
imensa quantidade delas. Tenta generalizar suas teorias de forma a explicar o
funcionamento do universo, e prope uma reviso criteriosa do que considera
dogmtico. Embora intensamente criticado em sua poca, os princpios
propostos por Boltzmann ainda se fazem presentes na Mecnica Quntica e
tiveram influncia importante numa nova rea de conhecimento criada no
sculo XX: a Teoria da Informao. De fato, sua explicao de que tudo no
universo tende a se transformar no sentido do estado menos provvel para o
mais provvel ao mesmo tempo simples, intuitiva e profunda, e tem sido
amplamente utilizada para explicar fenmenos da Fsica Quntica e na
Cosmologia.

2.2.3. A Transio para o Estado Mais Provvel


Utilizando uma linha argumentativa semelhante que ele prprio usa,
poderamos tecer consideraes epistemolgicas sobre a questo da transio
do estado menos provvel para o mais provvel: esta proposio parece conter
certa obviedade que (talvez por isto mesmo) escapa percepo comum. Sua
capacidade preditiva de amplitude mxima, embora exija que a determinao
do estado mais provvel de fenmenos especficos seja resultado do processo de
verificao de modelos tericos atravs de experimentaes. Esta viso de
mundo desencadeou no sculo XX um intenso debate entre os partidrios da
Mecnica Quntica e os Fsicos Relativistas: enquanto os primeiros aceitam que
os processos estatsticos como inerentes ao universo, os segundos rejeitam esta

70

idia, numa posio que pode ser sintetizada na conhecida frase de Einstein
manifestando sua crena de que Deus no joga dados132. De qualquer forma, a
cincia contempornea parece cada vez mais ligada incerteza inerente dos
modelos probabilsticos, o que se pode verificar pela crescente popularizao do
conceito em textos cientficos, inclusive de divulgao133. Atualmente, a
Entropia calculada pela frmula de Boltzmann-Planck:
S = k ln P
onde k igual a 1,38 x 10-16 erg/C (chamada de constante de Boltzmann) e P a
quantidade de configuraes discretas possveis134.
A nova abordagem introduzida por Boltzmann no estudo dos gases foi uma
importante

influncia

na

Fsica

do

sculo

XX

pela

introduo

da

descontinuidade da matria e pela formulao estatstica135. A Teoria da


Informao tambm foi diretamente influenciada, uma vez que ela emprega
tratamento estatstico em sua formulao e usa a entropia para definir
quantidade de informao. Para alguns autores, entretanto, as relaes entre a
Fsica e a Teoria de Informao no se limitam ao compartilhamento de
princpios e frmulas. De fato, cientistas e pensadores como Wiener, Brillouin e

132

133

134
135

A origem da controvrsia decorre da interpretao formulada por Niels Bohr e Werner Heisenberg,
conhecida como Interpretao de Copenhagen. Mais detalhes (inclusive sobre a retrica utilizada no
debate, com a resposta de Bohr a Einstein para que ele no dissesse a Deus o que fazer), consultar:
http://en.wikipedia.org/wiki/Copenhagen_interpretation. Para uma breve introduo ilustrada aos
fenmenos em discusso, consultar: http://en.wikipedia.org/wiki/Bohr-Einstein_debates. Para
conhecera opinio de Schenberg sobre alguns aspectos paradoxais da interpretao estatsca, consulta:
M. Schenberg, op.cit., pp. 161-2.
Como se sabe, a fsica quntica e a cosmologia lanam mo de recursos como o colapso da funo de
onda para exprimir probabilidades em todos os nveis, de partculas subatmicas ao universo. A
popularizao do conceito em obras de divulgao pode ser constatada em S. Hawking, O universo
numa casca de noz, pp. 106-29, em M. Kaku, Hyperspace, pp. 254-65 e em J. D. Barrow, Theories of
Everything, pp. 86-92.
L. Brillouin, op. cit., pp. 119-20.
M. Schenberg, op.cit., p. 146. Schenberg lembra que Boltzmann escreveu a Planck aconselhando-o a
considerar a descontinuidade na soluo de problema do corpo negro, sem a qual seria impossvel
resolve-lo. Aceitando o conselho, Planck chegou soluo do problema, e mais tarde utilizou o mesmo
princpio na criao da mecnica quntica.

71

Ifrah propem que existe um nvel de interao mais profundo unindo a


informao s dimenses e propriedades j conhecidas da matria e da energia.
Entretanto, antes de explorar tais possibilidades, faz-se necessrio analisar com
maior profundidade a prpria Teoria da Informao nas vises de Shannon e
Wiener.

72

2.3. Shannon e a Teoria Matemtica da Comunicao


Para Shannon, a questo fundamental da comunicao a capacidade de
se reproduzir remotamente uma mensagem, com o grau de fidelidade desejado.
Neste sentido, ele ignora o aspecto semntico da mensagem em favor de uma
abordagem quantitativa. No interessa teoria qual o significado da mensagem:
o que importa que cada mensagem o resultado de uma escolha entre um
conjunto de mensagens possveis, ou seja, de um conjunto de mensagens
possveis, apenas uma foi selecionada136. Convm notar que, apesar desta
abordagem ser melhor entendida e aplicada a canais discretos, seus princpios
tambm so aplicveis aos canais contnuos137. Antes de prosseguir, necessrio
caracterizar e distinguir os dois tipos.
Entende-se por Canais Discretos os sistemas de comunicao que operam
com um conjunto finito de smbolos, que mantm correspondncia bi-unvoca
com um conjunto arbitrrio de representao. O telgrafo, o teletipo, o telex e
todas as formas de transmisso digital so exemplos de canais discretos. No
caso do telgrafo, os smbolos so as letras do alfabeto latino e os algarismos
indo-arbicos conforme definidos pelo Cdigo Morse, e so formados por
pontos (sinais curtos) e traos (sinais longos), e separados por pausas
(espaos) entre letras e entre palavras. Desta forma, cada combinao de
pontos e traos entre duas pausas deve corresponder codificao de um
smbolo no Cdigo Morse, ou no ser um smbolo vlido. No caso da
transmisso digital por modem, sabe-se que usual empregar dgitos binrios

136

137

C. Shannon, The Mathematical Theory of Communication, in C. Shannon & W. Weaver, op. cit., p.
31.
Ibid., p. 81.

73

agrupados em octetos ou bytes (oito dgitos binrios), cujas combinaes


correspondem a smbolos definidos conforme a Tabela ASCII.
Canais Contnuos, por outro lado, so sistemas de comunicao que
prescindem de um conjunto de smbolos, podendo operar com qualquer valor
ou intensidade dentro de uma faixa de valores ou intensidades determinadas. A
ausncia de um repertrio finito de smbolos implica que existem infinitos
valores possveis dentro dos limites pr-determinados; esta a caracterstica
principal das transmisses analgicas, ou seja, aquelas cuja interpretao
depende do estabelecimento de uma analogia entre diferentes escalas contnuas,
a real e a de representao, atravs da intensidade do sinal transmitido138. A
reproduo de uma msica num disco de vinil um exemplo de transmisso
analgica, uma vez que inexiste um repertrio finito e arbitrrio de cdigos na
gravao. A teoria de Shannon promove a discretizao139 do sinal contnuo
atravs da diviso do continuum de mensagens e sinais em numerosos grupos
de pequenas regies, que, medida que a amplitude das regies diminui e o
nmero de grupos aumenta, os resultados obtidos se aproximam dos resultados
da continuidade140. Tambm existem Canais Mistos, que combinam processos
discretos e contnuos, como o PCM141 e Transmisses de Televiso com ClosedCaptioning142.

138
139
140

141

142

R. Tenrio, Crebros e Computadores, p. 69.


Ibid., pp. 69-70.
C. Shannon, The Mathematical Theory of Communication, in C. Shannon & W. Weaver, op. cit., p.
81.
Pulse-Code Modulation uma tcnica de digitalizao de sons usada nas em transmisses e gravaes
digitais. Para detalhes sobre PCM, consultar: http://www.webopedia.com/TERM/P/PCM.html e
http://en.wikipedia.org/wiki/PCM.
As legendas so codificadas digitalmente e transmitidas durante o intervalo de reposicionamento
vertical do sinal analgico, chamado de VBI (Vertical Blanking Interval). Para detalhes sobre ClosedCaptioning, consultar http://en.wikipedia.org/wiki/Closed_caption, e para detalhes sobre VBI
consultar: http://en.wikipedia.org/wiki/Vertical_blanking_interval.

74

2.3.1. O Problema de Engenharia


A partir do conhecimento das diferenas entre o analgico e o digital, seria
lcito perguntar o porqu da digitalizao, uma vez que o analgico pode parecer
mais vantajoso que o digital uma vez que contempla infinitas possibilidades, e,
portanto, que poderia representar qualquer coisa mais fielmente. A resposta no
se encontra na TMC, mas nos oferecida por Viterbi: no analgico no h como
se distinguir entre o sinal e o rudo, pois o rudo encontra-se necessariamente
dentro do continuum de valores vlidos para um sinal143.
Os sinais eltricos, ao serem transmitidos num meio fsico, so
susceptveis ocorrncia fortuita de rudo, alm de sofrer atenuao, ou seja, a
diminuio de sua intensidade devido resistncia do meio. Amplificar o sinal
ao longo do meio de transmisso significa ampliar o rudo agregado a ele at
ento, sendo que aps ser amplificado o sinal continua susceptvel a rudos no
resto da trajetria. A cada amplificao intermediria do sinal analgico, a
relao sinal/rudo tende a se degradar. Tambm no se pode ampliar a
potncia do transmissor indefinidamente144. A digitalizao resolve o problema
da amplificao do rudo: na transmisso binria s se reconhecem dois nveis
de intensidade, e nem todo rudo ser intenso o suficiente para fazer com que
um nvel de intensidade se transforme no outro, uma vez que os valores
admitem certo grau de tolerncia. Ao receber um sinal com rudo, o receptor
dever traduzi-lo num dos 2 valores vlidos. Se este valor tiver sido traduzido

143

144

UCSD-TV, Claude Shannon, Father of the Information Age, depoimentos de Jack Keil Wolf, ndices
de tempo 08:20 a 09:03 e 12:20 a 13:00.
Ibid.

75

erroneamente em conseqncia do rudo, ele dever ser tratado pelos


algoritmos de deteco e correo de erros.
Quanto medida da quantidade de informao e grandezas associadas,
Shannon optou pela escala logartmica. Entre as vantagens mencionadas na
justificativa desta escolha, destaca-se a convenincia de se empregar uma escala
que freqentemente surge nos teoremas da Teoria da Informao, pois est
relacionada com a quantidade de sinais necessrios para se codificar
determinado repertrio de smbolos. Sendo o n a quantidade de smbolos do
repertrio, e m a quantidade de sinais distintos, a quantidade de sinais
necessria para codificar um smbolo logmn. Na base binria, cuja unidade o
bit (binary digit), a quantidade de sinais necessria para codificar um repertrio
de n smbolos log2n. Exemplificando: para se codificar os algarismos indoarbicos, cujo repertrio de 10 smbolos discretos, so necessrios log210 bits,
ou seja, 3,3 bits. De fato, com 3 bits possvel representar 8 smbolos (23=8), e
com 4 bits possvel representar 16 smbolos (24=16). Por analogia, para se
codificar o alfabeto latino, que um repertrio de 26 smbolos discretos, so
necessrios log226 = 4,7 bits ou log1026 = 1,4 algarismos. Outra vantagem citada
por Shannon se relaciona s propriedades matemticas dos logaritmos, cuja
mudana de base feita por logax = logbx / logb145.

2.3.2. Modelo de um Sistema de Comunicao


Shannon prope um modelo de comunicao composto por uma Fonte de
Informao (uma pessoa ou uma mquina), que envia mensagens ao

145

C. Shannon, The Mathematical Theory of Communication, in C. Shannon & W. Weaver, op. cit., p.
31.

76

Transmissor, que por sua vez transforma as mensagens em sinais atravs de um


processo de codificao para, em seguida, envi-las por um Canal (um meio
fsico qualquer). O sinal recebido por um Receptor (uma pessoa ou uma
mquina), que decodifica os sinais em mensagens, enviando-os ao Destino. O
processo de transmisso est sujeito a interferncias de diversas naturezas, e
que podem corromper os sinais enviados: estas interferncias so chamadas de
Rudos.

Fig. 7 - Diagrama Esquemtico de um Sistema de Comunicao

Partindo deste modelo, Shannon inicia pelo Canal Discreto Sem Rudo por
ser o caso geral que servir de base para o estudo dos demais casos146.
Shannon define Capacidade de transmisso de um canal como a
quantidade de sinais transmitidos durante um intervalo de tempo. Ora, a
quantidade de sinais depende da base de representao e da quantidade de
smbolos do repertrio, o que resulta em

146

Ibid., p. 35.

77

onde N(T) a quantidade de smbolos permitidos durante o perodo de


amostragem T. A capacidade usualmente medida em bits por segundo147. A
seguir, necessrio analisar as caractersticas da Fonte de Informao Discreta.

2.3.3. Entropia de Fontes Discretas


A experincia demonstra, afirma Shannon, que o processo de gerao de
informao um processo no-determinstico, uma vez que geralmente
impossvel saber de antemo o que o canal vai transmitir. A partir deste ponto,
Weaver resume o arrazoado de Shannon a este respeito, conforme segue:
Um sistema que produz uma seqncia de smbolos (que podem ser
letras ou notas musicais ao invs de palavras) de acordo com certas
probabilidades chamado de processo estocstico, e um tipo especial
de processo estocstico no qual as probabilidades dependem dos
eventos anteriores chamado de processo de Markoff ou corrente de
Markoff. Dos processos de Markoff que podem de alguma forma
gerar mensagens, existe uma classe especial que de importncia
primria para a teoria da comunicao, sendo estes chamados de
processos ergdicos. (grifos do original)148
Shannon prossegue, explicando que um processo ergdico deve ser
analisado de maneira probabilstica, ou seja, considerando em conjunto as
probabilidades de ocorrncia dos eventos possveis. Assim sendo, a quantidade
de informao gerada por um processo ergdico deve somar todas as
probabilidades p de ocorrncia de evento, multiplicado pelo seu prprio
logaritmo. Esta medida expressa matematicamente por:

147
148

Ibid., pp. 35-6.


W. Weaver, Recent Contribuions to The Mathematical Theory of Comunication, in C. Shannon & W.
Weaver, op. cit., p.6. Citao no original: A system which produces a sequence of symbols (which
may, of course, be letters or musical notes, say, rather than words) according to certain probabilities is
called a stochastic process, and the special case of a stochastic process in which the probabilities
depend on the previous events, is called a Markoff process or a Markoff chain. Of the Markoff
processes which might conceivably generate messages, there is a special class which is of primary
importance for communication theory, these being what are called ergodic processes.

78

onde K uma constante arbitrria que expressar a unidade de medida. A


demonstrao fornecida no apndice do livro, e decorre dos pressupostos
estatsticos assumidos. Esta medida calcula a quantidade mdia de informao
por sinal de um repertrio, o que pressupe que a soma de todas as
probabilidades pi igual a 1. Epstein oferece uma explicao complementar:
esta medida nada mais do que a mdia da auto-informao de cada smbolo
do repertrio ( log pi) ponderada por sua freqncia em determinada lngua
( pi )149.
Shannon nota que expresses desta forma (soma do produto de
probabilidades por seus logaritmos) tm papel fundamental Teoria da
Informao, e que esta forma da quantidade H seria reconhecida como a da
entropia da mecnica estatstica, como no Teorema-H de Boltzmann. Assim, o
termo entropia passa a designar a quantidade de informao, que
representada por H na TMC150.
O caso mais simples que se pode conceber a ocorrncia de um evento
com duas possibilidades, cujas probabilidades so p e q = 1 - p. A entropia deste
sistema (repertrio)
H = - ( p log2 p + q log2 q ).

149
150

Epstein, op. cit., pp. 45-9.


C. Shannon, The Mathematical Theory of Communication, in C. Shannon & W. Weaver, op. cit., pp.
48-50. Contudo, importante notar que o Teorema-H no trata da entropia, e sim da prova da lei da
distribuio de velocidades de Maxwell, onde Boltzmann relaciona H entropia, sem, contundo,
estabelecer qualquer igualdade. A fonte indicada por Shannon para justificar esta afirmao no vem
de Boltzmann, mas de uma obra de 1938 de R. Tolman. Por similaridade, pode-se dizer que a entropia
de Shannon deriva da frmula de um dos conceitos anlogos de entropia de Gibbs. Para mais
detalhes, consultar: K. Denbigh, How subjective in entropy?, pp. 110-1. Ainda, alguns autores se
referem entropia com Entropia de Boltzmann-Gibbs-Shannon, como o caso de Pereira & Stern
em Inferncia Indutiva com Dados Discretos: Uma Viso Genuinamente Bayesiana, p. 62.

79

Este caso pode ser melhor entendido se representado graficamente,


conforme segue:

Fig. 8 - Variao da Entropia no caso de duas possibilidades com probabilidades p e (1-p)

Shannon observa que a entropia mxima ocorre quando as possibilidades


so equiprovveis: quanto maior for a diferena entre as probabilidades, menor
ser a entropia, e este a situao de maior incerteza. No caso particular de uma
das probabilidades ser 100%, a entropia ser zero151. Weaver nota, em
complemento a esta idia, que a entropia tambm aumenta quanto maior for da
quantidade de possibilidades, em outras, ou seja, tomando-se dois conjuntos de
possibilidades equiprovveis, a entropia ser maior no conjunto de
possibilidades mais numerosas152.
Ele prossegue, afirmando que os eventos de uma Fonte de Informao
Discreta so os smbolos que ela gera, e define a Entropia de uma Fonte
Discreta por

151
152

Ibid., pp. 50-1.


W. Weaver, Recent Contributions to The Mathematical Theory of Communication, p.15-6.

80

onde fi a freqncia mdia do estado i, e relacionando-a com a Entropia pela


equao
H = mH
onde m o nmero mdio de smbolos produzidos por segundo. A seguir, o
autor deduz a frmula da entropia para longas seqncias de smbolos
independentes, que vlida para qualquer fonte: toma-se uma seqncia
composta de N smbolos, e pi a probabilidade do smbolo i, com entropia
- pi log pi. Esta seqncia ter alta probabilidade de conter ocorrncias de
cada smbolo proporcionais s suas probabilidades individuais, ou seja, piN.
Assim sendo, a probabilidade desta seqncia em particular
p = p1N p2N ... pnN.
Da, tem-se

A entropia da fonte discreta , aproximadamente, o logaritmo do inverso da


probabilidade de uma longa seqncia tpica de smbolos, dividido pela
quantidade de smbolos que contm153.
Adiante, Shannon conceitua Entropia Relativa como sendo a razo entre a
entropia de uma fonte com o valor mximo que ela poderia apresentar estando
restrita ao mesmo repertrio de smbolos. Este valor corresponde ao mximo de
Compresso possvel na codificao do repertrio, entendendo-se por

153

C. Shannon, op. cit., pp. 53-4.

81

compresso a tcnica de codificar o repertrio de maneira usar o canal de forma


mais eficiente. A Redundncia o complemento da entropia Relativa, e como
tal calculada subtraindo-se a entropia relativa de um. A redundncia
corresponde aos smbolos mais freqentes do repertrio, ou seja, aqueles de
maior probabilidade de ocorrncia e, conseqentemente, de menor entropia.

2.3.4. Codificao Eficiente, Redundncia e Compresso


Neste ponto, Shannon est pronto para demonstrar o Teorema
Fundamental do Canal Sem Rudo. Ele prova que, com a codificao mais
eficiente possvel, a entropia determina a capacidade do canal. Por este motivo,
impossvel transmitir a uma taxa mdia superior a C/H, o que pode ser
traduzido matematicamente como H/H C/H. Para o entendimento adequado
desta inequao, necessrio lembrar que a capacidade do canal a quantidade
de sinais transmitidos por segundo, e no a quantidade de informao
transmitida por segundo (que a prpria definio de entropia por segundo): o
canal transmite tanto entropia como redundncia na forma de sinais. O
Shannon prova que, em condies especiais, possvel transmitir informao
taxa da capacidade do canal, o que ocorrer quando a mensagem no contiver
redundncia154.
A forma de reduzir a redundncia das mensagens a Compresso.
Shannon sugere alguns algoritmos, sendo que o de entendimento mais intuitivo
o seguinte: arranjar as mensagens de extenso N em ordem decrescente de
probabilidade, e atribuir a elas um nmero binrio crescente. As mensagens
mais provveis sero representadas por nmeros binrios mais curtos enquanto
154

Ibid., p. 58-61.

82

que as menos provveis sero codificadas por nmeros mais longos, o que
provocar o encurtamento da transmisso. A expanso ser realizada pelo
Receptor, que realizar o processo inverso. Obviamente, necessrio que tanto
o Transmissor como o Receptor tenham capacidade de armazenamento de
sinais (memria) para que a compresso e a expanso possam ser
realizadas155. Shannon nota que a codificao dos sinais em funo distribuio
de freqncias de suas ocorrncias numa determinada lngua j foi empregada
de forma limitada quando da criao do Cdigo Morse: a letra E, que a mais
freqente na lngua inglesa, codificada por apenas um ponto, enquanto que
letras menos freqentes como Q, X e Z so representadas por seqncias mais
longas de pontos e traos. O autor prossegue, lembrando que a idia de
economizar tempo e capacidade de canal (bem como pagar menos pelas
transmisses telegrficas) levou ao uso de abreviaes de palavras ou frases
mais comumente transmitidas156. O assunto ser retomado adiante, ao
aprofundarmos a anlise das abreviaes e compresses sintticas.
Shannon afirma que impossvel a reconstruo fidedigna das mensagens
transmitidas num canal ruidoso, uma vez que a ocorrncia de rudos aleatria
e no h como saber quais partes do sinal foram afetadas. Ele formula, na
seqncia, o conceito de Equivocao (ou Entropia condicional), definindo-a
como a ambigidade mdia do sinal. A nica forma de eliminar a equivocao
a introduo intencional de redundncia157. Ele descreve um algoritmo criado
por outro pesquisador para deteco e correo de erros, embora reconhea
suas limitaes, uma vez que este mtodo introduz de 3 bits de redundncia

155
156
157

Ibid., pp. 60-1.


Ibid., p. 39.
Ibid., p. 65-70.

83

para 4 bits de sinal.158 Posteriormente, outros pesquisadores criaram tcnicas de


deteco e correo de erros que no oneram tanto o canal, e que conquanto no
sejam infalveis, trabalham com graus de acerto estatisticamente aceitveis. Um
exemplo deste tipo de algoritmo o CRC159, que amplamente usado em
protocolos de redes de computadores.
A redundncia est presente em todos os meios de comunicao. A
comunicao oral, cujo canal de transmisso o mecanismo combinado fala e
cuja codificao a linguagem, embute redundncias semnticas bidirecionais
para garantir uma comunicao eficaz. A escrita herda parte da redundncia
semntica da fala, e ainda carrega a redundncia sinttica imposta pela
gramtica. Na escrita, observa Shannon, a redundncia da lngua inglesa da
ordem de 50%, o que significa que at 50% de seus sinais podem ser removidos
sem que a mensagem se torne ininteligvel160. Este fenmeno pode ser verificado
diversos tipos de comunicao escrita, uma vez que parece existir uma
tendncia e abreviar as expresses mais comumente usadas.
A abreviao uma forma no-sistemtica de eliminar redundncia do
sinal (a escrita, no caso), e aceita em maior ou menor grau em todos os tipos
de escrita (comercial, acadmica, informal e tcnica, entre outros). Os exemplos
so inmeros, e sero citados apenas alguns poucos e significativos acrnimos e
abreviaes, com suas respectivas expanses: 3D (tridimensional), ASAP (as
soon as possible), CD (compact disk), CQD (como queramos demonstrar),

158
159

160

Ibid., p. 80.
Cyclic Redundancy Check um algoritmo baseado em diviso binria polinomial. Para mais detalhes,
consultar http://en.wikipedia.org/wiki/Cyclic_redundancy_check.
Este nmero foi obtido por Shannon, que alega ter chegado ao mesmo resultado que outros
pesquisadores obtiveram por diferentes mtodos empricos, como pode ser verificado em C. Shannon,
The Mathematical Theory of Communication, in C. Shannon & W. Weaver, op. cit., p. 55-7.
Entretanto, Kahn calcula que a entropia da lngua inglesa de cerca de 75%. Para mais detalhes,
consultar: D. Kahn, op. cit., pp. 759-62.

84

CEP (cdigo de endereamento postal), FAQ (frequently asked questions),


GLS

(gays,

lsbicas

simpatizantes),

IPI

(imposto

sobre

produtos

industrializados), PS (post scriptum), Radar (radio detection and ranging),


RSVP (rpondez s'il vous plait), TV (televiso) e USB (universal serial bus).
A existncia de abreviaes em latim indica que o fenmeno no recente. De
fato, lnguas antigas como a hebraica permitem a compresso sinttica atravs
da eliminao das vogais e manuteno das consoantes161, como Olson descreve:
As lnguas semticas tm a interessante propriedade de veicular as
identidades lxicas atravs daquilo que chamamos de consoantes. O
que conhecemos como vogais usado apenas para inflexes162.
e, a seguir, explica:
Como as vogais s contm informao gramatical, e no lxica ou
morfmica, alguns sistemas de escrita semticos nunca desenvolveram
qualquer recurso para represent-las163.
Ainda, lembrando que Umberto Eco ensina que a linguagem da tese
uma meta-linguagem164, possvel introduzir uma auto-referncia neste
prprio texto para indicar alguns casos de compresso: nas notas de rodap, por
exemplo, cada Ibid. uma abreviao Ibidem, que j uma forma de
compresso, uma vez que evita que a referncia a uma obra recm-citada seja
repetida.
Ao que parece, a compresso sinttica foi um fenmeno duradouro e
abrangente cuja explicao matemtica demorou sculos para surgir. A Teoria
da Informao, embora seja indiferente ao significado da comunicao, oferece

161

162
163
164

Neste caso, as ambigidades so eliminadas pela anlise do contexto das frases. Uma breve descrio
do sistema de escrita da lngua hebrica pode ser encontrada em:
http://www.jewishvirtuallibrary.org/jsource/Judaism/alephbet.html.
D. Olson, op. cit., p. 99.
Ibid.
U. Eco, Como se faz uma tese, p. 166.

85

modelos para o entendimento em nveis alm de suas pretenses. Sobre o


significado da comunicao, Weaver sugeriu em 1949 que seria possvel a
aplicao dos princpios da Teoria da Informao num nvel semntico165, mas
esta hiptese ainda no foi satisfatoriamente comprovada.
Shannon utilizou os conceitos de Mecnica Estatstica desenvolvidos por
Boltzmann e aplicou na anlise dos sistemas de comunicao. Medir o grau de
aleatoriedade de um sistema talvez seja mais bem compreendido como
determinar o grau de liberdade do mesmo, ou seja, a forma com que mensagens
se distanciam dos padres encontrados. Notadamente nos estudos onde a
quantidade de dados muito grande, a aplicao dos conceitos da Teoria da
Informao facilita a identificao de informao genuna dos padres
estruturais.
A Cincia tem por objetivo a compreenso da Natureza, o que conseguido
atravs da observao e da aquisio de dados para que se possa formular e
testar predies. Neste aspecto, o reconhecimento de padres de suma
importncia para transformar os dados coletados em informaes inteligveis,
caso contrrio no haveria sentido em elaborar listas de dados sem sentido. O
reconhecimento de padres permite que se substitua vasta quantidade de dados
por frmulas que permitam representar coletivamente todas as medies
efetuadas, com maior ou menor grau de preciso. O princpio que permite que
isto acontea a Compressibilidade Algortmica. Uma seqncia de medies
de um fenmeno que no seja completamente aleatria deve ter uma forma de
representao que seja menor que a prpria seqncia de dados, ou seja, deve

165

W. Weaver, Recent Contributions to the Mathematical Theory of Communications, in C. Shannon &


W. Weaver, op. cit., pp. 24-8.

86

ser algoritmicamente compressveis166. No parece ser casual que a Teoria da


Informao tenha desenvolvido ferramentas para a aplicao sistemtica deste
princpio no que tange informao: seu objetivo o mesmo da Cincia, apesar
de possurem mtodos diferentes.
A Teoria da Informao parece ter inaugurado uma nova abordagem para
a compreenso de fenmenos das mais diversas reas. De fato, Schenberg
assinala que talvez a informao seja uma propriedade fsica fundamental ainda
no completamente entendida, com potencial para provocar uma revoluo na
Cincia167. Isto pode ser verificado pela influncia que a Teoria da Informao j
exerce em Fsica, Gentica, Qumica e na prpria Matemtica e Estatstica de
onde se originou168.
Para facilitar o entendimento das idias de Boltzmann e Shannon a
respeito da entropia, o que importante para a anlise das idias de Wiener (e
de fsicos que acreditam na existncia de uma relao ntima entre informao e
entropia), encontra-se a seguir um quadro comparativo que resume conceitos e
conseqncias segundo o pensamento de cada autor.

166
167
168

J. Barrow, op. cit., p. 14-5.


M. Schenberg, op. cit., pp. 99-100.
S. Verd, Fifty Years of Shannon Theory, in S. Verd & S. McLaughlin, orgs., op. cit., pp. 26-7.

87

ENTROPIA
Autor

Boltzmann

Shannon

Objeto

Gases

Informao

Conceito

Desordem Molecular

Quantidade de Informao

Medida

Distribuio de Velocidades das Molculas

Probabilidade de Ocorrncia dos Smbolos

Variao

Aumenta medida que o movimento das

Aumenta medida que a ocorrncia dos

molculas se torna aleatrio.

smbolos se torna aleatria (a distribuio


se aproxima eqiprobabilidade).

Tendncia

Num sistema fechado, aumenta at atingir a

Numa lngua natural, a freqncia de

situao de equilbrio (distribuio de

smbolos tende distribuio de Gibbs170.

Maxwell-Boltzmann)169.

169

170

Devem-se considerar as restries do modelo terico adotado por Boltzmann, bem como as limitaes
do mtodo de clculo.
O resultado esperado deve considerar as restries do modelo adotado por Shannon, que assume que
os textos produzidos na lngua inglesa so adequadamente descritos como processos ergdicos.
importante notar que, na prtica, os sistemas de comunicao no transmitem apenas texto na lngua
inglesa (tambm transmite, por exemplo, por exemplo, nmeros codificados e dados analgicos
digitalizados) o que tende a desviar os resultados reais da distribuio terica.

88

2.4. Wiener e a Entropia na Ciberntica


Em seu livro Cybernetics, Wiener aborda uma vasta gama de assuntos
ligados ao controle e comunicao. Como j foi mencionado, ele liderava um
grupo multidisciplinar que tinha como objetivo desenvolver aplicaes
militares, sendo que um dos pressupostos era de que se poderia usar o
comportamento dos animais para modelar o funcionamento de mquinas.
Cybernetics talvez possa ser mais apropriadamente descrito como um amplo
painel multidisciplinar, ao qual Wiener acrescenta formulaes matemticas e
reflexes sobre filosofia e cincia. Ao contrrio do que fez Shannon na TMC,
Wiener no adota o modelo de demonstrao de teoremas.
Na introduo do livro, Wiener declara seu interesse pelo processo de
comunicao, o qual acredita estar baseado no em tcnicas de engenharia, mas
numa noo abrangente de mensagem que independe do meio de
transmisso, que poderia tanto ser eltrico, mecnico, ou nervoso.
A mensagem uma seqncia discreta ou contnua de eventos
mensurveis no tempo exatamente o que os estatsticos chamam de
srie temporal171.
Seguindo sua argumentao, descobre-se que ele acredita poder
transformar o projeto de engenharia de comunicao numa cincia estatstica
derivada da mecnica estatstica. Ele considera que a mecnica estatstica est
entranhada em todos os ramos da cincia h mais de um sculo, e acredita que o
domnio desta disciplina na Fsica poder ter importncia capital na

171

N. Wiener, Cybernetics, or control and communication in the animal and the machine, pp. 8-9.
Citao no original: The message is a discrete or continuous sequence of measurable events
distributed in time precisely what is called a time series by the statisticians.

89

interpretao da natureza do tempo172. Com relao comunicao, Wiener


declara que Shannon e R. Fischer, alm dele prprio, teriam chegado de forma
independente e quase simultnea idea da quantificao da informao173.
Wiener declara que a noo de quantidade de informao se associa
naturalmente noo estatstica de entropia de Boltzmann. Entretanto, ao
defini-la incorre numa dissenso fundamental com a definio de Shannon:
Assim como a quantidade de informao num sistema uma medida
de seu grau de organizao, a entropia de um sistema uma medida
de seu grau de desorganizao; e uma simplesmente o negativo da
outra174.
Como foi anteriormente exposto neste captulo, a entropia de Shannon e a
entropia de Boltzmann apresentam semelhanas notveis quanto a seus
conceitos e decorrncias. Entropia o nome atribudo por Shannon grandeza
que mede quantidade de informao, o que conflitante com a proposta de
Wiener. Foram apresentadas evidncias de que ambas medem o grau de
aleatoriedade de certos fenmenos. Esta aleatoriedade pode ser interpretada
como a tendncia ao desordem molecular decorrente da lei da distribuio das
velocidades, ou como a quantificao da aleatoriedade dos smbolos.
Claramente, o conceito de informao de Wiener no o mesmo que o de
Shannon.
A explicao para o conceito diferenciado de informao de Wiener se
encontra adiante, quando ele descreve um mecanismo hipottico que seria
capaz de diminuir a entropia de um sistema isolado, conhecido como demnio

172
173
174

Ibid., p. 10.
Ibid., pp. 10-1.
Ibid., p. 11. Citao no original: Just as the amount of information in a system is a measure of its
degree of organization, so the entropy of a system is a measure of its degree of disorganization: and the
one is simply the negative of the other.

90

de Maxwell. Na experincia imaginada por Maxwell, um ser inteligente


diminuto dentro de um recipiente bipartido repleto de um gs perfeito, poderia
permitir a passagem de molculas de um lado para outro baseado na percepo
de suas velocidades: ele operaria uma abertura na parede divisria, de forma a
permitir que as molculas mais energticas ficassem de um lado e as menos
energticas do outro. Esta construo introduzira ordem ao sistema, uma vez
que induziria a uma tendncia de concentrao na distribuio de velocidades
das molculas em funo do lado no qual seriam confinadas dentro do
recipiente. Esta hipottica violao das leis da termodinmica encontrou vrios
vingadores, entre os quais Le Szilard: ele argumentou que a variao
negativa da entropia era devida aquisio de informao, sendo por isto
considerado o primeiro a estabelecer uma conexo entre a entropia
termodinmica e a informao175. Para tanto, Szilard props um sistema de uma
nica molcula, e substituiu o demnio por um dispositivo mecnico para
registrar as variaes da entropia.
Apesar de no se encontrar meno a Szilard na argumentao de Wiener,
sua influncia pode ser inferida pela associao entre entropia mecnica e
informao e tambm pela descrio que Wiener oferece sobre o experimento
que permitiria a reduo da entropia de um sistema: a abertura poderia ser
controlada pelo demnio ou por um equivalente mecnico:
...[a abertura seria] operada por um porteiro, [que poderia ser] ou
um demnio antropomrfico ou um mecanismo diminuto176.

175
176

H. Leff & A. Rex , Maxwells Demon: Entropy, Information, Computing, p. 16.


N. Wiener, op.cit., p. 57. Citao no original: ... [the opening would be] operated by a gatekeeper,
either an anthropomorphic demon or a minute mechanism.

91

Wiener retoma o assunto adiante, ao tratar de sries temporais,


informao e comunicao. A princpio, procura associar informao a conceitos
probabilsticos:
O que informao, e como ela mensurada? Uma das formas mais
simples e unitrias de informao o registro de uma escolha entre
duas alternativas simples e igualmente provveis, quando uma ou
outra dever ocorrer177.
Esta noo sucinta serve apenas para embasar os argumentos de Wiener a
respeito do processo de aquisio de informao178 e demonstrao de que a
quantidade de informao essencialmente uma entropia negativa179. Se no
nos parece correto supor que a entropia da informao mede sua organizao
enquanto que a entropia de um sistema mede sua desorganizao, tampouco
parece acertado afirmar que uma seja oposta outra.

Ora, a entropia de

Shannon uma grandeza adimensional positiva, enquanto a entropia de


Boltzmann uma grandeza positiva expressa por Energia dividida por
Temperatura (no Sistema Internacional, J/K). Entretanto, ao fazer tal
afirmao, Wiener contribuiu para alimentar as expectativas de integrao de
alguns fsicos, como Brillouin: este cita a definio de Wiener e o captulo do
Cybernetics onde ela foi formulada num artigo de 1949 sobre as relaes
existentes entre a vida, a termodinmica e a ciberntica180. Poucos anos mais
tarde, Brillouin escreveu Science and Information Theory, onde retoma estas
idias e as elabora matematicamente.

177

178
179
180

Ibid., p. 61. Citao no original: What is information, and how is it measured? One of the simplest,
most unitary forms of information is the recording of a choice between two equally probable simple
alternatives, one or the other of which is bound to happen.
Ibid., pp. 61-2.
Ibid., p. 64. Citao no original: [the] amount of information is essentially a negative entropy.
L. Brillouin, Life, Thermodynamics, and Cybernetics, in H. Leff & A. Rex, orgs., op. cit., pp. 101-2.

92

Tais divergncias entre os conceitos fundamentais da Teoria da


Informao existem desde sua origem, e so oriundas daqueles que so
considerados os fundadores da disciplina. Shannon e Wiener, que se
posicionaram contra as extenses da Teoria da Informao em outras
disciplinas, certamente no concordavam entre si a respeito dos prprios
fundamentos da teoria. Apesar da evidente existncia de pontos de contato, a
busca de extenses e correlaes da Fsica para a Teoria da Informao (ou viceversa) no deixa de ser problemtica. O conhecimento destas dificuldades e
divergncias a partir da origem da TI necessrio para que o conflito entre as
duas reas seja adequadamente analisado a seguir.

93

2.5. O Dilogo Conflituoso entre a TI e a Fsica


O tipo de conexo existente entre os conceitos da entropia termodinmica
e da informao suscita debates intensos entre os fsicos e os tericos da
informao. A origem destes conflitos origina-se numa proposio de Maxwell
para tentar reverter a entropia de um sistema isolado. Numa experincia de
pensamento, Maxwell prope o seguinte: 1) um recipiente bipartido com a
mesma quantidade de um mesmo gs em ambos os lados; 2) um ser inteligente
de tamanho diminuto, controlando uma abertura na parede divisria; 3) este ser
teria a capacidade de identificar as trajetrias e o momento das molculas que
fossem colidir com a abertura na parede divisria, e permitiria apenas a
passagem das molculas mais energticas para um dos lados, e a das menos
energticas para o outro. A proposio de Maxwell, aparentemente, visava
apenas evidenciar contradies na suposta irreversibilidade dos fenmenos
fsicos, sendo que Maxwell no antecipou as conseqncias que a reverso
provocaria. Costuma-se argumentar que, com a entropia do sistema
diminuindo, o gs de um lado se tornaria progressivamente quente enquanto
que o do outro se tornaria cada vez mais frio; tambm ocorreriam variaes de
presso correspondentes em cada um dos lados181.
Desde ento, diversos fsicos se dedicaram ao tema, e dentre eles se
destacou Le Szilard, que estabeleceu qual seria a variao da entropia por um
processo de aquisio de informao, em funo das probabilidades de
ocorrncia de dois eventos:

181

H. Leff & A. Rex , orgs., op. cit., pp. 3-13.

94

...o valor mdio da quantidade de entropia produzida por uma


medio (obviamente, neste caso especial independente das
freqncias w1, w2 dos dois eventos): S = k log 2182.
As idias de Szilard provocaram entusiasmo nuns, e ceticismo noutros.
Entre aqueles que acreditavam na conexo inequvoca da informao com a
entropia estava Brillouin. Influenciado pela argumentao de Szilard e tambm
pela ciberntica de Wiener, ele desenvolveu um trabalho minucioso para
demonstrar seus pontos de vista. Em Science and Information Theory, de 1956,
ele tenta conciliar as idias de Shannon com a termodinmica, o que o leva a
formular o Princpio da Negentropia (entropia negativa), que seria o equivalente
termodinmico da informao, que uma influncia direta das idias de
Wiener183. Ainda, ele afirma que Shannon teria definido a entropia com um
sinal oposto definio termodinmica de entropia, o que no corresponde ao
que de fato ocorreu: o sinal negativo da frmula da entropia de Shannon
decorrncia da demonstrao algbrica do teorema da entropia e que serve para
tornar seu valor positivo184. interessante notar que para conciliar a
Termodinmica Teoria da Informao, Brillouin prope uma reforma da
Termodinmica (pelo acrscimo do princpio da negentropia) e apenas uma
adequao algbrica na quantidade de informao definida pela Teoria da
Informao.

182

183
184

L. Szilard, On the decrease of entropy in a thermodynamic system by the intervention of intelligent


beings, in H. S. Left & A. F. Rex, orgs., op. cit., p. 127. Citao no original: the mean value of the
quantity of entropy produced by a measurement is (of course, in this special case independent of the
frequencies w1, w2 of the two events): S = k log 2.
L. Brillouin, op. cit., pp. 152-61.
Na frmula extrai-se o logaritmo de uma probabilidade (que, por definio, um nmero fracionrio
entre 0 e 1). Sabe-se que o logaritmo de um nmero fracionrio negativo, e que a soma de vrios
nmeros negativos resulta num nmero negativo. Desta forma, o sinal negativo da entropia de
Shannon apenas transforma o resultado num nmero positivo (a equao da entropia de BoltzmannPlanck resulta em nmeros positivos, enquanto H resulta num nmero negativo). Para mais detalhes,
consultar a demonstrao do teorema da entropia em C. Shannon, The Mathematical Theory of
Communication, in C. Shannon & W. Weaver, op. cit., pp. 116-8.

95

As obras de Brillouin e seus partidrios tiveram grande aceitao entre os


fsicos, mas tambm atraram crticas, principalmente pela re-interpretao das
idias de Szilard e pela suposta subjetividade com que tratou o conceito de
informao. Do lado dos crticos encontrava-se Karl Popper, que criticou o
trabalho de Szilard185 por considerar a conexo entre conhecimento e entropia
como espria186: a Termodinmica seria suficiente para oferecer as respostas
procuradas por Szilard187. Posteriormente, em 1982, Popper reconhece alguns
aspectos positivos na busca do exorcismo do demnio de Maxwell:
Sem dvida, algumas interessantes analogias foram descobertas, mas
a solidez da obra, e especialmente o papel desempenhado pelo
demnio de Maxwell, parecem-me altamente questionveis188.
Em contrapartida, Costa de Beauregard & Tribus propuseram que a
Termodinmica poderia ser uma derivao da Teoria da Informao (numa
associao de sentido oposto quela proposta por Wiener):
...a entropia da termodinmica no passa de um caso especial da
entropia da teoria da informao189.
e concluem:
Acreditamos que, embora seja possvel, e muito informativo, deduzir a
Termodinmica de uma teoria geral da Informao, o contrrio no
possvel190.
Talvez a crtica mais clara e fundamentada seja a de Denbigh, que
retrocede s origens do conceito de entropia para explicar porque a entropia da
informao diferente da entropia fsica. Segundo Denbigh, a entropia no

185
186
187
188

189

190

H. Leff & A. Rex, orgs., op.cit., p. 16.


K. Popper, apud H. Leff & A. Rex, orgs., op.cit., p. 20.
H. Leff & A. Rex , op.cit., pp. 311-2.
K. Popper, apud H. Leff & A. Rex, orgs., op.cit., p. 317. Citao no original: No doubt some interesting
analogies have been unearthed, but the soundness of the edifice, and especially the part played by
Maxwells demon, seems to me highly questionable.
O. Costa de Beauregard & M. Tribus, Information Theory and Thermodynamics, in H. Leff & A. Rex,
orgs., op. cit., p. 179.
Ibid., p. 181.

96

pode ser corretamente calculada com as frmulas existentes, pois elas so


mtodos aproximativos e possvel que embutam certo grau de subjetividade191.
A seguir, apia a posio de Gibbs de interpretar a entropia calculada desta
forma como analogias de entropia, o que inclui no apenas frmula de Gibbs
(que idntica formula da entropia da informao), mas tambm a frmula de
Boltzmann-Planck192. Sobre a entropia da informao, Denbigh afirma que a
similaridade formal dela com uma analogia de entropia no evidncia de que
elas signifiquem ou representem o mesmo conceito193. Denbigh tambm critica
Brillouin por seu princpio da negentropia, onde a entropia representaria o
grau de ignorncia sobre a organizao de um sistema194.
Ao que parece, a relao entre a Teoria da Informao e a Fsica ainda no
est solidamente estabelecida depois de mais de 70 anos de debate. Um aspecto
contraditrio daqueles que defendem a unidade das duas disciplinas a
tentativa de conciliar conceitos diferentes, sendo que nenhum deles parece
disposto a romper com (ou criticar) as idias de Shannon ou as de Szilard,
Wiener e Brillouin.
De qualquer forma, inegvel que as idias e o jargo da Teoria de
Informao influenciam o pensamento dos fsicos contemporneos. Prova desta
influncia a complexa formulao de mecnica quntica proposta em 1976 por
Stephen Hawking sobre a entropia de um buraco negro, e que formula um
problema que se tornou conhecido como o paradoxo da informao. Nesta

191

192
193
194

Penrose acredita que existe subjetividade uma vez que o mtodo aproximativo usualmente empregado
no clculo, conhecido como coarse graining, prope a diviso do espao de fase em pequenas reas
contendo partculas cujos estados macroscpicos sejam indistinguveis, e um estado macroscpico
indistinguvel para um observador pode no o ser para outro. Para mais detalhes sobre esta
argumentao, consultar: R. Penrose, op. cit., p. 691.
Denbigh, K. How subjective is entropy?, in H. Leff & A. Rex, orgs., op. cit., pp. 109-11.
Ibid., p. 113.
Ibid., p. 112-5.

97

proposio, a entropia do buraco negro igual rea de seu horizonte de


eventos:
H um bit de informao sobre o estado interno do buraco negro para
cada unidade fundamental da rea de superfcie do horizonte195.
Em 2004, Hawking fez uma declarao pblica afirmando que havia
reconsiderado sua posio a respeito da perda da informao absorvida por um
buraco negro196. Ao que parece, poucos entenderam do que se tratava, uma vez
que poucos se arriscaram a comentar o assunto. Na declarao, Hawking
tambm admitiu que sua reconsiderao o fez perder uma aposta feita contra
John Preskill, cujo ponto de vista a respeito do problema :
De acordo com a mecnica quntica, embora processos fsicos
possam transformar a informao codificada num sistema fsico numa
forma que seja inacessvel na prtica, em teoria a informao pode
ser sempre recuperada197.
Leonard Susskind prope uma nova abordagem um pouco mais tcnica
para explicar o paradoxo da informao proposto por Hawking. Ele emprega
argumentos da relatividade e da teoria-M (teoria modificada das cordas), e
sugere que a explicao deste fenmeno poderia ajudar na formulao de uma
teoria quntica da gravitao198. Susskind oferece uma nova noo de
informao, aparente alinhada com a Teoria da Informao (a entropia
termodinmica associada entropia da informao), porm associada
presena de um tomo num determinado local, que seria representada por 1 bit

195

196
197

198

S. Hawking, op. cit., p. 63. Para uma descrio mais detalhada do problema em termos acessveis ao
pblico no-tcnico, consultar: Ibid., pp. 121-3.
Para mais detalhes, consultar: http://www.newscientist.com/article.ns?id=dn6151.
J. Preskill, On Hawkings Concession. Citao no original: According to quantum mechanics,
although physical processes can transform the information that is encoded in a physical system into a
form that is inaccessible in practice, in principle the information can always be recovered.
L. Susskind, Buracos negros e o paradoxo da informao, pp. 18-23.

98

de informao199. Ainda, Susskind sugere uma nova analogia, desta vez com a
teoria das cordas, que faria com que a superfcie do horizonte de eventos de um
buraco negro se assemelhasse a uma gigantesca trama de cordas expandidas:
Cada segmento de corda, medindo 10-33 cm de comprimento,
funciona como um bit. Assim, as cordas permitem que a superfcie do
buraco negro preserve a imensa quantidade de informao que ele
engoliu ao longo do tempo200.
Aparentemente, cada autor emprega os conceitos de Teoria da Informao
de acordo com suas necessidades. Neste debate convivem interpretaes
diferentes de um mesmo fenmeno, fenmenos distintos com a mesma
nomenclatura, e correlaes da unidade de informao com diversos tipos de
partculas fsicas: no parece haver sinais de que um consenso est sendo
construdo. Por outro lado, pode ser um indcio de que a TI fornece uma
abordagem flexvel para abordar diversos tipos de fenmenos, sendo que suas
associaes com fenmenos fsicos seriam na forma de analogias ou metforas,
e no como igualdades ou equivalncias. De fato, Schenberg acredita que a
ainda no se chegou a um consenso:
Mas pode ser que esteja faltando algum elemento essencial na nossa
viso total do Universo. Muita gente acha que o Universo no seja s
a matria. Acreditam que exista outro elemento, e que seria a
informao, ou alguma coisa obtida da informao. Mas, pelo menos
at o momento atual, a Fsica no conseguiu esclarecer esta
questo201.
Uma vez que as principais semelhanas entre as entropias de Boltzmann e
de Shannon j foram apontadas, e tendo introduzido os principais argumentos
199
200

201

Ibid., p. 21.
Ibid., p. 23. O tempo se dilataria progressivamente at a parada total ao se atingir o horizonte de
eventos: os segmentos de cordas, que so a unidade elementar de matria na teoria-M, deixariam de
vibrar e se dilatariam at atingir dimenses da ordem do comprimento de Planck (aproximadamente
1,6 x 10-35 m). Preskill julga desnecessria a invocao de outra teoria para explicar fenmenos da
mecnica quntica ( semelhana de Denbigh a respeito da termodinmica com relao ao demnio de
Maxwell). Uma anlise mais detalhada a respeito de alternativas de soluo do paradoxo da
informao pode ser obtida em: J. Preskill, Do black holes destroy information?.
M. Schenberg, op.cit., p. 154.

99

empregados no debate sobre as entropias, torna-se necessrio apontar suas


principais diferenas. O primeiro aspecto a ser considerado a natureza dos
sistemas em anlise: um gs um sistema no qual no possvel ter acesso
individual s molculas que o compe, enquanto que uma mensagem um
sistema que pressupe o acesso individual aos sinais de que composto. O
segundo aspecto a acurcia do clculo: o clculo da entropia termodinmica
aproximado por ser baseado em semelhanas arbitrrias entre molculas,
enquanto que o da informao preciso por ser auto-referente (baseia-se numa
estatstica sobre a codificao de cada mensagem). O terceiro aspecto a
ontologia do objeto de estudo: as molculas possuem materialidade202,
enquanto que os bits so representaes.
Concluindo, existem indcios suficientes de que o papel da informao na
Fsica ainda no est devidamente esclarecido. Tendo explicitado algumas das
influncias, contradies e polmicas que a TI provoca dentro da comunidade
cientfica da qual emprestou seu principal conceito, pretendeu-se dar uma viso
abrangente dos principais argumentos em discusso, bem como das
dificuldades de integrao entre as duas disciplinas, antes de se avanar para a
parte final deste trabalho e indicar possveis novas abordagens.

202

Mesmo em se adotando uma postura filosfica idealista que postule que a matria uma construo
da mente, poder-se-ia argumentar que mesmo assim suas naturezas difeririam uma vez que os
smbolos codificados numa mensagem seriam meta-construes.

100

3. Novas Perspectivas e Concluses

101

3.1. Antecedentes Conceituais e Outras Correlaes


Nos captulos anteriores, evidenciou-se a apropriao do conceito de
entropia da Mecnica Estatstica na Teoria Matemtica da Comunicao de
Shannon, e a transformao deste conceito numa grandeza capaz de medir a
quantidade de informao numa mensagem. Tambm foram analisados
diferentes conceitos de quantidade de informao, principalmente nas
tentativas de se introduzir a informao como uma nova dimenso fsica ou
grandeza inerente a sistemas fsicos. Em todos os casos, sempre se associou a
quantidade

de

informao

conceitos

matemticos

decorrentes

de

probabilidades de ocorrncia de certos fenmenos. De fato, o que se tem


observado a inter-relao entre Matemtica, Fsica e Teoria da Informao em
diferentes graus, bem como da influncia da Teoria da Informao sozinha em
outras reas do conhecimento. Entretanto, a Matemtica e a Fsica podem no
ser as nicas influncias da Teoria da Informao conforme formulada por
Shannon. Com efeito, o objetivo agora procurar indcios de influncias mais
sutis, cujo efeito ainda no foi detectado. A partir deste ponto, Teoria da
Informao e Entropia sero tratadas segundo os conceitos de Shannon, a
menos que explicitamente declarado em contrrio.
A abordagem para detectar estas possveis influncias ser a retomada de
alguns conceitos de quantidade de informao j apresentados, e sua associao
com fenmenos observados em outras reas da atividade humana. O ponto de
partida a observao de Fenzl & Hofkirchnerb de que a quantidade de

102

informao est ligada emergncia da novidade203, ou seja, de que a


quantidade de informao maior para fenmenos infreqentes. De fato, a
ocorrncia de um evento raro desperta mais ateno do que eventos
corriqueiros. Epstein faz uma anlise abrangente deste tipo de fenmeno
considerando diversos aspectos204. Quanto aos atributos sintticos, afirma que:
Um fato pode se transformar em notcia quando raro, e, portanto,
inesperado e este atributo da notcia comum ao conceito de
"quantidade de informao" oriundo da Teoria da Informao.
Trata-se de um atributo sinttico tanto da notcia como da quantidade
de informao (Teoria da Informao) porque concerne a sua
freqncia relativa e no ao seu significado. (grifo do original) 205
Epstein prossegue, analisando o valor notcia de um fato cientfico sob a
tica do pensamento de Kunh a respeito dos perodos de cincia normal e
extraordinria:
O fato cientfico inesperado, no tempo de cincia normal firmemente
estabelecida marginalizado como anomalia espera de uma
explicao dentro do paradigma vigente. Em tempo de cincia
extraordinria pode eventualmente adquirir grande importncia como
confirmador de um novo paradigma206.
Sob a tica do falsifacionismo de Popper, Epstein afirma que fenmenos
usuais tm pouco poder explanatrio, uma vez que apenas se confirma o
conhecimento tido como verdadeiro:
Um enunciado com alta probabilidade de ocorrncia
cientificamente desinteressante, porque diz pouco e no tem poder
explanatrio207.

203

204

205
206
207

N. Fenzl & W. Hofkirchner, Emmergence and Interaction of natural systems: the role of information,
energy and matter in the perspective of a Unified Theory of Information, p. 6.
A fim de se manter consistncia conceitual, procurar-se- estabelecer relaes utilizando-se critrios
objetivos, como j foi feito nos captulos anteriores. Assim sendo, preo (medida objetiva verificvel)
ter precedncia sobre valor (conceito subjetivo). Quando isto no ocorrer, ser por respeito a
citaes originais dos autores, ou para efeito de exemplificao.
I. Epstein, Quando um fato se transforma em notcia no jornalismo e na cincia.
Ibid.
K. Popper, apud I. Epstein, Quando um fato se transforma em notcia no jornalismo e na cincia.

103

Segundo o exposto, parece existir uma relao entre raridade e


quantidade de informao, ou seja: quanto mais comum ou esperada a
mensagem, menos informao ela contm; por outro lado, quanto mais
incomum ou inesperada a mensagem, mais informao ela contm. Embora
estes aspectos j tenham sido suficientemente analisados nos captulos
anteriores, possvel procurar indcios de fenmenos semelhantes j detectados
em outras reas do conhecimento. De fato, existem fenmenos onde se
verificam relaes anlogas na Economia e na Psicologia, os quais sero
abordados a seguir.

3.1.1. Antecedentes no Pensamento Econmico


semelhana do que ocorre com a entropia na Teoria da Informao,
existe um fenmeno anlogo anterior no qual se verificam variaes de um
indicador ou grandeza em funo de sua raridade. De fato, num sistema de
mercado livre, quando outros fatores econmicos (objetivos e subjetivos) que
poderiam influir no preo de uma mercadoria permanecem inalterados, a
quantidade da mercadoria ofertada faz o preo dela variar da mesma forma:
quando escassa (rara), o preo aumenta; quando abundante (comum), o
preo diminui. A seguir, ser verificado o que propuseram Adam Smith e Alfred
Marshall a respeito destas relaes, bem como a forma com que a Economia e a
Psicologia se relacionam atravs do pensamento de Vilfredo Pareto.
Adam Smith publicou Wealth of Nations em 1776. Nesta obra, ele descreve
a formao do preo de uma mercadoria como a soma dos valores do
arrendamento dos meios de produo, do trabalho empregado e da margem de

104

lucro: este seria o preo natural da mercadoria208. O preo de mercado de uma


mercadoria, entretanto, pode sofrer variaes em funo do desequilbrio entre
a necessidade de obteno desta mercadoria pelos compradores e a quantidade
desta mercadoria tornada disponvel pelos produtores:
O preo de mercado de cada mercadoria regulado pela proporo
entre a quantidade que realmente trazida ao mercado, e a demanda
daqueles que querem pagar o preo natural da mercadoria... Quando
a quantidade de qualquer mercadoria que trazida ao mercado
inferior demanda efetiva, ... o preo de mercado aumentar mais ou
menos acima do preo natural...209
Smith pressupe que existe um preo fixo para cada mercadoria, e que
neste preo a demanda por esta mercadoria constante. Esta situao de
equilbrio se alteraria em funo da quantidade ofertada desta mercadoria: se
insuficiente para atender a demanda, seu preo aumenta; se, ao contrrio, a
quantidade ofertada superior demanda, seu preo diminui. Assim sendo,
parece lcito estabelecer uma analogia entre a variao do preo de uma
mercadoria com o conceito de auto-informao, que baseado na freqncia de
determinado smbolo: com oferta abundante, o preo de mercadoria diminui;
com ocorrncia abundante, a auto-informao de um smbolo diminui.
Mais de um sculo adiante, em 1890, Alfred Marshall publicou o tratado
Principles of Economics, com o qual pretendia compilar e melhorar antigas
doutrinas econmicas. Diferentemente de seus antecessores no pensamento
econmico (incluindo o prprio Adam Smith), Marshall desenvolve esta obra
posicionando a vontade do consumidor como o fator determinante de toda a
cadeia de produo, distribuio e comrcio. O preo de uma mercadoria, sob
sua tica, tambm decorrncia dos desejos dos consumidores, e toda

208
209

A. Smith, Wealth of Nations, pp. 50-7.


Ibid., p. 59.

105

correlao entre oferta, procura e preo que ele formula colocada em funo
da procura. Uma de suas proposies baseadas nesta premissa a Lei das
Vontades Saciveis ou da Utilidade Decrescente, a qual declara que o benefcio
obtido pela aquisio de um bem se dilui medida em que se obtm mais que o
necessrio:
... o benefcio adicional que uma pessoa obtm de um dado aumento
em seu estoque de um coisa [uma mercadoria], diminui a cada
aumento do estoque [desta mercadoria] que ela j tem210.
Marshall reconhece as limitaes de uma lei com esta generalidade, entre
as quais esto: fatores que variam no longo prazo, como a mudana dos gostos
do consumidor ou de sua psicologia; e nos casos em que o consumidor no
obtm quantidade suficiente de uma mercadoria para satisfazer suas
necessidades211. Neste cenrio ideal, a diminuio da utilidade da mercadoria
em funo de sua abundncia parece ter relao direta com a diminuio da
auto-informao dos smbolo medida que suas freqncias aumentam numa
mensagem. De fato, quanto maior o excesso de estoque de determinada
mercadoria, menor ser sua utilidade mdia; da mesma forma, quanto mais um
smbolo ocorrer em textos de determinada lngua, menor ser sua autoinformao.
De formas diferentes, tanto Smith como Marshall expressam relaes
econmicas que tm similaridades com conceitos da Teoria da Informao. A
abundncia de uma mercadoria determinaria a diminuio de seu preo no
mercado ou de sua utilidade mdia daquele que a possui: estas proposies
guardam interessantes semelhanas com os conceitos da Teoria da Informao,

210
211

A. Marshall, Principles of Economics, p. 93.


Ibid., p; 94.

106

medida que a quantidade de informao contida num smbolo ou numa


mensagem diminui medida que suas ocorrncias se tornam mais freqentes
ou provveis. No existem, todavia, elementos que evidenciem a influncia dos
conceitos econmicos nos pensamentos de Shannon e de outros que
contriburam para aclarar os conceitos e implicaes da Teoria da Informao.
Entretanto, dada a universalidade da chamada lei da oferta e da procura, no
parece desprovida de fundamento a idia de que o pensamento econmico
possa ter causado alguma influncia na formulao da Teoria da Informao,
mesmo que em nvel inconsciente. O pensamento de Epstein, que explicita as
relaes entre a TI com fenmenos observados noutras reas, parece corroborar
esta conjectura.
Vilfredo Pareto publicou em 1906 o Manual de Economia Poltica. A
leitura desta obra evidencia a inteno do autor em reescrever os princpios
econmicos numa forma mais objetiva a matematizada. Nela, no poupa crticas
a seus antecessores no pensamento econmico, mesmo queles que, segundo
seu critrio, formularam proposies corretas. De fato, esta obra prdiga em
grficos e equaes, mas o ponto que se deseja destacar que Pareto considera
que a Economia uma conseqncia da Psicologia:
A Psicologia , evidentemente, o fundamento da Economia Poltica e,
de modo geral, de todas as Cincias Sociais. Talvez chegue o dia em
que possamos deduzir dos princpios da Psicologia as leis da Cincia
Social, da mesma maneira que, um dia talvez, os princpios da
construo da matria nos dem, por deduo, todas as leis da Fsica
e da Qumica212.
Obviamente, esta correlao pode ser inferida das proposies de Marshall
uma vez que ele posiciona os desejos e vontades do consumidor como foco de

212

V. Pareto, Manual de Economia Poltica, Vol. I, p. 29.

107

toda atividade econmica. O que Marshall deixa implcito, Pareto evidencia de


forma inequvoca. Uma vez que se aceite a algum grau de subordinao da
Economia aos princpios da Psicologia, parece lcito supor que se possa
encontrar alguma evidncia que relacione alguns conceitos da Teoria da
Informao com a Psicologia.

3.1.2. Relaes com a Psicologia


Um possvel exemplo de rea de contato entre a Teoria da Informao e a
Psicologia se encontra no Curso de Psicologia Geral de Alexander Luria. Nesta
obra, o autor discorre sobre diversos aspectos de psicologia e cognio, e de
especial interesse seu pensamento sobre a Ateno:
O homem recebe um imenso nmero de estmulos, mas entre eles
seleciona os mais importantes e ignora os restantes. Potencialmente
ele pode fazer um grande nmero de possveis movimentos, mas
destaca poucos movimentos racionais que integram as suas
habilidades e inibe outras. Surge-lhe grande nmero de associaes,
mas ele conserva apenas algumas, essenciais para a sua atividade, e
abstrai as outras que dificultam o seu processo racional de
pensamento213.
Para Luria, a ateno envolve os processo de seleo de informao e o
controle de programas seletivos de ao. A seletividade da atividade consciente
tambm se manifesta noutros processos:
O carter seletivo da atividade consciente, que funo da ateno,
manifesta-se igualmente na nossa percepo, nos processos motores e
no pensamento214.
Qualquer atividade seria impossvel sem esta seletividade, uma vez que
quantidade de informao a ser tratada seria muito grande. Ainda, sem a

213
214

A. Luria, Curso de Psicologia Geral, Vol. III, p. 1.


Ibid.

108

inibio das associaes, qualquer pensamento organizado seria impossvel215.


Luria prossegue, analisando o papel da importncia biolgica dos estmulos dos
animais, que estariam ligados aos instintos, e os compara com o que ocorre no
ser humano:
Tudo isso [as necessidades determinadas pelos instintos] se refere
igualmente ao homem, com a nica diferena de que as necessidades
e interesses que o caracterizam no tm, em sua grande maioria,
carter de instintos e inclinaes biolgicos, mas carter de fatores
motivacionais complexos, que se formaram no processo da histria
social216.
Segundo Luria, o nvel ateno pode ser determinado em funo do grau
de automatizao da atividade desempenhada. A automatizao de uma
atividade obtida atravs da repetio, que levaria ao sucessivo aprimoramento
de sua execuo. medida que o executor se sente seguro de realizar certa
atividade, menos ateno de sua parte necessria:
O processo de automatizao da atividade leva a que certas aes,
que chamavam a ateno, se convertam em operaes automticas e
a ateno do homem comece a deslocar-se para objetivos finais,
deixando de ser atrada por operaes costumeiras bem
consolidadas217.
Dados

estes

princpios,

possvel

estabelecer

algumas

relaes

importantes entre a Psicologia e a Teoria da Informao. A primeira cognitiva:


a mente humana capaz de desenvolver formas de classificar os estmulos e
informaes recebidas. Assim sendo, o processo de percepo parece interpretar
alguns poucos estmulos como informao enquanto que a maioria deles
tratada como redundncia ou como rudo (se tiverem intensidade suficiente

215
216
217

Ibid., pp. 1-2.


Ibid., pp. 4-5.
Ibid., p. 6.

109

para tornar ineficaz a percepo daquilo em que se quer dirigir a ateno)218.


Uma segunda relao possvel com a diminuio da ateno com aes
costumeiras, que anloga diminuio da quantidade de informao quando
se obtm mensagens ou sinais costumeiros. Os decrscimos da quantidade de
informao de uma mensagem, do preo de uma mercadoria e da ateno sobre
uma atividade esto relacionados ao aumento das freqncias de ocorrncia da
mensagem, da oferta da mercadoria e do grau de familiaridade da ao,
respectivamente.
importante explicitar que apesar das relaes recm-apresentadas no
serem quantitativas, elas no deixam de ser objetivas: preo no implica em
valor e ateno no implica em importncia219. Tendo apresentado todas
estas relaes, possvel avanar para a concluso deste trabalho.

218

219

A distino entre informao e redundncia j foi abordada no captulo 1, ao se apresentar os


fundamentos da TI.
De fato, as atividades biolgicas automticas no deixam de ser importantes pela pouca ateno
consciente que dedicamos a elas, como, por exemplo, a respirao e a circulao sangunea. O sucesso
do processo respiratrio to costumeiro que raramente nos damos conta dele: este seria o caso mais
provvel, portanto de menor informao. Entretanto, no conseguir respirar uma condio muito
menos provvel (aos indivduos saudveis, ao menos) e que desperta nossa ateno a ela quando
ocorre. De forma anloga, enquanto os diamantes tm preo elevado em comparao ao ar que
respiramos (que ainda de graa), no se pode negar que o ar muito mais valioso para nossa
sobrevivncia do que os diamantes: concebvel que se passe toda a vida sem possuir ou precisar de
diamantes, enquanto que no se sobrevive sem ar alm de alguns poucos minutos.

110

3.2. Concluses
A definio de entropia, formulada na termodinmica clssica, est
relacionada com o grau de desordem de um sistema fsico. Desde ento,
diversas interpretaes matemticas e fsicas foram propostas para mensurar
esta grandeza e descrever adequadamente suas decorrncias. Boltzmann
empregou uma abordagem estatstica na tentativa de expressar os conceitos de
ordem e desordem de um sistema fsico: a distribuio das velocidades das
molculas de um gs contido num recipiente o que determina seu estado,
sendo que o estado ordenado seria aquele em que houvesse concentrao das
velocidades ao redor de determinados valores, enquanto que o estado
desordenado seria aquele no qual no houvesse tais concentraes. Boltzmann
adotou a premissa de que a matria seria composta por unidades discretas (no
que foi duramente criticado, pois esta no era a concepo dominante na
poca), introduzindo uma viso descontnua dos fenmenos fsicos que seria o
fundamento da Mecnica Quntica do sculo XX.
A abordagem discreta de Boltzmann, entretanto, no favoreceu o
desenvolvimento de uma frmula para a entropia que fosse efetivamente
calculvel, uma vez que ele assumiu que as velocidades das molculas seriam
continuamente variveis. Planck props que o clculo da entropia considerasse
um nmero finito de intervalos de velocidades, transformando-o num processo
contvel. Gibbs, todavia, considerava que as frmulas propostas (inclusive sua
prpria) seriam analogias de entropia: a entropia seria um princpio fsico
definido na Termodinmica, e a Mecnica Estatstica proveria interpretaes

111

matemticas que descreveriam alguns de seus aspectos de maneira mais ou


menos precisa.
Claude Shannon comeou a se dedicar ao problema de quantificar a
informao de uma mensagem na dcada de 1940. Antes de ter uma teoria
acabada, aproveitou suas principais idias numa teoria sobre criptografia para
os Laboratrios Bell. Devido s necessidades blicas norte-americanas durante a
Segunda Guerra Mundial, a criptografia era um tema estratgico que
necessitava ser entendido e dominado. De fato, o sucesso dos rgos de
inteligncia americano e britnico em decifrar as mensagens militares alems
foi decisivo para a vitria dos Aliados. As idias de Shannon a respeito da
quantificao da informao deram origem Teoria Matemtica da
Comunicao, publicada em 1948 num jornal interno dos Laboratrios Bell e
mais tarde republicada em forma de livro. Nesta obra, Shannon associa a
Quantidade de Informao ao conceito de Entropia conforme interpretado pela
Mecnica Estatstica. Neste contexto, a quantidade de informao de uma
mensagem no se relaciona ao significado do que se pretende transmitir, e sim
freqncia dos smbolos empregados para codific-la.
Apesar de existirem analogias marcantes entre os conceitos de entropia da
Mecnica Estatstica e da Teoria da Informao, inclusive com a semelhana
formal entre a entropia de Shannon com uma analogia de entropia de Gibbs, a
equivalncia dos conceitos um tema controverso e ainda no totalmente
entendido. No entanto, flagrante a influncia da Teoria da Informao em
diversas reas de investigao, ao menos como novo mtodo de abordagem dos
problemas existentes. Esta influncia tem sido proclamada e celebrada por seus
tericos, que so, em sua maioria, ligados ao desenvolvimento de tecnologias

112

digitais. Em geral, a influncia apregoada como unidirecional, mas


concebvel que existam outras influncias que no as originalmente creditadas
(que so exclusivamente oriundas da Mecnica Estatstica).
De fato, existem indcios de que a Economia j empregava alguns conceitos
semelhantes aos formulados por Shannon. A relao existente entre a variao
dos preos de uma mercadoria em funo da escassez ou abundncia anloga
quantidade de informao em funo da freqncia de um smbolo. A relevncia
do incomum frente ao ordinrio um fenmeno reconhecido tambm pela
Psicologia, o que sugere que sua origem possa ser to antiga quanto a
Humanidade. Assim sendo, como estas cincias reconhecem a influncia
contempornea da Teoria da Informao, esta talvez possa retribuir a deferncia
e reconhecer influncias mtuas e antecedentes.

113

Bibliografia
AFTAB, O., P. Cheung, A. Kim, S. Thakkar, & N. Yeddanapudi. Information
Theory after Shannon's 1948 Work. Project History, Massachusetts
Institute of Technology, 2001; http://mit.edu/6.933/www/Fall2001/
Shannon2.pdf, agosto de 2005.
ALFONSO-GOLDFARB, A. M. O que histria da cincia. So Paulo,
Brasiliense, 1994 (Col. Primeiros Passos, Vol. 286).
ALFONSO-GOLDFARB, A. M. & M. H. R. Beltran, orgs. Escrevendo a histria
da cincia: tendncias, propostas e discusses historiogrficas. So Paulo,
Educ/Editora Livraria da Fsica/FAPESP, 2005.
_____., orgs. O laboratrio, a oficina e o ateli: a arte de fazer o artificial. So
Paulo, Educ/FAPESP, 2002.
BARROW, J. D. Theories of everything. Nova Iorque, Fawcett Columbine, 1991.
BOLTZMANN, L. Lectures on gas theory. Trad. inglesa de G. S. Brush. Nova
Iorque, Dover Publications, 1995.
BRILLOUIN, L. Science and Information Theory. Nova Iorque, Academic Press
Inc, 1956.
CHOMSKY, N. Three models for the description of language. IEEE
Transactions on Information Theory, IT-2 (Sept. 1956): 113-24.
CSISZR, I. Applications of Information Theory in Probability and Statistics.
EEE Information Theory Society Newsletter, Special Golden Jubilee Issue
(Summer 1998): 9-11.
DAY, R. The modern invention of information: discourse, history and power.
Carbondalle, Southern Illinois Press, 2001.
DEVLIN, K. Logic and Information. Cambridge, Cambridge University Press,
1991.
ECO, U. Como se faz uma tese. So Paulo, Perspectiva, 1997.
_____. The language of Mathematics: making the invisible visible. Nova
Iorque, W. H. Freeman/Owl, 1998.
EDWARDS, P. The closed world: computers and the politics of discourse in
Cold War America. Cambridge, The MIT Press, 1996.

114

_____. Virtual Machines, Virtual Infrastructures: the New Historiography of


Information Technology. Isis, 89 (1998): 93-9; http://www.si.umich.edu/
~pne/PDF/isis_review.pdf, junho de 2004.
EPHREMIDES, A. The Historians Column. IEEE Information Theory Society
Newsletter, Special Golden Jubilee Issue (Summer 1998): 5-6.
EPHREMIDES, A. & J. Massey. 1948-1998 Information Theory: The First Fifty
Years. IEEE Information Theory Society Newsletter, Special Golden
Jubilee Issue (Summer 1998): cover page.
EPSTEIN, I. Teoria da Informao. So Paulo, Editora tica, 1986.
_____. Quando um Fato se Transforma em Notcia no Jornalismo e na
Cincia. Boletn ALAIC Comunicacin para Latinoamrica, Ao IV, 16,
Mayo 2004; http://www.eca.usp.br/alaic/boletin16/Texto-Darcilia-Quando
um fato se transforma em notcia no jornalismo e na cincia.htm, junho de
2004.
FENZL, N. & W. Hofkirchnerb. Emmergence and Interaction of natural
systems: the role of information, energy and matter in the perspective of a
Unified Theory of Information. Grupo de Pesquisa Amaznia 21,
Universidade
Federal
do
Par;
http://www.gpa21.org/en/pdf/
emergence.pdf, novembro de 2005.
FRANK, M. The Physical Limits of Computing. Computing in Science &
Engineering, May/June 2002; http://www.cise.ufl.edu/research/revcomp/
physlim/PhysLim-CiSE/c3fra.pdf, julho de 2004.
GEARHART, C. Planck, the Quantum, and the Historians. Physics in
Perspective, 4 (2002): 170215; http://employees.csbsju.edu/cgearhart/
Planck/PQH.pdf, outubro de 2005.
GLEICK, J. Caos, a Criao de Uma Nova Cincia. Rio de Janeiro, Campus,
1991.
GOLDFARB, J. L. Voar tambm com os homens: o pensamento de Mrio
Schenberg. So Paulo, EDUSP, 1994.
GOLOMB, S., E. Berlekamp, T. Cover, R. Gallager, J. Massey & A. Viterbi.
Claude Elwood Shannon (19162001). Notices of the American
Mathematical Society, 49 (1, January 2002): 8-16; http://www.ams.org/
notices/200201/fea-shannon.pdf, julho de 2004.
HAGENAUER, J. The Impact of Information Theory on Communications.
IEEE Information Theory Society Newsletter, Special Golden Jubilee Issue
(Summer 1998): 6-8.
HAWKING, S. O universo numa casca de noz. So Paulo, Mandarim, 2001.

115

HODGES, A. Alan Turing: the Enigma. Londres, Vintage, 1992.


HUGILL, P. Global Communications since 1844: Geopolitics and Technology.
Baltimore, Johns Hopkins University Press, 1999.
IFRAH, G. Histria universal dos algarismos. Rio de Janeiro, Nova Fronteira,
1997.
KAHN, D. The Codebreakers: the story of secret writing. Nova Iorque,
Scribner, 1996.
KAKU, M. Hyperspace. Nova Iorque, Anchor Books Doubleday, 1995.
KLIR, G. Fuzzy sets, uncertainty and information. Nova Iorque, Prentice-Hall,
1988.
KOLMOGOROV, A. A Great Mathematicians View of Shannon (foreword to
Papers in Information Theory and Cybernetics by C. E. Shannon published
in Russian in 1963). IEEE Information Theory Society Newsletter, Special
Golden Jubilee Issue (Summer 1998): 22.
KUHN, T. A estrutura das revolues cientficas. So Paulo, Editora
Perspectiva, 2003.
LEFF, H. & A. Rex, org. Maxwells Demon: Entropy, Information, Computing.
Bristol, Adam Hilger, 1990.
LINDLEY, D. Boltzmanns Atom: the great debate that launched a revolution
in physics. Nova Iorque, The Free Press, 2001.
LURIA, A. Curso de Psicologia Geral. Rio de Janeiro, Civilizao Brasileira,
1979.
MACHADO, N. & M. Cunha, orgs. Linguagem, conhecimento, ao: ensaios de
epistemologia e didtica. So Paulo, Escrituras Editora, 2003 (Col. Ensaios
Transversais, Vol. 23).
MARSHALL, A. Principles of Economics. Amherst, Prometheus Books, 1997
(Great Minds Series).
MASSEY, J. Shannon and Cryptography. IEEE Information Theory Society
Newsletter, Special Golden Jubilee Issue (Summer 1998): 12-3.
MILLER, G. The cognitive revolution: a historical perspective. Trends in
Cognitive Sciences, 7 (3, March 2003): 141-4; http://www.cogsci.
princeton.edu/~geo/Miller.pdf, novembro de 2005.
ROSSI, P. Naufrgios sem espectador: a idia de progresso. So Paulo, Editora
UNESP, 2000.

116

OLSON, D. O mundo no papel: as implicaes conceituais e cognitivas da


leitura e da escrita. So Paulo, tica, 1997.
PARETO, V. Manual de Economia Poltica. So Paulo, Nova Cultural, 1988
(Col. Os Economistas).
PELEGRINI, C. H. Claude Elwood Shannon e a Revoluo Digital. Dissertao
de Mestrado. So Paulo, Pontifcia Universidade de So Paulo, 2005.
PENROSE, R. The road to reality: a complete guide to the laws of the universe.
Nova Iorque, Knopf, 2005.
PEREIRA, C. A. B. & J. M. Stern. Inferncia Indutiva com Dados Discretos:
Uma Viso Genuinamente Bayesiana; http://www.ime.usp.br/~jstern/
infestcomp/livs.pdf, maro de 2006.
PRESKILL, J. Do black holes destroy information? Cornell University, 1992;
http://xxx.lanl.gov/PS_cache/hep-th/pdf/9209/9209058.pdf, janeiro de
2006.
_____. On Hawkings Concession. California Institute of Technology, 2004;
http://www.theory.caltech.edu/~preskill/jp_24jul04.html, janeiro de 2006.
PRICE, R. A conversation with Claude Shannon: one mans approach to
problem solving. IEEE Communications Magazine, 5 (22, May 1984): 1236.
SCHENBERG, M. Pensando a Fsica. 5 ed. So Paulo, Landy, 2001.
SHANNON, C. Collected Papers. Piscataway, IEEE Press, 1992
_____. Communication Theory of Secrecy Systems. Urbana/Chicago, Illinois
State University Press, 1948.
_____. The Bandwagon (Editorial). IRE Information Theory Society
Newsletter, IT-2 (March 1953): 3.
SHANNON, C. & W. Weaver. The Mathematical theory of communication. 5a
ed. Urbana/Chicago, Illinois State University Press, 1963.
SINGH, S. The Code Book: the Science of Secrecy from Ancient Egypt to
Quantum Cryptography. Nova Iorque, Anchor Books, 1999.
SMITH, A. Wealth of Nations. Amherst, Prometheus Books, 1991 (Great Minds
Series).
SOKAL, A. & J. Bricmont. Imposturas intelectuais: o abuso da cincia pelos
filsofos ps-modernos. Rio de Janeiro/So Paulo, Record, 1999.

117

SUSSKIND, L. Buracos negros e o paradoxo da informao. Scientific


American Brasil, edio especial (8, 2005): 18-23.
SZILARD, L. On the Decrease of Entropy in a Thermodynamic System by the
Intervention of Intelligent Beings. Z. Phys. 53 (1929): 840.
TENRIO, R. Crebros e computadores: a complementaridade analgicodigital na informtica e na educao. So Paulo, Escrituras Editora, 2003
(Col. Ensaios Transversais, Vol. 2).
TRIBUS, M & E. McIrvine. Energy and Information. Scientific American
Magazine, 224 (September 1971): 179-190.
UNIVERSITY OF CALIFORNIA TELEVISION (UCSD-TV). Claude Shannon Father
of
the
Information
Age.
San
Diego,
2002;
http://webcast.ucsd.edu:8080/
ramgen/UCSD_TV/6090_Shannon.mpg.rm
UFFINK, J. "Boltzmann's Work in Statistical Physics". The Stanford
Encyclopedia
of
Philosophy
(Summer
2005
Edition);
http://plato.stanford.edu/entries/statphys-Boltzmann/, junho de 2005.
VERD, S. & S. McLaughlin, orgs. Information Theory 50 Years of
Discovery. Nova Iorque, Wiley-IEEE Computer Society, 1999.
WALDROP, M. Reluctant Father of the Digital Age. Technology Review,
(July-August 2001): 64-71.
WIENER, N. Cybernetics or the Control and Communication in the Animal and
the Machine. 2a ed. Cambridge, The MIT Press, 1965.
_____. What is Information Theory? (Editorial). IRE Information Theory
Society Newsletter, IT-2 (June 1956): 42.
WIKIMEDIA FOUNDATION, INC. Wikipedia. http://en.wikipedia.org, junho
de 2004.

118

Iconografia
Fig. 1 - Claude Shannon, 1995.
Cortesia de Lucent Technologies.
Fig. 2 - Claude Shannon e Theseus.
Cortesia de Lucent Technologies.
Fig. 3 - A Reflexo das ondas eletromagnticas em funo de suas freqncias.
Fonte: P. Hugill, Global Communications since 1844: Geopolitics and
Technology, p. 87.
Fig. 4 - Patente Norte-Americana da Mquina Enigma, concedida em 1928.
Fonte: D. Kahn, The Codebreakers: the story of secret writing, p. 423.
Fig. 5 - Um exemplar da Mquina Enigma.
Autor: Declan McCullagh
Copyright Declan McCullagh/mccullagh.org, all rights reserved.
Fig. 6 - Cable&Wireless Great Circle Map.
Autor: MacDonald Gill, 1945.
Courtesy of Cable & Wireless Archive, Portchurno.
Fig. 7 - Diagrama Esquemtico de um Sistema de Comunicao
Fonte: C. Shannon, The Mathematical theory of communication, p. 34.
Fig. 8 - Variao da Entropia no caso de duas possibilidades com probabilidades
p e (1-p)
Fonte: C. Shannon, The Mathematical theory of communication, p. 50.

119

Anexos

120

1. Metodologia da Verificao Experimental

O programa de gerao dos arquivos foi codificado na linguagem de


programao VBA (Visual Basic for Applications) embutida no programa
Microsoft Excel 2003, operando na plataforma Microsoft Windows XP SP2 com
processador AMD Athlon XP 3000+.
O arquivo contendo a Bblia em formato textual foi obtido em
http://www.o-bible.org/download/kjv.txt.

Sub GerarArquivos()
'
'

Verificao Experimental do Conceito de Entropia


atravs da compactao de arquivos.

'
'

Este programa gera arquivos com diferentes contedos


para posterior compactao.

'----- Arquivo contendo s espaos em branco


Call GravarSequencia("C:\Entropia\Texto1.txt", 1048576, " ")
'----- Arquivo contendo s a letra H
Call GravarSequencia("C:\Entropia\Texto2.txt", 1048576, "H")
'----- Arquivo contendo repetio de 16 carcateres distintos
Call GravarSequencia("C:\Entropia\Texto3.txt", 1048576, "0123456789ABCDEF")
'----- Arquivo contendo repetio de 32 carcateres
Texto$ = "LUDWIG BOLTZMANN CLAUDE SHANNON "
Call GravarSequencia("C:\Entropia\Texto4.txt", 1048576, Texto$)
'----- Arquivo contendo sequencia aleatria de algarismos
Call GravarAleatorio("C:\Entropia\Texto5.txt", 1048576, "0", "9")
'----- Arquivo contendo sequencia aleatria de letras maisculas
Call GravarAleatorio("C:\Entropia\Texto6.txt", 1048576, "A", "Z")
'----- Arquivo contendo sequencia aleatria de todos os caracteres
Call GravarAleatorio("C:\Entropia\Texto7.txt", 1048576, Chr$(0), Chr$(255))
'----- Arquivo contendo a Biblia em ingls, limitado a 1 MB
Call Truncar("C:\Entropia\kjv.txt", "C:\Entropia\Texto8.txt", 1048576)
End Sub

121

Sub GravarSequencia(ByVal Arquivo$, ByVal Tamanho, ByVal Texto$)


'
'
'
'

Parmetros:
Arquivo$ = nome do arquivo a ser gerado
Tamanho = quantidade de caracteres a gravar
Texto$
= texto a ser reptido dentro do arquivo

TamTex = Len(Texto$)
Gravados = 0

' tamanho do texto


' quantidade gravada

Open Arquivo$ For Output As #1


Do Until Gravados >= Tamanho
Print #1, Texto$;
Gravados = Gravados + TamTex
Loop
Close #1
End Sub

Sub GravarAleatorio(ByVal Arquivo$, ByVal Tamanho, ByVal Texto1$, ByVal Texto2$)


'
'
'
'
'

Parmetros:
Arquivo$
Tamanho
Texto1$
Texto2$

=
=
=
=

nome do arquivo a ser gerado


quantidade de caracteres a gravar
incio da faixa de texto
fim da faixa de texto

FaixaIni = Asc(Texto1$)
FaixaExt = Asc(Texto2$) - FaixaIni
Gravados = 0

' incio da faixa


' fim da faixa
' quantidade gravada

Open Arquivo$ For Output As #1


Do Until Gravados >= Tamanho
Print #1, Chr$(FaixaIni + (Rnd() * FaixaExt));
Gravados = Gravados + 1
Loop
Close #1
End Sub

Sub Truncar(ByVal Origem$, Destino$, Tamanho)


'
'
'
'

Parmetros:
Origem$ = nome do arquivo a ser lido
Destino$ = nome do arquivo a ser gerado
Tamanho = quantidade de caracteres a gravar

Gravados = 0

' quantidade gravada

Open Origem$ For Binary As #1


Open Destino For Output As #2
Do Until Gravado >= Tamanho
Texto$ = Input(1024, #1)
Print #2, Texto$;
Gravado = Gravado + 1024
Loop
Close #1, #2
End Sub

122

2. Algoritmo de Gerao de Arquivos com Distribuio


Equiprovvel de Smbolos

So vlidas as mesmas condies tcnicas mencionadas no anexo anterior.

Sub Equiprobabilidade()
'--- gerao da base de todos os caracteres
Todos$ = ""
For i% = 0 To 255
Todos$ = Todos$ + Chr$(i)
Next
Open "C:\Entropia\Equiprob.txt" For Output As #1
For i% = 1 To 4096
'--- introduo de permutaes aleatrias:
'--- para cada posio, sorteia-se outra para que
'--- os caracteres contidos nelas sejam permutados.
For j% = 1 To 256
'--- j% = posio corrente
'--- k% = posio que permutar contedo com a posio j%
k% = 1 + Int(Rnd() * 255)
'--- execuo da permuta
TrocaJ$ = Mid$(Todos$, j%, 1)
TrocaK$ = Mid$(Todos$, k%, 1)
Mid$(Todos$, k%, 1) = TrocaJ$
Mid$(Todos$, j%, 1) = TrocaK$
Next
Print #1, Todos$;
Next
Close #1
End Sub

123

3. Contedo do CD-ROM

Dissertao em Formato PDF

Instrues e Arquivos para Reproduo da Verificao Experimental

Claude Shannon - A Mathematical Theory of Communication


Fonte: Lucent Technologies (Bell Labs)

Warren Weaver - Recent Contributions to The Mathematical Theory of


Communication
Fonte: Evergreen State College

Sergio Verd Fifty Years of Shannon Theory


Fonte: Princeton University

UCSD-TV - Claude Shannon - Father of the Information Age (video on-line)


Fonte: University of California, San Diego

Isaac Epstein Quando um fato se transforma em notcia no jornalismo e


na cincia (pgina on-line)
Fonte: Associacin Latinoamericana de Investigadores de la Comunicacin

Programas Acessrios para visualizao do contedo e execuo da


Verificao Experimental.

124

Você também pode gostar