Você está na página 1de 96

INFORMAÇÃO

1. A REDESCOBERTA DA INFORMAÇÃO
1.1. DOIS TIPOS DE INFORMAÇÃO
Além da sua significação fundamental, quotidiana - dar estrutura ou forma
(do grego eidos ou morphé) à matéria, energia ou relação -, o conceito de
informação alarga-se hoje a dois sentidos recentemente surgidos e relativamente
específicos.
O primeiro é o sentido estritamente técnico ou tecnológico: informação
como quantidade mensurável em bit (binary digit). É a informação métrica da
teoria clássica da informação [Claude Shannon], a teoria combinatória e
estatística da informação, baseada na lógica e na matemática da probabilidade.
O segundo sentido pertence a uma abordagem diversa, abordagem esta
que pode, porém, servir-se da primeira nos casos em que seja aplicável, como
acontece, por exemplo, na logística da transmissão da informação mediante
sistemas artificiais, como a comunicação via radar ou satélite. O segundo sentido
é, porém, sempre qualitativo antes de ser quantitativo, como de fato deveria ser
(apesar de tudo, a quantidade é um tipo de qualidade, ao passo que o inverso não
se verifica). O segundo sentido conserva, muito mais do que o sentido métrico ou
quantitativo, o significado quotidiano do termo 'informação'. Hoje, porém,
aplicamos muito mais a ‘informação’ em contextos relativamente insólitos ou
pouco familiares (por exemplo, para explicar as características do sistema
corpóreo, ou o comportamento de uma membrana celular).
A informação apresenta-se nos em estruturas, formas, modelos, figuras e
configurações; em idéias, ideais e ídolos; em índices, imagens e ícones; no
comércio e na mercadoria; em continuidade e descontinuidade; em sinais, signos,
significantes e símbolos; em gestos, posições e conteúdos; em freqüências,
entonações, ritmos e inflexões; em presenças e ausências; em palavras, em
ações e em silêncios; em visões e em silogismos. É a organização da própria
variedade.
Fruto da guerra e da economia da eficiência, a abordagem métrica da
teoria da informação quantitativo-estatística trata a informação do mesmo modo
como o dinheiro trata hoje os bens. No passado, a mudança das relações sociais
permitiu que determinado bem (por exemplo, o ouro) se tornasse o «equivalente
geral da troca» - unidade de medida de todos os outros bens. Os bens tornaram-
se mercadorias. Toda a miríade de valores de uso pluridimensionais e
quantitativos de várias entidades e relações pôde, consequentemente, ser
reduzida, como se tornava necessário, a um único critério unidimensional: o valor
de troca económico (ou monetário) (cf.o artigo «Comunicação», 2.6, nesta mesma
Enciclopédia). A teoria quantitativa da informação obedece ao mesmo tipo de
regras de transformação. Embora, por vezes, ela seja erradamente considerada
como parte de uma linguagem, a informação da teoria quantitativa carece da
pluridimensionalidade da linguagem (e de outros sistemas de comunicação). Mais
do que uma linguagem, pode falar-se de um tipo de moeda corrente.
As selecções e combinações dos bits digitais da teoria métrica constituem,
por exemplo, os recursos planeados de um computador digital - justamente como
os sistemas de valorização académicos e os testes de QI utilizam outras formas
de unidades monetárias para reduzir qualidades e incomensuráveis a quantidade
discretas, computáveis. Ao contrário dos sistemas de valorização e dos testes de
QI, não restam dúvidas sobre a extraordinária utilidade da teoria quantitativa da
informação enquanto tal. Bem pouco da moderna tecnologia electrónica, que
encontra aplicações em todas as ciências, seria hoje possível sem esta teoria. O
problema que muitas vezes se põe reside porém no fato de que alguns adeptos
da teoria tendem a confundir dólares e centésimos matemáticos com os quais
medem a informação com a própria informação. O erro equivale a confundir uma
palavra com o seu significado, por exemplo, ou a confundir a quantidade de
energia necessária para produzir estrutura (medida em quilocalorias) com essa
mesma estrutura.
A abordagem métrica ocupa-se, sobretudo, com uma única e limitada
forma de valor de troca na comunicação; vice-versa, a abordagem qualitativa da
informação interessa-se por vários níveis e tipos de valores de troca (monetário,
social, simbólico, etc.) e também pelo problema muito mais complexo dos valores
de uso na comunicação (informação para que fins e para quem?).
É uma perspectiva não fácil de definir em poucas palavras, uma
perspectiva que se interessa por questões filosóficas, éticas, históricas,
socioeconómicas e socioecológicas, e que abrange as versões qualitativas da
cibernética e da teoria da comunicação, bem como certos aspectos da economia
ambiental, da teoria dos sistemas, da teoria das hierarquias e da ecologia dos
sistemas. Neste artigo se examinará o tópico da informação sob este ângulo.

1.2. A PRIMEIRA GERAÇÃO E A SUA ESTIRPE


A teoria da informação enquanto tal é uma invençào do século XX. O
grosso das investigações nesta área específica só se desenvolveu nos últimos
três ou quatro decénios. As suas origens modernas nos anos 40 e 50 associam-
se essencilamente ao trabalho de Shannon sobre a teoria da informação
matemática ou métrica; de McCulloch e Pitts para a neurologia e a teoria das
redes nervosasl; à descrição da homeostase fisiológica (ou «estado
estacionário») por obra de Cannon nos anos 30; a Bateson para a psicoterapia e
a informação não verbal; a Wiener e Ashby para a cibernética; a Turing sobre a
teoria dos computadores, e a John von Neumann para os autómatos e a teoria
dos jogos. Estes investigadores, entre muitos outros, distinguem-se em particular
como membros da «primeira geração» dos teóricos da cibernética, da
comunicação e da informação - muitos deles conheceram-se pessoalmente e
influenciaram-se profundamente.
Um resultado do caráter imaturo da abordagem à informação - que, a partir
dos anos 50, invadiu gradualmente todos os outros setores de estudo e
investigação e está hoje a aparecer na narrativa popular - é que a teoria da
informação parece ter emergido da Segunda Guerra Mundial como Dionísio saiu
da coxa de Júpiter. Para muitas pessoas, a teoria da informação aparece como
um desenvolvimento intelectual e tecnológico praticamente destituído de bases
históricas.
No que se refere à história das origens da concepção moderna da
informação, limitamo-nos em geral a duas linhas principais de indagação, ambas
sujeitas às restrições algo estreitas da história e da filosofia das modernas
ciências e tecnologia.
A linha mais tecnológica concentra-se nas origens dos computadores
digitais, os quais calculam passo a passo, como os números inteiros da aritmética
(os dispositivos de cálculo analógico são naturalmente muito mais antigos,
remontando pelo menos às medições topográficas e às cartas geográficas
babilónicas de há 6000 anos, bem como às cartas náuticas de pauzinhos e
conchas usadas por várias populações do Pacífico para navegar no mar alto, isto
para não falar nas antigas calculadoras astronómicas como a de Stonehenge
cerca de 1750 anos a.C., e das «rotas da medicina» índias das grandes planícies
norte-americanas). Entre os instrumentos digitais contam-se o ábaco, com dois
mil e quinhentos anos; as «ossadas» de Napier [1617]; a máquina de somar com
engrenagem de Pascal [1962], construída dez anos depois da invenção de
Oughtred daquele tipo de calculadora logarítmica analógico-digital conhecida
como régua de cálculo; a «máquina para diferença» [1812] e a projectada
«máquina analítica» [1833] de Charles Babbage. Babbage e Hollerith utilizaram
ambos cartões perfurados para representar a informação, mas esta invenção
pode remontar a 1745 e à sua primeira realização no sistema automatizado de
cartões perfurados usado para controlar a produção de modelos do tear Jacquard
[1801]. O primeiro computador digital electromecânico, o Mark I, foi construído em
1944 por Aiken, da Universidade de Harvard; a primeira máquina completamente
eletrônica (ENIAC) - projectada para o cálculo das trajetórias balísticas - foi
completada na Universidade da Pensilvânia em 1946. A notação binária foi usada
pela primeira vez no EDVAC, e destinou-se ao exército dos Estados Unidos em
1945.
Uma linha mais filosófica conduz em geral a Leibniz - que inventou uma
multiplicadora digital em 1671 - e em particular à sua formalização da numeração
binária-digital (1,0) - já apresentada de outra forma mediante as linhas tracejadas
e contínuas do kua ou trigramas do chinês Livro das mutações (Yi King). Os
sistemas de numeração binária são muito antigos, mas implicam em geral uma
contagem aos pares, com emprego de valores correspondentes a um e dois, mais
do que ao sistema de posição binária de um a zero, tão útil na teoria clássica da
informação. Leibniz ficou a tal ponto estupefacto perante a simplicidade e a
elegância da sua numeração que viu nela a própria imagem da Criação.
Imaginava ele que a unidade representasse Deus e o zero o vazio; e acreditava
ter extraído todos os números do um e do zero exactamente como Deus havia
extraído todas as criaturas do vazio. Leibniz sustentava que um é suficiente para
derivar tadas as coisas a partir do nada (no que diz respeito à comunicação
analógica e digital, cf.ainda «Comunicação», 5.4). [Sobre os desenvolvimentos
associados à lógica simbólica, etc., cf. Gardner 1958, e sobre a representação da
álgebra de Boole mediante certos tipos de circuitos de distribuição, o importante
artigo de Shannon 1938.]
Com algumas excepções - por exemplo Rosenfield [1971] -, são
pouquíssimas as investigações históricas ou antropológicas que se concentraram
no background do moderno coceito de informação. A história do caminho da
ciência, por exempl, raras vezes vai além do século XIX e, em geral, limita-se à
invenção da ciência da termodinâmica, à versão clássica formulada pela primeira
vez com clareza por Rudolf Clausius em 1850 e ao início da forma estática mais
geral, atribuível essencialmente ao trabalho de Willard Gibbs por volta de 1870. A
conexão entre termodinâmica, informação e cibernética podiam também
encontrar-se na obra pioneira de Maxwell, cujo artigo sobre os reguladores de
bolha foi publicado em 1868 e cujo famoso raciocínio sobre a aparente violação
do segundo princípio da termodinâmica por efeito do chamado “demônio de
Maxwell” (ao qual se voltará neste artigo) foi publicado em 1871. Em 1894, as
investigações de Bolzmann no campo da mecânica estática (mecânica e teoria
das probabilidades) conduziram à famosa observação segundo a qual a relação
que o segundo princípio da termodinâmica define como entropia está ligada à
“informação que falta”. Este conceito basilar foi ampliado pelo trabalho de Szilard
de 1925 e, nos anos 30, pelo trabalho de Neumann sobre mecânica quântica.

1.3. O CONTEXTO DA ORDEM


“Variedade” é a definição mais abstrata e universal da “informação" em
todas as suas formas. Pode imaginar-se que a “variedade” constitua o
supraconjunto de tods as configurações possíveis de que quaquer tipo particular
de informação representará um subconjunto. Necessariamente, a variedade é
sustentada por, ou impressa sobre, uma base (ou indicador) energético-material;
por outras palavras, a variedade depende de suportes materiais e veículos de
energia e é, por isso, ora energia ora informação: qual dos dois aspectos será
eventualmente dominante dependerá do contexto.
Como uma das formas da variedade, a informação não se distingue
intrinsecamente do “ruído”. A informação não tem significação intrínseca, nem
significado, nem valor de uso, nem valor de troca intrínsecos. Todavia, “em ou
para, um dado sistema”, a informação representará uma variedade codificada ou
estruturada, e o ruído uma variedade não codificada. Convém insistir no fator
modificante “em ou para, um dado sistema” porque toda a variedade está
constrangida a um ou outro nível - por exemplo, aos conhecidos princípios da
termodinâmica, ou às inter-relações da variedade no sistema específico -
independentemente do reconhecimento prático dos veículos em si mesmos.
O “acaso” é afinal uma forma de ordem e manifesta uma forma de estrutrura. Por
exemplo, os números aleatórios dependem da estrutura do sistema numérico; as
disposições aleatórias no espaço dependem das inter-relações de matéria e de
energia e dos modos sob os quais estas últimas se possam manifestar, etc.).
A distinção entre a forma de variedade chamada ‘informação’ e a definida
como ‘ruído’ é, por consequência, sempre uma função da maneira como a
variedade global, disponível para um determinado sistema finalizado é subdividida
mediante vários processos de codificação e ordenamento. Como resultado da
subdivisão global, certos tipos de variedade serão adoptados, trocados e usados,
ao passo que outros serão rejeitados como “ruídos”, ou passarão de todo
inobservados pelo sistema e pelos subsistemas deste. A variedade existente na
órbita observada de Mercúrio é ruído para a mecânica newtoniana; para a
relatividade einsteiniana, não só é informação, mas sim informação de
importância crucial para a varificação experimental da própria teoria da
relatividade. Como regra geral, pode afirmar-se que quanto mais elevada à ordem
de complexidade de dado sistema finalizado mais elevado será o número de tipos
e níveis de variedade que o sistema é efetiva ou potencialmente capaz de
codificar e de utilizar como informação.
Levando a exposição um pouco mais longe, aceita-se geralmente que o
“significado” em qualquer das suas acepções constitui uma função do contexto,
que sem contexto não pdoe haver significado (aqueles que acreditavam no
“significado intrínseco” das palavras formaularam em todo o caso uma definição
contextual do significado, mesmo que se julgasse que o árbitro último do
significado fosse implícita ou explicitamente Deus - ou a lógica, ou a ciência, ou a
sociedade). Se bem que a informação como tal seja destituída de significado (o
significado surge a outro nível no sistema de comunicação, isto é, relativamente a
um outro nível do contexto), o conceito de informação faculta um instruento para
explicar porque razões é o contexto necessário no significado (e ao mesmo tempo
esclarece todos os problemas relativos à relação sistema/ambiente entre texto e
contexto, e entre níveis de contexto).
Se se convencionar que informação e ruído são intrinsecamente
permutáveis, torna-se óbvio que sem contexto não pode haver informação. Por
outras palavras, sem um contexto (ou nível de contexto) relativamente ao qual se
possam subdividir ou “classificar” tipos particulares tanto de variedade como de
informação, é impossível distinguir um tipo de variedade do outro. Sem contexto,
estamos perante a diferença para - um continuum de diferenças entre as quais a
distinção é impossível. Não se podem traçar limites; não se podem discernir
“figuras” do “fundo”; não se podem utilizar “disposições”; não estão disponíveis
códigos para usar como tipos particulares de vínculos sobre a variedade. A
variedade é tudo. Mas, variedade total = informação potencialmente infinita =
informação zero.
Uma ulterior implicação do pressuposto inicial sobre a variedade é que a
informação só pode nascer no âmbito do contexto de sistemas finalizados,
também contextualizados por ordem de complexidade. A informação biológica no
sistema nervoso, por exemplo, é o produto de certos objetivos (nutrição,
respiração, ect.), mas pertence a uma ordem de complexidade diversa
proveniente, por exemplo, da informação econômica; que é o produto de objetivos
de ordem superior, podendo, no entanto incluir objetivos econômicos de ordem
inferior (a subsistência, por exemplo).
Elaboramos brevemente os termos técnicos utilizados no parágrafo
precedente: uma ordem de complexidade, por exemplo, a ordem econlógica,
compreende níveis de complexidade. Dado que a ordem socioeconomica
depende da ordem ecológica e por esta é abrangida, pode afirmar-se que a
sociedade tem uma ordem de complexidade superior à natureza orgânica. Por
sistema finalizado, entende-se qualquer sistema - social, orgânico ou artificial -
que, pelo menos, seja capaz de eleborar informações para a correção de erros e
ou que esteja, pelo menos, organizado para a sua reprodução.
Em geral, nos sistemas biológicos e sociais, a finalização não implica um
objetivo no sentido usual do termo (intento consciente), mas por vezes na
literatura ‘finalista’ é usado como sinônimo de ‘comportamento teleonômico’ de
tais sistemas. Quase todo o comportamento humano, por exemplo, envolve
objetivos e comportametos não-conscientes. A maior parte do nosso
comportamento finalista normal (o nosso comportamento intencional) é o mais
das vezes inconsciente - no sentido freudiano de ser “um comportamnto ativado
por processos primários”.
(O inconsciente, o nível de informação dos processos primários, pertence a
um tipo lógico superior no sentido no que respeita ao processo secundário, ou
seja, ao processo de informação que inclui tanto a consciência como a memória
ordinária - “preconsciente” freudiano - [cf. Wilden 1972, pp. 31-62, 445-61]).
Convém observar que ‘ordem’ e ‘desordem’ põem em jogo uma interação
similar à que existe entre ‘informação’ e ‘ruído’. Em muitos contextos, ‘informação’
será, pois, sinônimo de ‘ordem’, e ruído’ de ‘desordem’. Para um dado sistema
biológico ou social, a subdivisão e o uso da relação ordem-desordem são
essenciais à conservação do sistema (conservação “metabólica” nos sistemas
biológicos; “subsistência” nos sistemas sociais). O emprego correto da relação é
decisivo para a forma de estabilidade fundamental ou corrente do sistema, para
as suas capacidade reprdutoras e para a sua capacidade de, como sucesso, se
adaptar quer a flutuações ambientais estocásticas quer a pertubações internas e
externas (ruído) produzidas pelas suas próprias atividades. Em determinado
sistema, o modo como as relações informação-ruído e ordem-desordem são
subsdivididas no tempo pode dizer-nos muito acerca da flexibilidade sistêmica, ou
seja, da capacidade do sistema de sobreviver no período longo - mediante
adaptações estruturais ao ‘ruído’ ou a ‘desordem’ (gerados quer externa uer
internamente ou das duas maneiras) que, a não ser assim, o submergiriam.
Citando livremente Bateson [1972]: tudo o que não é informação, nem
redundância, nem relação codificada, utilizada, é ruído; e este é a única fonte de
novas configurações.

1.4. VARIEDADE NECESSÁRIA


Retomar-se-á de seguida, mas a outro nível, a relação entre ordem e
desordem e entre informação e ruído. A noção fundamental expressa na última
parte do parágrafo precedente pode ser reenunciada em termos de “princípio da
variedade necessária”. Este princípio foi originalmente formulado, juntamente com
o conceito de variedade adotado aqui, por Ashby nos anos 50 [cf. Ashby 1965,
trad. It., pp. 257-66, 304-6]. Ashby propunha-se explicar a regulação cibernética e
encontrar, para tal fim, uma definição qualitativa da qual se pudesse derivar uma
medida quantitativa do grau de regulação necessária em circunstâncias
particulares. Na forma a que Ashby chama “pitoresca”, o princípio da variedade
necessária afirma que somente a variedade pode destruir a variedade.
Explicitando melhor o ponto de vista de Ashby, o princípio em causa
sustenta que, se a variedade (por exemplo, a flutuação) a que dado sistema está
sujeito for maior do que a variedade que o istema é capaz de tratar, este último
não possuirá a “variedade necesária” para reduzir, ou pelo menos encarar, a
variedade que o “ameaça”. Neste sentido, o conceito de variedade necessária
pode ser utilizado como simples instrumento para discutir a flexibilidade sistêmica
relativa.
Expresso de outra forma, o princípio diz que a capacidade de um sistema,
S, para regular outro sistema, E, não pode superar a capacidade de S como canal
de informação (um “canal” é simplesmente algo que seja usado ou projetado
como meio através do qual se propaga a variedade. Existem, por exemplo, canais
simples como os cabos telefônicos ou os espectros de rádio; canais relativamente
complexos como as várias concentrações de mensagens entre neurônios no
sistema nervoso central, abrangendo dendrites, axônios, sinapses e outros; e
canais altamente complexos tais como os diversos modos de relação entre as
pessoas na sociedade, ect.).
No caso normal, quantitativo, o princípio de Ashby pretende ser o
equivalente na teoria do controle do décimo teorema de Shannon [Shannon e
Weaver 1949]. Ocupa-se este teorema da situação que se verifica naquilo a que
Shannon (curiosamente) define como um canal “discreto” - isto é, um canal que
transmite sinais discretos, como pontos e traços - quando uma mensagem é
perturbada por ruídos. Convém complementar o canal principal como um “canal
de correção” capaz de reduzir os efeitos do ruído (capaz de corrigir os erros
induzidos). Shannon demonstrou o que hoje parece óbvio (como a “variedade” de
Ashby), mas que naquele tempo o não era: que a quantidade total de ruído
eliminável da mensagem graças ao canal de correção é estritamente limitada pela
quantidade total de informação (em bit por segundo) transferível através do canal
de correção - menos uma certa quantidade correspondente a tipos irredutíveis de
variedade (por exemplo, o movimento browniano, a difusão térmica) que, em
nenhuma circunstância, podem ser eliminados. (Este tipo de variedade manifesta-
se também na incerteza sobre as posições preciosas e a velocidade das
“partículas” subatômicas, incerteza que, na física, limita as observações
possíveis; não existem em todo o caso canais sem ruído.
O corolário do intuível enunciado de Ashby sobre o princípio da variedade
necessária é a tal ponto óbvio que não se compreende, à primeira vista, a razão
por que o não exprimiu ao mesmo tempo. Ashby, porém, tal como Wiener e
Shannon, pertence àquela primeira geração de técnicos do controle e da
comunicação que se viu obrigada pelo contexto historico e pelas suas próprias
inovações a preocupar-se com a redução dos devios nos sistemas de controle (a
conservação da “substância” mediante feed-back negativo) e com a supressão do
ruído nos sistemas de comunicação artificiais. O resultado, testemunhado nos
seus escritos, parece ter sido uma tendência comum para atitudes face ao
“desvio” ou à “desordem” ou à “desordem” iguais às de outros influentes
expoentes da mesma geração que se interessaram por análogos problemas e
teorias, e por eles foram influenciados. Podem citar-se Talcott Parsons na
sociologia; Lévi-Strauss na antropologia; Piaget na psicologia cognitiva
“construtivista”.
O corolário em causa é naturalmente o seguinte: só a variedade pode criar
variedade. Mas, nas primeiras investigações sobre a teoria do controlo e da
informação, de Ashby, de Shannon, de Weaver ou outros, todas as versões do
princípio da variedade necessária (a que Ashby chamou “lei”) são em última
instância equivalentes à expressão seguinte: “Só a informação pode destruir o
ruído” - e, neste contexto, ‘ruído’ tem o significado que lhe atribuem os técnicos.
De fato, só nos anos 60 se começaram a considerar seriamente as possibilidades
criativas do ruído ou da desordem (por exemplo, por obra de Mackay, Bateson e
Heinz von Foerter; cf. adiante). Analogamente, só neste período começou a
conquistar cosistência adequada a cibernética da amplificação do desvio (feed-
back positivo) [Maruyama 1963].
O princípio de Ashby da variedade necessária pode ser expresso em
termos de aplicação mais geral, que permitem tratar níveis de variedade e não
apenas níveis de meras quantidades. A capacidade de um sistema, S, de
representar a variedade de outros sistemas, E, não pode superar a capacidade de
S como rede de comunicações.

1.5. A UNIDADE MÉTRICA DA VARIEDADE


A base da teoria da informação métrica ou “clássica” - tanto combinatória
como estatística - depende da maneira particular de definir a “mensagem mais
simples possível”. Como a mensagem mais simples possível, fisicamente
definida, é a presença ou a ausência de um sinal, torna-se possível exprimir tais
mensagens mediante respostas a um só nível a problemas a um só nível. Se o
sinal estiver presente, pode escrever-se “1” (uma espécie de “sim”); se estiver
ausente, pode escrever “0” (uma espécie de “não”). Também é possível
representar a presença ou ausência do sinal - isto é, a presença ou ausência do
que se definiu previamente como sinal - utilizando um raio de luz ou um relé, ou
qualquer outro interruptor binário que possa ser “aceso” ou “apagado”. Como o
sistema binário de notação aritmética (1,0) não só é o mais simples, mas também
o que se coaduna com as características de “aceso” ou “apagado” do código
discreto (e com as características dos componentes do interruptor) usado nos
sistemas digitais, torna-se particularmente conveniente escolher o dígito binário
para “medida” da informação na teoria métrica.
Obtêm-se resultados mais vantajosos e mais simples recorrendo aos
logaritmos de base dois. Os logaritmos (seja qual for a sua base) permitem
exprimir aditivamente as relações de tipo multiplicativo. O produto obtém-se
somando os expoentes da base (por exemplo, 10 nos logaritmos naturais), e não
multiplicando os números reais a que correspondem os logaritmos. Dada a base
“aceso-apagado” à qual se pode comunicar a mais simples mensagem física, e
dadas às relações multiplicativas ou combinatórias que se possam instaurar entre
o que se definiu como “elementos discretos” de um repertório de possibilidades
(isto é, o “conteúdo” definido da fonte da mensagem), os logaritmos binários
facultam uma maneira intuitivamente agradável de adicionar ou subtrair decisões
e, ao mesmo tempo, multiplicar e dividir probabilidades.
Todavia, a base e a notação binárias representam apenas um dos múltiplos
sistemas de cálculo possíveis (como exemplo, mantém-se a base 60 no cálculo
do tempo). Ela não é essencial para o projeto dos computadores, por exemplo,
mas é eficiente em termos de custos. Na medida em que for possível limitar a
definição de informação a problemas de certeza e incerteza no que se refere a
alternativas que pertencem ao mesmo tipo (ou nível) lógico simples, como o que
se aplica na notação binária, esta última e a própria teoria matemática estão
obviamente destinadas uma à outra.
Pode acontecer que o leitor queira um dos numerosos manuais sobre a
teoria quantitativa para obter mais pormenores do que os necessários neste
contexto. Os aspectos fundamentais da teoria clássica ou métrica que aqui
interessam podem elaborar-se começando pelo exemplo comum do telégrafo.
Um aparelho Morse tem a possibilidade de enviar um grande número de
mensagens diversas além das expressas no sistema ponto/linha/espaço do
código Morse. A menos que o aparelho seja acionado de modo inteiramente como
as Morse: por exemplo, mensagens inerentes à urgência, stress, incerteza,
interesse, segurança, etc. o teórico da informação deve, pois, reduzir a
informação potencial (a variedade disponível) de toda a mensagem Morse aos
seus elementos mais simples - pontos, linhas, espaços. Com efeito, ao descurar
os espaços entre letras e palavras, o sistema do código Morse é muitas vezes
utilizado como exemplo de simples sistema binário ponto/traço. No entanto, quer
se ignorem ou não as funções dos espaços na mensagem a puro título
exemplificativo, na mensagem Morse normal há sempre muitas outras
informações que devem ser descuradas, não para fins ilustrativos, mas no próprio
interesse da teoria.
A fim de que a teoria seja coerente, o matemático teórico deve optar por
ignorar, por exemplo, os ritmos da mensagem Morse; por exemplo, os ritmos que
a subdividem num nível de comunicação diverso do da sequência ponto-traço-
espaço. Estes ritmos envolvem as combinações de cadências e frequências
espaciais e temporais tais que produzem uma “impressão rádio” dos telegrafistas
individuais, um “estilo de aparelho” tão identificável de modo equívoco como a
caligrafia. É importante insistir neste ponto, já que o teórico clássico - por motivos
lógicos e matemáticos - se vê teoricamente na necessidade de ter de considerar
irrelevante a informação altamente específica codificada pelo transmissor humano
(sistema aberto) em todas as mensagens Morse não mecânicas. Esta informação
deve ser tratada como se fosse idêntica a todos os outros tipos de variedade, já
definidos - no sistema fechado de informação adoptado - como “ruído”.
O fato é que não é possível, legitimamente, servir-se do exemplo
simplificado do código Morse para ilustrar a teoria sem anotar ao mesmo tempo,
que até a nível relativamente simples, a teoria matemática manifesta uma das
suas propriedades frequentemente inobservada, mas intrínsecamente: a
capacidade de usar a variedade para destruir a variedade ou, nourtros termos, a
capacidade de homogeneizar a diversidade.
Admita-se que o sistema Morse é um sistema binário ponto/traço; admita-
se também, como é essencial para a estrutura lógica (combinatória) da teoria, que
traços e pontos sejam igualmente prováveis. Por outras palavras, os pontos e os
traços enviados através de canais fixados são supostos logicamente
independentes entre eles e não são considerados como vinculados ao código do
alfabeto, nem às palavras para a representação das quais são na prática usados,
nem à sua relação recíproca. Pontos e traços são simplesmente considerados
como se fossem equivalentes às duas faces de uma moeda atirada ao ar. O
número de possibilidade equiprováveis no repertório deste sistema Morse é 2.
Bastará, porém, uma pergunta para identificar unicocamente um ponto e um traço
- e log22=1. Pode, pois, dizer-se que qualquer sinal positivo do aparelho (ponto ou
traço) representa a resposta à pergunta presença/ausência. Pode definir-se esta
relação como sendo a mais simples mensagem fiísica e, recorrendo aos
logaritimos de base 2, é possível quantificá-la como “cifra binária”, ou como bit de
informação fiísicamente medida. (É irrelevante, tanto para a teoria como para a
medição, o fato de que o sinal possua significação, ou se foi efetivamente
expedido”).

1.6. O REPERTÓRIO CLÁSSICO


A teoria métrica define assim a informação como produto de uma redução
da incerteza (a um nível específico) perante várias outras alternativas ou
possibilidades. Sem alternativas, diria a teórico clássico, não pode haver
informação.
O exemplo do aparelho Morse ilustra a forma combinatória da teoria da
informação. A par da forma estatística, este aspecto da teoria baseia-se na longa
lógica analítica de combinações de eventos “ou/não”, mas a versão combinatória
examina as possibilidades puramente lógicas do aparecimento de eventos
equiprováveis (logicamente independentes), prescindindo de saber se estes se
verificam ou não (prática ou potencialmente) num sistema particular. Na sua
forma estatística, a teoria métrica baseia-se nas probabilidades conhecidas e ou
calculadas, associadas a eventos reais e particulares que se manifestem no seio
de longas sequências doutros eventos. (Em linguagem técnica, referimo-nos
usualmente a tais sequências como a processos “ergódicos”, processos estes
dotados de “homogeneidade estatística” no sentido de que a sequência razoável
exibirá as propriedades estatísticas do repertório de que é extraída).
A título de exemplo, a versão combinatória poderia envolver todas as
combinações logicamente possíveis de duas letras do alfabeto latino, ao passo
que a teoria estatística poderia ocupar-se das probabilidades associadas às
efetivas combinações de duas letras presentes em dada amostra real escrita, que
faça uso daquele alfabeto. A probabilidade estatística será naturalmente função
da frequência de determinadas combinações biliares. [Para um perfil mais
particularizado da distinção entre teoria da informação combinatória e estatística
da obra do matemático soviético Kolmogorov, publicada em 1941, cf. Krippendorff
1975.] Certos artigos deste tratado são representativos do paradigma
epistemológico que é associado à versão curtos-lucros, de orientação tecnológica
e fundamento psicológico, da teoria da informação, e podem ser recomendados
aos leitores desejosos de aprofundar esta abordagem.
Voltando por um instante ao aparelho Morse, que quantidade ou tipo de
informação enviaria se emitisse um único tom contínuo? Dentro dos limites do
sistema fechado da metodologia métrica, não há alternativas: o aparelho não
reduz a incerteza relativamente ao fato de que sinal seja um ponto ou uma linha,
nem consente que se tome uma decisão sobre pontos e traços. Por
consequência, no âmbito de tais limites, o tom contínuo equivale a ruído e não lhe
é atribuído um conteúdo de informação. Dentro dos limites da metodologia
definida, um tom contínuo oferece uma só possibilidade: e log 21= 0 (zero bit). Na
vida real, como é natural, o tom contínuo poderia ser um novo e alarmante
elemento, de informação, uma mensagem de finalidade; poderia talvez constituir,
para o receptor, uma indicação da descoberta e da morte de um telegrafista
clandestino às mãos do inimigo - tal como uma variação na impressão rádio do
telegrafista indicava aos serviços secretos de ambas as partes na Segunda
Guerra Mundial que se detectara uma rede de comunicações.
Um aparelho Morse isolado que possa expedir uma ou a outras de duas
mensagens equiprováveis (ponto ou traço) possui um repertório ou “stock” binário,
cuja medição de informação é log 22, isto é, 1 bit. Equivale isto à pergunta”ou/ou” a
que é necessário responder para especificar se um sinal particular é um ponto ou
um traço - supondo que já se saiba de antemão o que perguntar ao repertório. Se
pontos e traços se podem associar aos pares - equivalentes à 00, 01,10 e 11 o
stock das mensagens aumenta para log 24. Esta quantidade monta a 2 bit físicos,
isto é, ao equivalente às duas perguntas que são minimamente necessárias para
especificar as duas partes do par - desde que se saiba antecipadamente que as
mensagens são formadas por pares, e não de qualquer outra maneira. (Primeira
pergunta: “O primeiro carater é um ponto?” Segunda pergunta: “O segundo
caráter é um ponto?”) Se as mensagens Morse consistem em sequências de 3
caracteres binários - equivalendo a 000,001,010,011,100, 101,110,111 -, o
número total das mensagens possíveis chega a 8, log 28 = 3bit, equivalendo a uma
escolha entre oito alternativas. Por outras palavras, em situações equiprováveis, a
“quantidade de informação” transmitida por cada carater de um repertório com
duas unidades é 1 bit; de um repertório com quatro unidades é 2 bit; de um
repertório com oito unidades é 3 bit, e assim sucessivamente.
Em geral, n bit corresponde, portanto, a uma escolha entre 2 n alternativas,
supondo que as alternativas sejam consideradas correctamente. Se, por exemplo,
o jogo das “vinte perguntas” não for jogado obedecendo a escolhas binárias
estabelecidas entre classes de alternativas, apenas se podem escolher vinte
eventos ou sujeitos. Corretamente jogado, com emprego adequado de cada um
dos 20 bit, o jogo é, em teoria, suficiente para efetuar uma seleção entre 2 20
objetos (aproximadamente 1.048.500).
Alargue-se agora esta medição física da informação do alfabeto latino,
usando apenas letras maiúsculas e ignorando qualquer pontuação à exceção do
espaço entre as palavras. (Os intervalos entre letras não equivalem a espaços
mas antes às descontinuidades especiais associadas a repertórios discretos ou
digitais). Se cada um dos vinte e sete caracteres for considerado equiprovável (o
que, obviamente, não corresponde à realidade), a “quantidade” de informação
contida no repertório do alfabeto é um simples problema de cálculo. Dado que
log227 = 4,7555, pode afirmar-se que cada letra transmite potencialmente cerca e
4,76 bit físicos ou informação ou, vice-versa, admitindo sempre a
equiprobabilidade, que cada um dos caracteres exigiria para efeitos de
transmissão cerca de 4,76 unidades binárias (por exemplo, uns e zeros) de
informação física. De acordo com o que se sabe sobre o modo como funciona o
alfabeto, pode-se pôr à prova a medição recorrendo a perguntas. O número
mínimo de perguntas necessárias para especificar um dos caracteres
(logicamente independete dos outros) varia “entre” quatro a cinco (27/2 = 13,5;
13,5/2 = 6,75; 6,75/2 = 3,375; 3,375/2 = 1,6875; 1,6875/2 = 0,84375), ou seja,
quatro a cinco perguntas para cada caso particular.
Note-se, porém, que para todas as operações deste tipo de repertório eve
satisfazer as seguintes condições:
a) O repertório deve estar fechado (a novas informações);
b) O repertório deve inicialmente constituir em elementos discretos
(digitais), ou
c) Deve ser transformado em elementos discretos após a introdução da
descontinuidade (digitalização);
d) Os princípios ordenadores fundamentais do repertório devem ser
conhecidos antecipamente;
e) O repertório deve ser unidimensional, ou então os seus elementos
devem ser tratados como se o fossem; não pode haver distinções de
nível no repertório;
f) O repertório não pode ser substituído de modo a introduzir níveis de
relação, nem de modo a introduzir considerações contextuais diversas
das já implícitas nas outras condições citadas.
Na notação decimal, com os seus dez algarismos de zero a nove, aplicam-
se as considerações feitas para o alfabeto. Log 210= 3,322: cada número decimal
requer em média cerca de 3,32 números binários para ser representado ou
transmitido noutra notação; e cada número decimal transporta uma informação
física mais do que três vezes superior à um número binário. Vice-versa, a notação
binária necessita de um número de caracteres mais do que triplo para exprimir um
dado número do sistema decimal (log 10n x 3,322 = log2n). Tal como relativamente
ao alfabeto, pode verificar-se a equivalência recorrendo a perguntas
oportunamente formuladas. Supondo que se conhece já a ordem dos números
decimais, três ou quatro perguntas servirão para determinar univocamente
qualquer algarismo em qualquer número décima.

1.7. SUBDIVISÕES DO REPERTÓRIO


Se bem que a teoria clássica não levante o problema explicitamente, o
conhecimento do ordenamento da fonte da mensagem (isto é, a subdivisão
“interna” de que se serve) é essencial na teoria métrica, como já se sublinhou.
Segundo a teoria, quanto mais ordenado estiver o repertório, tanto menor é o seu
conteúdo potencial de informação física. Pode-se ilustrar outro aspecto da
necessidade de conhecer a priori a subdivisão introduzindo o problema da
tradução, da representação ou do valor da mensagem.
Examine-se a sequência real de uns e zeros usada no precedente exemplo
do código Morse com oito mensagens de três bit, omitindo, porém as vírgulas.
Admite-se que se trata de uma sequência em notação binária, simbolizando uma
sequência de números decimais. (no sistema decimal, tudo o que se coloque à
esquerda vale dez vezes o precedente; no sistema binário, é o dobro do
precedente, por exemplo... 32,16,8,4,2,1) A sequência usada no exemplo Morse
era 000001010011100101110111. Se o repertório desta mensagem for
subdividido de modo a que cada caracter singular represente uma mensagem
singular, a sequência em notação binária exprime exatamente a mesma
sequência de números em anotação decimal (visto que o decimal 1 é
representado pelo binário 1 à sua direita e, analogamente, o decimal 0 pelo
binário 0). Todavia, se o repertório se servir de pares (00,00,01,01...), a mesma
sequência corresponde aos seguintes doze números decimais:
0,0,1,1,0,3,2,1,1,3,1,3. Se a subdivisão for por termos, os equivalentes decimais
desta sequência binária sào os oito números seguintes: 0,1,2,3,4,5,6,7. Por outro
lado, se toda a sequência representa uma única mensagem, a sequência de vinte
e quatro postos em notação binária representa um único número decimal de 6
algarismos: 342 391.
Este exemplo é o mais simples do modo como a codificação dos caracteres
particulares usados - uma codificação de nível diverso das mensagens que
contém os caracteres - medeia sempre os valores da mensagem em cada
sistema de comunicação (cf. ainda “Comunicação”, SS 5.3,5.5). (Obsrve-se como
a subdivisão deste texto - compreendendo os parêntesis que fecham esta nota -
opera a nível diverso do próprio texto).
Todavia, na teoria métrica, a codificação não implica níveis de modo
explícito. Pode dar-se o caso de as codificações em que a teoria está interessada
serem preexistentes - poder-se-ia, por exemplo conhecer antecipadamente a
existência de uma mensagem numa certa linguagem ou num código artificial
(incluindo os sistemas de comunicação em código Morse e as linguagem dos
computadores como a Fortan) ou ainda numa notação matemática, etc.; ou,
então, a codificação poderia ser constituída por qualquer outro tipo de código
construído como, por exemplo, um sistema no qual a unidade da mensagem
fosse representativa da totalidade do texto da Bíblia, ou numa outra unidade fosse
o texto do Corão.
Além de tudo isto, na medida em que as expressões ‘codificador’ e
‘descodificador’ forem usadas nas explicações e nos diagramas representando
redes fixas de comunicação - diagramas muitas vezes assumidos ilegitimamente
como isomorfos a representações de redes de comunicação humanas e sociais -,
o “codificador” é um puro instrumento de modificação do código, um dispositivo
que substitui um tipo de codificação por outro, recorrendo a um conjunto
preexistente e mensagens codificadas, por exemplo um aparelho Morse, uma
máquina de calcular, ou outros dispositivos que transformem sons ou letras em
frequências ou impulsos eletrônicos, e vice-versa, como os sistemas correntes de
tefefones ou teletipos.
A teoria métrica é, pois, em sentido estrito, exclusivamente uma teoria de
mensagens e sistemas de mensagens, geralmente considerados apenas nos
seus aspectos mecânicos, eletrónicos ou físicos em geral. A teoria quantitativa
clássica não inclui uma teoria explícita da codificação - como deveria fazer
qualquer teoria da comunicação, ainda que remotamente adequada. O fato de a
teoria clássica não considerar estes níveis é naturalmente necessário às suas
funções métricas e técnicas, e assegura a sua unidimensionalidade lógica. Por
sua vez, estes fatores contribuem para reforçar a inadequação do culgarísmo
modelo a “duas-ou-mais pessoas” ou “duas-ou-mais mentes” dos processos
sistémicos da comunicação humana na sociedade. É este um modelo
reducionista que psicologiza (e, portanto, racionaliza as reais hierarquias das
relações que formam o processo socioeconômico da comunicação (cf.
“Comunicação”, 2.1). Semelhante abordagem, ao enquadrar a comunicação
essencialmente num simples modelo linguístico ou eletrônico, tende também a
ignorar os sistemas de informação fisiológicos e ecológicos dos quais, em última
análise, depende o sistema de informação social (para já não falar do nível
econômico da comunicação).
Resumindo, enquanto a teoria métrica estiver limitada aos setores em que
se aplica correta ou adequadamente, representa uma inovação tecnológica
extremamente útil; quando, porém, é aplicada ilegítima ou inconscientemente
para atravessar as fronteiras estabelecidas, pela sua própria auto-clausura (ao
nível físico da informação binarizada ou digitalizada), a aplicação da teoria
quantitativa sofre do mais comum de todos os defeitos metodológicos: o cientismo
reducionista inerente à travessia de fronteiras entre diferentes ordens e níveis de
complexidade, sem uma correspondente realização (cf. “Comunicação”, 4.4).

1.8. SISTEMAS DE INFORMAÇÃO FECHADOS


A informação no sentido qualitativo - que inclui como caso particular o
sentido quantitativo - depende da codificação e subdivisão de diferentes formas e
níveis de variedade em sistemas abertos, finalizados. Um sistema aberto difere de
um sistema fechado, ou isolado do ambiente, na medida em que é distinto do
ambiente graças a fronteiras mais do que a barreiras. Os sistemas abertos são
portanto, sistemas limitados, mas que mantêm uma troca contínua de matéria,
energia e informação através das suas fronteiras. Estas não agem simplesmente
como filtros, as mais precisamente, como trasdutores. As fronteiras do sistema -
lugares reais de troca de informação com o ambiente - traduzem e transformam a
variedade disponível de tal modo que o sistema aberto, finalizado, a possa usar
como informação (ordem).
De um ponto de vista fisiológico, por exemplo, na comunicação orgânica, a
fronteira gene-protéica implica a tradução do código ADN-RNA com quatro
unidades para o código com vinte unidades aminoácidas das proteínas. As
cadeias proteicas sofrem depois outras transformações que mudam a sua ordem
linear originária para uma outra com três dimensões, por exemplo, mediante o
“envolvimento” da cadeia de aminoácidos. O processo de enovelamento depende
da colocação ou do ordenamento sintático de “locais ativos” específicos na cadeia
de aminoácidos e pode, por isso, ser visualizado como qualquer outro nível de
repetidos processos de codificação, descodificação, tradução e transformação
que ocorrem nas fronteiras entre o programa genético, o seu microambiente, os
seus produtos, e o ambiente criado pelo programa e seus produtos.
À nível da totalidade do organismo, confinado pelo sistema de
transformação “permeável” a que se chama a membrana cutânea, o sistema de
informações basilar usado a nível fisiológico (de conservação) não é constituído
pelas cadeias proteicas ordenadas e enoveladas, mas mais usualmente pelo
“alfabeto” de vinte unidades aminoácidas que formam as proteínas. A informação
codificada nas “frases” proteicas que o organismo ingere é submetida a muitos
processos de decifração, um dos quais envolvem a ação específica de outras
proteínas, chamadas enzimas. As enzimas movem-se ao longo da “frase”
tridimensional dos aminoácidos expressa por uma proteína que fragmentam em
vários pontos e reconstituem noutros - subdividindo novamente a sequência e
favorecendo o reordenamento do envolvimento - de modo a que uma “frase”
proteica em “língua estrangeira” e vinda do exterior se torne uma nova expressão
na “língua nativa”, vigente no organismo em causa [Mazia 1974; Koshland 1973;
Pattee 1973, pp. 29-47; cf. também o S 3.2 sobre a relação da “ordem pela
ordem”].
Deste exemplo, resulta desde logo claro que todo e qualquer organismo
está constantemente aberto a nova informação (aberto a nova variedade que
pode, mais ou menos, ser subdividida como informação) e que a informação não
tem caráter unidimensional da “cifra binária” da teoria clássica da informação. A
informação biológica, tal como a informação social, é caracterizada
invariavelmente por distinções qualitativas, de níveis e tipos de variedade e
ordem. As unidades aminoácidas agora em causa não se assemelham, pois à
moeda corrente da teoria métrica (cf. S 1.1). Parecem-se muito mais com um
alfabeto, com um sistema de sinais (semiótico), embora não equivalendo a uma
linguagem ou a um discurso.
As principais diferenças entre os sistemas linguísticos e os numerosos
outros sistemas de comunicação são que os primeiros se servem de tempos (ou
indicadores do tempo, como chinês) e usam o “não” de maneira que vão muito
para além da mera “ausência de sinal”, que a teoria digital a um só nível
(acesso/apagado) confunde frequentemente com o “não” linguístico. [Para uma
ulterior discussão das dificuldades de interpretação da função do “não” e dos
correspondentes paradoxos, cf. Wilden 1972, pp. 178-90, 122-24.]
A abertura à variedade e as capacidades de a subdividir em vários níveis
são os fatores que tornam os organismos individuais (fenótipos) abertos às
adaptações funcionais (adaptações “fisiológicas”) e, analogamente, populações
inteiras de organismos abertos às adaptações estruturais (adaptações
“morfológicas”) no tempo ao nível do genótipo (o “pool génico”). Uma comum
adaptação funcional a uma nova variedade envolve o sistema imunitário corpóreo.
As estruturas estranhas (antigenes) que penetram no sistema aparecem, por
exemplo, no fluxo sanguíneo. Pode tratar-se de formas de variedade (ruído)
nunca encontradas no corpo; todavia, o sistema imunitário reconhece a nova
variedade como estranha e procura construir as suas próprias estruturas
informativas de defesa (anticorpos), as quais podem ser diferentes de quaisquer
outras precedentemente produzidas. A informação dos anticorpos contrapõe-se
ao “ruído” dos antigenes de modo a neutralizar o perigo que o corpo correria se
nele fossem incorporados antigenes como informação. A nova variedade é
reconhecida, enfrentada e destruída - mas a sua presença não se desvanece de
todo. No caso das doenças relativamente às quais se adquiriu imunidade (por
exemplo a varíola, o sarampo), o sistema dos anticorpos conserva
indefinitivamente a memória da variedade outrora nova. Os anticorpos continuam
a existir como vestígios da memória da infecção ou invasão originária (cf.
“Comunicação”, S 1.3). As adaptaçòes estruturais implicam princípios análogos,
porém a nível diverso de tratamento da informação no sistema.
Ao contrário dos sistemas de informação abertos formados por organismos
vivos, as populações de uma dada espécie, comunidade de espécies e sistemas
sociais (todos constituindo ecossistemas de grau e ordem de complexidade
variável), os sistemas de informação da cibernética clássica (mecanicista) e da
teoria clássica (quantitativa) da informação são sistemas fechados. Esta
peculiaridade ajuda a explicar algumas das enganadoras interpretações das
relaçòes informacionais que se encontram frequentemente na cibernética e na
teoria da informação usual.
Como Ashby salienta, a condição do sistema, aberto ou fechado à (nova)
energia, não é muitas vezes pertinente para o seu modelo de máquina
cibernética. Mas, desde o momento em que para a elaboração da informação a
energia é necessária, os sistemas cibernéticos dependem usualmente de
qualquer fonte de energia externa (por exemplo, da eletricidade no caso do vulgar
termostato doméstico). Seja como for, é essencial que sistemas de controlo
definidos pela cibernética mecaniscista sejam fechados à (nova) informação e
controlo. Devem ser estanques à informação, como afirma Ashby [1956, trad. It
pp. 10-11]; caso contrário o “controlo” no sentido do técnico cibernético torna-se
impossível. Como foi sublinhado, a maior parte dos sistemas cibernéticos naturais
ou sociais não é fechada deste modo, embora as suas fronteiras lhe permitam
impor uma clausura relativamente ao que usualmente eles aceitam ou não como
informação.
Outra característica do sistema cibernético artificial é que, embora as suas
capacidades reguladoras dependam dos registros de diferenças (informação),
estas são definidas pela teoria como unidades discretas (isto é no sistema de
Ashby correspondem ao que se tem chamado aqui “distinções”). “Formularemos,
portanto, para todos os casos, a hipótese de que as mudanças ocorrem com
variações finitas no tempo e de que toda a diferença tem um valor finito.
Admitiremos que as mudanças ocorrem por saltos descontínuos, precisamente
como a moeda nas contas bancárias, que não podem variar menos de um
escudo”. [ibid., p.17].
Os sistemas reguladores considerados por Ashby são assim definidos
como utilizando o mesmo tipo de “canais discreto” (canais que transmitem
elementos digitais) da teoria da informação de Shannon.
Recapitulando, as principais características que estão na base teoria
métrica clássica são:
a) quer na forma combinatória quer na probabilista, a teoria métrica
clássica mede possibilidades físicas numa lógica ou/ou;
b) os seus repertórios são conhecidos ou calculáveis (ou, então, são-no as
suas relações de ordem) e são constituídos por, ou reduzidos a,
seleções e combinações de elementos discretos;
c) de um ponto de vista lógico, o repertório, a fonte, o conteúdo, os canais,
etc. são unidimensionais ou tratados como se o fossem;
d) uma mensagem pode ser mais ou menos provável do que outra, mas
ambas pertencem à mesma tipologia lógica.
e) as mensagens de teoria quantitativa estão, para todos os efeitos,
privadas de contexto;
f) a teoria é essencialmente uma teoria de sintaxe (ordenamento
sintáctico) e não pode aplicar-se adequadamente à semântica (os dois
níveis: significado e significação) nem à pragmática (o nível do valor);
g) a informação, na teoria, é, sobretudo atomista e homogénea (tornada
simétrica).
(Para mais pormenores, cf. “Comunicação, SS 4.2, 1.6; 5.4; 5.3, 5.5; 5.6;
6).
O objetivo principal da medição quantitativa consiste em valorizar as
probabilidades numéricas que são associáveis à certeza relativa de que uma
particular mensagem tenha sido, ou possa ser, transmitida. A teoria métrica mede,
pois, essencialmente, a liberdade relativa de escolha de cada qual na seleção de
elementos de um dado repertório. Quanto mais provável for a escolha do
elemento (ou menor a liberdade relativa de o escolher) tanto menor será a
“surpresa” (menor a informação no sentido quantitativo) que se presume ter sido
provocada pelo elemento (a letra e em inglês, por ser o elemento mais provável
numa mensagem escrita, causa pouquíssima “surpresa” ou “notícia” e, portanto,
relativamente pouca “informação”).
Por consequência, tanto mais se estiver vinculado à informação estatística
do repertório, menor seré o seu conteúdo global de informação. Resulta daqui que
qualquer modificação na conformação (estatística) do repertório altera o seu
conteúdo de informação física, medida (W, por exemplo, contém uma quantidade
de «surpresa» muito mais elevada na língua escrita francesa do que na inglesa).
[Note-se, não obstante, a implícita, ainda que nem sempre reconhecida aqui,
assumida relaçào de níveis pela teoria métrica. Um vínculo pertence
necessariamente a um tipo lógico superior relativamente ao que está vinculado
(cf. «Comunicação», §§ 4.2, 4.5). Como na abordagem qualitatica, os vínculos
definem os limites, não tanto do que um sistema pode fazer como do que não
pode fazer.]
Por último, relembrando os pressupostos da teoria métrica, voltemos às
suas características de sistema fechado: características estas - convém recordá-
lo - completamente distintas das clausuras que os sistemas abertos determinam
utilizando relações de fronteiras. Assume-se que a informação no sistema (fonte-
canal-receptor) não seja somente conhecida, mas sim claramente distinta da
variedade definida como ruido.
Já que não existem canais sem ruído, nos sistemas de informação
fechados da teoria métrica, a informação (definida) deve inevitavelmente
«degradar-se» por efeito do ruído à medida que percorre os seus «canais».
Por consequência, e precisamente porque o sistema é fechado (e, na
verdade, basicamente mecânico ou eletrônico), os teóricos da cibernética e da
informação têm a possibilidade de ver analogias entre as suas atividades e da
informação tem a possibilidade de ver analogias entre as suas atividadese a
entropia positiva do segundo princípio da termodinâmica. Num dos enunciados
mais comuns, este princípio afirma que num sistema fechado (isolado) a
desordem (incerteza) tende a aumentar. A analogia, porém, não é problemática
apenas por causa da maneira como é fixada e definida (este ponto será
aprofundado adiante), mas sobretudo - e é o que mais conta para os atuais
objetivos deste artigo - pelo fato de que representa um produto não já das
relações informacionais nos sistemas do mundo real, mas sim da
unidimensionalidade fechada da própria teoria métrica.
Porque nào inclui uma teoria adequada dos níveis, e em particular uma
teoria satisfatória dos níveis semânticos e pragmáticos associados à informação,
a perspectiva do tipo sistema fechado da teoria métrica está sujeita a uma
consistente confusão de níveis (cf. «Comunicação», §1.6). No que diz respeito à
analogia com a entropia física, a teoria métrica confunde a informação com a
energia que lhe serve de suporte.
Trata-se obviamente de um erro epistemológico comum e elementar (ou
mesmo provocado por motivos puramente epistemológicos). Como há muito
lembroum Wittgenstein num trecho em que examinava a relação entre a
«palavra» e a chamada «coisa», o conceito de significação (Bedeutung) é usado
ilegitimamente «se... disignar [bezeichnet] o objetivo que ‘corresponde’ [entspricht]
à palavra... Quer isto dizer trocar o signfiado de um nome pelo portador do nome»
[1941-49, trad. it. p. 32]

2. INFORMAÇÃO E NÍVEIS DE ORDEM


2.1. ENERGIA E INFORMAÇÃO
A distinção entre energia (matéria-energia) e informação constitui um dos
aspectos centrais da abordagem informacional da realidade viva e social.
Todavia, a epistemologia da energia-entidade tende a descurar tanto a distinção
entre energia e informaçào como a significação desta distinção. A lógica digital
usada por esta epistemologia (uma forma de lógica digital que deriva da
acetuação moderna do sujeito versus o objeto e que, consequentemente, tende a
unidimensionar as relações) sugere que a distinção deveria dizer se uma
particular relação envolve energia ou informação. Na realidade, porém, a relação
implicará necessariamente ambas, mas a níveis diferentes. A lógica usual deixa
também implicitamente entender que a distinçào deveria dizer, por um lado, «o
que é a matéria-energia», e por outro lado, «o que é a informação». (É de notar a
simetria implícita da terminologia). O ênfase dado à essência das chamadas
«coisa» (mais do que à comunicação da informação nas relações) é naturalmente
o que deve ser criticado na «orientação de tipo entidade» da epistemologia
dominante e da relativa lógica (Usa-se ‘entidade’ para designar qualquer «coisa»
que esteja, explícita ou implicitamente, adstrita a fronteiras impermeáveis e ou a
uma existência autônoma.)
Na realidade, tanto matéria-energia como informação representam relações
(e níveis de relação) em sistemas particulares no contexto de ambientes
particulares, e não «coisas» coisas separadas ou isoladas dos seus contextos.
Além disso, matéria-energia e informação estão elas mesmas correlacionadas e
são interdependentes a vários níveis em todo o sistema vivo ou social. O que
pode ser utilizado como matéria-energia num dado tipo, ou a um dado nível, de
relações sistêmicas, pode sê-lo como informação em, ou a, outro nível (e vice-
versa). Assim, tal como informação e ruído (que também implicam níveis de
relação), energia e informação estão intimamente relacionadas uma com a outra
não são as suas características «intrínsecas», mas antes a maneira como são
usadas. Porque a informaçào de [como o significado (cf. § 2.2)] entregue somente
no contexto de sistemas finalizados, e (como o conhecimento a outro nível) é
invariavelmente instrumental, a afinidade entre energia e informação nunca pode
ser uma relação neutra.
A informação (como variedade codificada) dependente sempre, para
efeitos de transmissão e recepção, de «indicadores» ou «veículos» de matéria-
energia. Nos sistemas orgânicos e sociais, porém, a particular organização da
matéria e a particular orientação dos fluxos de energia (a todos os níveis de
relações superiores aos analisados pelas ciências físicas) dependem, por sua
vez, dos fluxos e das trocas de informação no sistema e entre o sistema e o
ambiente. Para as ordens de complexidade biológicas e sociais de tais sistemas,
a informação (em última análise vinculada ao que se define como as «leis»
reconhecidas da física e da química) é o fator organizante que «dispara» inputs e
outputs particulares de energia de maneiras particulares e em momentos
particulares, a fim de instaurar combinações particulares de matéria-energia a
níveis e em locais particulares no sistema global. Além disto, a informação a um
nível ou num local também disparará imputs ou outputs informacionais a outros
níveis e noutros locais.
Considere-se, por exemplo, a evolução de um ecossistema natural. As
rochas de uma montanha ou as partículas de uma planície lamacenta são o que
são e estão onde estão como resultado de processos exclusivamente físicos (do
nível subatómico ao nível geológico): mas árvores, plantas e microorganismos
transformarão a vertente montanhosa num ecossistema florestal, e a planície
numa pradaria, e finalmente ambas se tornarão o habitat de milhares de espécies
diversas. As relações matéria-energia, quer da montanha quer da planície,
embora dependentes ainda de processos puramente físicos, sofrerão portanto
uma reorganização por obra dos fluxos e das trocas de informação no interior de
e entre organismos vivos de muitos e diversos níveis de complexidade. As ervas e
os microorganismos por exemplo criarão um novo solo e farão parar o processo
de erosão geológica. A estrutura e a respiração do sistema florestal modificarão o
clima local. Os produtos químicos serão retidos nos numerosos ciclos
reprodutivos orgânicos no interior do ecossistema. Um novo processo físico-
químico (o fogo derivado da combustão da matéria orgânica) apenas aparecerá
para ser integrado por adaptação nos ciclos vitais e nas sucessões ecológicas da
floresta e da pradaria. Se se continuar a examinar os tipos de relações intra-
específicas e inter-específicas do ecossistema - por exemplo, territoridade,
competição, pseudocompetição, simbiose, parasitismo, comensalismo, relações
predador/presa, etc. - ou os múltiplos experidentes que entram em jogo no
controlo intra e inter-específico da população -, torar-se-ão obviamente ainda mais
evidentes a estruturação e a organização das relações matéria-energia do
ecossistema efetuadas por parte das relações informacionais.
Numa abordagem diversa ao mesmo problema, considere-se a inter-
relação entre matéria-energia e informação representada por uma vulgar chave
de automóvel. Os recortes da chave fornecem um exemplo simples de uma
configuração de variedade aposta a um pedaço de matéria de modo a torná-lo
uma personagem. Os recortes, porém, só sem condições específicas e para usos
específicos representam uma metragem. Quem, por exemplo, se servir da chave
para abrir uma lata de cerca para automóveis, mostra ignorar o aspecto
informacional e usa o metal como uma máquina simples, uma alavanca; se, vice-
versa, a utilizar para abrir a porta do automóvel, está a aproveitá-la sobretudo
como informação. (A configuração dos recortes feitos na chave liberta
automaticamente os obstáculos existentes na fechadura.). Usa-se, portanto, a
chave como matéria, como alavanca que faz rodar o mecanismo de bloqueio.
Mas, sem uma configuração de ajustamento (neste caso, uma fechadura
específica capaz de reconhecer, receber e agir graças à informação contida nos
recortes da chave), a chave torna-se imprestável como mensagem. Se não for
possível estabelecer a conexão entre as duas configurações de variedade
estrutruada, a chave é útil apenas como peso de metal, e a informação nela
codificada, embora sempre visível, reduziu-se ao estatuto de variedade não
codificada, ou ruído.
É evidente que, para poder ser corretamente definível como informação,
uma configuração de variedade não deve simplesmente fazer parte de um
sistema de codificação com adequados canais de transmissão. (No caso da
chave, os canais são as caracteristicas de codificação e recepção de um sistema
particular de fechaduras) Para ser usada como informação, a configuração deve
também ser parte integrante de uma relação emissor-receptor organizada em
torno de um objetivo. No caso das chaves e fechaduras, produtos e um projeto e
de um intento, pode-se legitimamente argumentar em favor da sua relação
informacional, mesmo que, por um acaso fortuito, nunca sejam utilizadas. No caso
geral, porém, as configurações de matéria-energia só se traduzem em informação
quando utilizadas como tais no contexto de um sistema povoado de subsistemas
finalizados. No âmbito deste contexto, a informação pode pois, ser dotada de
significação, valor de uso e ou valor de troca, consoante as situações (cf. § 3.2). É
ainda de observar que, mesmo neste exemplo simples, o nível lógico da
mensagem (os recortes fetis na chave) pertence a um tipo diverso (um tipo lógico
inferior) do código que torna a mensagem possível (o código do sistema de
recortes na chave projetado na oficina). Além disso, o código particular realmente
usado nos recortes é em si próprio um subcódigo de outro sistema de codificação,
um subcódigo do tipo específico de variedade infinita constituída pelo conjunto de
todos os possíveis indicadores de informação chamados recortes (cf.
«Comunicação», §§ 4.2, 5.3,5.4 e 5.5).
Considere-se ainda outro ponto. Além de ilustrar um sistema muito simples
de códigos e mensagens, o exemplo da chave constitui em si mesmo um caso de
nível de informação. Servimo-nos da chave como exemplo (e não como chave)
útil à transmissão de uma mensagem, não sobre as chaves, mas sobre a
informação em geral).
A maior parte das relações informacionais implica um transmissor-receptor
(ou um conjunto de transmissores-receptores) em fase de transmissão, e um
outro transmissor-receptor (ou um conjunto de transmissores-receptores) em fase
de recepção: todos esses empregam, partilham e são mediados por um dado
canal ou conjunto de canais e por um determinado código ou conjunto de códigos.
Todavia, a única condição necessária para que uma determinada configuração de
matéria-energia (variedade) seja entendida e usada como configuração particular
de informação é um único transmissor-receptor (como se verifica, por exemplo,
quando uma pessoa contempla a beleza de uma paisagem montanhosa: de fato,
a percepção é uma outra forma de comunicação). À primeira vista, esta definição
pode parecer uma configuração do solipsismo (‘o próprio, somente’) do cogito
cartesiano. [O cogito representa a concepção cartesiana da «coisa que pensa»
(res cogitans): ou seja, a «mente» cartesiana que pensa especificamente : Cogito,
ergo sum «Penso, logo existo».] Mas, podendo ser a condição necessária para a
comunicação da informação, o transmissor-receptor isolado não é, enquanto tal,
uma condição suficiente. A condição necessária e suficiente é dada pela
impossibilidade prática de existência de um transmissor-receptor que não seja um
participante integral, lugar de relações integrais num sistema de comunicações.
Por outras palavras, a condição necessária e suficiente para expedir e receber
informações é a mediação. O contexto da mediação é um sistema finalizado,
adaptativo, num ambiente geral do qual depende. O sistema finalizado (tal como o
seu ambiente) compreenderá um número impreciso de subsistemas finalizados.
(Esta relação manifestava-se de fato também no solipsístico cogito cartesiano.
Para a res cogitans cartesiana, o mediador de todas as comunicações com os
outros era a «divindade benéfica» - garante da verdade e lugar de resolução das
mais radicais formas de dúvida: o Deus do Discurso do Método.
Analisemos as passagens seguintes, escritas no século XIX, onde não só
encontramos a distinção entre matéria-energia e informação mas também somos
levados a examinar a produção e a troca de mercadorias como sistema de
informação de um modo cientificamente aceitável: «[É] o valor [de troca] que
transforma todos os produtos do trabalho num hieroglífo social [...] visto que a
determinação dos objetos e uso como valores é um produto social como o é a
linguagem» [Marx 1867, trad. it. p. 90]. Uma mercadoria é um «depositário de
valor [...] Mal entra em comunicação com outra mercadoria [...] revela os seus
pensamentos na única linguagem que lhe é acessível, a linguagem das
mercadorias» [ibid, pp. 63-64].
É claro que os termos ‘linguagem’ e ‘pensamento’ se devem interpretar em
sentido semiótico e não em sentido linguístico - e as metáforas semióticas são
particularmente abundantes no texto de Marx. As passagens que citamos indicam
que se deveria distinguir entre o aspecto matéria-energia de uma mercadoria e a
informação que esta contém, seja como valor de uso («objetos de uso») seja
como valor de troca. Esclarecem, além disso, que os valores de uso e os valores
de troca constituem dois níveis distintos de relação no sistema de produção. O
código ou «estrutura profunda» da «linguagem das mercadorias» de que Marx se
ocupa na passagem (isto é, a comunicação da informação codificada em valores
de troca) é a estrutura semiótica profunda representada por qualquer «equivalente
geral de troca» capaz de mediar as relações digitais de troca entre mercadorias.
Como Marx frequentemente faz notar, também noutros pontos, os valores de
troca são discretos, ao passo que os valores de uso não o são (cf.
«Comunicação», §§ 6.1,6.2 e 6.3).

2.2. INFORMAÇÃO, SIGNIFICAÇÃO E SIGNIFICADO


A informação está de tal modo onipresente na manutenção e na
reprodução da vida e da sociedade que nenhuma pessoa ou organismo
conseguiria talvez estar plenamente ciente de todas as suas múltiplas formas, a
todo o momento. Aspectos existem da variedade que não percebemos nem
usamos, ou que não podemos perceber ou usar, nem como roganismo nem como
seres sociais. Há também aspectos da variedade que podemos perceber ou usar,
mas que tratamos habitualmente como «ruídos de fundo». Certos aspectos da
variedade serão, além disso, percebidos e usados como informação fornecida por
um dado sistema num certo contexto, mas não noutro. (O ruído de fundo
perturbador, produzido pela máquina, está a difundir-se rapidamente nos recantos
mais remotos, em particular nos ambientes urbanos. Grandes prédios de
apartamentos, restaurantes, fábricas, grandes armazéns e similares adquirem
hoje em dia uma forma especialmente projetada de ruído, geralmente conhecida
pelo nome comercial de Muzak, que se difunde por todo o edifício a fim de abafar
as outras formas de ruído endérmicas na estrutura.)

Mas, mesmo descurando toda a variedade a que não prestamos ou não


podemos prestar a atenção, a informação útil a que reagimos continua a ser uma
quantidade enorme - pelo menos enquanto medida em bit unidimensionais.
Medindo em bit, as estimativas da quantidade de informação que um ser humano
elabora ou é capaz de elaborar rapidamente ou às quais reage ou é capaz de
reagir atingem valores inimagináveis. Calculou-se, por exemplo que o input ao
cérebro vindo da retina de um olho pode atingir uma velocidade de 50 milhões de
bit físicos por segundo (ligeiramente mais do que a capacidade dos golfinhos, por
exemplo, para receber sinais pelos ouvidos, ao passo que a capacidade auditiva
humana está provavelmente limitada a cerca de 2 milhões de bit por segundo).
Além disso, se admitirmos que existem 10 12 ligações sinápticas entre os
neurónios cerebrais, e aceitarmos, para simplificar, que a informação é
transmitida apenas por essas ligações e apenas por meios digitais (nenhuma das
duas hipóteses é correta), o número das possíveis combinações ou estados
aceso/apagado das conexões sinápticas do cérebro será pelo menos igual a 2
multiplicado por si mesmo 1012 vezes (21012) - um número tão grande que perde o
significado.

Não elaboramos, naturalmente, as informações (nem mesmo informações


exatamente do mesmo tipo) em sequências ou pacotes de bit. Ao nível mais
fundamental, parece que a informação é tratada com base em equivalentes
biofisiológicos de uma lógica de classes e subclasses (ou de conjuntos,
subconjuntos). O tratamento das informações deve provavelmente fazer-se de
acordo com algo equivalente ao que a teoria dos computadores chama «rotina» e
«subrotina» [MacKay 1969, pp. 95-113]. Não interessa, para este efeito, saber
quais poderão ser na prática estes processos de informação - e também é caso
para observar que os neuro-fisiologistas ainda não encontraram uma descriçào e
uma explicação satisfatórias do comportamento de um neurónio isolado (para já
nào falar dos mistérios em torno da função das células glitais do cérebro). O único
ponto que queremos sublinhar é que os organismos (e, naturalmente, as
sociedades) chegam a tratar informações do mesmo tipo com base numa
hierarquia de níveis (cf. o artigo «Erro» nesta mesma Enciclopédia). (Algumas
destas hierarquias, as «rotinas nodais» ou «pontos altos» mudam de lugar e de
função ao longo do tempo.) Sem estes sistemas de tratamento hierárquico, é
razoável supor que morreríamos num momento de sobrecarga de informação (cf.
«Comunicação», § 3.5).
Níveis. Uma hierarquia de níveis está já implícita na distinção entre
«informação» e «ruído» (uma relação que implicará também heterarquias). Como
salientámos, ambas são formas de variedade, mas não são equivalentes do ponto
de vista lógico. Como a variedade pertence a um tipo lógico superior à informação
e ao ruído, assim também o ruído é de um tipo lógico superior à informação. A
relação entre informação e ruído, por outras palavras, não é bilateral, não constitui
uma oposição (cf. fig.1)
A figura 1 representa a hierarquia dos níveis «encaixados» da tipologia
lógica que vimos a discutir. A representação esquemática é um tanto inadequada,
mas serve para esclarecer a forma como, neste exemplo, os níveis «superiores»
sujeitam e incluem os «inferiores» (um pouco como uma série completa de caixas
chinesas) e permite também visualizar a hierarquia sistêmica em causa como
sendo uma hierarquia de veículos. Cada nível superiro vincula as possibilidades
(a liberdade semiótica relativa) disponíveis para cada um dos níveis inferiores.
Traduzido na terminologia dos sistemas, a «variedade» representa no diagrama o
«ambiente» do sistema constituído por informação e ruído (cf. «Comunicação»,
§§ 4.2 e 4.3 e 4.5, 7.1, 7.2, 7.4).
Variedade

Ruído

Informação

Figura 1.
Tipologia lógica de informação e ruído num sistema particular.

Na terminologia filosófica tradicional, poderia dizer-se que a variedade é o


fundo (Grund) tanto da informação como do ruído e que, se começarem a fazer
distinções entre ruído e informação, o domínio definido como «ruído» inclui todos
os tipos de «informação» preescolhida, somada a todos os tipos de informação
que não foram (ainda) escolhidos ou que não podem ser escolhidos. Em termos
ecológicos, é possível exprimir o mesmo conceito afirmando que, nestas
condições, o «ruído» é o ambiente do sistema chamado informação (seja este
sistema o que na realidade for) - e um ambiente no sentido ecológico pertence
necessariamente a um tipo superior ao dos sistemas que compreende.
Semântica. Todos nós sabemos, por intuição, qual é o objeto do
significado, mas comprendemos também alguns aspectos da extraordinária
complexidade do mundo em que vivemos e sabemos que, pelo que nos diz
respeito, o significado de certas formas está na base de tal complexidade.
Todavia, e não obstante a complexidade do problema da semântica à
pragmática (o domínio do valor) no tempo, é possível utilizar os conceitos
semióticos de diferença e de distinção, juntamente com a realidade lógica e
existencial das hierarquias de relação, para esclarecer, pelo menos sob certos
aspectos, as conexões entre informação, significado e significação.
Em primeiro lugar, pode estabelecer-se uma distinção entre dois setores a
diferentes níveis no âmbito do domínio geral do que é usual etiquetar como
semântica. Pode distinguir-se entre a informação diferencial e analógica que
constitui o campo de ação do significado, a um nível, e a informação discreta ou
digital envolvida na significação, a outro nível. Esta distinção entre níveis (que não
é do meso tipo que as distinções entre elementos discretos no interior do nível
digital como tal) faz-nos refletir sobre aquilo a que Ogden e Richards, entre muitos
outros, descuraram, ou seja, distinguir as condições do significado (semânica e
metassemântica) do puro léxico do significado, que preocuparam Ogden e
Richards, entre outros positivistas lógicos. Os positivistas lógicos interessaram-se
sobretudo pela perfeição do significado na linguagem ou no desenvolviemento de
linguagens ou sistemas de notações artificialmente não ambíguos (por exemplo, a
chamada lógica simbólica). Assim, concentraram-se sobretudo no problema
lexical de como dar um sentido àquilo que dizemos, mas não parece que tenham
alguma vez considerado seriamente a verdadeira questão semântica do como é
que o que dizemos tem um sentido.
Trata-se exatamente, como é óbvio, do tipo de questão semântica (ou
metassemântica) à qual se não podem dar respostas fáceis, e certamente
nenhuma se a semântica for considerada (e, de fato, é o, explícita ou
implicitamente por parte de muitos autores contemporâneos) como um domínio
separado (e ou subjetivo) da semiótica da troca de informação [Watzlawic e
outros 1967]. Seria, porém, injusto, dado o caráter da tentativa levada a cabo por
Ogden e Richards, entre outros (tentativa no sentido de tornar o significado o mais
«objetivo» possível, ou seja, adequadamente «coletivo», não reconhecer a
coragem das suas convições. Não fugiram ao problema do significado recorrendo
à subjetividade que forma a imagem especular da objetividade, ou seja,
recorrendo à subjetividade do relativismo.
Continuidade e descontinuidade. A variedade foi definida como sendo o
«fundo» tanto da informação como do ruído. Voltemos à aplicação dos critérios
citados (critérios a que se pode recorrer para exprimir a diferença entre tipos
diversos de dirença), ou seja, ao emprego das categorias diferença, distinção,
níveis de tipologia lógica, etc). É evidente que se poderiam escolher outras
etiquetas para os critérios, mas como todas as formas de informação podem ser
descritas como potenciais ou atuais «notícias de uma diferença» (diferenças
porém de muitos tipos diversos, compreendendo as distinções, as oposições e as
contradições, por exemplo), a termonologia usada revela-se geralmente
apropriada.
A seguir, será considerado um ambiente da cariedade em termos de uma
série «descendente» de níveis distintos. Como na representação usada na figura
1, a classificação procede dos níveis superiores, mais inclusivos e abstratos, aos
níveis inferiores, menos inclusivos e mais específicos. Dado que estes níveis, por
sua vez, se subdividem noutros níveis (reais e ou construídos), seria oportuno
defini-los como «ordens», ainda que esta terminologia conduza, por vezes, a
certas dificuldades de expressão. Estas ordens, bem como os níveis nelas
incluídos, podem em certos contextos ser mais bem compreendidas do ponto de
vista da teoria dos conjuntos (conjuntos, subconjuntos, superconjuntos); noutros
contextos, são mais utilmente visualizadas como níveis e ordens de vínculo, no
sentido em que a ordem superior ou o nível superior vinculam (mas não
determinam nem controlam) a ordem ou o nível inferior; ainda noutros contextos,
pode ser mais oportuno interpretar os vários níveis recorrendo ao modelo das
relações código/mensagem; ou como relações de comunicação e
metacomunicações; ou ainda, por analogia, com figura e fundo; e assim por
diante. O princípio fundamental sobre o qual se baseia esta representação da
hierarquia entre variedade, informação, significado e significação é o seguinte: os
níveis ou ordens inferiores dependem, para a sua existência, dos níveis ou ordens
superiores, ao passo que estes últimos dependem dos primeiros para a sua
significação, ou um equivalente desta.
O ambiente geral da variedade permite aos emissores-receptores (ou
comunicadores) finalizados, mediante várias relações codificadas, reagir a
aspectos diversos desta mesma variedade, a nível celular, organísmico, social,
etc. A forma basilar de informação, da qual, em última análise, dependem todas
as outras, é o tipo variável com continuidade de variedade que se definiu como
«diferença». A informação diferencial (que pode ser ou não ser digitalizada a
outros níveis no sistema global) é equivalente à que, noutra ocasião, se chamou
informação «analógica» (também tem sido chamada informação «de codificação
contínua», mas hoje parece mais apropriado chamar-lhe «variável com
continuidade»). Este nível do sistema é considerado um continuum de diferenças:
entre as diferenças não existem saltos ou fronteiras.
O conceito analógico da estruturação contínua está disponível para a
digitalização a outro nível, o da informação descontínua. Seleções e combinações
de «elementos discretos» são aqui permitidas pelos saltos entre as unidades de
informação. Tais saltos (sintáticos) fornecem um tipo de informação em que os
limites criados pelos saltos entre as unidades discretas (por exemplo, alfabetos,
números inteiros) são parte essencial do código. Na sua forma mais simples, este
tipo de informação não implica diferenças variáveis com continuidade, mas antes
seleções e combinações de descontinuidades a que é possível chamar
«distinções». É o domínio de informação digital, onde podem também nascer
tipos particulares de distinções, em especial oposições, contradições e paradoxos
(cf. também «Comunicação», §§ 5.4,7.2,7.4,7.7).
Note-se que já não interessa saber se certos aspectos de um domínio
particular da variedade são subdivididos ou percebidos (ou mal percebidos) como
ruídos por sistemas finalizados individuais ou coletivos. O motivo do coráter
supérfluo de semelhante distinção é que qualquer tipo de informação, a cada um
dos níveis discutidos, é sempre intrinsecamente indistinguível do ruído. Embora
utilizemos aqui a mesma espécie de representação e explicação hierárquicas que
empregamos antes (cf. fig.1), as representações não são diretamente traduzíveis
uma pela outra. Os termos usados para os três níveis da primeira explicação
(variedade, ruído e informação) não são sinônimos diretos dos três termos da
segunda (variedade, diferença e distinção). O que é traduzível é a estrutura da
representação e da relação e não a sua terminologia particular.
Significado e significação. Do desvio entre diferença e distinção (ou seja,
da diversidade «vertical» na tipologia lógica dos dois campos) resulta, quer numa
linha lógica quer numa linha intuitiva, que o contexto analógico da configuração
continua a ser cosiderado equivalente ao domínio do significado. Os significados
são definitiva e essencialmente diferenciais, dado que os «valores de sentido»
não têm limites discretos (a menos que sejam digitalizados ou ordenados). Os
valores de sentido fluem de um para o outro, e qualquer posição no sistema tem
um significado somente em virtude da sua diferença relativamente a todo o resto.
Por outro lado, os significados representam os valores de uso da comunicação e
da linguagem. Valores de uso sociais, simbólicos e econômicos, todos participam
no continuum diferencial do aspecto analógico da comunicação. Se, porém, se
digitalizarem os valores de uso, introduzem-se distinções no sistema. Tais
distinções digitais codificam alguns aspectos dos valores de uso como valores de
troca. Se, analogamente, se efetuarem distinções lexicais entre os significados,
chega-se a uma digitalização do significado que faz emergir a significação (isto é,
aquilo a que ordinariamente se chama «significado»). Além disso, a par dos
valores de troca, as signifcaçòes são diacríticas, ou seja, são definidas não
somente pela diferença, mas também pela distinção relativamente a todo o resto,
pela distinção relativamente a todas as outras significações no sistema.
Em suma, assim como é possível afirmar que as significações digitais
emergem através da distinção entre o fundo diferencial e analógico do significado,
assim também se pode sustentar que os valores de troca (que são
necessariamente digitais) emergem do continuum dos valores de uso mediante a
digitalização da diferença.
Por exemplo, o conceito freudiano de significado (Bedeutung), por
exemplo, implica um processo mediante o qual a continuidade (analógica) do
processo primário (o inconsciente) é fixada (poderia dizer-se digitalizada) pelas
capacidades (analógico-digitais) do processo secundário - a consciência e o
preconsciente, o domínio da memória vulgar. Na realidade, parece que a própria
memória está disposta em configurações analógicas, ao passo que a ação da
recordação envolve claramente a digitalização ou fixação (Bindung, Besetzung)
de uma configuração particular de modo a fazê-la emergir como pensamento
consciente [Wilden 1972, pp. 141-47,271-73,445-56).
Informação analógica, digital e icônica. O domínio analógico está em
relação direta com o grego nous (‘mente’, ‘significado’, ‘sentido’) no seu sentido
neoplatónico de uma emanação contínua de Deus. Como modo primário de
sensação humana, o analógico partilha o significado do alemão Sinn e do francês
sens, por exemplo. Além disso, como sublinha Takao Hagiwara (comunicação
pessoal), os taoístas chineses comentam repetidamente a relação analógico-
digital, particularmente no quando da disputa com os expositores da lógica
analítica (por exemplo, com os Lógicos). A seguinte parábola taoísta do filósofo
Chang Chou (IV século a.C.) narra melhor do que poderíamos fazer a história do
espaço digital: «O senhor do mar meridional tinha o nome de Shu (Conciso). O
senhor do mar setentrional chamava-se Hu (Improviso). O senhor da zona central
tinha o nome de Hum Tun (Aquele que está para além da ordem e da desordem).
Shu e Hu encontravam-se frequentemente no território de Tun; tendo sido sempre
tratados por este com gentileza, decidiram retribuir. Disseram: Todos os homens
tem sete aberturas - para ver, ouvir, comer e respirar. Só Hun Tun não tem
nenhuma. Vamos tratar disso. E, assim, em cada dia, abriram um furo: mas no
sétimo dia Hun Tun morreu.»
Hun Tun é usualmente identificado com o Caos, mas a concepção taoísta
do Caos vai para além do conceito comum de Caos como desordem, e Hun Tun
significa também, em chinês, ambiguidade e continuidade. Num certo sentido,
representa o estado do cosmos da «divisão» entre o céu e a terra; noutro sentido,
exprime o princípio primordial que permeia o cosmos sempre que e em toda a
parte: é outro nome para o Tao, o instrumento da natureza.

Variedade em geral

Diferenças analógicas
Significado e valor de uso
Distinções digitais
Significação e valor de troca

Figura2.
Significado e significação

A figura 2 é uma representação das relações sincrônicas (atemporais)


entre a esfera analógica do significado e do valor de uso e a esfera digital da
significação e do valor de troca - ambas dependentes da variedade em geral.
Valor de uso e valor de troca são ambos aspectos essenciais do valor nos
sistemas humanos, exatamente como informação analógica e digital constituem
ambos aspectos essenciais em todos os sistemas de comunicação.
Analogiacamente, o significado e a significação são indispensáveis aos sistemas
semióticos, os quais, por sua vez, envolvem invariavelmente inter-relações entre
diferença e distinção. Dadas certas circunstâncias sócio-históricas, a tipologia
lógica destas interações pode ser invertida (no período curto), de tal modo que a
comunicação digital se mostrará dominante relativamente à comunicação
analógica, e do mesmo modo o valor de troca perecerá prevalecer sobre o valor
de uso (cf. «Comunicação», § 7.5). Produção e troca podem perder o seu valor
social e econômico «cimentador», e assumirem as características fetichistas ou
imaginárias da produção e da troca alienadas - produção e troca alienadas de
valores de uso humanos, sociais e ecológicos.]
Da interação entre a esfera da informação analógica e a da informação
digital nasce a terceiras forma mais comum de organização da informação: a
informação icónica de imagens, quadros, diagramas e outros signos icónicos
codificados aos ordenamentos ou confins circunstantes (que, naturalmente,
podem ser pluridimensionais e não necessariamente estáticos ou fixos) e
distinguem-se do domínio digital ou descontínuo na medida em que não são
meras seleçòes e combinações de caracteres relativamente arbitrários (por
exemplo, letras). Antes constituem representações reais ou analógicas com uma
determinada realidade (muitas vezes relativa a uma informação infinita), ou são
representaçòes daquelas representações. Os ícones, portanto, pertencem quer
ao domínio do significado quer ao da significação, dependendo a relação que
temos de certa pessoa pode ser considerada uma informação icónica,
parcialmente codificada por convenção, mas, o mais das vezes, não codificada e .
«destituída de significado». Uma fotografia dessa mesma pessoa é uma
representação visual do ícone da pessoa. Uma pintura seria uma ulterior
interpretação da representação. Por fim, as figurinhas estilizadas à entrada de um
aeroporto ou nos sinais do trânsito são um exemplo da representação icónica
usada como significação num sistema codificado de signos icónicos: a figura
significa «homens» ou «senhoras», ou «via livre» ou «parar», etc. [Krippendorff
1975.] Este último tipo de ícone representa a reprodução da complexidade da
variedade disponível ao nível simplicíssimo de um indicador ou «sinal-índice».
Oposição e contradição. Considerando o seu aspecto diacrônico, os
conceitos fundamentais aqui usados para discriminar tipos diversos de relações
informacionais formam uma sequência evolutiva ou histórica. É possível discernir
uma sequência genética de grande geralidade, uma sequência que põe em jogo a
reestruturação repetida da organização. Além da diferença e da distinção, podem
gerar-se as relações informais de oposição, contradição e paradoxo.
Veja-se, por exemplo, o desenvolvimento ontogenético e social das
crianças. No útero, o embrião cresce vigorosamente numa associação diferencial
sistema-ambiente com a mãe, uma associação na qual é mínima a distinção que
subsiste entre os dois organismos. A comunicação analógica de hormonas e
outras secreções na corrente sanguínea é particularmente significativa na sua
relação; e a comunicação digital é o mais íntima possível. Finalmente, com o
tempo e designadamente após o corte do cordão umbilical e a consequente
entrada da criança no mundo, certas distinções específicas e novas vêm a
assumir um significado mais pregnamente para a criança. A criança tem de
aprender, por exemplo, a distinção entre ‘um’e ‘dois’, que, por sua vez, será a
base da distinção entre ‘ela própria’ e o ‘outro’. Em certas circunstâncias, esta
distinção (entre outras) pode levar a uma oposição bilateral entre ‘ela própria’ e o
“outro’, uma oposição que implica a identificação com (e contra) o «outro». [Sobre
as oposições e identidades do «estádio do espelho» na infância, cf. Lacan 1966,
pp. 87-94, 178-187, e passim). As oposições binárias (nas quais cada oporto é
tratado como se pertencesse ao tipo lógico do outro, prescindindo da situação
real) podem também potencialmente transformar-se em conflitos hierárquicos ou
contradições entre o dominante e o subordinado (estas contradições dominante-
subordinado podem também ser tratadas inconscientemente como oposições a
um só nível). As contradições fornecem a possibilidade de relações paradoxais
(contradições indetermináveis), tais como as que operam nos double binds (cf.
«Comunicação», §§ 7.2, 7.4).
Diferença e distinção encontram-se em todas as relações informacionais;
oposições, contradições e relações paradoxais, no entanto, podem ou não
resultar das distinções que as tornam possíveis. Se e como estas relações se
desenvolvem dependerá de circunstâncias socioeconômicas, ecológicas e
históricas.
O conceito desta sequência diacrónica sempre potencial - diferença,
distinção, oposição, contradição, paradoxo - foi na sua origem extraído da análise
da informação e da comunicação, sem referência a alguma disciplina ou grupo de
disciplinas em particular. Todavia, à exceção do papel especial do paradoxo na
sequência, tanto os aspectos diacrônicos como os sincrônicos revelam-se
praticamente idênticos à base conceptual que serviu a Marx para analisar a
emergência da dominação do valor de troca sobre o valor de uso nas sociedades
capitalistas. Nos Grundrisse [1857-58] encontra-se o seguinte trecho crítico. Marx
comenta o fato de uma mercadoria ter uma dupla existência: 1) «Como produto
determinado que contém idealmente (de forma latente) o seu valor de troca na
sua forma de existência natual»; 2) «Como valr de troca tornado manifesto
(dinheiro), o qual se despojou por sua vez de toda a conexão com a forma de
existência natural do produto». E prossegue afirmando: «Esta existência dúplice
e diversa deve levar à diferença, e a diferença à contradição» [trad. it. p. 76].

2.3. SELEÇÃO, COMBINAÇÃO E CONSTRANGIMENTO


As mensagens construídas com base em «estruturas profundas» ou
códigos digitais ou digitalizados depende de duas «coordenadas» inter-
relacionadas e intercomunicantes: o aspecto da escolha do código e o eixo da
comunicação na linguagem. Estas idéias derivam em parte da obra do linguista
suíço Ferdinand de Saussure. Saussure é o linguísta mais responsável pela
transformação da filosofia histórica do século XIX no que viria a ser o fundamento
da moderna ciência da linguística. Saussure foi provavelmente o mais influente
entre os que insistiram na necessidade de estudar quer a linguagem quer o
discurso como sistemas de comunicação. Considerando a linguagem na sua
globalidade, Saussure identificou o estudo do sistema sincrônico da linguagem na
sua realidade instantânea, sem se referir à sua história, e distinguiu-o do estudo
das modificações diacrônicas no sistema de linguagem, ou discurso no tempo.
Saussure identificou, assim, dois tipos de coordenadas para todas as
características da atividade: o eixo sincrônico das «simultaneidades» e o eixo
diacrônico das «sucessões» [1906-11, trad. it. p.100]. As noções que estão na
base das concepções das duas coordenadas de estruturação linguística foram
desenvolvidas e modificadas pelo estudioso da filologia russo-americano Romam
Jakobson no seu estudo clássico sobre linguagem e afasia [Jakobson e Halle
1956].
O eixo da simultaneidade pode ser visto como eixo vertical da relação de
codificação (eixo paradigmático); o eixo da sucessão pode ser visualizado como
eixo horizontal das relações manifestadas na mensagem (eixo sintagmático). Nos
sistemas de informação digitais ou digitalizados, a construção das mensagens
implica uma interação singular, repetida e complexa entre os eixos paradigmático
e sintagmático. As seleções paradigmáticas num dado código (existente
sincronicamente) constrangem as possibilidades de combinações sintagmáticas
na mensagem (expressas diacronicamente) e as consequentes combinações
constragem por sua vez as escolhas futuras no código, até que a mensagem
particular atinja a sua meta.
Na linguagem, por exemplo, a seleção «Eu» constrange usualmente a
escolha subsequente a uma locução verbal na primeira pessoa, e a combinação
da locução com o correspondente sujeito linguístico constrange depois a escolha
de vários predicados. Estas escolhas e combinações não somente operam pois
em conjunto mas também intervêm ao mesmo tempo a diversos níveis
semióticos: a nível dos sons (as particularidades distinções acústicas permitidas
na linguagem); a nível da sintaxe (as relações ordenadoras de certa linguagem);
a nível da intenção subjetiva (aquilo que uma pessoa deseja dizer); e a nível da
semântica previamente definida (os valores do que efetivamente se exprime).
Estas operações e muitos níveis estão, por sua vez, constrangidas pela
pragmática do contexto em que se verificam, quer ao nível do discurso dominante
quer ao nível do sistema sócio-econômico global.
[A linguagem é tão analógica como digital na forma e na função, mas a
linguística trata-a habitualmente como sistema digital, relegando os seus aspectos
analógicos e icónicos para o domínio da paralinguística. Na realidade, é
precisamente o denominador comum (o digitalismo) que em larga medida explica
a permanente confusão relativa à conexão entre linguagem e comunicação e
entre linguística e semiótica.]
No sentido mais simples, os códigos que mediam as relações entre
comunicantes envolvem constrangimentos e possibilidades. Os códigos digitais
são por norma descritos como conjuntos de possibilidades (geralmente
consideradas elementos discretos) associados a várias hierarquias de regras
relativas à tolerância das possibilidades de escolha e combinação. As regras,
porquanto, representam subconjuntos de vínculos no âmbito global, que é de per
si um vínculo sobre todas as mensagens possíveis e suscepítveis de serem
construídas no sistema. Neste sentido, a escolha (vinculada por regras) pertence
sobretudo ao repertório de possilibdades - o código de elementos digitais ou
digitalizações - aplicado no sistema. A combinação, por sua vez (constrangida à
escolha disponível de possibilidades), pertence sobretudo às regras graças às
quais as possibilidades estão organizadas em mensagens. Em determinado
sistema, o código e os seus subcódigos são, naturalmente, de um tipo lógico
superior ao das mensagens efetivas que consentem. É duvidoso que as
«possibilidades» aos diversos níveis de repertório da linguagem sejam
verdadeiramente elementos discretos. Segundo o técnico de comunicações
MacKay, Jakobson [Jakobson e Halle 1956] chama-lhes simples como são o do
alfabeto ou o dos números inteiros, tais elementos construídos obviamente,
embora sem fazerem parte de um elenco. Torna-se, porém, possível argumentar
que um sistema digital complexo não requer mais do que um conjunto de
variedades e um conjunto de regras, entre as quais uma ou mais relativas ao
modo de criar elementos discretos. Os elementos discretos ou digitais manifestar-
se-iam, portanto, na estrutura superficial do sistema (o nível das mensagens) sem
existirem necessariamente como tais a nível da sua estrutura produnda. É
certaemnte evidente que, quanto mais se visualizar um código simplesmente
como se fosse um dicionário de palavras, uma coleção de sons ou um alfabeto de
letras, (como na teoria da informação e em certos setores da linguística), tanto
menos probabilidades se terá de compreender as reais implicações e
complexidades da relação código/mensagem, da qual, em última análise,
dependem todas as formas de comunicação.
O código acústico. Como é natural, a linguagem tem sido estudada muito
mais profundamente do que a informação: é este um dos motivos pelo qual os
modelos linguísticos tendem ainda, expícita ou implicitamente, a dominar o estudo
da simótica e da comunicação. Do ponto de vista da teoria quantitatica da
informação, a linguagem pode, não obstante, introduzir relações informacionais
sem assumir necessariamente o estatuto de um modelo basilar de todas as
relações deste tipo.
Acompanhando, sob certos aspectos, o modelo fonológico da estrutura
sonora do discurso, desenvolvido pela escola de linguística de Praga, em especial
por Trubeckoy e Jakobson, pode utilizar-se uma versão deste modelo para ilustrar
algumas das inter-relações de contextos, níveis e constrangimentos, envolvidas
em todos os sistemas de informação relativamente complexos (note-se que não
estamos agora preocupados com as várias disputas e diferenças terminológicas
entre as diversas escolas de linguística, mas apenas com os esquemas
linguísticos gerais).
As inter-relações de contextos, níveis e vínculos envolvem numerosos
problemas que, na prática, ocorrem simultaneamente. Além disso, nunca se
chegou a demonstrar de modo conclusivo que um nível ou traço particular da
linguagem esteja na prática separado dos outros. Som, sentido, estrutura e
transformação interactuam continuamente. A dissecção de certos aspectos do
processo global, que devemos praticar para os podermos discutir, não deve ser
confundida com o processo em si mesmo. Pela mesma razão, a abordagem
seqüencial que a linguagem impõe à explicação das relações informacionais na
linguagem (sequências com conexões implícitas de «antes» e «depois») não
deveria confundir-se com o que na realidade acontece quando nos servimos da
linguagem para falar da linguagem.
A título explicativo, pode supor-se, acompanhando os citados especialistas
da fonologia, que a estrutura sonora fundamental de todas as linguagens faladas
consiste numa «estrutura profunda» com um número relativamente exíguo de
traços distintivos (por vezes impropiramente definidos como «oposições
binárias»). Estas distinções são selecionadas no continuum das diferenças
perceptíveis como «intervalos» permitem aos traços distintivos (existem talvez
uma doze a dezesseis «pares») associar-se em combinações a vários níveis para
formar o nível sucessivo da estrutura fonêmica de determinada linguagem.
Um fonema é uma combinação designada ou reconhecível de traços
distintivos, como por exemplo, o som /b/, que permite distinguir entre enunciados
ou parter de enunciados. É assim que, em inglês, a distinção entre /b/ e /p/
permite discernir bit de pit. A realização fonética do fonema /b/ num enunciado
oral diversifica-se da de /p/ por três traços distintos, pelo menos todos
concomitantes. O fonema /b/ é, pelo menos em parte, sonoro, ao passo que /p/
não requer a vibração das cordas vocais; /p/ é acompanhado de um sopro de ar
distinguível (aspiração), ao passo que a expulsão de ar necessária pra /b/ não
atinge o nível de traço reconhecível; /b/ é «relaxado», ao passo que /p/ é
«temso», isto é /b/ é pronunciado com menos tensão muscular do que /p/. Os
traços distintivos aqui em jogo incluem pois, tanto o que é apercebido como
presença ou ausência de um traço particular (por exemplo, sonoro/surdo) como o
que se descreve melhor em termos de diferenciações «mais ou menos» (por
exemplo, relaxamento-tensão), que se distinguem após terem ultrapassado
determinado limiar.
Em qualquer linguagem, o número de componentes sonoros informacionais
ditos fonemas é pequeno, e varia de dialeto para dialeto, de lugar para lugar e de
época para época. Demonstrou-se, por exemplo, que o espanhol castelhano se
serve de vinte e quatro fonemas, ao passo que o espanhol americano só emprega
normalmente vinte e dois. Analogamente, os franceses mais velhos podem
empregar até trinta e quatro fonemas, ao passo que os franceses nascidos após
1940 só empregam trinta e um [Martinet 1960, trad. it. p. 28].
A designação de uma combinação particular de traços distintivos como
fonema bem definido é arbitrária e descura boa parte da produção acústica real
de qualquer falador. Além disso, nem os limites entre traços distintivos, nem os
limites entre fonemas se revelam necessariamente a quem observe um
audiograma, ou seja, um registro visual do discurso. (Por outro lado, os
«silêncios», num enunciado, referem-se corretamente a limites do nível sonoro
global, mais do que a ausências reais do som). O ponto crucial é em todo o caso
que o conjunto de fonemas reconhecíveis ou designados de determinada
linguagem forma um sistema sincronicamente fechado no que se refere à
estrutura acústica; é fora do sistema fechado de sons que, em última análise, se
gera na linguagem o sistema aberto da significação a um nível distinto do da
estrutura sonora como tal.
De quanto procede se nota imediatamente que, também ao nível
relativamente simples da estrutura acústica da informação na linguagem, existe
uma relação de código e mensagem - ou e estrutura produnda e estrutura
superficial. Podem considerar-se os fonemas como mensagens derivadas por
escolha e combinação (a vários níveis) dos traços distintivos. (Os traços
distintivos disponíveis empregados por uma determinada linguagem constituem
um subconjunto de todos os acessíveis na prática. O chinês, por exemplo, recorre
a tons para distinguir entre enunciados; outras linguagens recorrem a sons secos,
e a coisas parecidadas.) Sendo assim, os fonemas são mais numerosos do que
os seus (supostos) constituintes e pertencem a um tipo lógico inferior. Vice-versa,
um fonema é uma «unidade» mais complexa do que um traço distintivo (cf.
«Comunicação», §§ 4.4, 4.5). Também a este nível, o mais simples enuciado
requer níveis de «texto» e «contexto». A escolha dos traços distintivos no código
acústico das possibilidades informacionais e a sua combinação na mensagem
dependem de, pelo menos, dois códigos ou na estrutura profunda constrange as
mensagens possíveis no sistema acústico. Ao mesmo tempo, o contexto
horizontal ou sintagmático da combinação na mensagem acústica torna possível a
manifestação dos traços distintivos na estrutura superficial dos sons e constrange
simultaneamente a continuação do processo seletivo.
Os fonemas disponíveis podem a este ponto ser considerados constitutivos
do código ou estrutura profunda para o nível sucessivo de complexidade de
organização do sistema: o nível mais complexo dos habitualmente conhecidos
como morfemas. Os morfemas representam as menores unidades significativas -
por exemplo, raízes simples; prefixos e sufixos; indicadores de clinativos e
conjugacionais, etc. - que possam ser escolhidos e combinados para criar
palavras e frases (as quais cosntituem um nível ainda mais complexo). A este
nível, portanto, os morfemas chegam a representar o código em palavras
pertence uma vez mais a um tipo lógico diverso (mais baixo) que o código de
morfemas que o torna possível, exprimindo um maior nível de complexidade.
Vínculos sincrônicos e diacrônicos. Deste modo, qualquer escolha e
combinação de distinções dadas ou construídas a um nível particular da
linguagem gera e ao mesmo tempo depende do contexto vertical ou sincrônico do
código e do contexto «horizontal» ou diacrônico da mensagem. No processo
global, encontra-se uma hierarquia de vínculos. Começando pelo exame dos
vínculos sincrônicos, encontram-se ao nível «máximo» (e ao mesmo tempo mais
abstrato e simples) da tipologia lógica do sistema os traços distintivos. Na
qualidade de falantes de uma determinada linguagem, a nossa liberdade
semiótica de escolher entre os vários traços é aqui para todos os efeitos nula.
(Nota-se ainda que os traços quase nunca se manifestam isoladamente mas, na
prática, sempre a níveis de combinação, mesmo anteriores à constituição de um
fonema.) Esta escolha vinculada não significa que todos os falantes de uma
determinada língua pronuciem ou usem os traços de modo idêntico, mas
simplemente que todos nós utilizamos os limites informacionais flexíveis e
mutáveis que existem entre os traços de modo a que as diferenças envolvidas
ultrapassem determinado limiar, limiar este que os outros reconhecem como a
emergência de uma distinção informacional de uso comum.
A nível fonético, também a nossa liberdade semiótica de elaborar
mensagens acústicas está fortemente vinculada. É, porém, possível construir
novas palavras e novas combinações sonoras a partir do stock disponível (como
nos poemas nonsense do tipo justamente famoso do Fabberwocky de Lewis
Carroll). Os vínculos sincrônicos que incidem sobre o emprego dos morfemas
são, porém, notavelmente menos comprometedores, já que a este nível estamos
a aproximar-nos da liberdade semiótica extensiva e de vários níveis da
construção de frases. Para lá deste nível, ou seja, ao nível da mensagem
linguística global, os vínculos sincrônicos afastam-se até ao ponto em que o nível
mais significativo do vínculo linguístico é o do particular do discurso usado. A nível
de discurso, os vínculos dos valores epistemológico e ideológico, os quais, por
sua vez, se devem considerar vcinculados à pragmática geral do valor inscrito no
sistema sócio-econômico em que o discurso se desenvolveu. A este nível do
global, a estrutura profunda do sistema sócio-econômico pode, definir-se como
representando o conjunto de todos os códigos que vinculam o nosso
comportamento como comunicadores sociais, e como mensagens individuais no
sistema.
Em todo o processo que temos vindo a delinear, os vínculos sincrônicos do
contexto do código são completados pelos vínculos diacrônicos do contexto
envolvente ou de desenvolvimento da mensagem. Prosseguindo com o exemplo
linguístico, toda a escolha e combinação num enunciado, a qualquer nível, está
em última análise sujeita aos vínculos diacrônicos da sintaxe e da semântica e,
em particular, aos vínculos sintáticos da clausula em relação à unidade da
mensagem. Tipos diversos de clausula diacrônica operam a níveis das palavras,
das expressões e das proposições da frase, de tal maneira que os vínculos
convergem ao ponto de a fazer terminar com um período. A frase que se segue,
sujeita à mesma hierarquia de vínculos sincrônicos, repete o processo
convergente das escolhas e combinações até que chegue ao fim.
Os parágrafos reabrem o assunto a outro nível. Fora dos vínculos
representados pelos conhecidos axiomas da física e pelos vínculos do contexto
ecológico geral, por exemplo, poucos vínculos à liberdade semiótica,
representados por códigos ou estruturas profundas, estão, necessária ou
definitivamente fixados. Como é óbvio, no caso da linguagem, e em particular no
das estruturas sócio-econômicas, o desenvolvimento e a evolução do sistema de
mensagens a nível de estrutura superficial pode contribuir para alterações nos
códigos prevalecentes, ou para uma reestruturação morfogenética dos vínculos
dominantes do sistema. É o que se verifica, por exemplo, sempre que se produz
uma evolução significativa da estrutura profunda de um sistema social, e em
especial quando tal estrutura profunda sofre uma revolução (cf. § 3.3).
Confunsão de níveis. Convém observar, por outro lado, considerando
também as relações relacitvamente simples respeitantes à estruturação acústica
da informação na linguagem, que a análise evidencia as distinções de tipologia
dos vários níveis. Por outros termos, também aos simples níveis dos sons, dos
fonemas e dos morfemas, os vários níveis não são legitimamente redutíveis uns
aos outros. Cada nível distinto deve ser analisado tanto quanto possível nos seus
próprios termos, bem como na sua conexão com os outros níveis. Além disso, os
vínculos informacionais que operam a um dado nível não são, necessariamente,
traduzíveis noutros níveis.
Nos discursos sociais e científicos prevalecentes, a redução dos diversos
níveis de complexidade a um único nível, e outros tipos de confusão entre níveis e
ordens de complexidade são em todo o caso bastante comuns. (a última versão
desta confução lógica, e ideológica, parece ser a pseudociência chamada
«sociologia»). Tais confusões subentendem uma redução persistente dos níveis e
tipos de variedade efetivamente evidentes para explicar as relações sociais e
outras por analogia com a estrutura sonora da linguagem (por exemplo, por parte
do estruturalismo francês). Em sentido lato, se se aplicasse à precedente análise
do discurso o tipo de reducionismo epistemológico (e ideológico) comum nas
ciências biológicas e sociais, os níveis mais complexos reduzir-se-iam aos menos
complexos. Considerando que a relativa liberdade semiótica, que o falante
singular tem, de escolher entre traços distintivos, está completamente vinculada, a
lógica dd reducionismo concluiria que o discurso deve ser um sistema totalmente
«determinado», e que as mensagens singulares seriam menos «epifenómenos»
(cf. «Comunicação», § 5.1). No caso do discurso, a redução revela-se totalmente
absurda: mas nos discursos sociais e científicos este tipo de violação do princípio
de variedae necessária constitui ainda mais a regra do que a excepção.
Metáfora e metonímia. Para o teórico da informação, a análise da estrutura
da transformação lingüística ajuda a esclarecer muitos dos problemas inerentes
ao exame de níveis, vínculos, contextos e tipos e níveis de vínculo e contexto, e
revela-se igualmente útil para demonstrar que os níveis do discurso disponíveis
nos sistemas linguísticos são potencialmente infinitos. Considerada como sistema
digita de comunicação, a linguagem evidencia as capacidades de tais sistemas de
informação para utilizarem a meta-informação com fins introspectivos. Esta é por
exemplo, uma frase.
Numa terminologia mais tradicional, como argumentam Jakobson e outros,
o eixo vertical ou paradignático da escolha corresponde estreitamente ao que é
usualmente chamado metáfora: a substitutição de uma imagem verbal por outra.
O eixo horizontal ou sintagmático da combinação corresponde rigidamente à
sinédoque ou à metonímia: o uso de uma parte contígua para representar um
todo. (Como observa Jakobson, estes dois eixos também correspondem
significativamente ao que Freud chamou «condensação» e «deslocação» nos
gracejos, lapsos e sonhos - ideia esta retomada e desenvolvida mais tarde pelo
psicanalista francês Jacques Lacan.)
Parece, portanto, oportuno terminar este parágrafo com um exemplo de
possibilidade de unir escolha e combinação linguística a vários níveis, explorando
os recursos da metáfora e da metonímia de modo a chegar a uma
metacomunicação.
Os seguintes e citadíssimos versos do Essay on Criticism [1711], de
Alexander Pope, utilizam os recursos de todos os níveis disponíveis na língua
inglesa -desde o nível dos traços distintivos até ao nível da signficação - com o
intuito de metacamunicar sobre a inter-relação entre som e sentido na arte da
poesia segundo as concepções do século XVIII. Estes versos indicam também
como a função criativa, na qual todos participamos, depende do emprego dos
vínculos disponíveis, quer sincrónica quer diacronicamente. Pope conforma-se
com o código organizacional relativamente rigoroso do hoje caído em desuso
decassílabo inglês chamado heróico. [Trata-se de uma métrica usualmente
formada por dois pentâmetros jâmbicos rimados, construídos com sílabas
alternadas átonas e acentuadas (/~ / ~ /...), colocadas nas várias tonalidades,
ritmos e qualidades das vogais de certas palavras e locuções.]
Conformando-se com este estilo poético (e ao mesmo tempo desenvolveu-
o), Pope assinala que os vínculos informacionais não devem ser encarados como
limitações ou restrições (como acontece frequentemente), mas antes como
instrumentos na construção criativa de novas configurações. Profundo
conhecedor da cadência da linguagem, Pope sabia tirar vantagem dos vínculos
impostos pela métrica, como também dos impostos pela língua inglesa e o
discurso no seu tempo. Conseguiu explorar os vínculos disponíveis de modo a
demonstrar como eles tornavam possível este género de mensagem.
Pope começa por parodiar os versificadores demasiado desenvoltos do seu
tempo; cada linha exemplifica, no som e no sentido, uma determinada deficiência:
These equal syllables alone require,
Though oft the ear the open vowels tire;
While expletives their feeble aid do join,
And tem low words oft creep in one dull line
(vv. 344-47)

Pope procede pois de forma a quebrar o ritmo inglês introduzindo nele o


«ruído» de um alexandrino dodecassílabo, métrica mais adaptável a outras
linguagens (por exemplo a francesa):
Then, at the last and only couplet fraught
With some unmeaning thing they call a thought,
A needless Alexandrine ends the song,
That, like a wounded snake, drags its slow length along
(vv. 354-57).
Não basta, continua o poeta, que nenhuma aspereza traga ofensa, pois
que o som deve lembrar um eco ao ouvido;
Soft is the strain when zephyr gently blows,
And the smooth stream is smootehr numbers flows;
Bust when loud surges lash the sounding shore,
The hoarse, rough verse should like the torret roar:
When Ajax strives some rock’s vast weight to throw,
The line too labors and the words move slow:
Not so when swift Camilla scours the plain,
Flies o’er th’unbending corn and skims along the main
(vv.364-73).
Por mais que estes versos possam ser banais (e, de fato, são praticamente
uma autoparódia), Pope lança mão de todas as escolhas metafóricas e de
combinação metonímica oferecidas pela língua inglesa e, passando livremente
dos jambos (u-) aos sáctilos (-uu), anapestos (uu-), troqueus (-u) e espondeus (--),
mostra como se podem casar os vínculos do som aos do sentido. Serve-se, para
este fim, dos recursos digitais de palavra, métrica e significação para evocar a
emergência dos fluxos, ritmos e valores diferenciais do domínio analógico do
significado. Dito isto, a maior parte dos leitores de língua inglesa preferirá em todo
o caso o modo como Lewis Carroll trata o som como se fosse sentido em
Through the Looking Glass [1871]:
Twas brilling ans the slithy toves
Did gyre and gimble in the wabe;
All mimsy were the borogroves,
And the mome raths outgrabe.
2.4. A MENSAGEM DA REDUNDÂNCIA
No parágrafo 1.6 são usados vinte e sete caracteres do alfabeto romano
como exemplo de possível cálculo do «conteúdo» de informação quantitativa de
um sistema digital na matemática da cifra binária. O pressuposto da
equiprobabilidade (igual frequência, independência lógica) levava a uma medida
de cerca de 4,76 bit por letra (ou 4,70 bit por letra se se contarem somente as
vinte e seis letras do alfabeto.
Se, porém, se consultar uma tabela das frequências das vinte e seis letras
usadas no inglês escrito, verifica-se que a «quantidade de informação» por letra
varia entre certa de 2,98bit para a letra mais frequente, e (com uma frequência
relativa de cerca de 12,7 por cento) e cerca de 10,71 bit para a menos frequente,
z (com uma frequência relativa de cerca de 0,06 por cento).
À exceção do u, em inglês as vogais são mais frequentes do que qualquer
das consoantes, salvo t. o cálculo para o u dá um valor de 5,16 bit. No inglês
escrito, porém, se o u aparecer depois do q, como em quick, geralmente não
transmite nenhuma informação, porque o q nunca aparece no inglês moderno
sem o u, exceto nas transliterações de outras línguas (por ex. Qabbala), ou nas
abreviaturas.
(Pensemos nas formas obsoletas do inglês qhat em vez de what e qhwom
em vez de whom, ou na antiquda palavra q, significando ‘um oitavo de um
penny’. Aqui a ausência do u transmite grande quantidade de informação
permitindo além disso que o texto escrito inclua excepções à regra geral sobre o
uso de qu nas palavras inglesas.)
O exemplo do u indica que, mesmo que esteja fixado o contexto das
frequências do uso das letras inglesas basta acrescentar-lhe um outro aspecto
contextual, por mais simplificado que seja, para alterar a significação da medida
de tais frequências. Por outras palavras, a medida em bit do chamado «conteúdo
de informação» das letras singulares do alfabeto escrito é, na realidade, uma
medida da sua frequência ou probabilidade e escolha efetuada no código do
alfabeto. As medidas estatísticas mudam quando se começam a incluir os
aspectos lineares mais simples do contexto da combinação de letras na
mensagem. O chamado «conteúdo de decisão» das vinte e seis letras é igual a
4,70 bit, como acima se calculou. Se se tiverem presentes as frequências, a
medida desce para uma média de cerca de 4,25 bit por letra; se se incluírem as
combinações de letras em sequências binárias (as correlações entre letras
imediatamente adjacentes), o conteúdo médio de informação desce para cerca de
3,57 bit por letra; se se tomarem em consideração combinações de oito letras
adjacentes (sempre ao nível mais simples), a quantidade média desce para 2,35
bit por letra, ou seja, para um valor inferior ao conteúdo médio calculado para
e(2,98 bit) [cf., entre outros, Hassenstein 1971].
Por outras palavras, mesmo a este nível muito simples, quanto mais se
tornarem em consideração os aspectos específicos do contexto, mais reduzido se
torna o «conteúdo de informação» de qualquer letra particular. A relação é uma
consequência lógica do que ficou dito sobre os vínculos sincrônicos e diacrônicos
no parágrafo precedente. Consideradas lógica e estrategicamente independentes,
todas as letras contêm a mesma «quantidade de informação»; todavia,
consideradas como parte da configuração da organização a que de fato
pertencem, as sequências de letras começam a evidenciar uma das
características mais importantes dos sistemas de informação: a redundância.
No inglês escrito, a redundância é a propriedade que torna possíveis as
vulgares palavras cruzadas; e é precisamente a redundância (a um certo número
de níveis) que reduz o valor do conteúdo de informação das letras do alfabeto. Se
as letras forem consideradas independentes umas das outras, a redundância de
qualquer sequência de letras é necessariamente zero. Nestas circunstâncias, toda
a alteração em qualquer letra numa dada mensagem transformaria a própria
mensagem noutra completamente diversa. Na realidade, o inglês escrito é
redundante relativamente a mais de 50 por cento do emprego do alfabeto. Alguns
testes indicam uma redundância de 80 por cento, o que sugere um conteúdo
médio de informação por letra de cerca de um bit.
A percentagem exata depende do método de medida, o qual consiste
habitualmente em pedir a interlocutores nativos que reconstruam uma mensagem
na qual muitas das letras foram apagadas por formas várias de ruído como no
exemplo:
*H* S*X M*S* FR*QU*** **GL* SH L****RS *R* M*SS**G FR*M*H*S
M*SS*G*.
O exemplo precedente mostra uma forma sintática de redundância
estatística; no que se segue, aparece uma forma diversa, um tipo de redundância
estrutural:
MUCH OF WHAT WE PERCEIVE DEPENDS ON WHAT WE SUPPLI TO THE
PERCEPTION FROM THE CONTEXT WE ARE IN.
Tal como os dados citados sobre o número dos bit por letra em sequências,
todo e qualquer cálculo estatístico depende da dimensão da amostra examinada,
da complexidade da passagem, das expectativas do leitor do material e ou dos
seus conhecimentos, dos tipos de erros ou omissões no texto.
A redundância é, portanto, uma forma evoluída de «desperdício» aparente
nos sitemas de mensagens, que protege contra os erros da transmissão e
recepção. Sendo um atributo da configuração, a redundância é um constituinte
contextual essencial quer da maior parte da comunicação quer da troca. (Constitui
uma excepção o sistema árabe de numeração escrita, onde a redundância
existente se exprime nas linhas e nas curvas que constituem os caracteres, mais
do que nas sequências de caracteres). Neste sentido, a redundância não traz
porém informação se a mensagem enviada for recebida sem erros, mas somente
quando aparecem erros. Por conseguinte, a redundância pode ser definida como
«informação potencial». A redundância é a variedade pronta a ser usada como
informação no momento oportuno.
A redundância é particularmente predominante nos ecossistemas naturais,
bem como no código genético: é, além disso, uma relação muitomais complexa
do que indica a teoria estatística da informação. Esta complexidade é fruto da
relação entre a mensagem, os seus canais e o seu contexto. Na comunicação
linguística, por exemplo, quanto maior for o contexto incluso, menos fácil será
definir a redundância das mensagens. As medições estatísticas ocupam-se
essencialmente da redundância sintática. Mas na conversação habitual aparecem
outras formas de redundância. A redundância semântica de mensagens do tipo
«Como está?» e «Que esplêndido tempo!» aproxima-se corretamente dos 100 por
cento, ao passo que a correspondente redundância pragmática é muito baixa.
Tais mensagens quase não contém «surpresa», nem uma redução significativa de
«incerteza» entre duas alternativas (é esta a definição de informação na teoria
estatística) - com a única excepção do silêncio. Um verdadeiro silêncio no
contexto de mensagens do tipo «Como está?» estaria carregado de informação e
seria bem pouco redundante em todos os sentidos; além disso, um silêncio
prolongado em resposta a outra saudação convencional do mesmo gênero não
represetaria um exemplo de redundância repetitiva (cf. mais adiante), mas
conteria uma informação ainda superior à primeira réplica silenciosa. Por outras
palavras, a redundância é uma relação entre texto e contexto, e entre níveis de
complexidade, exatamente do mesmo gênero de todos os outros termos que
foram definidos. Redundâncias complexas de muitos tipos e níveis diversos são
essenciais à conservação e à existência das relações humanas e de outras
relações.
Mas, se a redundância for encarada na visão linear e unidimensional que a
teoria da informação clássica favorece, os teóricos da informação podem então
afirmar que a transmissão de uma mensagem de A para B implica uma «difusão
da redundância». Este tipo de enunciado é epistemologicamente similar ao que é
válido na mecânica das partículas, segundo a qual, se dois elétrons trocam de
posição num sistema subatômico, não se verifica qualquer evento - de fato, todos
os electrons são idênticos e iguais. Mas, nos sistemas vivos e sociais, uma
variação de locus envolve pelo menos uma informação posicional - que
representa um tipo de informação criticamente importante tanto em embriologia (é
uma das bases da difereciação celular) como na regeneração de membros
perdidos nas espécies que de tal são capazes) [Bryyant e outros 1977].
No exemplo usualmente citado do envio de uma mensagem de A para B, a
redundância só se «difunde» se forem satisfeitas as condições seguintes: 1) a
mensagem tem uma significação única, não ambígua; 2) A e B representam
lugares iguais em contextos idênticos ao mesmo nível no sistema; 3) supõe-se
que o tempo e a sincronização sejam irrelevantes (como se verificaria no caso
dos electrons); 4) o sistema é fechado em torno de A e de B. Em todas as
comunicações humanas e biológicas, um tal conjunto de condições seria tão raro
que, na prática, não existe. A idéia de que a comunicação implica, na realidade,
uma «difusão» de redundância (mais do que a produção de uma nova
configuração numa posição diversa) é, na verdade, um produto enganador da
subdivisão da perspectiva teórica. O modo como a noção se traduz numa
formulação pertinente é rigorosamente limitado, mas a limitação envolve e impõe
um tipo de descontextualização do sistema comunicativo igual ao que já foi aqui
criticado. É comum a incapacidade de reconhecer que, quando a informação
muda de contexto, o contexto por sua vez modifica a informação.
Tipos de redundância. Embora nenhuma categorização dos vários tipos e
aspectos da redundância possa esperar ser exaustiva, é possível apontar as
seguintes categorias (sobrepostas):
1) Redundância de repetição. É a forma mais óbvia, exemplificadas pelas
longuíssimas sequências repetidas dos «codons» no ADN, como pela própria
«dupla hélice»;
2) Redundância de escolha e combinação. Esta forma de redundância refere-se
à predisposição da relação código/mensagem (como no exemplo do alfabeto).
Não é possível distinguir prontamente a redundância da codificação da
mensagem, pois que todos os códigos são exemplificados pelas suas
mensagens, e a produção de mensagens em forma digital subentende sempre
os dois eixos da escolha paradigmática e da combinação sintagmática. Esta
forma de redundância comporta também os diferentes níveis e tipos de
redundância comporta também os diferentes níveis e tipos de redundância que
se caracterizam como sintático, semântico e pragmático.

Na transmissão eletrônica das mensagens, uma simples forma deste tipo de


redundância é exemplificada pelos códigos capazes de corrigir os erros,
inventados graças à aplicação da teoria de Shannon. Na mensagem incluem-se
mais números binários, de modo a assinalar qual deverá ser o resto da seqüência
quando é recebida [cf., por exemplo, Singh 1966];
3) Redundância de estrutura. Enquanto configuração, uma estrutura está, por
definição, protegida por um certo nível mínimo de redundância. Na manufatura,
um exemplo muito simples desta forma encontra-se nos mecanismos de
reserva ou de segurança inseridos nos computadores. Na natureza, este tipo é
ilustrado pela enorme redundância de percursos para os fluxos e as trocas de
matéria-energia e informação, mesmo em ecossistemas naturais e
relativamente simples, para já não falar na redundância mostrada por
ecossistemas altamente complexos e mutáveis como as florestas pluviais
tropicais.
Vice-versa, a monocultura mecanizada (concentrações de uma única
cultura), praticada pela moderna indústria agrícola, reduz a proteção da
redundância estrutural até ao ponto de ser necessário proteger as colheitas contra
o «ruído» do seu ambiente mediante subsídios energéticos e informacionais
relativamente grandiosos. Os subsídios tomam a forma de cultivo mecanizado,
pesticidas, herbicidas, etc. – na sua maior parte dependentes de um único recurso
natural, ou seja, dos combustíveis fósseis e seus derivados petroquímicos. A
pertinência deste exemplo torna-se mais significativa se se pensar como
parecem, à superfície, enormemente redundantes as extensões de hectares de
trigo que se observam nas grandes planícies norte-americanas. No entanto, sem
um apoio artificial ao ambiente geral, bastaria uma única peste agrícola,
específica da espécie, para destruir toda a seara, propagando-se a peste de umas
carreiras para as outras ao longo dos milhares de percursos praticamente
idênticos criados pela tecnologia agrícola. Isto não constitui um problema para a
organização pluridimensional da diversidade típica da floresta pluvial tropical: é
um dos motivos por que os agricultores que praticam a técnica do «abater e
queimar» neste tipo de ambiente tendem a moldar as plantações pelo esquema
da floresta [Rappaport 1968];
4) Redundância de canais. Analogamente a 3), este tipo de redundância
exemplifica-se com o fato de que, em caso de lesão de um hemisfério do
cérebro humano, o outro hemisfério assumirá as suas funções, passado que
seja um lapso de tempo conveniente; ou com o fato de, em experiências com
os polvos, por exemplo, ter sido possível retirar 90 por cento dos principais
neurônios envolvidos na aprendizagem sem afetar fundamentalmente a
capacidade de aprender;
5) Redundância de cálculo. Utilizando um modelo digital, Neumann [1948; 1958]
calculou que teoricamente as células cerebrais poderiam ser 10 mil milhões
de vezes mais eficientes do que de fato são no emprego de energia. Tanto
quanto se sabe, os neurônios do sistema nervoso central não empregam um
«sistema binário ou decimal» (um sistema posicional) do tipo que permite
exprimir um milhão de distinções com apenas 7 dígitos decimais ou cerca de
20 dígitos binários. Ao que parece, os neurônios limitam-se a «contar», ou
ativar-se um milhão de vezes. Como é óbvio, para o neurônio, este alto nível
de redundância significa que a probabilidade de erro é reduzida em diversas
ordens de grandeza, em comparação com o habitual cálculo posicional
humano ou com o utilizado pelo típico computador «engole números». A
redundância no tratamento da informação por parte do sistema nervoso
central é aprofundada no § 2.6;
6) Redundância de comando e controle (potencial). Esta forma de redundância
refere-se às características reveladas pelas categorias 3 e 4, para as quais a
mesma mensagem será enviada ou o mesmo resultado atingido a partir de
locais diversos no seio de uma rede danificada ou sobrecarregada.
Assemelha-se ao conceito de «equifinalidade» Do gestaltismo, graças ao qual
se obtém o mesmo resultado final seguindo percursos diversos. Warren
McCulloch distingue entre «comando» e «controlo», pondo em relevo a
dominância aparentemente unilateral ou unidimensional inerente às ordens de
comando (por exemplo, «Em frente marche!»; na realidade, porém, não
existem na comunicação processos unidirecionais. Este tipo de redundância
poderia também ser definido como redundância da variedade necessária (cf. §
1.4);
7) Redundância de vínculo. Incluímos esta categoria porque os vínculos –
positivos ou negativos – não são controlos nem ordens. Na lingüística, este
tipo de redundância é exemplificado pela ampla liberdade consentida à
realização fonética prática (pronúncia) dos traços distintivos por parte dos
falantes singulares (cf. § 2.3), mesmo ao nível em que a nossa liberdade
semiótica relativa esteja vinculada ao máximo. A nível dos vínculos fonêmicos,
a redundância dos vários limiares de reconhecibilidade (as distinções
fonéticas) é notavelmente maior;
8) Redundância de relações. Esta categoria é inserida para acentuar o fato de
que todas as categorias precedentes implicam relações sistema-ambiente e
de que estas relações envolvem muitas conexões substituíveis ou detectáveis.

Todos os sistemas finalizados, adaptativos, quer sejam organismos, quer


populações, comunidades, ecossistemas naturais ou sistemas sociais, recorrem a
diversas formas e níveis de redundância. A mensagem da redundância
representa, pois, uma «ineficiência» essencial na produção, na reprodução e na
troca (conservação), de modo especial na natureza. As tentativas para lhe fugir
podem levar a uma desestabilização desastrosa e a uma ameaça à sobrevivência
a longo prazo do sistema em causa. No campo arquitetônico, por exemplo, se se
procura um monumento duradouro, a redundância maciça e estrutural de uma
pirâmide é nitidamente preferível à eficiência rigidamente fixada de um marco
geodésico.
Tudo quanto já foi dito, incluindo a enumeração das categorias (se assim
se lhes pode chamar, pode assumir um objetivo classificatório geral, mas pouco
nos diz sobre a significação da sobreabundância da redundância necessária que
nos rodeia. Quer na sociedade quer no discurso, na música, na natureza ou em
outras formas de comunicação, incluindo as percepções, é a redundância que
coloca à nossa disposição a configuração, e esta é a essência da variedade).
Redundância e flexibilidade – A redundância protege tanto o código como a
mensagem, tornando-os relativamente resistentes aos efeitos da variedade não
codificada ou ruído, e portanto relativamente refratários a alterações; ao mesmo
tempo, a redundância, como informação potencial que é, favorece a conservação
de um reservatório de potencial intacto para trocas futuras no sistema global. É
uma reserva de flexibilidade a que, na ocorrência, se pode recorrer.
O potencial inutilizado permite a certos tipos de mudança requeridos pelas
circunstâncias manterem-se ao nível das adaptações funcionais. Adaptações
deste gênero permanecem no contexto do código, ou dos códigos predominantes,
protegendo assim o sistema – dentro de certos limites – contra as adaptações
estruturais, ou mudanças de codificação, que as circunstâncias poderiam requerer
se fosse pouca ou nenhuma a redundância do sistema. É de crer que as
adaptações funcionais se verifiquem ao nível da estrutura do sistema específico,
sem influenciarem a sua estrutura profunda. Estas adaptações constituem a
morfostase, ou seja, a conservação da estrutura. Vice-versa, as adaptações
estruturais no sentido aqui empregado representam adaptações da estrutura
profunda: a reestruturação descrita pela morfogênese.
A redundância é característica das mensagens codificadas na molécula de
ADN, e é provável que, a nível das «mensagens reguladoras», seja muito maior
do que a nível das «mensagens de produção». É esta a relação que seria
logicamente de esperar, visto que um erro na combinação ou na sub-divisão a
nível dos genes produtores terá um efeito relativamente leve, podendo mesmo
acontecer que não se manifeste fenotipicamente; vice-versa, um erro análogo a
nível dos genes reguladores poderá ter efeitos notavelmente ampliados, no
sentido em que, em dadas circunstâncias, poderia traduzir-se na substituição de
um grupo de instruções reguladoras por um outro. A este nível é concebível que
um erro significativo possa alterar a organização, a expressão seqüencial, ou
output de toda uma «bateria» de genes produtores [Atlan 1972, pp. 75-97, 231-
45].
Redundância e eficiência. A mensagem da redundância está, portanto, em
contradição com a particular ética da eficiência à qual fomos apresentados e
habituados pelo moderno sistema socioeconômico. A «eficiência» é naturalmente
uma relação sistema-ambiente, mas os modos correntes de medir e avaliar as
eficiências na nossa sociedade (por exemplo, os rendimentos nas transformações
energéticas, os rendimentos de caráter «prático», a eficiência econômica, lucro,
etc.) exprimiram-se tradicionalmente em função de uma abordagem simplificada e
de um sistema fechado que raramente tomou na devida conta as reais conexões
ambientais em jogo. Por exemplo, a banal afirmação sobre a eficiência agrícola
nos Estados Unidos, segundo a qual um agricultor norte-americano alimenta
quarenta a cinqüenta pessoas [Samuelson 1948], deriva de se fingir que se
ignoram os subsídios de energia e de informação realmente recebidos pelo
agricultor e a colheita. Tais subsídios incluem o esgotamento a longo prazo do
solo e outras análogas «circunstâncias de produção externas» (por exemplo, o
aumento da salinidade do solo à irrigação, o inquinamento das águas
subterrâneas por efeito de vários produtos químicos), e incluem ainda os
fertilizantes, herbicidas e outros produtos petroquímicos, os combustíveis fósseis,
para além dos subsídios humanos e outros de energia/informação recebidos
pelas indústrias de apoio à agricultura: fabricação, transporte em autocarros,
transporte ferroviário, transformação dos produtos alimentares, etc.
Se aplicarmos um modelo adequadamente contextual, compreenderemos o
que é a eficiência em termos de valor de uso, e não simplesmente em termos de
valor de troca. De fato, ali onde os valores econômicos de troca são definidos
pelas fronteiras do sistema econômico como tal, os valores de uso definem e
mantêm a relação a longo prazo entre o sistema e o seu ambiente, incluindo o
seu próprio futuro.
O modelo contextual fornece muitos dados sobre a «eficiência» pouco
científica e artificial de uma boa parte daquilo que verdadeiramente acontece no
nosso sistema socioeconômico em relação com os seus ambientes. A mensagem
da redundância, porém, leva-nos ainda mais longe. A teoria da informação, a
ecologia dos sistemas e a economia ambiental mostram claramente que a
aparente «ineficiência» da redundância é essencial à estabilidade a longo prazo
de sistemas finalizados, adaptativos. Também os estudos antropológicos
demonstram como têm sido mantidos os níveis de redundância óptimos ou quase-
óptimos a fim de garantir a segurança a longo prazo de sociedades diversas da
nossa [Margalef 1968, pp. 1-25; Vayda 1969; Pimentel e outros 1973].
Em linhas gerais, pode-se afirmar que, dentro de certos limites, a
probabilidade de um sistema se manter estável no tempo é diretamente
proporcional à redundância das relações do sistema, incluindo as suas relações
com os seus vários ambientes. Opostamnete, quanto mais uma sociedade tenta
substituir a redundância (e, portanto, a diversidade da variedade) pela relação em
sistema fechado, conhecida na nossa sociedade como «eficiência», tanto mais o
sistema (sociedade-na-natureza) será sensível a perturbações relativamente
pouco importantes, perturbações que a um nível ótimo de redundância poderiam
ser neutralizadas com sucesso. Em geral, quanto mais o sistema procurar tornar-
se «eficiente» (no sentido tecnocrático moderno), menos capaz será de utilizar a
variedade da diversidade ma sua estrutura fundamental, de modo a conservar a
estabilidade presente e futura.
O motivo não precisa de ser procurado muito longe. Distinguindo-se da
eficiência ecológica que se observa na natureza e noutras sociedades (uma
eficiência organizada com base numa adequada redundância da diversidade), a
eficiência tecnocrática do sistema socioeconômico moderno funda-se na
homogeneização da variedade disponível através da sempre crescente
prevalência no sistema socioeconômico mundial de um único tipo de valor de
troca econômico. As relações entre os poderes inscritos nesta dominância tomam
em consideração a redução ao valor de troca econômica de todas as formas de
valor, isto é, o fato de todas as formas da variedade estarem sujeitas a uma única
forma. A conseqüente difusão do trabalho assalariado e dos gêneros alimentares
para venda leva à destruição dos sistemas socioecológicos organizados de
maneira diversa do nosso, reduzindo-lhes a diversidade até ao limiar da
fragilidade. Além disso, a dominância deste tipo de valor de troca é uma relação
estática, visto que está imersa na «eficiência» fundamental de que, em definitivo,
dependem, a curto prazo os sistemas capitalistas de Estado: a sempre crescente
acumulação de valores de troca numa parte do ecossistema mundial, a expensas
das outras partes.

2.5. ENTROPIA DA MENSAGEM


a tendência para a entropia positiva dos sistemas físicos isolados (a
tendência da energia «livre» para «fixar-se» em formas inutilizáveis, a tendência
para o aumento da casualidade ou «confusão» em sentido estatístico) é a
expressão de uma relação ordem-desordem (cf. o artigo «Entropia» nesta mesma
Enciclopédia). A entropia mede-se habitualmente dividindo a quantidade de calor
(em calorias) necessária a uma determinada mudança de estado pela
temperatura absoluta de alimentação do calor, e somando depois as diversas
quantidades discretas assim obtidas. (A entropia de qualquer sistema no zero
absoluto, ou oK, é zero). Do ponto de vista estatístico, a tendência para uma
entropia positiva (desordem crescente) em sistemas isolados é uma equação de
probabilidade, um enunciado respeitante à ordem e à desordem relativas.
Também os enunciados relativos à informação nos sistemas informativos
fechados e quantitativos de Shannon são equações de probabilidade. O terreno
comum da probabilidade justifica a semelhança entre uma das formulações da
equação da entropia na termodinâmica estatística e a fórmula de Shannon
respeitante à informação média de um sistema [Shannon e Weaver 1949]. A
teoria da informação estatística e a termodinâmica estatística são, com efeito, tão
afins que é duvidoso saber qual delas se subordina à outra. Parece provável que
ambas sejam, na realidade, expressões particulares de uma teoria mais
generalizada.
A abordagem de Shannon interessa-se pela ordem e pela desordem
relativas (supõe-se que a ordem seja mais improvável, mais surpreendente que a
desordem) e, em teoria, 'informação' significa ordem. A fórmula de Shannon para
a quantidade de informação H de uma dada fonte pode ser interpretada como o
negativo da equação relativa à quantidade de entropia na mecânica estatística da
termodinâmica (cf. porém § 3.2).
Na teoria quantitativa da informação, a medida estatística da liberdade que
cada qual tem de escolher objetos num dado repertório pode pois ser definida
como entropia do repertório. Se o repertório for altamente organizado (isto é,
altamente vinculado), a liberdade pessoal de escolha será também fortemente
vinculada. Quanto mais vinculadas forem as escolhas menor será a informação
representada por cada uma delas. (Segundo a definição teórica, uma total
«causalidade» de escolha corresponderia a uma informação infinita). A relação
entre máximo teórico na liberdade potencial de escolha e liberdade atual de
escolha consentida pelos vínculos pode ser definida como «entropia relativa» da
fonte (ou repertório). Se à entropia relativa (liberdade de escolha) – nos termos de
Shannon – de certa fonte for atribuída a probabilidade 0,8, quer dizer,
aproximadamente, que a liberdade de escolha (a entropia relativa) da fonte é
cerca de 80 por cento da que poderia ter, recorrendo às mesmas unidades
discretas para efetuar a escolha. Prosseguindo o exame da definição requerida
pela teoria de Shannon, segue-se que 1 menos a entropia relativa define a
redundância estatístico-sintática da fonte.
Por outras palavras, na teoria clássica da informação, a expressão
'entropia' equivale à informação medida, em bit, do repertório ou conjunto de
mensagens. No caso do conjunto de mensagens do alfabeto equiprovável, a
máxima «entropia da mensagem» é o conteúdo de decisão definido por log 2n
(onde n representa o número de mensagens equiprováveis). A máxima entropia
da mensagem de 27 caracteres (equivale ao «conteúdo de informação» médio)
corresponde aos 4,76 bit já calculados. A entropia relativa do alfabeto usado na
prática é a relação entre 4,76 e os vários números obtidos analisando a
redundância. Se se aceitar o número mais baixo, correspondente a cerca de 1 bit

por caracter, a relação 1:4,76 fornece um valor próximo de 0,21 para a entropia
relativa. Ora, 1 –0,21 dá uma redundância aproximada de 0.79, ou seja, de cerca
de 79 por cento.

2.6. INFORMAÇÃO, RUÍDO E REDUNDÂNCIA NOS SISTEMAS


NERVOSO

um exemplo particularmente explicativo da aplicação da redundância é


representado pelo «código protegido» do sistema nervoso central. Existem duas
formas principais de transmissão da informação entre células nos organismos
mais complexos, como por exemplo o dos animais¨o sistema endócrino, ou
hormonal, e o sistema nervoso. No primeiro, células especiais segregam
substâncias químicas (hormonas) para o fluxo sanguíneo. O sangue transporta
estas mensagens químicas, e analógicas, para células longínquas, sensíveis a
tipos particulares de secreções químicas. No sistema nervoso associam-se dois
processos gerais. Dentro do neurônio ou célula nervosa, um sistema
eletroquímico de «impulso» leva a informação à sinapse ou intervalo entre uma e
outra célula. Quando o sinal enviado pelo neurônio atinge a sinapse, a atividade
da membrana celular é alterada de modo que a primeira célula liberta moléculas
mensageiras (neurotransmissoras). Estas mensagens atravessam o intervalo,
«fixam-se» em locais da membrana «receptora» e alteram a atividade da
membrana da célula sucessiva mediante processos complexos que asseguram a
recepção do sinal. Consoante o tipo de mensagem e de célula receptora, o sinal
originário será depois tratado de vários modos: pode ser replicado e deixado
prosseguir; examinado e depois inibido; alterado e a seguir transmitido; pode dar
início a qualquer outro tipo de ação (por exemplo, uma contração muscular); pode
ser traduzido para o código de uma secreção endócrina, etc.
Ambos os sistemas envolvem maneiras extremamente complexas de
utilizar a informação analógica (variável com continuidade) e a informação digital
(presença/ausência). O neurônio, por exemplo, embora tendo sido considerado
durante décadas como um instrumento essencialmente digital, começa por atuar
de maneira muito semelhante a um computador analógico, integrando as muitas
centenas de mensagens inibidoras e excitadoras que, a todo o instante, atingem a
sua membrana superficial antes de decidir o eventual envio de um sinal (sobre a
eventual «ascensão») e a velocidade de expedição. No interior do neurônio e dos
seus axônios de ligação, o sinal atua como se fosse digital, produzido por
aumentos e diminuiçÕes de diferenças de potencial elétrico ao longo da
membrana do eixo que conduz a outra célula. O sinal é limitado e discreto
enquanto a membrana se opõe a modificações de permeabilidade imediatamente
após a propagação de determinado sinal. Visto num tubo de raios catódicos, o
sinal, ou «potencial de ação», assemelha-se a uma série de spikes (potencial
nervoso de ponta). O sinal no axônio não se propaga, portanto, por condução,
como num sistema eletrônico que se serve de fios, mas sim por replicação,
transmitindo-se ao longo da fibra nervosa graças à repetida criação de duplicados
do sike originário.
Para além do limiar da carga elétrica (o «potencial de repouso»), que
distingue o spike como tal no axônio, a amplitude, ou «altura», do spike não é
significativa. Dentro de certos limites, todos os spikes têm aproximadamente a
mesma amplitude. O que importas é a freqüência, por unidade de tempo, de
replicação dos spikes. Quanto maior for a freqüência mais intenso é o estímulo
original representado. O sistema nervoso recorre, pois, a uma espécie de
modulação de freqüências (FM), e não a uma modulação de amplitude (AM) para
representar variações na amplitude, de um input originário. Tais representações
de FM comportam uma informação digital em diversos sentidos, o menos
importante dos quais não é o fato de os sinais na fibra nervosa não terem
qualquer semelhança com o input (ou output) sensorial ou de outro tipo de que
estão a fornecer informações. [Sobre este complexo assunto, aqui simplificado, cf.
Hassenstein 1971, pp. 92-107, e Wilden 1972, pp. 157-60, 174-78 e passim; para
os novos desenvolvimentos e a posterior confirmação das relações analógico-
digitais envolvidas, cf. Nathanson e Greengard 1977. Este artigo ocupa-se
também do sistema de comunicação endócrina nos organismos. As dificuldades
cruciais inerentes também à compreensão do pouco que se sabe acerca destes
processos no organismo derivam de exigência de integrar diversos modelos
relativamente distintos, reunindo-os todos ao mesmo tempo. Entre eles figuram o
modelo químico, o modelo elétrico, o modelo molecular, o modelo dos
computadores, o modelo da informação e o modelo «lógico» ou antes
«ecológico».]

Informação qualitativa. No Âmbito da estrutura dos percursos nervosos, as


mensagens analógico-digitais fornecem informações relativas à estimulação do
correspondente órgão sensorial ou de uma outra célula. Os sinais propagados
indicam se houve ou não um estímulo, a sua força e a sua variação. A variação
do estímulo é representada na célula nervosa pela variação de freqüência dos
spikes por unidade de tempo. A este nível, a informação transmitida é pois
quantificada e digitalizada.
Por conseqüência, a informação qualitativa sobre o tipo de estímulo ou
input originário não é representada no interior da célula nervosa. É, porém,
transmitida e recebida a outro nível: o da própria rede das células nervosas. Por
outras palavras, a informação qualitativa necessária à sobrevivência do
organismo já se encontra codificada na estrutura complexa dos percursos da
rede. A distinção qualitativa entre os vários tipos de informação é tida em conta
pelo fato de que determinado conjunto de percursos, envolvendo, por exemplo, a
visão, é emissor e receptor, ao contrário de outros, entre os quais, por exemplo, o
taco. As representações quantitativas relativas à intensidade da informação
qualitativa são, pois, propriedade das relações «internas» de canais singulares,
propagadas através de alterações nas condições limitadas das membranas que
distinguem os vários canais (axônios, dendrites) dos seus ambientes; vice-versa,
a informação que implica diferenças ou distinções qualitativas é um atributo da
rede inteira.
Tipos de modulações da mensagem. Como sublinha Hassenstein [1971,
pp. 92-102], na evolução do sistema nervoso central (SNC), um certo número de
processos eletroquímicos diferentemente organizados poderia, em teoria, ter
emergido como sistema preferido para a propagação dos sinais no interior dos
canais utilizados. São quatro os possíveis modos esquemáticos de representar a
curva analógica de uma dada intensidade de input. Um deles, a modulação de
amplitude linear, fornece obviamente a informação mais completa sobre o input. A
amplitude é continuamente variável, representando assim uma correspondência
direta da intensidade do input e da variação. Outro tipo, a modulação da
amplitude dos «impulsos» ou sinais discretos, é claramente o segundo método
por ordem de eficiência, particularmente se os sinais discretos são transmitidos
com intervalos mínimos. Ele forma uma correspondência indireta ou uma
simulação do input primitivo.
A possibilidade de sinais de amplitude constante modulados pela
freqüência, que constitui o método praticamente aplicado pelo SNC, é apenas a
terceira no que se refere à completude e à eficiência. Para ajuizar da intensidade
do input originário, o receptor deve esperar, pelo menos, por dois sinais. Se a
intensidade do input for baixa, o intervalo entre os sinais será comparativamente
longo; a capacidade dos canais neste sistema é por isso, muito mais baixa que a
da segunda possibilidade, e a sua informação é notavelmente menos «completa»
que a da criva analógica de intensidade que representa. A possibilidade da
modulação da duração do impulso é ainda menos eficiente.
O principal motivo a favor do uso dos sinais com freqüência modulada por
parte do SNC torna-se claro se se examinar a proteção das mensagens contra o
ruído. A primeira possibilidade, o sistema FM usado na prática, sendo embora a
terceira por ordem de eficiência, é a única que recorre a um código protegido. O
código é «protegido» porque os seus sinais estão estandardizados no que se
refere ao valor e à duração. Além disso, dado que os sinais não são conduzidos,
mas replicados (existem por exemplo cerca de 800 réplicas entre uma mensagem
recebida por uma célula sensorial na ponta de um dedo e a sua recepção por
parte do cérebro), um erro ou uma interferência num sinal (ruído) não influenciam
o valor da mensagem seguinte. Tudo quanto é necessário para que a variação
nas condições de descontinuidade da membrana do axônio de uma célula
conduza a uma replicação de um dado sinal é a prévia presença do sinal, e não
as suas características específicas. O «período refratário» da membrana impede
que os sinais se «acavalem» após um aumento de freqüência (com relativa
redução a ruído). Este período é mantido pelo espaçamento dos locais
permeáveis (locais ativos, ou nós de Ranvier) ao longo da membrana que «isola»
o interior da fibra nervosa do exterior – ou, então, o espaçamento dos lugares ao
longo da membrana que mantém a distinção de limite entre os canais das células
nervosas e os respectivos ambientes. A fibra envia os sinais graças,
precisamente, às mudanças na interação eletroquímica entre o interior e o exterior
do canal nervoso. [Para uma descrição pormenorizada e ainda bastante
atualizada, cf. Katz 1961.]

Ruído. Servindo-se da replicação baseada exclusivamente na presença de


um sinal precedente, os percursos do SNC isolam-se eficazmente do ruído. Se,
por exemplo, a altura de um spike dependesse da do spike precedente, e a
amplitude tivesse valor de mensagem, cada erro ou perturbação individuais (fosse
qual fosse a sua origem) transmitir-se-iam de um sinal para outro. A fiabilidade do
sistema ver-se-ia drasticamente deteriorada. Se, na mensagem da ponta de um
dedo ao cérebro, se verificasse um minúsculo erro de 1 por cento na reprodução
em correspondência com cada «nó de Ranvier» (com cada erro no sentido do
aumento da amplitude), quando o oitocentésimo sinal alcançasse o cérebro, a sua
amplitude seria três mil vezes superior à do sinal originário [Hassenstein 1971, p.
100].
A possibilidade da amplificação exponencial dos erros, ou ruído, até ao
ponto de destruir (ou, vice-versa, a possibilidade de perder completamnete o sinal
em conseqüência de erros noutra direção) explica a razão pela qual o SNC não
teria podido evoluir para um sistema de modulação de amplitude a este nível de
tratamento das informações. A modulação de amplitude – quer de impulsos
discretos quer de freqüências contínuas -, uma vez enviada, fornece um
instrumento de correção do erro. A este nível, o processo AM é sensível a muitas
características do tipo da variedade utilizada, e não está apto a discernir a
diferença entre um tipo particular desta variedade e qualquer outro tipo.
Opostamente, a modulação impulsionada FM, utilizada na prática pelos
axônios do SNC, não deve decidir entre tipos de variedade. O sistema FM usa e
reconhece somente um tipo de variedade: a presença ou ausência de um spike e
a respectiva freqüência. Por conseqüência, a este nível, o SNC nunca deve
decidir se deve considerar um outro tipo de variedade, ou seja, aceitar outro tipo
ou aspecto da variedade como «informação», ou recusá-lo como «ruído». O
sistema impulsionado FM também não deve tomar decisões sobre os vários tipos
de variedade (redundante) que, na prática, as fibras nervosas empregam para
criar e replicar o «potencial de ação» ou spike. (A variedade usada a este nível
implica imissões e emissões, através da membrana, de concentrações de iões
metálicos e orgânicos de diferentes dimensões e cargas). O único gênero de
ruído que, normalmente, pode perturbar a transmissão ao longo da fibra nervosa
é uma ausência, uma avaria total, ou qualquer interrupção da transmissão.
(Várias formas químicas de ruído, entre as quais a nicotina e os alucinógenos,
podem no entanto penetrar no sistema com relativa facilidade, sob a forma de
informação, nas sinapses e noutros pontos quimicamente susceptíveis.)
O sistema FM usada pelos neurônios está, por conseqüência, protegido
contra o ruído por várias formas de redundância. Uma das peculiaridades
significativas do «código protegido» é que a amplitude dos spikes particulares
pode variar e varia em medida considerável sem influenciar a mensagem. Além
disso, em correspondência com o intervalo sináptico entre duas células, entra em
jogo um tipo diverso de redundância.
As mensagens moleculares são libertadas ns sinapse em número superior
ao que seria estritamente necessário para transferir a mensagem; na membrana
da célula receptora está disponível um número excessivo de locais especiais que
os mensageiros influenciarão.
O SNC não utiliza, pois, a mais completa, a mais apurada ou a mais
eficiente forma de representação e transmissão das mensagens, mas recorre a
uma forma que é adequada às suas necessidades e também é suficientemente
ineficiente para assegurar uma oportuna proteção contra o ruído. Não significa
isto que. No decurso da evolução, não tenhas emergido ou não pudesse emergir
um sistema AM. O fato é que, em ambos os casos, o sistema AM não teria
conseguido sobreviver. Os organismos que o utilizavam a este nível de
transmissão das mensagens rapidamente se teriam extinguido, devido à
incapacidade que este tipo de sistema tem de impedir que as suas mensagens
sejam completamente distorcidas pelo ruído – produzido quer por interferências
externas do sistema de comunicação como tal quer por atividades intrínsecas do
sistema, ou ainda por uma combinação dos dois fatores.

3. ORDEM E DESORDEM
3.1. O LOGOS
O nosso trissecular sistema socioeconômico, em conjunto com a
epistemiologia e a ideologia que o acompanham, manifesta ainda hoje uma
particular obtusidade à aplicação e à compreensão das relações informacionais,
uma atitude refratária ao seu uso no interesse da sobrevivência a longo prazo.
Hoje, porém, assiste-se a uma revalorização bastante rápida deste tipo de
relação, de tal modo que se anuncia o reconhecimento de uma antiga concepção
de «verdade», a realidade do que chamamos agora a validade ecológica.
A já tradicional incapacidade de reconhecer as relações informacionais
parece ser uma característica peculiar da sociedade moderna, ao contrário do que
acontece em todas as outras sociedades de que se tem conhecimento. Muitos
antropólogos e filósofos afrontaram o problema, mas sem o resolver ou
esclarecer. Limitaram-se a sublinhar a acentuada significatividade, nas
cosmologias de várias sociedades em épocas e lugares diversos, de vários
termos que a nossa epistemiologia obrigou tradicionalmente a traduzir por
'palavra' (por exemplo, o hebraico dãbhãr ou o aramaico mẽmrã do Antigo
Testamento [Boman 1952]).
Em particular, o influente filósofo neo-kantiano das formas simbólicas, Ernst
Cassirer, nos seus volumosos escritos, refere-se repetidamente a concepções
egípcias e de outras civilizações relativas ao que é obrigado a definir como
'palavra' – mantendo desse modo o moderno pressuposto ideológico da
dominância da linguagem relativamente à comunicação (ponto de vista
especificamente sustentado também por Lévi-Strauss [1947]). Cassirer cita como
exemplo, que aprova, um texto dos índios Uitoto, assim traduzido: «No princípio...
a palavra deu origem ao pai» [1925, trad. it. p. 76]. Analogamnete, nas usuais
traduções e interpretações do babilônico Poema da Ciração (Enữma elish, cerca
de 1500 a. C.), o cosmos é descrito, «no princípio», como um período
antecedente a qualquer indício do «céu por cima», ou da «superfície sólida por
baixo». Dada a epistemiologia organicista deste e outros mitossimilares,
interessa-nos, não o antropomoformismo dos vários deuses criadores, mas a
idéia global da comunicação orgânica e holista que estão na base dos mitos.
Como no primeiro livro do Gênesis (apesar de ter sido deliberadamente
expurgado, pelos editores clericais, de todas as óbvias semelhanças com as
fontes babilônicas e de outro tipo), o cosmos babilônico «anterior ao princípio»
encontra-se num estado sistêmico que não pode ser «expresso», mas que
dificilmente é equivalente, seja em que sentido for, à desordem ou caos em que
insistem muitas interpretações (compare-se também com a parábola taoista
citada no § 2.2). o mito da criação não comporta a introdução da ordem na
desordem, mas, pelo contrário, a introdução quer da ordem quer da desordem no
cosmos (na realidade, uma não se manifesta sem a outra) (cf. §§ 2.4, 2.5). Pode,
sem dúvida, ser precisamente a expressão traduzida por 'Palavra' (ou 'espírito da
Palavra') que é considerada responsável pela distinção original que, no organismo
cósmico, põe em evidência a relação ordem-desordem. A 'Palavra' pode, de fato,
representar as atividades míticas de um criador que se comporta como um
demônio de Maxwell, introduzindo no cosmos um gênero particular do processo
seletivo. No entanto, se bem que a nomenclatura exija necessariamente certas
distinções (como, por exemplo, no sistema de parentesco), estas não requerem
necessariamente uma nomenclatura – tal como a não requer o código genético. O
que é indispensável às distinções entre diferenças é somente uma forma do tipo
de ordem que se define como informação.

A palavra do mundo. Desenvolver este tema em pormenor levar-nos-ia


muito longe, mas ele está implícito em toda a discussão aqui empreendida acerca
da informação. Um exemplo representativo do papel do logos numa cosmologia
africana deveria bastar para ilustrar a interpretação geral. Os Dogons, que hoje
vivem nos arredores do Mali e do Alto Volta, possuem uma complexa cosmologia
semiótica de comunicações dentro e entre organismos, pessoas, sociedade e
natureza. Distingue,, por exemplo, vinte e dois aspectos relacionais diversos da
personalidade masculina (na qual os dois pés, bastante surpreendentemente,
contam, como se fosse um só aspecto), e 48 tipos diferentes de «discurso», nem
todos requerendo palavras.
A expressão dogon so não só cobre a categoria da linguagem, como a
distinção de Sausurre entre langue e parole, mas todo o domínio da comunicação:
natural, social, organísmica. É possível que influências árabes e outros influxos se
tenham feito sentir na cosmologia dos Dogon, mas os testemunhos (incluindo
talvez os dos gnósticos, neoplatónicos e cabalísticos) apenas serviriam para
reforçar a explicação geral. O so dos Dogons é, além disso, bastante semelhante
à doutrina dos signos e das correspondências, comum no Renascimento europeu.
O conceito dos Dogons de «co-resposta» nos cosmos evoca imediatamente a
concepção alquímica e hermética das correspondências (convenientiae),
analogias, emulações e similitudes que ligam entre si as múltiplas relações entre
o microcosmos (humano) e o macrocosmos (universal).
A cosmologia dos Dogons é extremamente complexa. Dada a ausência de
uma epistemiologia informacional, a maior parte das interpretações antropológicas
do material etnográfico (uma exceção importante é a de Victor Turner) flutuam
sem coerência entre uma explicação baseada na energia-entidade (ou
«bioenergética») e uma descrição metafísica (cf. o artigo «Erro» nesta mesma
Enciclopédia, no que se refere à incompatibilidade codificada em «idealismo» e
«materialismo»). Infelizmente, a incapacidade de compreender adequadamente
uma visão global diferentemente codificada é justamente o que seria de esperar.
Mas a influência do estruturalismo e da semiologia franceses sobre o estudo, hoje
clássico, de Calame-Griaule [1965], além das suas hábeis e sensíveis
investigações no terreno, torna possível algumas oportunas traduções entre
epistemiologias.
Os Dogon exemplificam a relação sistemática e orgânica entre si e com o
ambiente «antropomorfizando» a natureza e «naturalizando» o ser humano.
Pensam que o cosmos haja sido criado pela «palavra» de um deus-criador e que
necessita de contínuas organização e reorganização. Neste mundo, todas as
relações são signos: não existem relações casuais. Os Dogon procuram a
«reflexão em todos os espelhos de um universo antromórfico no qual uma erva,
uma minúscula borboleta são portadores de uma 'palavra'» (ibid. pp. 27, 505-43).
Os Dogon chamam a essa palavra ádunc sò, ou seja, em francês, la parole du
monde.
Para os Dogon (bem como para os nossos progenitores culturais), o
cosmos é, pois, um livro a decifrar, um conjunto de mensagens a decodificar, um
mundo cujos signos exigem um contínuo esforço interpretativo. Todas as coisas e
relações estão ligadas pela «palavra do mundo», a que Calame-Griaule chama «o
símbolo». [Cf. também Turner 1974, pp. 156-65. para outras conexões
epistemiológicas entre perspectivas organicistas, não atomistas e não
newtonianas, quer orientais quer ocidentais, cf. Needham 1956, pp. 232-345.]
Os Dogon explicam, pois, a organização do mundo recorrendo ao modelo
do microcosmos humano, o qual, por outro lado, consideram solidário com o
macrocosmos. Calame-Griaule faz questão de sublinhar (na sua terminologia) que
no mundo vital dos Dogon não há separação entre sujeito e objeto entre mente e
corpo, entre organismo e ambiente, entre ecossistemas naturais e sociais. O so
dos Dogon percorre o cosmos como um princípio criativo e fertilizante, mas a
linguagem e o discurso são simplesmente uma das muitas manifestações do so.
Bats confrontar esta visão semiótica global com a que, quase inadvertidamente,
Maurice Leenhardt [1947] descreve relativamente a duas sociedades melanésias
(ou então comparar o mesmo tipo de expressões problemáticas, uma vez mais
traduzidas por parole), para compreender quês estas cosmologias informacional-
semióticas são fiéis meta-afirmações sobre a validade ecológica – o valor co-
evoluído da sobrevivência a longo prazo – dos sistemas sócio-econômicos em
que nasceram (cf. «Comunicação», §§ 1.4, 2.4). Além disso, o so, longe de ser
uma representação lingüística ou racionalística, exprime obviamente a semióticas
da variedade no cosmos.

Marcel Griaule [1948] - como Leenhardt na Melanésia – confrontou o so


dos Dogon com o bíblico Verbum ou Logos [cf. ainda Turner 1966]. Mas, uma vez
abandonadas as confusões metafísicas, socioeconômicas e psicológicas
usualmente associadas a este tipo de interpretação (Leenhardt é um exemplo
primário), percebe-se que a visão global dos Dogon oferece outras proposições
teóricas de notável significatividade para a ateoria e a práxis da informação e da
comunicação. É assim que Marcel Griaule, por exemplo, sintetiza o ponto de vista
dos Dogon: «No que diz respeito à própria parole (so, trata-se de um espírito de
ordenamento, um espírito de organização e reorganização universal, que tudo
abrange, mesmo a desordem» [1948, p. 243].

3.2. ORDEM PELA ORDEM

Adaptando o uso que Shannon faz do conceito de «entropia da


mensagem» (cf. § 2.5), evidenciam-se algumas controvérsias tendenciosas sobre
a relação entre entropia termodinâmica e a particular definição de entropia
adaptada pelo próprio Shannon. As polêmicas sobre informação e entropia
parecem ter tido causas epistemiológicas similares às que contribuíram para as
controvérsias sobre a causalidade que se seguiram à original descrição e à
análise de Norbert Wiener dos sistemas cibernéticos finalizados – disputas que
entretanto se aplacaram. Naquela época, numerosos autores definiram a
cibernética como «teleológica» (o que é, naturalmente, errado) e continuaram a
opor-se estrenuamente a todas as formas de explicação causal que não
estivessem em sintonia com os limites da causalidade newtoniana (linear,
determinista, eficiente) ou com os da «causalidade» estatística (probabilidade).
Em ambos os casos – entropia e cibernética -, as polêmicas parecem ter
nascido de subdivisões contrastantes da mesma realidade (diferentes mapas do
mesmo território ou níveis de território; cf. o artigo «Erro» nesta mesma
Enciclopédia) – quer no sentido paradigmático quer sintagmático (cf. § 2.2.), com
conseqüente confusão da tipologia lógica dos problemas. Num caso, pode-se por
exemplo verificar que os mapas epistemiológicos, e ideológicos, contrastantes,
que estão na base da controvérsia, são mapas de territórios completamente
diferentes; noutro caso, que as fronteiras traçadas nos territórios pelos vários
mapas não coincidem; noutro caso, ainda, que um conjunto de mapas válidos
representa configurações a um nível do território, ao passo que outro conjunto
(também válido) representa configurações a um nível diverso. Por vezes, os
mapas estão completamente errados, e entre outras coisas, naturalmente, os
territórios que é suposto representarem simplesmente não existem.

Neguentropia. Para eliminar rapidamente uma das principais fontes de


confusão relativamente a entropia e informação, basta somente recordar que,
antes de Shannon ter publicado a sua particular definição de entropia (em termos
quantitativos e probabilistas), o físico Erwin Schrödinger tinha já apresentado um
«mapa» geral da relação entre entropia (negativa) e informação. A definição não
sofreu qualquer modificação resultante do sucessivo emprego do termo 'entropia'
na teoria clássica da informação. No sexto capítulo de ums eu famoso livro [1945],
Schrödinger sublinhou que o input ou a assimilação de qualquer um dos tipos de
ordem através das fronteiras de um determinado sistema implica um processo
negativamente entrópico, e que, no caso dos sistemas vivos, é precisamente este
o processo que os mantém. Para usar as suas palavras: a vida nutre-se de
entropia negativa.
É estranho ao problema geral das relações entrópicas o fato de que a nova
ordem que se instaura no sistema particular (aberto) se imponha, sobretudo como
energia ou como informação. O input de energia e informação no sistema
contrabalançará todas as tendências entrópicas positivas, seja no interior do
sistema como tal seja nas suas relações com o ambiente. A entropia negativa
(neguentropia) conserva ou aumenta portanto o grau de organização do sistema a
que for aplicada.
Pode-se representar a informação mediante gradientes de energia (por
exemplo, recorrendo a diferenças na energia potencial entre duas partes do
sistema) ou mediante configurações informacionais. Ao nível fisiológico, por
exemplo, os organismos recebem do ambiente quer energia (por exemplo, os
hidratos de carbono) quer informação (por exemplo, os aminoácidos). Os
organismos restituem energia ao seu ambiente sobretudo sob a forma de energia
«comprometida», ou seja, como desordem de energia indisponível para efetuar
trabalho em sentido físico (por exemplo, como «calor de dissipação»), e
informação numa outra e distinta forma de desordem (por exemplo, por
defecação), ou ainda como desordem molecular. Esta desordem, uma vez
estruturada, pode, no entanto, servir como ordem (energia e informação) para
outro sistema (por exemplo, para os microorganismos decompositores). Ao
mesmo tempo, o uso da neguentropia pelo sistema traduzir-se-á num incremento
de entropia positiva em certos pontos do ambiente dos sistema. Um exemplo
óbvio é constituído pelos processos neguentrópicos da fotossíntese. Estes
processos metastáveis só são possíveis enquanto o Sol irradiar energia, o que, só
é possível enquanto as relações energéticas ordem-desordem ao nível
subatômico forem suficientemente neguentrópicas para produzirem a energia
solar. Durante o processo, necessariamente, a entropia positiva do Sol cresce.
Desta maneira, a teoria de Schrödinger da ordem pela ordem – a tradução
da ordem disponível no ambiente numa nova ordem graças ao sistema e no
interior do sistema – descreve o princípio fundamental do qual dependem o
metabolismo orgânico, a subsistência econômica e a conservação da organização
social. Esta maneira de usar a neguentropia não viola o segundo axioma da
termodinâmica – o princípio segundo o qual, no interior de um sistema isolado
(definido como tal, a desordem tende a aumentar) mais do que as atividades
seletivas do célebre demônio de Maxwell (ver adiante).
Se se descurar a quantidade de energia relativamente pequena necessária
a um input informacional num sistema aberto (já que tal quantidade não é
significativa como energia para o sistema), pode-se afirmar que a informação é o
fator mais importante para manter ou aumentar a organização nos sistemas
abertos, tais como organismos e sociedade – até que, bem entendido, a
variedade que entra no sistema seja de fato utilizável como informação.
(«Sobrecarga» de informação porém, por exemplo, reduzir a informação a ruído;
além disso, certos tipos de variedade que são na realidade ruído para o sistema –
por exemplo, as toxinas nervosas – podem ser tomadas por informação. Ainda
que não ignorando os necessários inputs de energia, o nosso interesse pelo
princípio da ordem pela desordem (cf. § 3.3) limita-se ao papel da informação no
processo.
É possível identificar, com relativa facilidade, alguns problemas específicos
contidos no conceito de informação como formas de neguentropia. Deve-se a
intuição de Boltsmann uma pista a qual a entropia positiva representa
«informação que falta». Esta formulação, no caso geral, significa que, quanto
mais um sistema se torna desordenado (seja qual for a definição), tanto menos
específica é a informação que se possui sobre os seus microstados (sempre de
acordo com qualquer definição). Se, por exemplo, se definir como casualmente
ordenado um sistema (isolado), poderá afirmar-se que não está apto a receber
informações sobre os seus microstados. Em tal caso, toda a informação está, por
assim dizer, «em falta». De um ponto de vista estatístico, a informação que se
possui sobre os microstados do sistema é zero. A entropia do sistema é, assim,
definível como máxima entropia positiva (máxima desordem), para esse
determinado sistema, naquele momento, com base na definição, e naquelas
relações perceptíveis.
Como para os sistemas informativos fechados (não abertos a nova
informação) de Shannon, os pressupostos para definir a entropia com base nesta
perspectiva bolzmanniana encontra-se na relação entre um sistema considerado
como um conjunto de mensagens e um observador considerado como receptor
de mensagens. O modelo fundamental é o formado pelo observador e pelo
observado, ligados pelas já tradicionais implicações sujeito/objeto. Esta relação é,
além disso, e principalmente, embora não completamente, unidirecional. O
sistema é definido como fechado para todas as relações, exceto para a
observação. Ao contrário de uma relação organismo-ambiente, nem o sistema
observado nem o ato da observação têm, como norma, influência significativa
sobre o observador; vice-versa, a observação não tem por norma efeitos sobre o
conjunto das mensagens (o sistema observado) e, se tem (como na física
subatômica), pode apelar-se para o «princípio de indeterminação» de Heisenberg
a fim de tratar matematicamente a perturbação do sistema atuante no ato da
observação. O princípio de Heisenberg não se aplica naturalmente fora da física,
nem sequer por analogia, pois que se refere a relações energéticas relativamente
simples entre entidades inanimadas. Por outras palavras, em qualquer
perspectiva analogicamente estatística e em sistemas fechados (quer na
termodinâmica quer na teoria da informação), a única significação da relação de
entropia para o observador é dada pelas suas características medidas,
estatísticas. Com significado mais denso para deslindar as confusões relativas à
informação e à entropia é, porém, o modo como se define o lócus da relação de
entropia. Nesta concepção, o lócus da medida da entropia fica entre o observador
e o observado (a fonte da mensagem).
Em aberto contraste com os sistemas estatisticamente definidos, acima
referidos, as relações de primária importância para os sistemas biológicos e
sociais não são do mesmo tipo, nem se situam, na mesma «posição. Obviamente,
para os sistemas vinculados mas abertos da realidade biossocial, a medida não
constitui uma relação primária, ao passo que a configuração o é – e, em
particular, a configuração que vai para além da que é simplesmente estatística. A
verdadeira diferença, porém, a que é decisiva, é que estes sistemas adaptativos
finalizados abertos devem ocupar-se das suas próprias relações. Pouco interesse
dedicam à importância – geralmente inobservada, mas notável por motivos
epistemiológicos (e ideológicos) – da abordagem à relação ordem-desordem
descrita no parágrafo precedente (uma abordagem por vezes rotulada de
sistemático-operacional). A importância da abordagem não reside tanto na
compreensão e elucidação das relações globais do mundo real, mas antes na
relação relativamente microscósmica entre ciência e o que já aqui foi designado
por «objetos da ciência».
Deveria tornar-se evidente que este particular artefato das ciências físicas
– a relação observador/observado – só é aplicável corretamente a relações
sujeito-objeto, isto é, às que são válidas na física. Não é, claramente, um modelo
legítimo para examinar o recíproco input/output de ordem e desordem nas
relações biológicas e socioeconômicas – como acontece, por exemplo, quando
um organismo come ou respira, ou quando uma sociedade produz e reproduz. O
motivo pelo qual, na análise e explicação dos sistemas biológicos e sociais, é
necessário um tipo diverso de subdivisão relacional é o fato de que, nestes
sistemas, as relações de entropia não comportam principalmente ou
significativamente um observador e um observado. Nos ecossistemas, o lócus
primário da relação de entropia é a descontinuidade entre sistema e ambiente.
Se bem que, em certos casos, as relações observador/observado e
sistema-ambiente possam ser quase equivalentes, trata-se de uma exceção. a
relação entre sistema e observador (na física, por exemplo) raramente, ou nunca,
se identifica à existente entre sistema e ambiente. Aquilo que, geralmente, o
observador define como «sistema» é uma entidade sujeita à sua manipulação (já
que o observador está isolado do ambiente geral). No caso contrário (como, por
exemplo, na antropologia), aquilo que o observador define como «sistema» é, na
realidade, o seu ambiente, ou um aspecto significativo deste. É, ao contrário do
caso usual da entidade manipulável – a entidade observada sujeita ao método
experimental – o ambiente do observador não somente inclui o observador, mas
também é de um tipo lógico superior ao do observador.
A incapacidade de reconhecer as distinções (observador/observado,
sistema-ambiente), onde e quando seja necessário, é a causa comum de
numerosas subdivisões incorretas, confusões e erros. Pode-se, por exemplo,
ouvir afirmar que, não sendo mensurável a entropia termodinâmica de um sistema
(quer estatisticamente quer em calorias de input energético em grau absoluto), se
o sistema não estiver excluído (isolado) do seu ambiente, a neguentropia é
«privado de significado», já quem como relação entre sistemas abertos, não é
mensurável. (A combustão de uma chama é um exemplo físico de sistema não
calculável.) A medição, porém, não constitui obviamente o teste de uma relação
significativa, a não ser no âmbito da epistemiologia de um sistema de medição
fechado.
Além disso, a definição antropomórfica snannoniana de informação como
«surpresa» tende a confirmar o lócus provável dos tipos de subdivisão incorreta
que conduziram às argumentações tendenciosas de teóricos da informação e
outros estudiosos no contexto geral da ciência normativa. A «surpresa» é uma
relação qualitativa, e é somente na teoria clássica (e nas disciplinas com ela
relacionadas) que esta qualidade é sumariamente reduzida a uma quantidade
estatística. A teoria clássica atribui à surpresa o significado daquilo que a teoria
considera inesperado – ou seja, de «informação»; vice-versa, nas relações
sistema-ambiente de células, organismos, ecossistemas naturais e sociais, a
informação provinda do ambiente (como também no interior do sistema) não é
improvável nem surpreendente. A informação não é apenas significativamente
redundante no sentido próprio do termo, mas também é previsível e prevista. Em
suma, a teoria clássica ocupa-se da relação global, de variedade sistema-
ambiente, num sentido limitado, fechado a um só nível, o que corresponde
exatamente aos seus objetivos iniciais. Muitas confusões a que se fez referência
nasceram de extrapolações indevidas da teoria clássica da informação. Em casos
como estes, a fonte primária das explicações procuradas não deveria ser a teoria
de Shannon como tal, mas antes a perspectiva informacional da ecologia dos
sistemas biológicos e sociais.
A visão ecológica, pelo menos, permite que o contexto em que o observado
se encontra seja adequadamente relacionado com aquele em que o observador
se situa (uma avis rara realmente na ciência normativa), e permite também que o
contexto geral que inclui ambos – no tempo e no espaço – encontre a sua justa
colocação na explicação e representação gerais.
Todavia, a relação que parece ser, em última análise, a mais importante na
discussão sobre neguentropia e organização é o estatuto peculiaríssimo da
entropia e do segundo princípio da termodinâmica entre os axiomas de todas as
ciências. O segundo axioma pertence a um tipo lógico diferente de todos os
outros (incluindo o primeiro axioma, o da conservação da energia), e permanece
cheio de mistérios facilmente esquecidos por aqueles que nele vêem usualmente
mais uma fórmula matemática a adaptar a todo o resto. (A taxa de crescimento da
entropia em sistemas isolados continua a ser, por exemplo, um problema
relativamente inexplorado e pouco conhecido.)
Significativo é o fato de que todas as relações ordem-desordem sejam,
antes de mais, relações quantitativas. Ordem e desordem – informação e ruído –
não são adequadamente definíveis em bases puramente quantitativas. E tão-
pouco o é a entropia. Aquilo que, para um organismo ou uma espécie, é
desordem, pode ser ordem para outro, o que o nosso sistema socioeconômico
considera ordem pode ser desordem para o seu sistema natural, e assim por
diante. Como sublinhou Arthur Eddington, em The Nautre of the Physical World
[1928], a entropia não fala somente a linguagem da física, isto é, da matemática,
mas faz também um discurso completamente diverso. Ao contrário da maior parte
dos outros termos físicos, a entropia não comunica somente através de números
mas também graças à informação de configurações. A entropia, afinal, é uma
questão de disposições; e a matemática, incluindo os mais recentes
desenvolvimentos da topologia, não pode especificar disposições ou
organizações que impliquem dimensões não matemáticas, como é, por exemplo,
a dimensão da ambigüidade a vários níveis e a dos valores de uso. Ediington
continuou a perguntar como é possível esperar classificar os termos seguintes em
duas categorias: distância, massa, força elétrica, entropia, beleza e melodia
[Shannon e Weaver 1949]. A conclusão é naturalmente que a entropia, mais do
que aos termos físicos quantitativos, refere-se corretamente às relações ordem-
desordem da melodia e beleza. Foi certamente a conclusão a que há muito tempo
chegaram, entre outros, os Dogon e os taoistas.
O demônio de Maxwell. O demônio de Maxwell em freqüentemente,
utilizado para ilustrar a distinção entre energia e informação, e a relação entre
entropia e organização. Também serve para explicar o princípio da ordem pela
ordem.
A experiência hipotética de Maxwell em 1871 e as suas sucessivas
interpretações podem ser assim sintetizadas: um gás, a uma temperatura superior
ao ponto de liquefação, é metido num contentor isolado do ambiente. (Constitui-
se, pois, um sistema termodinamicamente fechado.) O contentor é dividido por um
septo em duas partes iguais. O septo é potencialmente permeável num ponto as
moléculas de gás. Neste ponto, é colocado um ser mítico e microscópico, o
demônio, que pode alterar a permeabilidade (note-se a semelhança com a
membrana celular). O gás tem uma temperatura uniforme, isto é, existe um
gradiente energético entre o gás e o ambiente do qual o gás está isolado.
A temperatura de um gás, de acordo com a teoria cinética do calor, pode
ser definida como o produto do movimento molecular. Quanto mais velozes são
as moléculas mais elevada é a temperatura. (Ao zero absoluto supõe-se que não
existe nenhum movimento molecular). A temperatura do gás é, na realidade, o
produto da média estatística do movimento de todas as suas moléculas. Para
cada temperatura, algumas moléculas movem-se mais depressa do que a média,
e outras mais devagar. O gás encontra-se, por isso, num estado de ordem.
Todavia, do ponto de vista da teoria cinética, a distribuição das moléculas
mais veloz e mais lentas – e das colisões das moléculas entre si e com as
paredes do cotentor – é considerada casual. A causalidade é, pois, definida como
um estado de desordem. Mas, visto que o gás apresenta uma temperatura
superior ao zero absoluto (na qual, a ausência de movimento determinaria um
sistema completamente ordenado, cujo macrostado se identificaria com todos os
macrostados, e cuja entropia, por conseqüência, seria zero), o gás está de fato,
ordenado em relação ao seu ambiente e revela também uma forma de ordem
interna (por mais caótico que possa parecer).
A ação do mítico demônio consiste em modificar a permeabilidade do septo
entre as duas partes do contentor fechado. O demônio consente que todas as
moléculas mais velozes atravessem o septo numa direção e que as mais lentas
passem na direção oposta. O resultado é que, sem aplicação de entropia negativa
energética ao gás, a seleção das moléculas faz crescer a organização relativa do
gás. Um dos lados do septo torna-se mais quente que o outro; entre os dois,
estabelece-se um gradiente de energia. Se, então se colocasse um trasductor de
energia no ponto de permeabilidade, o fluxo de energia cinética da parte mais
quente para a mais fria do septo – com base no segundo postulado da
termodinâmica – permitiria ao gás produzir trabalho neste ponto. Obter-se-ia
trabalho até que o gás tornasse ao seu estado originário, deduzida a energia
perdida por fricção e outros fatores. (o gás acabaria, assim, por chegar a uma
temperatura global inferior e a uma entropia positiva maior do que a inicial.)
À primeira vista, portanto, parece que – esquecendo a energia necessária
para que o demônio modifique a permeabilidade no ponto de troca entre as duas
metades do contentor – o demônio criou entre as duas metades um gradiente de
entrofia negativa, sem introduzir nova energia no sistema. O demônio, portanto,
parece ter desafiado o princípio da entropia, segundo o qual a energia, uma vez
«aprisionada», não pode voltar a ser «liberta» sem um gasto de energia em
quantidade igual à daquela que foi «aprisionada».
Na realidade, porém, o demônio não desafiou o princípio da entropia,
limitando-se a assumir uma forma original de ordem – o movimento diferencial
das moléculas – e a criar uma nova ordem recorrendo à informação. A informação
usada é a relativa às moléculas que se movem mais velozmente que as outras. A
atividade de escolha ou organização produziu uma relação entrópica negativa.
São numerosas as explicações sobre aquilo que o mítico demônio
efetivamente necessitaria de fazer para conseguir organizar, numa nova ordem, a
ordem relativa ao gás original. Uma interpretação põe em evidência que o
demônio não pode ver as moléculas no contentor fechado e, por isso, carece de
uma minúscula lâmpada de magnésio para as selecionar. Assim sendo, o
processo de classificação não poderia demorar muito. O demônio é tão pequeno
que, sempre que se acendesse a lâmpada de magnésio, os forões emitidos
obrigá-lo-iam a recuar (ação e reação sã iguais e opostas), de tal modo que o
demônio depressa ficaria tão aturdido que nada poderia decidir.
Os cientistas brincaram com o demônio de Maxwell durante cerca de meio
século, antes de se convencerem inteiramente de que o princípio da entropia não
é violado nessa célebre experiência hipotética. A resposta está em parte no fato
de que o demônio – sendo um controlo de uma fronteira sobre outra fronteira –
não pertence ao sistema fechado formado pelo gás. Todo o aumento de
organização que se verifique como conseqüência das decisões informadas do
demônio sobre as moléculas presentes no sistema será necessariamente
igualado, ou antes superado, por uma diminuição da organização em qualquer
outro ponto do cosmos a que pertencem tanto o demônio como o contentor
fechado.
O demônio cria uma nova ordem a partir de uma ordem diversamente
organizada servindo-se de informações sobre a organização, o ponto essencial é
que o segundo princípio nunca é violado (tanto quanto se sabe), mas que apesar
disso se pode recorrer à informação para manter ou aumentar a organização –
num sistema aberto. É o demônio quem abre o sistema fechado dos dois
contentores de gás ao input de um ambiente que não pertence nem às duas
concentrações gasosas nem aos seus contentores. Deste modo, o demônio
produz ordem a partir da ordem – como todo o organismo vivo – mas a expensas
de um aumento da desordem noutro lugar.

3.3. ORDEM A PARTIR DA DESORDEM

Não surpreende – dadas as combinações historicamente única de


confusão e crise manifestadas pelo atual sistema global socioeconômico – que a
'entropia' se haja tornado recentemente um tema da moda entre os intelectuais.
Até o demônio de Maxwell teve a honra de ser publicitado nos dias que correm
(vide, por exemplo, The Crying of Lot 49 de Thomas Pynchon).
Em geral, porém, a relação representada pela entropia é interpretada e
aplicada erroneamente de duas maneiras caracterizadas por uma excessiva
simplificação. A entropia é usada como terno genérico para qualquer tipo de
relações que o autor considere uma indesejável desordem (disso temos um
exemplo no seu emprego por Lévi Strauss como sinônimo de 'desordem social'),
ou então pressupõe um ressurgimento das preocupações de Clausius, no século
XIX, relativamente a chamada «morte térmica» do universo (redução a uma
configuração «casual» na qual não pode fluir energia orientada). No primeiro
caso, a analogia não oferece qualquer suporte científico à ordem e à desordem na
realidade social; no segundo, o futuro entrópico do cosmos é simplesmente alheio
aos interesses humanos – é extremamente improvável que as espécies cheguem
a poder experimentá-lo.
Vice-versa, as relações locais da ordem-desordem (relações entrópicas
locais) representam uma preocupação quotidiana e futura da nossa sociedade.
Estas relações entrópicas locais vão desde concentrações nocivas (em áreas
específicas) de formas particulares de desordem fabricada (ruído) que a natureza
não pode reciclar nem neutralizar (por exemplo, sais de metais pesados, anidrido
sulfuroso, difenis policloruratos, escórias nucleares, etc.) até ao problema geral
das relações entrópicas em todo o planeta. A injeção de desordem irreciclável na
natureza por parte da sociedade pode, eventualmente, revelar-se ainda mais
significativa do que o outro aspecto da equação da entropia: a questão dos
recursos. O sistema econômico global está atualmente a retirar do ambiente uma
quantidade de ordem metastável (por exemplo, combustíveis fósseis, fertilidade
do solo) em quantidades maiores do que aquelas que, previsivelmente, poderão
restaurar através de novas descobertas ou novas tecnologias. Justamente porque
muitas das novas tecnologias (combustão do carvão, gaseificação do carvão,
reatores velozes autofertilizantes, etc.) produzem enormes quantidades de
desordem (por exemplo, calor de dissipação, água e contaminação atmosférica),
é provável que as tecnologias projetadas para superar os problemas do
esgotamento dos recursos (por exemplo energéticos) se traduzam na destruição
de aspectos importantes do último recurso da vida: a bniosfera. Ao fim de muitos
milhões de anos caracterizados por um estado de entropia neutra alimentada pelo
sol, o planeta parece estar agora a percorrer com velocidade crescente o caminho
que leva a uma entropia planetária positiva. Além disso, o processo não resulta de
algo que se possa chamar leis naturais, mas, pelo contrário, é fruto da constante
acumulação de capacidade produtiva por parte de um sistema econômico que se
julga não estar sujeito aos vínculos naturais de ordem e desordem.
Este difuso problema socioeconômico é, por si só, suficiente para explicar a
atual popularidade de afirmações relativas ao curso «inevitável» da entropia
(positiva) e à chegada «inevitável», graças a «leis naturais», da desordem final
(ruído). De há muito que é característico da ideologia dominante na nossa
sociedade o recurso a explicações psicológicas, biológicas e físicas das
dificuldades socioeconômicas: veja-se o recente aumento dos estudos
«genéticos» visando demonstrar a inferioridade de certas raças, após a inevitável
falência das inadequadas políticas governamentais e de outros esforços para
modificar a situação (por exemplo, a guerra à pobreza). O ponto crucial é que,
não obstante o recente começo de uma ciência dos sistemas socioeconômicos –
uma ciência que recorre aos modelos informacionais, sistêmicos e hierárquicos
referidos neste artigo (e não à psicologia, à bioantropologia, à fisioeconomia, etc.)
-, esta perspectiva não é geralmente compreendida nem aplicada.
Conseqüentemente, as analogias psicobiológicas, biofísicas e outras analogias
reducionistas, correntemente mascaradas de científicas nos discursos científicos
e sociais correntes, ainda podem ser produzidas e reproduzidas nas ciências
sociais e na vida, sem as refutações críticas indispensáveis para prosseguir o
desenvolvimento de uma concepção, na ciência e na sociedade, que seja
realmente pertinente para os nosso potenciais futuros – dada a atual estrutura e
os atuais objetivos do nosso sistema socioeconômico.
Existe, claro está, um sentido de fiabilidade do futuro para a resolução de
todos estes problemas. Se a estrutura e os objetivos do sistema são
diacronicamente contra-adaptativos, como não é improvável, também o serão as
suas representações ideológicas e epistemológicas. Ora, como o sistema
socioeconômico é obrigado por vínculos naturais sistêmicos à modificar-se, as
suas representações também terão de mudar. O problema é que tais
modificações podem ser inesperadas e desagradáveis.
É neste ponto que se pode inserir outro princípio: o princípio da ordem a
partir da desordem (ou «informação pelo ruído»). É este o princípio fundamental
da evolução natural aplicável também – a menos que os nossos níveis de
complexidade se confundam – à mudança socioeconômica.
A relação ordem-pela-desordem pode ser tão simples como é o «sistema
auto-organizante» mecânico-magnético descrito por Heinz von Foerster [1960, pp.
31-50]. O modelo de Foerster esclarece como um determinado sistema pode
converter em estrutura a variedade não codificada. Em suma, o modelo ocupa-se
das estruturas mutáveis que se podem obter com um certo número de pequenos
imãs metidos numa caixa e agitados. O processo basilar é fundamentalmente
idêntico ao de um relógio de corda automática. (Na realidade, o relógio não se
carrega a si próprio mais do que qualquer outro sistema – incluindo os imãs de
Foerster – se organiza a si próprio. 'Auto-organização' é um termo enganador
quando referido a um particular tipo de relações sistema-ambiente.) para um
relógio normal, os movimentos dos nossos pulsos são variedades casuais; vice-
versa, num relógio de corda automática, o mecanismo contém um trasdutor de
energia (o peso rotativo ou «chave de corda»). Graças a este sistema mecânico,
a energia casual dos movimentos do pulso pode ser transformada na variedade
ordenada da energia potencial acumulada na mola principal em espiral do relógio.
Talvez com surpresa apenas relativa, descobre-se que a relação ordem-
pela-desordem, associada à ordem-pela-ordem do demônio de Maxwell está na
base da descrição platônica da criação no Timeu [52d-53b]. aqui a imagem
dominante é a metáfora do processo de peneirar durante o tempo das ceifas: uma
imagem que sabemos ser mecânica, mas que o não era na cosmologia
organicista dos gregos.

Evolução e revolução. As antigas civilizações que não souberam reagir às


mudanças radicais das suas relações ecológico-econômicas, restruturando-se de
modo a conservar a flexibilidade tanto em relação ao presente como em relação
ao futuro, sofreram simplesmente um colapso e desapareceram. As civilizações
que conseguiram reestruturar-se e sobreviver exploraram em geral
adequadamente a relação ordem-pela-desordem, aceitando a desordem ou o
ruído que as ameaçavam (de origem que interna quer externa ou ambas) e
transformando-os numa nova ordem. Converteram o ruído em informação.
Estamos aptos a compreender como age na evolução natural a relação
ordem-pela-desordem. Assim, por exemplo, uma variação ou uma errada
subdivisão na mensagem genérica em geral reduzem a ruídos importantes fatores
da mensagem, de tal modo que o organismo em questão não consegue
reproduzir-se. todavia, num numero infinitesimal de casos, a desordem da
mensagem genética poderia dar um lugar a uma mutação apta a sobreviver.
Neste caso, o ruído ou a desordem originários passam a estar inscritos na
mensagem genética da progênie sob a forma de informação ou de nova ordem.
O mesmo se passa com as sociedades. A introdução no ambiente do
sistema – ou de qualquer lócus logicamente ou realmente externo a este – daquilo
que, para o sistema, é ruído pode traduzir-se em modificações da estrutura
superficial do próprio sistema. Se for suficientemente significativo e extenso, o
ruído pode destruir a sociedade. No entanto, também é possível que a sociedade
possua a variedade necessária (a flexibilidade) para aceitar o ruído como
informação e proceder a uma reestruturação morfogenética das suas relações
fundamentais. São exemplos óbvios certas invenções significantes como, por
exemplo, a agricultura. As sociedades que por algum motivo incorporaram esta
invenção (que por exemplo é ruído para os povos dedicados à pastorícia)
evoluíram para uma nova estrutura. O ruído (desordem) do «exterior» foi
incorporado no sistema como informação (nova ordem), e o sistema sobreviveu
(como sistema diverso).
A própria relação ordem-pela-desordem é válida para situações nas quais o
ruído ou desordem (no sistema socioeconômico como tal ou no seu ambiente) é
produzido para atividades internas ao sistema. Mas uma vez, o resultado pode ser
constituído por simples modificações superficiais. Por exemplo, o «ruído» da
revolução sexual e outras ditas revoluções produzidas pela chamada
«contracultura» na América do Norte (e noutros países) facilmente foi incorporado
como informação (cooptado e também explorado) pela atual estrutura do
capitalismo ocidental Não obstante, algumas formas de desordem geradas pelas
atividades de um sistema econômico podem contribuir para a sua destruição (por
exemplo, os efeitos combinados do aumento da salinidade e da transformação do
solo em lama determinados pelos sistemas irrigativos da Mesopotâmia desde há
alguns milhares de anos).
O resultado mais usual do ruído não é, porém, a destruição, mas sim a
emergência de um sistema ou sistemas sociais com nova estruturação. Roma,
por exemplo, nunca «caiu» no sentido sistêmico do termo. A versão romana do
imperialismo não conseguiu conservar a flexibilidade, devido sobretudo à sua
estrutura, e foi substituída por sistemas mais flexíveis: os bárbaros. Desta
particular relação ordem-desordem acabou por emergir um certo número de
novos sistemas socioecnômicos: por exemplo, os despotismos orientais na Ásia,
Eurásia e outros lugares; o sistema feudal em boa parte da Europa, e outros
ainda [Wilden 1972, pp. 371-77, 390-94, 395-412; 1974, pp. 77-111].
O contexto deste artigo não permite aprofundar mais a concepção
informacional e sistêmica da mudança histórica, em particular no que se refere à
teoria marxiana da contradição. Mas a relação ordem-pela-desordem torna claro
que, enquanto o ruído relativamente casual do «exterior» em qualquer sistema
finalizado pode levar a uma evolução (natural ou social), diversa é a situação
quando o ruído ou a desordem são gerados «internamente». Quando um sistema
econômico vive em competição com os seus ambientes – natural, humano,
espacial e temporal -, e quando começa a aproximar-se dos limites dos vínculos a
diversos níveis inscritos nos seus ambientes, é provável que a desordem que se
tenta exportar para os ambientes acabe por regressar ao sistema sob as formas
inutilizáveis e talvez perigosas. Para além de certo limite, a desordem biológica,
física, humana, social e econômica (cada qual no seu próprio nível e à sua própria
maneira) devem ser neutralizadas ou convertidas em novas ordens se se quiser
que o sistema em questão conserve a variedade de flexibilidade necessária para
sobreviver a longo prazo. A conversão de desordem ou ruído produzidos
internamente em informação a estes níveis não envolve a evolução, mas sim a
morfogênese das estruturas profundas conhecida como revolução
(socioeconômica). [A.W.].

Ashby, W. R.
1956 Na Introduction to Cybernetics, Chapman and Hall, Londres (trad. It.
Einaudi, Torino 1971)

Atlan, H.
1972 L'organisation biologique et la theórie de l'information, Hermann, Paris.
Bateson, G.
1972 Steps to an Ecology of Mind, Chandler, Nova Iorque (trad. It. Adeolphi,
Milão 1977).

Boman, Th.
1952 Das hebraische Denken in Vergleick mit dem griechischem,
Vandenhoeck und Ruprecht, Gottingen, 1968 5.

Bryant
1977 Biological regeneration and pattern formation, in «Scientific American»,
ccxxxvii, no 1, pp. 66-81 (trad. It. In «Le Scienze», XVII (1977), n o III, pp.
44-58).

Calame-Griaule, G.
1965 Ethnologie et language. La parole chez les Dogoms, Gallimard, Paris.
Cassirer, E.
1925 Spache und Mythos, ein Beirag zum Prolem der Gotternamem,
Teubner, Leipzig e Berlim (trad. It. Il Saggiatore, Milão 1968).

Foerster, H. Von
1960 On Self-Organizing Systems and their Enviromments, in M. C. Yovits e
S. Cameron (org.), Self-Organizing Systems, Pergamon Press, Nova
Iorque.

Gardner, M.
1957 Logic Machines and Diagrams, McGraw-Hill, Nova Iorque.

Griaule, M.
1948 L'Alliance catharique, in «África», XVIII, no 4, pp. 242-58.
Hassenstein, B.
1971 Information and Control in the Living Organism: An Elementary
introduction, Chappman and Hall, Londres.

Jakobson, R, e Halle, M.
1956 Fundamentals of Language, Mouton, The Hague (trad. It parcial in R.
Jakobson, Saggi di linguistica generale. Feltrinelli, Milão 1966).

Kats, B.
1961 How cells communicate,in «Scientific American», ccv, no 2, pp. 209-20.

Koshland, D. E. Jr
1972 Protein shape and biological control, in «Scientific American», CCXXIX,
no 4, pp. 52-54 (trad. It. In «Lê Scienze», XIV (1974), no 65, pp. 28-41).

Krippendorff, K.
1975 Information Theory, in G. J. Hanneman e W. J. McEwen (org.),
Communication and Behavior, Addison-Wesley, Reading Mass., pp.
351-89.

Lacan, J.
1966 Escrits, Seuil, Paris (trad. It. Einaudi, Turi, 1974).

Leenhardt, M.
1947 Do kamo. La personne et le mythe dans le monde mélanésen,
Gallimard, Paris.

Lévi-Strauss, C.
1947 les Structures élementaires de la parenté, Presses Universitaires de
France, Paris (trad. It. Feltrinelli, Milão 1969).

MacKay, D. M.
1969 Information, Mechanism and Meaning, Mit Press, Cambridge, Mass.

Margelef, R.
1967 Perspectives in Ecological Theory, University of Chicago Press,
Chicago.
Martinet, A.
1960 Eléments de linguistique générale, Colin, Paris, 19692 (trad. It. Laterza,
Bari 1971).

Maruyama, M.
[1963] Second Cybernetics «Deviation-Amplifying Mutual Causal Processes», in
W. F. Buckley (org.), Modern Sustems Research for the Behavioral
Scientist, Aldine, Chicago 1968, pp. 304-13.

Marx, K.
[1857-58] Grundrisse der Kritk der politsschen Okonomie (Rohenwurf), Dietz,
Berlim 1953 (trad. It. Einaudi, Turim 1976).

1867 das Kapital, libro I, Meisnner, Hamburg (trad. It. Einaudi, Turim 1975).

Mazia, D.
1973 The cell cycle, in «Scientific American», CCXXX, no I, pp. 55-64 (trad. It.
In «Le Scienze», XIV (1974), no 68, pp. 50-60).

Nathanson, J. A., e Greengard, P.


1976 «Second messengers» in the brain, in «Scientific American»,
CCXXXVII, no 2, pp. 108-119 (trad. It in «Lê Scienze», XVIII (1978), n o
113, pp. 98-109).

Needham J.
1956 Science and Civilization in China, vol. II, Cambridge University Press,
Londres.

Neumann, J. Von
[1948] The general and Logical Theory of Automata, in L. A. Jeffress (org.),
Cerebral Mechanisms in Behaviour; The Hixon Simposium, Wiley, Nova
Iorque 1951, pp. 15-31 (trad. It. In V. Somenzi (org.), La filosofia degli
automi, Boringhieri, Turim 1965, pp. 222-45).

1958 The Computer and the Brain, Yale University Press, New Haven Conn.
(trad. It. Ibid., pp. 157-221).

Pattee, H.H.
1974 (org.) Hierarchy Teory. The Challenge of Complex Systems, Braziller,
Nova Iorque.

Pimentel, D., e altri


1973 Food production and the energy crisis, in «Science»,`CLXXXII, pp. 443-
49.

Rappaport, R. A.
1968 Pigs for the Ancestors. Ritual in the Ecology of the New Guinea people,
Yale University Press New Haven Conn.
Rosenfield, L. W.
1971 Aristotle and Information Theory: A Comparison of the Influence of
Causal Assumption on Two Theories of Communications, Humanities
Press, Nova Iorque.

Samuelson, P. A.
1948 Economics: an introductory Analysis, McGraw-Hill, Nova Iorque; ed. Riv.
19646 (trad. It. Utet, Turim 1969).

Saussure, F. de
[1906-11] Cours de linguistique générale, Payot, Lausanne-Paris 1916 (trad. It.
Laterza, Bari 19702).

Schrödinger, E.
1945 What is Life? The Physical Aspect of the Living Cell, Cambridge
University Press, Londres (trad. It. Sansoni, Florença 1970).

Shannon, C. E.
1938 A symbolic analysis of relay and swiching circuits, in «Transactions of
the American Institute of Electrical Engineers», LVII, pp. 713-23.

Shannon, C. E. e Weaver, W.
1949 The Mathematical Theory of Communication, University of Illinois Press,
Urbana III, (trad. It. Etas Kompass, Milão 1971).

Singh, J.
1966 Great Ideas in information Theory, language and Cybernetics, Dover,
Nova Iorque (trad. It. Mondadori, Milão 1969).

Turner, V. W.
1966 Colour Classification in Ndembu Ritual, in M. banton (org.),
Anthropological Aporaches to the Study of Religion, Tavistock, Londres,
pp. 47-84.

Turner, V. W.
1974 Dramas, Fields and Metaphors, Cornel University Press, Ithaca N. Y.

Vayda, A. P.
1969 (org.) Enviromment and Behaviour, Natural History Press, gardem City
N. Y.

Watzlawitch, P.; Beavin, J.; e Jackson, D. D.


1967 The Pragmatics of Human Communication. A study of Interactional
Patterns, Pathologies and paradoxes, Norton, Nova Iorque (trad. It.
Astrolabio, Roma 1971).
Wilden, A.
1972 System and Structure: Essays in Comunication and Exchange, Barnes
and Noble, Nova Iorque.

1974 La scritura e il rumore nella morfogenesi del sistema aperto, in E. Morin


(org.), Teorie dell'evento, Bompiani, Milão 1974, pp. 77-111.

Wittgenstein, L.
[1941-49] Philosophiche Untersuchungen, Blackwell, oxford 1953 (trad. It.
Einaudi, Turim 1974).

‫ٱ‬ Na teoria clássica (cf. combinatória, indução estatística, representação


estatística), a informação quantitativa representa um equivalente para as diversas
entidades da comunicação, mensurável pela probabilidade de aparecimento de
um símbolo de um dado alfabeto. A este aspecto associa-se o qualitativo (cf.
medida, qualidade/quantidade) relativo ao valor de troca e ao valor de uso
também na comunicação de sistemas com um elevado grau de complexidade (cf.
sistema, simples/complexo).
No seu aspecto de organização, a informação age sobre a conservação e a
reprodução dos sistemas biológicos e sociais (para este aspecto, cf. organismo,
vida, sociedade), está presente em estruturas e modelos (cf. estrutura, modelo),
transmite-se por meio de diversos tipos de signos (cf. signo, símbolo), influi sobre
os gestos (cf. gesto) e, em geral, sobre o comportamento e condicionamento.
A distinção entre informação e ruído faz luz sobre as relações
ordem/desordem, caos/cosmos, sentido/significado e sobre a sua dependência
em relação ao contexto (cf. também cosmologias). O estudo de redundância e
das suas funções na comunicação explica os fenômenos de desperdício aparente
que protegem contra os erros (cf. erro) de transmissão e de recepção e que, nos
sistemas complexos como por exemplo o sistema nervoso central (cf. cérebro),
permitem a sobrevivência a longo prazo.
Para a realização física da informação quantitativa convém o código
binário: a diferencial e analógica constitui o campo de ação do significado. A
discreta e digital refere-se à relação código/mensagem (cf. analógico/digital,
contínuo/discreto, mas também gene, enquanto portador de um código).
Uma das importantes formas qualitativas da informação é dada pel,a
linguagem, a qual evidencia a possibilidade para fins introspectivos dos sistemas
informativos (cf. também discurso, língua/palavra, competência/execução, a
propósito desta distinção).
Finalmente, as ligações da entropia dos sistemas informativos com o
segundo princípio da termodinâmica, as trocas contínuas entre energia, e
informação nos sistemas adaptativos, esclarecem as relações entre o organismo
e o ambiente (cf. também matéria, sujeira/objeto, adaptação).

Você também pode gostar