Você está na página 1de 37

Machine Translated by Google

Capítulo 7
Estudos de informação sem informação

Jonathan Furner

7.1 Introdução

Várias opções se apresentam como abordagens para responder a perguntas como “O que é
informação?”

• Poderíamos fazer alguma ciência empírica. Poderíamos encontrar alguma informação,


observá-la, determinar de que é feita, como surgiu e que efeitos tem, medir suas
propriedades quantificáveis e sua distribuição no espaço-tempo e relatar nossas
descobertas.
• Poderíamos fazer um pouco de história, talvez misturado com um pouco de sociologia.
Poderíamos estudar o desenvolvimento, ao longo do tempo e entre culturas e disciplinas,
do uso do termo “informação” e explicar como diferentes concepções alcançaram
diferentes níveis de proeminência em diferentes contextos.
• Poderíamos fazer alguma análise conceitual. Poderíamos identificar as condições que
devem ser atendidas se quisermos aceitar qualquer candidato como uma instância da
categoria que rotulamos de “informação” em linguagem comum (ou em qualquer
linguagem técnica usada por nossa comunidade). Em outras palavras, poderíamos
esclarecer o significado que o termo
“informação” tem para nós. • Poderíamos fazer alguma ontologia – ontologia “adequada”, na
terminologia de Jonathan Lowe (2011). Poderíamos começar perguntando não que
informação é, mas que informação poderia ser. A ontologia adequada, nesse sentido, não
é uma questão de analisar conceitos, mas uma questão de “imaginar”, de uma maneira
muito geral, que tipo de coisas poderia haver no mundo, em seu nível mais fundamental
de organização ou estrutura, e então ::: desenvolvendo argumentos a favor ou contra a
existência de coisas deste ou daquele tipo geral” (Lowe 2011: 104).

J. Furner ()
Escola de Pós-Graduação em Educação e Estudos da Informação, Universidade da
Califórnia, Los Angeles, Los Angeles,
CA, EUA e-mail: furner@gseis.ucla.edu

http://dx.doi.org/10.1037/0033-295X.101.1.107/978-94-007-6973-1 7, © Springer 143


ScienceCBusiness Media BV 2014. F. Ibekwe-SanJuan e TM
Dousa (eds.) .
Machine Translated by Google

144 J. Furner

Se nos voltarmos para a literatura (sem nos limitar a nenhuma disciplina em particular),
veremos que o discurso pós-1950 sobre a natureza da informação está repleto de
exemplos de pelo menos as três primeiras dessas abordagens. Também descobrimos
que as contribuições individuais tiveram propósitos de vários tipos distintos:

A. apresentar e/ou defender uma única concepção de informação que foi


formulado pela primeira vez em outro lugar;

B. revisar e/ou classificar uma gama de concepções existentes de informação; e C.


apresentar e/ou defender uma nova concepção de informação.

Essas três categorias de propósito sugerem uma segunda maneira de classificar as


contribuições individuais. Cada uma dessas categorias pode ser subdividida naquelas
contribuições que apresentam pelo menos uma concepção geral, independente da
disciplina, capaz de aplicação universal, e naquelas que apresentam pelo menos uma
concepção especial, dependente da disciplina, destinada à aplicação em um contexto
com limites especificáveis. . As contribuições na categoria B - ou seja, revisões - podem
ser avaliadas em relação a critérios que incluem exaustividade (sobre concepções e entre
disciplinas), validade (da escolha dos autores das dimensões nas quais as concepções
são classificadas) e utilidade (dos resultados de A revisão).
Uma terceira maneira de classificar as contribuições seria distinguir a( s) afiliação(ões)
disciplinar (s) de seu(s) autor(es): alguns estudiosos se identificam com campos (como
“ciência da informação”, “biblioteconomia e ciência da informação” [LIS] e “ estudos de
informação”) cujas raízes estão em explorações anteriores de bibliografia, biblioteconomia
e documentação; outros abordam o estudo da informação a partir das perspectivas de
disciplinas científicas e técnicas, como ciência da computação, física e biologia; outros
ainda estão inseridos em várias outras ciências sociais e humanas.
Com este capítulo, não é minha intenção fornecer uma contribuição em nenhuma das
três categorias de propósito (A, B ou C) identificadas acima. Em vez disso, gostaria de
sugerir (por exemplo) uma forma de conduzir uma meta-análise de contribuições, com os
seguintes objetivos:

• introduzir uma quarta forma de classificar as contribuições à literatura sobre a natureza


da informação – uma que envolve a identificação dos compromissos ontológicos dos
autores;
• propor uma estrutura para definir a gama de possibilidades ontológicas para
coisas que foram chamadas de “informação”;
• examinar os compromissos ontológicos de alguns daqueles cujo trabalho pode ser
menos familiar para o público LIS; e •
ao longo do caminho, para esclarecer alguma confusão residual sobre a natureza do
relações entre diferentes concepções de informação.

Na Seção 7.2 seguindo esta introdução, a maneira pela qual podemos adotar uma
abordagem ontológica para a análise de conceitos de informação é descrita com um
pouco mais de detalhes. Na Seção 7.3, começo uma investigação sobre “o que a
informação poderia ser”, construindo uma lista preliminar de candidatos, classificados
por categoria ontológica. Na Seção 7.4, procuro na teoria da probabilidade alguns
candidatos adicionais que assumiram um peso considerável fora do LIS e exploro os
Machine Translated by Google

7 Estudos de Informação Sem Informação 145

importância de uma distinção básica que pode ser traçada entre concepções de informação
como informatividade e concepções de informação como informativa. Na Seção 7.5, examino
os compromissos ontológicos de três autores que escrevem sobre informações de
perspectivas fora do LIS. Na Seção 7.6, concentro-me no trabalho de dois representantes de
uma comunidade emergente de estudiosos que, embora se dedique a estabelecer “os
fundamentos da ciência da informação”, (ainda?) não formou fortes laços com a LIS. Por
último, na Sec. 7.7, concluo provisoriamente que qualquer abordagem para conceituar
informação que menospreze as contribuições de LIS – ou seja, informação sem estudos de
informação – é desnecessariamente empobrecida, não menos por conta da gama de
possibilidades ontológicas que ela perde.

7.2 Uma Abordagem Ontológica para a Análise


de Conceitos de Informação

Ontologia é o ramo da metafísica que se preocupa com a identificação e compreensão das


categorias fundamentais ou tipos de coisas que existem no mundo.1 Para qualquer fenômeno
relacionado à informação, podemos perguntar: Que tipo de coisa é? Uma coisa concreta
(existindo no espaço-tempo como um objeto ou evento “datável e localizável” que é capaz de
sofrer mudanças e/ou causar efeitos), ou uma coisa abstrata ? Um universal (que é
instanciável ou exemplificável) ou um particular?
Uma substância (que é caracterizável) ou uma propriedade? Um objeto ou um evento? Um
conjunto ou um elemento? Uma das tarefas da ontologia é identificar, caracterizar e relacionar
essas diferentes categorias em uma estrutura coerente. As principais características
estruturais de uma dessas estruturas – a “ontologia de quatro categorias” de Jonathan Lowe
(Lowe 2006), cujos antecedentes podem ser rastreados pelo menos até Aristóteles – são
descritas 2na Fig. distingue
Lowe 7.1. tipos (tipos de substâncias), objetos (instâncias de substâncias),
atributos (tipos de propriedades) e modos (instâncias de propriedades). Nesse esquema, os
tipos são universais e as instâncias são particulares; e as únicas entidades que são concretas
são alguns objetos.
Diferentes pensadores têm diferentes pontos de vista sobre a existência (ou seja, a
realidade) ou não de entidades em várias categorias - em outras palavras, eles têm diferentes
compromissos ontológicos e podem ser considerados realistas ou antirrealistas em relação
às entidades em qualquer dado categoria. Na literatura filosófica, os autores tipicamente
tornam suas suposições ontológicas bem conhecidas, especialmente se essas suposições
formam as bases sobre as quais são construídas as compreensões dos conceitos sob
análise. Em LIS, por outro lado, tais visões não são frequentemente explicitadas, apesar de
sua igual importância para o desenvolvimento de estruturas conceituais coesas e poderosas.
No entanto, se formos bem sucedidos em especificar

1Veja, por exemplo, Loux (2002) para uma introdução oficial a este campo.
2A Figura 7.1 é adaptada da Figura 1.2, The four-category onlogy, em Lowe (2006: 18).
Machine Translated by Google

146 J. Furner

Atribuir
Abstrato é caracterizado por resumo
substancial caracteriza não substancial
universal amável universal

instancia exemplifica instancia

é instanciado por é exemplificado por é instanciado por

Objeto Modo
particular é caracterizado por particular
substancial caracteriza abstrato não
concreto/abstrato substancial

Fig. 7.1 Ontologia de quatro categorias de Lowe

Dada a natureza distinta de várias concepções de informação, é essencial que os


compromissos ontológicos subjacentes às teorias, argumentos e reivindicações de
conhecimento de seus autores sejam revelados.
Lowe argumentou que a ontologia “adequada” envolve reflexão a priori e argumento
sobre a possibilidade de tipos de coisas, como “um pré-requisito indispensável para a
aquisição de qualquer conhecimento empírico da realidade” (Lowe 2011: 100). Se
prosseguíssemos com uma investigação sobre a natureza da informação nesse sentido,
uma estratégia específica seria começar com uma das estruturas existentes que pretendem
catalogar os vários tipos fundamentais de coisas que existem, para esgotar as várias
possibilidades pelas quais informações podem estar relacionadas a cada uma das
categorias existentes e considerar quaisquer possibilidades adicionais que possam existir
para revisar a estrutura à luz da distinção da informação.
A própria estrutura de Lowe (2006) (conforme parcialmente representada na Fig. 7.1) nos
dá a motivação para considerar as possibilidades de informação-como-tipo, informação-
como- objeto, informação-como-atributo e informação-como-modo. Até onde esse projeto
pode nos levar? Para descobrir, vamos começar do começo.

7.3 Quais informações podem ser

Você joga uma moeda. Dá cara. Você escreve “Deu cara” como uma nota para si mesmo;
mas (por razões desconhecidas) você me diz “Surgiu Tails”. Nesse cenário, onde
exatamente está a informação?
Se ser verdadeiro (ou seja, corresponder à realidade; representar com precisão os
fatos) é uma condição necessária para ser informação, então, seja lá o que for, eu tiro disso
Machine Translated by Google

7 Estudos de Informação Sem Informação 147

essa troca, não é informação. Se produzir uma mudança no estado de conhecimento de um


destinatário é uma condição necessária para ser informação, então (de acordo com a maioria
das definições de conhecimento, que incluem a veracidade como uma condição necessária
para isso) também não estou recebendo informações neste caso. Talvez uma mudança no
estado de crença de um destinatário seja o que deveríamos estar procurando? Qualquer
exploração dessa rota nos levará a uma das versões do que muitas vezes tem sido chamado
de conceito “subjetivista” de informação, segundo o qual se algo conta como informação ou
não depende da natureza dos efeitos que tem sobre o observador. Alternativamente, podemos
decidir que precisamos prestar mais atenção às suas intenções. Talvez a condição necessária
que buscamos seja a motivação do emissor para representar a realidade, para se expressar,
para influenciar as pessoas, para fazer as coisas com palavras, para se comunicar. é isso?
:::

Mas parar ali seria abrir apenas um ou dois compartimentos de uma extensa caixa de
ferramentas. Informação como o que gera mudanças nos estados humanos de conhecimento/
crença; informação como o que é produzido por atos humanos de representação; informação
como sinal, como sinal, como evidência; informação como diferença; informação como tudo -
a lista de concepções distintas é longa e pode ser organizada de muitas maneiras mais ou
menos úteis, várias das quais são bem conhecidas em LIS. Furner (2010, 174–175), por
exemplo, fornece uma estrutura conceitual que diferencia entre (i) uma família semiótica na
qual são feitas distinções entre situações do mundo real, representações mentais dessas
situações e expressões linguísticas dessas representações; (ii) uma família sociocognitiva em
que a ênfase está na ação e no processo, e especialmente nos processos pelos quais as
pessoas se informam ou informam outras; e (iii) uma família epistêmica na qual as concepções
são desenvolvidas com o objetivo de dar conta das propriedades que um recurso de informação
deve ter se as crenças que são geradas ao interpretar o conteúdo desse recurso são vistas
como justificadas. As origens dessas concepções podem ser atribuídas a várias disciplinas
cognatas, incluindo psicologia cognitiva, lingüística, filosofia da linguagem, semiótica, ciência
da computação, física e biologia, e são essas comunidades que os autores geralmente
procuram quando embarcam em análises do natureza da informação.

Uma lista indubitavelmente incompleta dos fenômenos que estão envolvidos no cenário
coin flip, categorizados de acordo com a ontologia de Lowe, é apresentada na Tabela 7.1. A
fim de progredir em nossa exploração da gama de possibilidades ontológicas, podemos
considerar cada um dos itens da lista como um candidato para satisfazer as condições de
informabilidade.
Uma das maneiras óbvias pelas quais, tal como está, esta lista está longe de ser completa
é a omissão de uma série de categorias de instâncias de propriedade que têm grande
significado dentro das concepções de informação derivadas da teoria da probabilidade. Apesar
de sua ampla aceitação em aplicações da teoria matemática da comunicação de Shannon
(Shannon 1948) nas ciências naturais e na engenharia, essas concepções normalmente não
são abordadas com tanta simpatia na literatura LIS, e uma rápida revisão pode ser útil.
Machine Translated by Google

148 J. Furner

Tabela 7.1 Fenômenos relacionados à informação no cenário de coin-flip

Tipos (tipos de substância)


O conceito de coin-flip; o
conceito de uma moeda dando cara; o conceito
de uma moeda estar em um estado de ter saído cara
O conceito de você anotar o resultado de uma jogada de moeda; o
conceito de você me contar o resultado de um cara ou coroa
A frase “Deu cara” (ou “Deu coroa”)
O tipo de valor, tipo de palavra ou rótulo de categoria "Cara" (ou "Coroa")

Objetos (substâncias-instâncias)
Objetos concretos
O evento de jogar a moeda; o evento de
suas cabeças chegando; o caso de
estar em um estado de dar cara; no caso de você observar a moeda
saindo cara
O caso de você decidir escrever “Deu cara”; no caso de você decidir me
dizer “Aí surgiu o Tails”
O evento de você escrever “Deu cara”; o caso de você me
dizer “Aí surgiu o Tails”; sua inscrição da frase “Deu
cara”; sua pronúncia da frase “Aí veio o Tails”; sua mensagem
para mim “Apareceu Tails”

O evento de eu receber a mensagem “Aconteceu Tails”; o evento de


minha interpretação do significado da mensagem “It came up Tails”
O pedaço de papel no qual você escreve “Deu cara”
As marcas no papel soletrando "Deu cara"
O token de valor "Cara" (ou "Coroa")
Seu estado de conhecimento antes de a moeda ser lançada;
seu estado de conhecimento depois que saiu Cara; meu
estado de conhecimento antes de você me dizer que a moeda saiu Coroa; meu
estado de conhecimento depois que você me disse que surgiu Tails
A mudança em seu estado de conhecimento produzida por você observando-a surgir Cara; a mudança
no meu estado de conhecimento causada por você me dizendo que surgiu Tails

objetos abstratos
O fato de esta moeda ter saído Cara
O fato de você ter me dito que essa moeda surgiu Tails
A proposição de que esta moeda deu cara
A proposição de que surgiu Tails
A série de eventos relacionados aos quais este coin-flip pertence
A série de eventos relacionados aos quais sua mensagem pertence
A subsérie de eventos de cara ou cara
A subsérie de eventos de você me dizendo que uma cara ou coroa surgiu Tails
O conjunto de instâncias da propriedade de um cara ou cara
O conjunto de instâncias da propriedade de significado de que um coin-flip surgiu Tails
O conjunto de propriedades de um coin-flip
O conjunto de propriedades de uma mensagem sobre um coin-flip
O conjunto de valores possíveis de um coin-flip
O conjunto de valores possíveis de uma mensagem sobre um coin-flip

(contínuo)
Machine Translated by Google

7 Estudos de Informação Sem Informação 149

Tabela 7.1 (continuação)

Atributos (tipos de propriedade)


A propriedade de (um lançamento de moeda) dar cara; o
estado de ter surgido Cabeças
A propriedade de (uma inscrição ou expressão) significar que uma cara ou cara
(ou caudas)

Modos (instâncias de propriedade)


A instância neste caso particular da propriedade de aparecer Caras; o estado desta
moeda tendo saído Cara
A instância neste caso particular da propriedade de significado que esta moeda surgiu
Cara ou Corôa)
O valor de verdade da proposição de que esta moeda deu cara (ou coroa)

7.4 Concepções Teóricas de Probabilidade da Informação

Suponha que você jogue uma moeda um grande número de vezes e, após cada lançamento,
registre o resultado — Cara ou Coroa — e mantenha um registro da frequência cumulativa de
cada um dos dois tipos de resultados. Se for uma moeda honesta, depois de um tempo você
começará a ver um padrão simples. O total corrente na coluna Caras será aproximadamente igual
ao da coluna Coroas. Na verdade, a definição de uma moeda honesta é uma moeda com a
mesma probabilidade de dar cara ou coroa. Com o tempo, conforme você continua lançando,
ambas as contagens tenderão para a mesma proporção (50%) do número total de lançamentos.
Usando a terminologia da teoria da probabilidade,3 podemos dizer que a probabilidade p da
variável aleatória X (o lançamento de uma moeda honesta) com o valor x1 (Cara) é p(X D x1) D
0,5. Uma variável é uma série de eventos ou observações, cada uma das quais pode assumir
qualquer um dos valores especificados em um conjunto conhecido como domínio da variável.
Com uma variável aleatória, o valor de qualquer evento futuro dado não pode ser previsto com
certeza: tudo o que podemos fazer é dar nossa melhor estimativa da probabilidade (ou seja, a
probabilidade) de que o próximo evento terá um ou outro dos valores no domínio.
No caso do cara ou coroa justo, o domínio tem dois membros (x1:Cara, x2:Coroa), e a distribuição
de probabilidade - o gráfico dos valores da variável X contra as probabilidades p com os quais
esses valores ocorrem - é uniforme , no sentido de que todos os valores de p são iguais.

O valor de p(X D xi) pode ser encontrado calculando-se a razão entre f(X D xi), a frequência
de eventos em que a variável X tem o valor xi, para n, a frequência total de eventos. Os valores
de p sempre variam de 0 a 1. Quando p(X D xi) D 1, estamos em uma posição de certeza
absoluta: não há dúvida de que o próximo evento em X assumirá o valor xi. Da mesma forma,
quando p(X D xi) D 0, podemos ter certeza de que o próximo evento em X não assumirá o valor
xi. Todos os valores de p entre 0 e 1 indicam vários graus de incerteza. Poderíamos descrever o
caso do cara ou coroa justo, com sua

3Veja, por exemplo, Cover e Thomas (1991) para uma apresentação oficial do material matemático nesta seção.
Machine Translated by Google

150 J. Furner

distribuição de probabilidade uniforme, como aquela em que o nível de incerteza é maximizado:


não temos motivos para escolher nenhuma das duas opções antes da outra como nossa
previsão para o resultado do próximo cara ou coroa.
Agora, suponha que você jogue outra moeda um grande número de vezes; você mantém
um registro da frequência de ocorrência de caras e coroas como antes; e, desta vez, em vez
de uma divisão de 50:50, você verá uma divisão de 60:40. Essa divisão desigual indica que a
moeda que você está jogando não é uma moeda honesta, mas tendenciosa, com p(X D x1) D
0,6 e p(X D x2) D 0,4.

7.4.1 Informatividade como Surpresa

Os conceitos mais simples de informação a serem extraídos da teoria da probabilidade são


aqueles que resultam de (a) definir uma medida de improbabilidade (também conhecida como
surpresa ou imprevisibilidade) como o recíproco de p (isto é, 1/ p), (b) igualar informatividade
com surpresa, e (c) esclarecer a natureza da relação entre a propriedade da surpresa e a
entidade a que pode ser atribuída. No caso da moeda honesta, em vez de dizer que Cara tem
uma probabilidade de 0,5 (em uma escala de 0 a 1), poderíamos dizer que Cara tem uma
surpresa de 2 (em uma escala de 0 ao infinito), dado que 1/ p(X D x1) D 2. A surpresa do Tails
é a mesma. No caso da moeda viciada, a surpresa de Cara é 1,67 e a de Coroa é 2,50.

É comum que a surpresa seja medida em bits,4 em que os valores de improbabilidade


são expressos em uma escala logarítmica, especificamente como logaritmos binários (onde o
logaritmo binário de um valor n, escrito como lb n, é a potência à qual 2 deve ser elevado para
obter n). Quando p D 0,5, o valor de lb p (que é equivalente a lb 1/ p) é 1. Quando p D 0,6, lb
p D 0,74; quando p D 0,4, lb p D 1,32.
Um resultado seria então (supondo que já estamos em uma posição de conhecimento
sobre a distribuição de probabilidade dos valores da variável) poderíamos dar “0,74 bits” como
resposta a qualquer uma destas perguntas: “Quão improvável é que o próximo lançamento da
nossa segunda moeda vai sair cara?” “Se o próximo lançamento for cara, quão inesperado
isso será? Quão surpreendente? Quão informativo?” “Quanta informação é fornecida por um
flip de cara?” Em qualquer situação, o valor de nossa resposta a qualquer uma dessas
perguntas variará na proporção inversa da probabilidade de ocorrência do valor da variável
especificada na pergunta. No caso da moeda viciada descrita acima, um lançamento de Coroa
é mais informativo do que um lançamento de Cara porque é mais improvável. No caso de uma
variável cuja distribuição de probabilidade é uniforme, nossa resposta variará em proporção
direta ao tamanho do domínio: Qualquer lançamento de um dado justo (onde o domínio
consiste em seis valores, todos igualmente prováveis) é mais improvável, inesperado ,
surpreendente e, portanto, informativo, do que qualquer lançamento de nossa moeda justa.

4Deve-se notar que o uso aqui de “bit” como unidade de medida é distinto de seu outro uso regular
como nome para um tipo de dado.
Machine Translated by Google

7 Estudos de Informação Sem Informação 151

Existem pelo menos quatro maneiras diferentes de passar de tal relato (da informatividade como
surpresa) para um relato de informação.

1. Uma maneira seria pensar na informação como se fosse a mesma propriedade dos eventos que
a surpresa. Nesta conta, informação é informatividade. Assim como podemos falar sobre a data
ou local de um evento, podemos falar sobre suas informações. Se perguntássemos: “Qual é a
informação (ou seja, o caráter informativo) do evento eX?” – uma pergunta para a qual a
resposta seria algo como “0,74 bits” – então (nesse relato) é a surpresa particular do evento eX
que estaríamos tratando como informação. Nos termos de Lowe, seria um modo.

2. Outro grupo de opções surge ao pensar na informação como tudo o que é informativo. Por conta
disso, a informação tem informatividade. Se perguntássemos: “Quão informativo é o evento
eX?” – outra pergunta para a qual a resposta seria algo como “0,74 bits” – então (neste relato)
há vários candidatos para aquilo que estaríamos tratando como informação , do seguinte modo:

(a) Pode ser o resultado do evento eX - ou seja,

(i) a categoria do valor produzido pelo evento eX, tal como x1: Caras (em
termos de Lowe: um atributo); ou (ii)
a instância particular do valor produzido pelo evento eX (no Lowe's
termos: um modo diferente).

(b) Alternativamente, poderia ser o próprio evento eX - ou seja, o lançamento real da moeda
(nos termos de Lowe: um objeto concreto).

7.4.2 Informatividade Média como Entropia

Um segundo grupo de conceitos de informação a serem extraídos da teoria da probabilidade


consiste naqueles que resultam de (a) tratar variáveis inteiras (ou seja, séries de eventos), em vez
de eventos individuais, como as entidades que possuem propriedades de interesse, (b) definir uma
medida de improbabilidade média (também conhecida como entropia ou incerteza), (c) igualar
informatividade média com entropia e (d) esclarecer a natureza da relação entre a propriedade de
informatividade média e a entidade à qual ela pode ser atribuída. Podemos calcular a entropia H(X)
de qualquer variável aleatória X ponderando a improbabilidade (medida em bits) de cada resultado
distinto de um evento pela probabilidade de ocorrência desse resultado e somando os valores
ponderados. Em outras palavras, HX / D Pp.XD xi/ lb pX D xi/. Uma moeda honesta tem uma
entropia de 1 bit; a moeda viciada em nosso exemplo tem uma entropia de 0,97 bits.

Podemos nos perguntar: o que realmente significa dizer que a entropia de uma moeda honesta
é maior do que a entropia de uma moeda viciada? A entropia é maximizada quando todas as
probabilidades de ocorrência dos possíveis resultados de um evento são iguais: ou seja, quando a
distribuição de probabilidade é uniforme. Portanto, a entropia é um indicador da extensão em que
essas probabilidades tendem à uniformidade, uniformidade ou igualdade. Quanto mais desiguais
as probabilidades, mais próximo o valor de H(X) de 0. A entropia atinge
Machine Translated by Google

152 J. Furner

este valor mínimo quando um dos resultados possíveis tem uma probabilidade de 1 (e cada um
dos outros resultados tem uma probabilidade de 0). Consequentemente, a entropia é
frequentemente caracterizada como uma medida de incerteza: quanto mais iguais as
probabilidades de resultados possíveis, mais incerta é qualquer previsão do resultado do próximo
evento. O fato de que a entropia de nossa moeda viciada é ligeiramente menor do que a entropia
da moeda honesta reflete o nível ligeiramente inferior de incerteza (ou seja, o nível ligeiramente
superior de certeza ou confiança) que teríamos em qualquer previsão que pudéssemos fazer do
resultado. do próximo evento.
Novamente, há pelo menos quatro maneiras diferentes de passar de tal explicação (da
informatividade média como entropia) para uma explicação da informação.

1. Uma maneira seria pensar na informação como se fosse a mesma propriedade das variáveis
que a entropia. Nesta conta, informação é informatividade média. Assim como podemos falar
sobre a frequência ou alcance de uma variável, podemos falar sobre sua informação. Se
perguntássemos: “Qual é a informação (ou seja, a informatividade média) da variável X?” –
uma questão para a qual a resposta seria algo como “0,97 bits” – então (nesse relato) é a
entropia particular da variável X que estaríamos tratando como informação. Nos termos de
Lowe, seria um modo.

2. Outro grupo de opções surge ao pensar na informação como tudo o que é informativo. Por
conta disso, a informação tem informatividade média. Se perguntássemos: “Quão informativa
é a variável X?” – outra pergunta para a qual a resposta seria algo como “0,97 bits” – então
(neste relato) há vários candidatos para aquilo que estaríamos tratando como informação. ,
do seguinte modo.

(a) Pode ser o conjunto de resultados produzidos pelos eventos que compreendem variáveis
X - ou seja, ou

(i) o conjunto de categorias dos valores produzidos pelos eventos que compreende
variável X (nos termos de Lowe: um objeto abstrato); ou
(ii) o conjunto de instâncias particulares dos valores produzidos pelos eventos que
compõem a variável X (nos termos de Lowe: um objeto abstrato diferente).

(b) Alternativamente, poderia ser a própria variável X – isto é, a série real de cara ou coroa
(nos termos de Lowe: ainda um objeto abstrato diferente).

7.4.3 Informatividade Média como Entropia Condicional

Suponha que agora introduzamos um novo elemento no cenário de cara ou coroa. Desta vez,
em vez de lançar repetidamente apenas uma moeda, pegamos duas moedas diferentes.
Jogamos um, registramos o resultado (Cara ou Coroa), depois viramos o outro e registramos o
resultado (Cara ou Coroa). Fazemos essa operação de lançamento duplo um grande número
de vezes e terminamos com uma contagem indicando que cada uma das quatro combinações
possíveis (Cara, Cara; Cara, Coroa; Coroa, Cara; e Coroa, Coroa) ocorre em 25% das ocasiões. Pudermos
Machine Translated by Google

7 Estudos de Informação Sem Informação 153

digamos que a probabilidade conjunta da co-ocorrência dos valores x1 (Cara da primeira moeda)
e y1 (Cara da segunda moeda) é pX D x1; YD a1/ D 0:25. Esse resultado nos dá boas razões
para acreditar que temos duas moedas honestas. A distribuição de probabilidade conjunta — o
gráfico dos quatro pares de valores xi, yi em relação às probabilidades p com as quais esses
valores ocorrem — é uniforme.
Claro, poderíamos fazer o experimento dual-flip com nossas duas moedas originais, a
honesta e a viciada, em vez de duas honestas. Nesse caso, a distribuição de probabilidade
conjunta não é mais uniforme: a probabilidade de duas Caras, por exemplo, é 0,3, enquanto a
probabilidade de uma Cara e depois uma Coroa é 0,2.
Armados com as probabilidades dos quatro resultados em ambos os casos, podemos
calcular um valor em bits para a improbabilidade de cada resultado, ou seja, lb p XD xi ; YD yj ;
e podemos calcular um valor para a entropia da distribuição conjunta, ou seja, H .X; Y/D Ppp
XD xi ; YD yj lb p XD xi ; YD yj . No caso das duas moedas
justas, H(X, Y) D 2; no caso de uma moeda honesta e outra viciada, H(X, Y) D 1,97.
Como nos exemplos anteriores com as moedas individuais, podemos considerar esses valores
de entropia como indicadores da uniformidade das probabilidades de ocorrência dos possíveis
resultados dos eventos em questão (ou seja, pares de cara ou coroa), ou como medidas de a
incerteza de qualquer previsão do resultado do próximo par de lançamentos. O fato de que a
entropia conjunta no caso de viés justo é ligeiramente menor do que a entropia no caso justo-
justo reflete o nível ligeiramente inferior de tal uniformidade e incerteza.
Até agora, consideramos variáveis independentes umas das outras.
Temos assumido que o resultado do segundo em cada par de cara ou coroa não é influenciado
pelo resultado do primeiro. O próximo caso que podemos considerar é aquele em que não
temos razão para fazer tal suposição - por exemplo, um caso em que a segunda variável não é
uma segunda série de cara ou coroa, mas um relator dos resultados da primeira série de cara
ou coroa - flips. Suponha que tenhamos uma moeda honesta e um repórter totalmente confiável,
que sempre relata todos os resultados corretamente, 100% do tempo. Em outras palavras, a
probabilidade condicional p(Y D yjjX D xi) — ou seja, a probabilidade de Y D yj dado que X D xi
— é 1 quando yj D xi e 0 caso contrário. Embora a distribuição de probabilidade dos valores de
Y neste caso seja exatamente a mesma dos valores de Y no caso das duas moedas justas, a
distribuição conjunta é bem diferente. Por exemplo, no presente caso, pX D x1; YD y1/ D 0:5 e
pX D x1; YD y2/ D 0. Além disso, descobrimos que H(X, Y) D 1, um valor menor do que o
encontrado no caso justo-justo ou no caso justo-viciado, indicando menos uniformidade na
distribuição de probabilidade, e menos incerteza em qualquer previsão que possa ser feita sobre
o resultado do próximo par flip-report.

Por fim, suponha que tenhamos uma moeda honesta e um repórter não confiável, que nem
sempre relata todos os resultados corretamente. Digamos que as probabilidades condicionais
relevantes sejam as seguintes: em 90% das ocasiões em que a jogada é Cara, o repórter diz
que foi Cara; em 80% das ocasiões em que o flip é Tails, o repórter diz que foi Tails. Aqui
descobrimos que H(X, Y) D 1,60, um pouco mais alto do que no caso confiável anterior, mas
ainda mais baixo do que nos casos justo ou tendencioso.
É possível interpretar valores de entropia conjunta como medidas de capacidade informativa
exatamente da mesma maneira que valores de entropia são interpretáveis nos casos em que
cada um envolve uma única variável. Mas é importante perceber que nossa atenção
Machine Translated by Google

154 J. Furner

estaria, portanto, na distribuição de probabilidades de pares de resultados. Valores de


entropia conjunta não nos dizem nada, por exemplo, sobre o nível de incerteza que
teríamos sobre o resultado de um relatório dado o resultado do flip correspondente (ou
sobre o resultado de um flip dado o resultado do relatório correspondente). Para medir
esse tipo de incerteza, podemos, em vez disso, calcular os valores da entropia condicional
- H(YjX) no caso em que o resultado da inversão é conhecido ou H(XjY) no caso em que
o resultado do relatório é conhecido. Por exemplo: Um valor para a entropia condicional
do relatório, dado o conhecimento do flip, seria calculado ponderando a improbabilidade
condicional lb p YD yj jX D xi de cada par de resultados flip-relatório distinto pela
probabilidade desse par de resultados de ocorrência p XD xi ; YD yj , e somando os
valores ponderados. Em outras palavras, H .Y jX/ D PPp XD xi ; YD yj lb p YD yj jX D xi .

No caso justo-justo, o valor de H(YjX) é 1 bit, refletindo a uniformidade da distribuição


de probabilidades condicionais; em nosso caso imparcial, é um pouco menor (0,97 bits),
refletindo a ligeira redução na uniformidade. No caso razoavelmente confiável, ao
contrário, é zero, refletindo a situação de incerteza mínima; enquanto em nosso caso
pouco confiável, ele está de volta a 0,60 bits.

7.4.4 Significa Informatividade como Informação Mútua

Que implicações essa demonstração de um método de caracterização da uniformidade


de uma distribuição de probabilidade conjunta ou condicional tem para as concepções de
informação? Bem, assim como no caso de um único cara ou coroa, podemos escolher
equiparar informatividade média com entropia condicional, e partir daí para uma
especificação clara de informação ou (a) como algo que é informatividade, ou ( b ) como
algo que tem informatividade. No caso de um par de variáveis, no entanto, existe ainda
uma outra possibilidade, que é igualar em formatividade a uma quantidade que de fato
veio a ser geralmente conhecida como informação mútua é dada pela fórmula I.XI Y / D
p XD xi ; e pode ser . mútua informação YD yj ÿ pX D xi/ p YD yj , PP p XD xi ; YD yj lb
dependente da outra,interpretada
da extensão
como
em que
umaomedida da extensão em que cada variável é
conhecimento dos valores de uma reduz a incerteza nas previsões dos valores da outra
e da extensão em que cada variável nos fala sobre o outro. As relações entre entropia,
entropia conjunta, entropia condicional e informação mútua — incluindo o fato de que I .XI
Y / D HX /CH.Y /H .X; Y/—são indicados esquematicamente na Fig. 7.2.

Tanto no caso justo-justo quanto no caso justo-viciado, I(X;Y) D 0, uma vez que as
duas variáveis são independentes e o conhecimento do valor de uma não ajuda a prever
o valor da outra. Mas no caso razoavelmente não confiável, I(X;Y) D 0,40, e no caso
razoavelmente confiável, I(X;Y) D 1,00, indicando graus sucessivamente maiores de
dependência e maiores quantidades de redução em nossa incerteza quando baseamos
nossas previsões dos valores de um no conhecimento dos valores do outro. De fato, no
caso razoavelmente confiável, a informação mútua é maximizada, pois a incerteza (expressa na forma d
Machine Translated by Google

7 Estudos de Informação Sem Informação 155

Fig. 7.2 I(X;Y) D H(X) C H(X) H(S)


H(Y) H(X, Y)

H(X |Y) Eu(X;Y) H(Y |X)

H(X,Y)

Tabela 7.2 Concepções de informatividade

Concepção de informatividade Fórmula


Surpresa lb pX D xi/ Pp.X D xi/ lb pX D xi/ Entropia,
H(X)
H(XjY) ou H(YjX) Pp X D xi ; Y D yj lb p X D xi jY D yj ou entropia condicional,
Pp X D xi ; Y D yj lb p Y D yj jX D xi Informação
mútua, I(X;Y) PPp X D xi ; Y D yj lb p X D xi ; Y D yj = pX D xi/ p Y D yj

valores de entropia condicional, H(XjY) e H(YjX)) é reduzido a zero. A relação inversa


entre entropia (como medida de incerteza) e informação mútua (como medida de redução
da incerteza) é refletida na “diferença de sinal” nas fórmulas de cada uma — negativa na
primeira e positiva na segunda.
Um terceiro grupo de conceitos de informação a serem extraídos da teoria da
probabilidade, então, consiste naqueles que resultam de (a) tratar pares de variáveis, em
vez de variáveis únicas, como as entidades que têm propriedades de interesse, (b) definir
uma medida seja de improbabilidade condicional média (também conhecida como entropia
condicional) ou co-dependência (também conhecida como informação mútua), (c) igualando
a informatividade média com qualquer uma dessas medidas e (d) esclarecendo a natureza
da relação entre a propriedade da informatividade média e a entidade a que pode ser atribuído.

7.4.5 Informatividade e Informação

Agora temos quatro concepções distintas de informatividade, resumidas na Tabela 7.2.


Usando surpresa, podemos medir a imprevisibilidade do valor de um determinado
evento. Se optássemos por equiparar informatividade com surpresa, estaríamos propondo
que quanto mais inesperado um valor, mais informativo ele é. Usando a entropia, podemos
medir a uniformidade da distribuição de probabilidades de ocorrência dos possíveis
resultados de uma dada variável. Se optássemos por igualar informatividade média com
entropia, estaríamos propondo que quanto mais uniforme tal distribuição, mais informativa
ela é. Usando a entropia condicional, podemos medir a uniformidade da distribuição de
probabilidades condicionais de ocorrência dos possíveis pares de resultados de um dado
par-variável. Se escolhermos igualar informatividade média com
Machine Translated by Google

156 J. Furner

Tabela 7.3 Fenômenos adicionais de interesse no cenário coin-flip

A probabilidade de a moeda dar cara; o inesperado de sair cara Sua incerteza se sairia cara
ou coroa A fração de mensagens que você envia que são
verdadeiras (ou seja, representações precisas do fato)
A fração de mensagens que recebo que são
verdadeiras Sua confiabilidade em representar com precisão os fatos em geral e/ou cara
ou coroa em particular A fração do conteúdo das mensagens
enviadas que não são recebidas A fração do conteúdo das
mensagens recebidas que não são enviadas A confiabilidade
do canal através do qual as mensagens são enviadas A probabilidade de você me dizer que
esta moeda surgiu
Coroa; o inesperado de você me dizer que saiu coroa Minha incerteza se
você me diria que saiu cara ou coroa Minha incerteza se saiu cara ou coroa

entropia condicional, estaríamos propondo que quanto mais uniforme tal distribuição,
mais informativa ela é. Usando informações mútuas, podemos medir a co-dependência de
duas variáveis. Se optássemos por igualar informatividade média com informação mútua,
estaríamos propondo que quanto mais codependente um par de variáveis, mais informativa
cada uma é.
Em cada um desses casos, como vimos, existem várias maneiras diferentes de passar
da explicação da informatividade que cada uma fornece para uma explicação da
informação. Por exemplo, se igualarmos informatividade com informação, então podemos
concluir que instâncias de informação são instâncias de propriedade (ou seja, modos na
ontologia de Lowe), como a surpresa particular de um evento particular. Se, em vez disso,
decidirmos que a informatividade é uma propriedade da informação, então podemos
concluir (escolhendo entre várias possibilidades) que instâncias de informação são
instâncias-substâncias (ou seja, objetos concretos na ontologia de Lowe).
Voltando à lista de fenômenos envolvidos em nosso cenário original de coin-flip,
algumas das entradas que agora devem ser adicionadas à categoria “Modos” são
identificadas na Tabela 7.3 .

7.5 Os Compromissos Ontológicos dos Teóricos


da Informação, I

Uma revisão abrangente da literatura sobre a natureza da informação daria um livro.


Outros (ver, por exemplo, Bates 2010; Capurro e Hjørland 2003; Case 2012; Floridi 2003)
forneceram excelentes visões gerais mais curtas. Não pretendo seguir nenhum desses
caminhos aqui. Em vez disso, vou me concentrar em uma amostra de conveniência que
simplesmente assumirei (embora esteja ciente dos riscos de fazê-lo) como representativa
da população maior. Se você digitar "O que é informação?" (completo com as aspas de
abertura e fechamento) no Google Acadêmico, você encontra muita coisa boa. Os
destaques estão resumidos na Tabela 7.4: 18 artigos, publicados entre 1955 e 2012, com
o título “O que é informação?”
Machine Translated by Google

7 Estudos de Informação Sem Informação 157

Tabela 7.4 Contribuições para a literatura sobre “O que é informação?”, 1955–2012

Rapoport, A. 1955. O que é informação? Síntese 9(1): 157–173.


Tipo de contribuição: A (único existente: informações de Shannon)
Disciplina do autor: Matemática
Disciplina da fonte: Epistemologia
Os autores do LIS citaram: –

Tambor, DD 1956. O que é informação? The Speech Teacher 5(3): 174–178.


Tipo de contribuição: A (único existente: informações de Shannon)
Disciplina do autor: Fonoaudiologia Disciplina da fonte:
Fonoaudiologia Autores do LIS citados:

Stonier, T. 1986. O que é informação? Em Pesquisa e desenvolvimento em sistemas especialistas, III:


Procedimentos de sistemas especialistas '86: A sexta conferência técnica anual do British Computer Society
Specialist Group em sistemas especialistas, Brighton, 15–18 de dezembro de 1986, ed .
M. Bramer, 217–230. Cambridge: Cambridge University Press.
Tipo de contribuição: C (novo)
Disciplina do autor: Biologia Disciplina
da fonte: Informática LIS autores citados:

Israel, D. e J. Perry. 1990. O que é informação? Em Informação, linguagem e cognição,


ed. PP Hanson, 1–19. Vancouver: University of British Columbia Press.
Tipo de contribuição: C (novo)
Disciplina de autores: Filosofia da linguagem
Disciplina da fonte: Ciência cognitiva
Os autores do LIS citaram: –

Sveiby, K.-E. 1994. O que é informação? Sveiby Knowledge Associates. http://www.sveiby.


com/articles/Information.html. Acessado em 1 de agosto de 2012.
Tipo de contribuição: B (revisão)
Disciplina do autor: Gestão do conhecimento Disciplina da
fonte: – Autores do LIS citados:

Hillman, C. 1995. O que é informação? Seattle: Departamento de Matemática, Universidade de


Washington. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.51.8223. Acessado em 1 de agosto de
2012.
Tipo de contribuição: C (novo)
Disciplina do autor: Matemática Disciplina da
fonte: – Autores do LIS citados:

Lagache, A. 1997. O que é informação? Em Sinais e imagens: Papéis selecionados do 7º


e 8ª reunião do GIRI, realizada em Montpellier, França, de 20 a 21 de novembro de 1993, e Jerusalém, Israel, de
10 a 11 de dezembro de 1994, ed. M. Bastide, 279–292. Dordrecht: Kluwer Academic.
Tipo de contribuição: A (existência única: informação como significação)
Disciplina do autor: Filosofia
Disciplina da fonte: Homeopatia
Os autores do LIS citaram: –

(contínuo)
Machine Translated by Google

158 J. Furner

Tabela 7.4 (continuação)

Rowley, J. 1998. O que é informação? Serviços de informação e uso 18(4): 243–254.


Tipo de contribuição: B (revisão)
Disciplina do autor: LIS
Disciplina da fonte: LIS LIS
autores citados: Bawden, Brier, Brookes, Buckland, Capurro, Cronin, Davenport,
Eaton, Fairthorne, Hannabuss, Hayes, Ingwersen, Kaye, Kuhlthau, Rowley,
Ruben, etc.
Chmielecki, A. 1998. O que é informação? Uma abordagem ontológica. In Proceedings of the vigésimo
congresso mundial de filosofia, Boston, 10–15 de agosto de 1998, ed. AM Olson. http://
www.ifsid.ug.edu.pl/filozofia/pracownicy/a chmielecki/doc/teksty w %20 jezyku
angielskim/what%20is%20information.pdf. Acessado em 1 de agosto de 2012.
Tipo de contribuição: C (novo)
Disciplina do autor: Ontologia
Disciplina da fonte: Filosofia
LIS autores citados: –

Sholle, D. 1999. O que é informação? O fluxo de bits e o controle do caos. Papel


apresentado na conferência de mídia em transição, Cambridge, MA, 8 de outubro de 1999. http://
web.mit.edu/mit/articles/sholle.html . Acessado em 1 de agosto de 2012.
Tipo de contribuição: B (revisão)
Disciplina do autor: Comunicação de massa Disciplina
da fonte: Estudos de mídia Autores do LIS
citados: –

Lombardi, O. 2004. O que é informação? Fundamentos da Ciência 9(2): 105–134.


Tipo de contribuição: B (revisão)
Disciplina do autor: Filosofia da ciência
Disciplina da fonte: Filosofia da ciência
LIS autores citados: –

Harms, WF 2006. O que é informação? Três conceitos. Teoria Biológica: Integrando Desenvolvimento,
Evolução e Cognição 1(3): 230–242.
Tipo de contribuição: B (revisão)
Disciplina do autor: Filosofia
Disciplina da fonte: Biologia
LIS autores citados: –

Konorski, J. e W. Szpankowski. 2008. O que é informação? Paper apresentado no ITW'08:


Workshop de teoria da informação do IEEE, Porto, 5–9 de maio de 2008. http://www.cs.purdue.edu/
homes/spa/papers/info08.pdf . Acessado em 1 de agosto de 2012.
Tipo de contribuição: C (novo)
Disciplina dos autores: Telecomunicações/Ciência da Computação
Disciplina de origem: teoria da informação
LIS autores citados: –

D´ÿaz Nafr´ÿa, JM 2010. O que é informação? Uma preocupação multidimensional. Triplo C:


Cognição, Comunicação, Cooperação 8(1): 77–108. http://www.triple-c.at/index.php/ tripleC/article/view/
76. Acessado em 1 de agosto de 2012.
Tipo de contribuição: B (revisão)
Disciplina do autor: Ciência da Computação/Filosofia da ciência Disciplina
da fonte: Estudos da sociedade da informação LIS autores
citados: Brier, Capurro

(contínuo)
Machine Translated by Google

7 Estudos de Informação Sem Informação 159

Tabela 7.4 (continuação)

Rocchi, P. 2011. O que é informação? Além da selva das teorias da informação. Ubiquity, março de 2011, artigo
no. 1. http://dx.doi.org/10.1145/1959016.1959017. Acessado em 1 de agosto de 2012.

Tipo de contribuição: B (revisão)


Disciplina do autor: Informática
Disciplina da fonte: Ciência da Computação
Os autores do LIS citaram: –

Yapp, C. 2011. O que é informação? ITNOW 53(2): 18.


Tipo de contribuição: Artigo curto Disciplina
do autor: Tecnologia da informação Disciplina da fonte:
Tecnologia da informação LIS autores citados:

Logan, RK 2012. O que é informação? Por que é relativista e qual é a sua relação com a materialidade, significado
e organização. Informação 3(1): 68–91. http://www.mdpi.com/2078-2489/3/1/68 . Acessado em 1 de agosto
de 2012.
Tipo de contribuição: B (revisão)
Disciplina do autor: Física Disciplina
da fonte: Ciência e tecnologia da informação LIS autores citados: Losee

Barbieri, M. 2012. O que é informação? Biossemiótica 5(2): 147–152.


Tipo de contribuição: A (único existente: informação biológica)
Disciplina do autor: Embriologia Disciplina
da fonte: Biossemiótica
Os autores do LIS citaram: –

O estudante LIS, talvez criado com uma dieta de Bates, Bawden e Buckland, com
porções substanciais de Belkin, Briet e Brookes, pode ser perdoado por não reconhecer
não apenas os nomes dos autores representados na Tabela 7.4, mas até mesmo os
títulos das revistas e conferências. Com a única exceção do artigo de Rowley de 1998
em Information Services and Use, é difícil imaginar qualquer um desses artigos sendo
tratado rotineiramente como contribuições para a literatura LIS. Poucos foram citados
em grande extensão pelos autores do LIS; e, da mesma forma, poucos contêm citações de fontes LIS.
No entanto, como poderíamos esperar, cada um é uma contribuição intrigante e
provocativa para a literatura sobre a natureza da informação. Minha intenção nesta
seção e na próxima é examinar as concepções de informação que são desenvolvidas
em uma amostra pequena e intencional desses artigos, com o objetivo de esclarecer a
natureza das relações entre essas concepções e demonstrar o valor potencial da
ontologia. abordagem descrita acima.
Antes de nos concentrarmos em alguns dos artigos mais recentes do conjunto listado
na Tabela 7.4, vale a pena dar uma olhada em algumas das contribuições mais antigas
com um pouco mais de detalhe: um dos anos 1950 (de Rapoport) que apresenta aos
seus leitores a teoria (de Shannon) que teve de longe o maior impacto no desenvolvimento
de concepções de informação no mundo além do LIS; um dos anos 1980 (Stonier's) em
que o autor desenvolve um dos primeiros relatos sérios de informação
Machine Translated by Google

160 J. Furner

como uma entidade física; e outro da década de 1990 (de Lagache) que apresenta
uma versão convincente da teoria semiótica da informação que é amplamente
admirada no LIS.

7.5.1 Rapoport (1955)

A concepção de informação que Shannon (1948) desenvolveu como um elemento


central em sua teoria matemática da comunicação (e cujas origens remontam a
precursores como Hartley (1928)) é efetivamente resumida no primeiro “O que é
informação?” (WII) em nossa lista, escrito mais de meio século antes das contribuições
mais recentes, como a de Logan (2012).5
Anatol Rapoport (americano nascido na Rússia; 1911–2007) foi um matemático
que fez importantes contribuições à teoria dos jogos, teoria, análise de redes sociais
e teoria geral de sistemas. Em seu artigo (Rapoport 1955), a teoria da informação
Shannoniana é introduzida desde o início como um ramo da teoria da probabilidade,
e a informação é definida como "a melhoria das chances de alguém fazer o palpite
certo" (p. 158) em situações de um certo tipo — a saber, aqueles em que a
probabilidade de alguém prever corretamente o valor de uma variável aleatória é
afetada pelo fato de já se saber o valor de outra variável aleatória. Essa probabilidade
pode ser calculada analisando as propriedades da distribuição de probabilidade
conjunta das duas variáveis. A quantidade de informação compartilhada pelas duas
variáveis - ou seja, a informação mútua da distribuição conjunta - é definida como a
medida em que cada uma fala
sobre (ou depende da) outra.6 Rapoport (1955) considera o potencial de aplicação
dessa concepção de informação para a solução de problemas em vários campos
científicos - engenharia de comunicações, linguística, física e biologia - alegando que
a teoria da informação de Shannon fornece "uma maneira totalmente nova de medir a
quantidade de informação em uma mensagem" (p. 158) . A ideia é que as fontes
(emissores) e alvos (receptores) das mensagens sejam tratadas como variáveis
aleatórias, e que a distribuição de probabilidade dos valores dos sinais que compõem
as mensagens recebidas por um determinado alvo seja comparada com a probabilidade
distribuição dos valores dos sinais que compõem as mensagens enviadas por uma
determinada fonte. A quantidade de informação (em média) em uma mensagem
enviada pela fonte X para o alvo Y é definida como a informação mútua da distribuição
conjunta - ou seja, a extensão em que as duas variáveis dependem uma da outra, ou
(outra maneira de descrever a mesma quantidade) até que ponto nossa incerteza
sobre os valores dos sinais recebidos seria reduzida pelo conhecimento prévio dos sinais enviados.

5Rapoport não foi de forma alguma o primeiro a articular o valor da teoria de Shannon dessa maneira.
Entre outros resumos, a introdução de Warren Weaver (1949) a um volume no qual o artigo de
Shannon de 1948 foi reimpresso foi especialmente influente.
6Veja a discussão sobre informação mútua na Seção 7.4.4 acima.
Machine Translated by Google

7 Estudos de Informação Sem Informação 161

Esta definição técnica de informação é contrastada por Rapoport (1955) com aquela
implícita na antiga forma de medir a quantidade de informação numa mensagem, “conhecida
desde que as mensagens foram inventadas” (p. 158), segundo a qual se assume que uma
mensagem transporta “mais ou menos informações nele dependendo do estado de
conhecimento dos destinatários” (p. 158). Em vez de comparar o conteúdo de mensagens
individuais com o conteúdo da mente de cada pessoa, a nova sugestão (ou seja, a de
Shannon) é que comparemos as distribuições de probabilidade dos valores dos sinais
enviados e dos sinais recebidos.
Seguindo Weaver (1949) e outros, Rapoport (1955) observa a oportunidade oferecida
pela teoria da informação para estender a noção de informação mútua para que possamos
falar não apenas sobre a quantidade média de informação por mensagem enviada por uma
determinada fonte para um determinado alvo , mas também a quantidade de informações
em uma única mensagem. Todas as outras coisas sendo iguais, a quantidade de tal "auto-
informação" em uma mensagem - isto é, a surpresa da mensagem - aumenta conforme
aumenta o tamanho do repertório do qual a mensagem é selecionada.7 Quanto mais
mensagens você (como um potencial remetente de uma mensagem) tem para escolher,
menos chance um receptor tem de prever com precisão qual mensagem você escolherá
enviar e sua “capacidade de fornecer informações” aumenta (p. 159).
Em sua aplicação à engenharia de comunicações, a teoria da informação fornece
maneiras de (por exemplo) estimar os efeitos do ruído na recepção precisa de sinais e
calcular os limites nos quais se pode esperar que os canais de comunicação funcionem. Em
lingüística, a teoria da informação pode ser usada para medir a quantidade de redundância
em uma linguagem natural ou codificada. Voltando sua atenção para as aplicações na física,
Rapoport (1955) observa que “a fórmula para a quantidade de informação se parece
exatamente com a fórmula para a entropia na mecânica estatística” (p. 168), e insiste na
:::

importância dessa matemática (em vez de meramente metafórica) analogia: “Tal analogia é
evidência de estrutura similar em duas ou mais classes de eventos, e muito pode ser
deduzido de tal similaridade” (p. 168).

Uma explicação da relação entre informação e entropia requer alguma familiaridade com
conceitos relacionados em termodinâmica, ou seja, o estudo das leis físicas que governam
a conversão de energia de uma forma para outra e o fluxo de energia de um objeto para
outro.8 Estes as leis são expressas em termos de relações quantitativas entre quantidades
de trabalho, energia, calor, temperatura e entropia. Trabalho é a ação de uma força sobre
um objeto, e energia é a capacidade de um objeto realizar trabalho. Ambos são medidos em
joules. A energia tem duas formas: energia potencial, que um objeto tem como consequência
de sua posição, forma ou estado; e energia cinética, que um objeto tem como consequência
de seu movimento. O calor é o fluxo de energia de um objeto para outro como resultado da
diferença de temperatura: quando o calor flui, diz-se que o objeto do qual o calor flui está em
uma temperatura mais alta; quando nenhum calor flui entre dois objetos, suas temperaturas
são iguais. No ultimo

7Veja a discussão sobre surpresa na Seção 7.4.1 acima.


8Ver, por exemplo, Pitzer (1995) para uma apresentação autorizada dos princípios da termodinâmica.
Machine Translated by Google

162 J. Furner

Nesse caso, diz-se que a energia dos objetos não está disponível para realizar trabalho. A
entropia é a indisponibilidade de energia em um sistema, medida em joules por kelvin, e é
maximizada quando as temperaturas de todos os objetos no sistema são iguais. A segunda
lei da termodinâmica especifica que a entropia de qualquer sistema fechado – ou seja, o
grau em que as temperaturas dos objetos no sistema são uniformes – aumenta com o tempo.
O conceito de entropia foi introduzido em 1865 por Rudolf Clausius (físico alemão; 1822–
1888), que já havia formulado a segunda lei da termodinâmica em 1850. Uma fórmula para
calcular a entropia - S D k ln W - recebeu o nome de Ludwig Boltzmann (Físico austríaco;
1844–1906). Aqui k é a constante de Boltzmann, igual a 1,38062 1023 J/K, e W é o número
de maneiras distintas pelas quais os átomos e moléculas que compõem o sistema podem
ser arranjados preservando a temperatura do sistema, ou seja, o número de microestados
possíveis do sistema que são consistentes com seu macroestado atual. Esta fórmula
assume que cada microestado é igualmente provável. Uma generalização da entropia de
Boltzmann é devida a J. Willard Gibbs (cientista americano, 1839–1903): S D k Pp ln p,
onde p é a probabilidade de ocorrência de um microestado. A semelhança na forma desta
fórmula com a introduzida na Seção 7.4.2 acima (e contrastado com surpresa e informação
mútua na Tabela 7.2 acima) deve ser observado.

Frequentemente se argumenta - como Rapoport (1955) faz em seu WII - que a entropia
pode ser vista como uma medida da desordem de um sistema, no sentido de que um valor
mais alto de entropia indica um número maior de configurações possíveis do sistema em o
nível microscópico. Mas essa caracterização da entropia pode ser confusa, principalmente
quando se considera que, no nível macroscópico, maior entropia indica maior uniformidade,
homogeneidade e equilíbrio.
Em resumo: Na apresentação de Rapoport (1955) , os leitores são apresentados aos
conceitos (se não aos termos precisos) de surpresa, entropia e informação mútua; e somos
convidados a considerá-los como medidas de quantidades de informação, com a implicação
de que informação deve ser igualada a informatividade.
Nesta visão, a informação não é algo que tem informatividade: é a informatividade de algo.
Nos termos de Lowe (2006) , instâncias da informação de Rapoport são modos.

7.5.2 Stoner (1986)

Nosso segundo WII (o que é informação?) de interesse é o de Tom Stonier (1986). Stonier
(1927–1999) foi um biólogo nascido na Alemanha, ativo nos EUA e no Reino Unido, que
fez contribuições célebres para STS (ciência, tecnologia e sociedade) e estudos sobre a
paz. Ele escreveu uma trilogia de livros (Stonier 1990, 1992, 1997) desenvolvendo uma
“teoria geral da informação” baseada na ideia um tanto controversa de que a entropia pode
ser negativa.
Stonier (1986) começa seu WII falando sobre informação em um sentido bastante
convencional, como algo que as pessoas “absorvem” toda vez que falam ou leem, que pode
ser armazenado fora do cérebro humano e (como “dados brutos”) é processado não apenas por
Machine Translated by Google

7 Estudos de Informação Sem Informação 163

cérebros humanos, mas por “máquinas de informação” (ou seja, computadores). Ele observa
que a ciência da termodinâmica surgiu apenas quando tivemos experiência com “máquinas de
energia” (ou seja, máquinas a vapor), e expressa frustração por, em sua opinião, ainda não
termos uma “ciência da informação” equivalente que nos permita compreender as “propriedades
reais da informação, como função, estrutura, comportamento dinâmico e características
estatísticas” (Stonier 1986: 220, citando Scarrott 1986). Torna-se então claro que Stonier está
:::

tentando tratar a informação como “uma propriedade do universo” – ou seja, uma entidade
física em si mesma, análoga à matéria e à energia, e talvez até mesmo presente na forma de
partículas como infons.
A concepção de informação de Stonier (1986) é de uma quantidade I cujos valores podem
ser calculados usando a fórmula I D 1/ W, onde W tem o mesmo significado que na fórmula de
Boltzmann para entropia. Em outras palavras, a informação de Stonier é o recíproco do número
de possíveis microestados do sistema que são consistentes com seu macroestado atual, e a
relação entre a entropia e a informação de Stonier é dada por S D k ln c/ I, onde c é uma
constante que podem variar entre sistemas de diferentes tipos.

Stonier (1986) é muito claro sobre a diferença entre sua concepção de informação e a que
atribui a Shannon: Os dois conceitos são “diametralmente opostos” (p. 222). Um sistema em
estado de alta entropia, ou seja, caracterizado por uma uniformidade de temperatura (no nível
macroscópico) e um alto nível de desordem atômica e molecular ou aleatoriedade (no nível
microscópico), é aquele que exibe uma grande quantidade de (o que Stonier caracteriza como)
informação de Shannon, mas uma pequena quantidade de informação de Stonier. Por outro
lado, se um sistema é altamente ordenado, altamente organizado, altamente diferenciado,
altamente complexo e altamente improvável – como moléculas orgânicas e células vivas são –
então seu conteúdo de informação Stonier é alto.9 De fato, Stonier sugere que é possível para
a maioria sistemas complexos (e, portanto, informativos) sejam caracterizados por valores de
entropia que descem abaixo de 0, ou seja, valores de entropia negativa. Um caso como esse,
no entanto, exigiria um valor para W menor que 1, e Stonier não deixa claro como esse valor
poderia ser gerado. É importante reconhecer, além disso, que a caracterização de Stonier da
“informação” de Shannon como equivalente à entropia é uma visão estreita na qual outros
conceitos de informação derivados da teoria da probabilidade (informação mútua em particular;
ver Fig. 7.2 e Tabela 7.2 ) são ignorados .

A concepção de informação de Stonier (1986) é a peça central de sua proposta para uma
nova “física da informação” na qual matéria, energia e informação são reconhecidas como os
três componentes básicos do universo. Qualquer sistema que não seja aleatório em sua
estrutura - ou seja, qualquer sistema que seja ordenado de alguma forma - contém informações:
“O que a massa é para a manifestação da matéria e o momento é para a energia, a organização
é para a informação” (p. 224) . Assim como diferentes formas de matéria (isto é, sólido, líquido,
gás) contêm diferentes quantidades de energia, diferentes formas de energia (por exemplo,
energia mecânica, energia química, energia elétrica) contêm

9A ideia de que a informação é uma quantidade equivalente ao recíproco da entropia deve-se a Norbert
Wiener (1948), que Stonier não cita.
Machine Translated by Google

164 J. Furner

diferentes quantidades de informação: “[Assim como o gelo, a água líquida e o vapor


representam a matéria cuja forma é determinada pela quantidade de energia contida
nela, as várias formas de energia podem refletir a natureza e a quantidade de informação
contida nelas. .” (pág. 224).
Uma das implicações da inclusão de informações de Stonier (1986) na lista de
entidades básicas do universo implica que “::: toda equação existente que descreve a
interação entre matéria e energia ::: precisa ser reexaminada” (p. 225 ). :::

O trabalho deve ser reconceituado como um processo que pode resultar em uma mudança no conteúdo de
informação de um sistema, bem como (ou ao invés de) uma mudança no conteúdo de energia de um sistema.
“Demais coisas sendo iguais, o conteúdo de informação de um sistema é determinado
pela quantidade de trabalho necessária para produzir a informação ou organização
exibida pelo sistema” (p. 224). Stonier chega a propor que a luz contém informação e que
um fóton não é em si uma partícula elementar; em vez disso, é composto de dois
componentes elementares: um energon (ou seja, um quantum de energia pura) e um
infon (ou seja, um quantum de pura informação). “[Infons] não apareceria em nenhum
experimento de física tradicional, uma vez que tais partículas não possuiriam massa nem
energia – elas, no entanto, manifestariam seus efeitos por mudanças na organização” (p.
227).
A postulação da existência de fenômenos quânticos de qualquer tipo levanta algumas
questões complicadas para os ontologistas.10 Certamente não é imediatamente óbvio
onde, na ontologia de quatro categorias de Lowe (2006) , as partículas de informação
pura sem massa e energia devem ser colocadas; mas as categorias de modo e objeto
são duas possibilidades. Esclarecer o status ontológico da informação é uma questão
importante para os teóricos contemporâneos que, seguindo Stonier e outros, defendem
concepções de informação como algum tipo de princípio estruturante ou organizador
exercido sobre a matéria e a energia.11

7.5.3 Lagache (1997)


`
Nosso terceiro WII de interesse é de Agnes Lagache (falecida em 1999), que foi professora
´
de filosofia no Lycee Carnot em Paris e colaboradora frequente da professora de
imunologia Madeleine Bastide em projetos relacionados aos fundamentos teóricos da
homeopatia. Seu WII (Lagache 1997), um documento apresentado na 8ª reunião do
´
Groupe International de Recherches sur l'Infinitesimal (GIRI; o Grupo Internacional de
Pesquisa sobre Efeitos de Dose Muito Baixa e Alta Diluição) em 1994, dá uma

10Ver, por exemplo, French e Krause (2006).


11Marcia Bates (2005, 2006), por exemplo, lida com essa questão; ver Furner (2010: 178-181) para uma discussão.
Sou grato a Tom Dousa pela percepção de que concepções como a de Stonier são um tanto comparáveis às
“formas” da filosofia aristotélica e escolástica, que também dão estrutura à matéria informe; ver Capurro (1978) para
uma revisão dessas idéias.
Machine Translated by Google

7 Estudos de Informação Sem Informação 165

relato convincente da informação como os significados dos signos - em virtude do qual sua
concepção encontra seu habitat natural entre a família semiótica (identificada na Seção 7.2
acima) que está bem estabelecida na comunidade LIS.12
Lagache (1997) inicia sua discussão (p. 284) com uma declaração do “princípio geral”
da informação de Gregory Bate son como “uma diferença que faz diferença”
(Bateson 1972), e prossegue para reconciliar esta definição com uma visão semiológica do
papel central da informação no processo de significação ou representação.
Os principais elementos dessa concepção são os seguintes (Lagache 1997):

• Signos são aqueles fenômenos que são informativos, isto é, aquelas “diferenças” (isto é,
distinções entre um “elemento” e a “estrutura” na qual ele aparece) que “fazem diferença”
ao se tornarem “significativos” (isto é, literalmente, significando ou representando).

• Os signos existem em dois níveis, um material e outro interpretativo: “O objeto semântico


[tem] uma dupla natureza: pertence ao nível das coisas como desenho, voz, letras
escritas ::: , mas [também] pertence ao nível da interpretação ::: ” (p. 290). • Os
objetos materiais existem como signos apenas quando estão sendo interpretados. “Sartre
dizia que quadros em galeria de arte não existem durante a noite e o fechamento: nesses
momentos, são só tela, óleo e tal. Eles existem como pinturas quando são observados.
Da mesma forma, ideogramas ou letras não existem como signos sem leitor” (p. 289).13

• A informação ocorre quando a representação ocorre e, especificamente, quando os


produtos da representação são interpretados. “O mundo da informação começa quando
se trata não da coisa, mas da representação das coisas” (p. 285).

• A informação é ao mesmo tempo um processo e o resultado desse ::: [Informação]
processo: é [o] próprio evento que acontece entre os níveis, que vai das coisas à leitura,
a própria passagem. O sentido é um emigrante: processo e resultado são o mesmo” (p.
290). • A
informação não é material. “ ::: [Uma] informação não é um objeto, embora tenha geralmente
um meio.” (pág. 284). “ ::: [N]ada é informaçãopor si só; a informação não é um objeto, e
não subsiste em si e para si, segundo a clássica definição de substância” (p. 289, grifo
no original). “[Embora exista, a informação não é uma substância” (p. 290). :::

12 Ver, por exemplo, Qvortrup (1993).

13A semelhança deste argumento com a explicação de Suzanne Briet (1951) sobre a distinção que deve ser feita entre o status
documental de um antílope na natureza e o de um antílope em um zoológico (uma explicação que é bem conhecida no LIS graças
ao glosas fornecidas por Michael Buckland e outros; ver, por exemplo, Buckland 1991) é impressionante, especialmente dada a
caracterização de documentos de Briet como sinais (índices). No entanto, deve-se notar que as pinturas de Sartre assumem um
papel de signo apenas quando estão sendo observadas; ao passo que, uma vez que entra na coleção do zoológico, o antílope de
Briet permanece um documento mesmo quando ninguém está olhando para ele.
Machine Translated by Google

166 J. Furner

• A informação é subjetiva, no sentido de que o significado de qualquer sinal dado é


dependente de seu intérprete. “A informação está no receptor. ::: O receptor é
necessariamente ativo: as informações surgem de sua leitura. Ele o cria.” (pág. 289).14

• A interpretação de um determinado sinal é influenciada pelo contexto: ::: [O] mundo da
informação é o determinismo do contexto: o papel original que um determinado elemento
desempenha de acordo com a estrutura em que aparece. ::: Uma peça de puzzle perdida num
quarto de criança não tem sentido ::: A sua colocação na moldura do puzzle com as outras peças
faz surgir um novo significado ::: O sentido é um emigrante, a nova e impalpável dimensão que
surge não de objetos, mas da rede de relações tecidas em torno dos objetos” (p. 284).

• A informação por si só não é observável. “O que realmente observamos é a


efeito informativo em um receptor” (p. 289). •
Quanto mais informativo um sinal, melhor: “ ::: [Um] critério de boa arte seria seu efeito informativo
sobre os amantes da arte” (p. 288).
• Outras concepções de informação erram o alvo completa e desastrosamente.
“[A] fantástica capacidade semântica dos seres vivos não pode ficar para sempre relegada à
margem da ciência” (p. 290).

Lagache (1997) identifica vários tipos de signos:

(a) No “nível mais primário” da representação, existem imagens, que são “semelhantes à coisa, mas
mantendo uma diferença constitutiva com as coisas” (p. 286), por exemplo, a representação da
mão de um homem formada pelo homem mergulhando a mão na tinta e depois pressionando-a
na parede: “ ::: [I]magos ::: significantes, isto é, um signo concreto da coisa, mas são

representam um equivalente da coisa; não há transformação, apenas ::: um alívio da presença


da coisa. Vemos esta mão e sabemos que um homem caiu lá” (p. 285).

A interpretação de uma imagem depende da experiência anterior do espectador.


“ ::: [A] capacidade informativa de tal imagem depende de um registro lexical anterior e já
conhecido: o receptor, o leitor da imagem deve ter um referente para entendê-la. Cada imagem
é diferente e não informa sobre nada além de si mesma; o receptor já deve ter encontrado a
coisa, ou deve ter um referente memorizado para poder lê-la” (p. 285). (b) Depois, há rastros,
por exemplo, a representação da mão de um homem formada pelo homem colocando
sua mão em uma parede, espalhando pó ao redor dela e então removendo a mão: “ ::: [O] poder
informativo original dos rastros vem da função da ausência, incluída no significante. ::: Não
vemos uma mão, vemos uma mão ausente, eis a mera genialidade dos objetos semânticos” (p.
287, grifo no original). (c) Existem os signos analógicos, ou seja, nomes sonoros para as coisas:
“ ::: [Antes de se tornarem alfabeto, os signos escritos passaram por um estado intermediário de
silabicação.

14Lagache (1997: 284) também cita Merleau-Ponty, de sua Fenomenologia da percepção (1945):
“A mera presença de um ser vivo transforma o mundo físico, faz aparecer aqui alimentos, ali
esconderijos, e confere aos estímulos um significado eles não tinham.
Machine Translated by Google

7 Estudos de Informação Sem Informação 167

O ideograma, substantivo de uma coisa, tem sido tomado como um som, que se refere
não à coisa, mas à vocalização de seu substantivo. Há uma transferência analógica
da referência à coisa, ao acontecimento corporal de vocalização do seu nome” (p.
288). (d) E, finalmente, há signos simbólicos, ou seja, palavras escritas, onde a “ruptura
entre significado e significante” é completa: “As letras são completamente simbólicas:
não são mais imagens; referem-se ao registro da linguagem verbal como suporte de
todos os referentes necessários” (p. 287).15

A rigor, o que Lagache chama de meros sinais (por exemplo, “um feromônio entre
borboletas”, p. 285) não são informativos, porque não têm uma função representacional e
não são interpretáveis. Como objetos materiais, os sinais desempenham apenas um papel
“determinista” (isto é, causal).
Para Lagache, então, os signos são o que são informativos: a informatividade é uma
propriedade dos signos. Mas os próprios signos não são informação, já que informação
não é o que tem informatividade: informação é informatividade. A informação (ou seja, a
informatividade) de um signo é o seu significado. Nos termos de Lowe (2006) , instâncias
da informação de Lagache são modos. Embora as duas sejam bastante diferentes uma da
outra em seu conteúdo, a concepção Shannoniana (baseada na teoria da probabilidade) e
a concepção Lagachiana (baseada na semiótica) são surpreendentemente semelhantes
no status ontológico que atribuem à informação.

7.6 Os compromissos ontológicos dos teóricos


da informação, II

No contexto das questões levantadas até agora, duas das revistas representadas na lista
da Tabela 7.4 são de particular interesse. Dada a sua relativa falta de visibilidade no LIS
no momento, pode ser útil fornecer alguns detalhes contextuais, antes de darmos uma
olhada em mais dois WIIs que apareceram muito recentemente em suas páginas.
Information é o título direto de um periódico on-line relativamente novo16 , de acesso
aberto e revisado por pares, publicado trimestralmente pelo MDPI17 de Basel, Suíça. Isso é

15Como Lagache não usa a terminologia semiótica padrão (devido a Peirce; ver, por exemplo, Atkin 2010) de
ícone, índice e símbolo, não fica imediatamente claro como os três primeiros de seus quatro tipos de signos
devem ser mapeados para um signo peirceano estrutura. Por exemplo, a impressão da mão é um ícone
(referindo-se a seu objeto por meio de similaridade) ou um índice (referindo-se a seu objeto por meio de uma conexão física)?
16Seu primeiro volume foi publicado em 2010.
17Do site do MDPI em http://www.mdpi.com/about/history, aprendemos que, na época de sua fundação em
1996 como um instituto sem fins lucrativos para “a promoção e preservação da diversidade de compostos
químicos” e como editor da revista eletrônica Molecules, MDPI originalmente significava “Molecular Diversity
Preservation International ”; que agora significa “Instituto Multidisciplinar de Publicação Digital”; e que a
organização agora publica mais de 70 periódicos de acesso aberto em uma variedade de (principalmente)
campos científicos, muitos dos quais são financiados pela coleta de “taxas de processamento de artigos” dos
autores dos artigos de periódicos.
Machine Translated by Google

168 J. Furner

descrito em seu site18 como um periódico de “ciência e tecnologia da informação, dados,


conhecimento e comunicação”, e outras especificidades de seu escopo são indicadas pela
seguinte lista de áreas temáticas: “tecnologia da informação (TI) e ciência; informação
quântica; teoria da informação, teoria dos sistemas, cibernética; teoria da comunicação e
tecnologia da comunicação; segurança da informação; sociedade da informação; gestão
de dados, sistemas de informação; mineração de dados, dados, conhecimento; linguagens,
semiótica; sistemas de processamento de informação; informação e computação;
informação e inteligência artificial; informação na sociedade e desenvolvimento social;
informações e agentes inteligentes; problemas de segurança da informação; informação
nas organizações e gestão do conhecimento; processos e sistemas de informação na
natureza”.
O editor-chefe fundador da Information é Mark Burgin,19 anteriormente da Universidade
Estadual de Kiev e desde 1998 professor visitante no departamento de matemática da
UCLA.20 Seu conselho editorial inclui uma mistura de, por um lado, acadêmicos que
trabalham em áreas que são relacionados à biblioteconomia e à ciência da informação
(LIS), como uso da informação, cienciometria e ética da informação, e, por outro lado,
pesquisadores cujos nomes podem ser menos familiares para o público da LIS, incluindo
cientistas da computação e físicos.21 A Information publicou vários “números especiais” –
ou seja, números virtuais compostos por artigos focados em um tema comum, mas que
podem estar dispersos em diferentes números regulares. Uma edição especial sobre “O
que é informação?”, editada por Burgin, compreendia dez artigos publicados em 2010–11;
outro coletou quatorze “Documentos selecionados do FIS 2010 Beijing”,22 editado por
´
Pedro C. Marijuan em 2011–12; um terceiro reuniu oito artigos sobre “Informação e energia/
matéria”, editados por Gordana Dodig-Crnkovic em 2011–12; e um quarto sobre “Informação:
seus diferentes modos e sua relação com o significado”, editado por Robert Logan, estava
(no momento da redação, em julho de 2012) ainda aberto a envios.
Em uma veia relacionada, TripleC: Cognition, Communication, Co-operation é uma
revista transdisciplinar, revisada por pares, de acesso aberto “para uma sociedade da
informação sustentável global,”23 fundada em 2003 pelo cientista de sistemas Wolfgang
Hofkirchner (Unified Theory of Information [UTI] Research Group, Viena, Áustria) e atualmente editado

18 Consulte http://www.mdpi.com/journal/information/about/
19 Consulte http://www.mdpi.com/journal/information/editors
20 Consulte http://www.math.ucla.edu/mburgin/fl/cv.htm
21 Uso da informação: Suzie Allard e Kizer Walker; cienciometria: Loet Leydesdorff e Lokman Meho; ética
da informação: Rafael Capurro, Luciano Floridi e Herman Tavani; ciência da computação: Gordana Dodig-
´
Crnkovic, Lorenz Hilty e Paul Vitanyi; física: Giorgio Kaniadakis, Andrei Khrennikov e Robert Logan;
consulte http://www.mdpi.com/journal/information/editors 22FIS 2010: Towards a New
Science of Information (Pequim, China, 20–23 de agosto de 2010), co-presidido por Hua-Can He, Pedro
´
Marijuan e Wolfgang Hofkirchner, com Burgin, Floridi e Logan entre os membros de seu comitê
internacional conselho consultivo, foi a Quarta Conferência Internacional sobre os Fundamentos da
Ciência da Informação; veja http://bitrumagora.wordpress.com/ 2010/03/17/2010fis-conference/

23 Consulte http://www.triple-c.at/index.php/tripleC/index
Machine Translated by Google

7 Estudos de Informação Sem Informação 169

pelo teórico da mídia Christian Fuchs (Universidade de Uppsala, Suécia).24 Ele fornece
um fórum para a discussão dos “desafios que a humanidade enfrenta hoje na sociedade
da informação”, e seu escopo é definido pela seguinte lista de áreas temáticas: “sociedade
da informação estudos, estudos de mídia e comunicação, pesquisa na internet, estudos
de novas mídias, informática social, tecnologias de informação e comunicação e
sociedade; estudos de ciência e tecnologia (STS), avaliação de tecnologia, design
science; ciências sociais, economia, economia política, estudos de comunicação; ciência
da informação, estudos da informação, ciência cognitiva, semiótica; filosofia,
humanidades, artes; com um interesse especial em estudos críticos” Submissões para a
:::

revista são necessárias para mostrar como as descobertas contribuem para “a iluminação
das condições que promovem ou impedem o avanço de uma sociedade da informação
participativa e sustentável global.”25
O conselho editorial da TripleC inclui vários estudiosos de estudos de informação;
vários que também fazem parte do conselho da Information ; vários membros do Grupo
de Pesquisa UTI; e vários que atuaram no conselho consultivo do FIS 2010.26 Em outras
palavras, há muita sobreposição entre os membros desses órgãos, indicando a existência
de uma comunidade de pesquisa relativamente pequena, mas bem definida e coesa. A
TripleC publicou muitos artigos nos quais a pergunta “O que é informação?” é um tópico
´
central, incluindo artigos de Burgin, Marijuan, Brenner, Collier e (em uma edição especial
de 2009 sobre “O que é realmente informação? Uma abordagem interdisciplinar”)
Capurro, Floridi, Fleissner, Fuchs, D´ÿaz Nafr´ÿa e Hofkirchner. Uma edição especial de
2011 sobre “Rumo a uma nova ciência da informação” coletou 31 outras contribuições
para o FIS 2010, somando-se às 14 publicadas na Information.
Poucos dos artigos publicados nas edições especiais de Information e TripleC citam a
literatura LIS ou (ainda) atraem citações do LIS. Por que isso pode ser? Existe uma
sensação em qualquer um dos campos de que o outro tem pouco a oferecer? Ou uma
falta de consciência da existência um do outro? Uma maneira de abordar essa questão
seria realizar uma revisão abrangente dos tipos de respostas para a pergunta “O que é
informação?” perguntas que são fornecidas na comunidade Information–TripleC–UTI–
FIS , e para determinar o quão diferentes elas são daquelas que são rotineiramente
coletadas nas pesquisas que são lidas e citadas pelos estudiosos do LIS. Não é minha intenção fazer is

24Hofkirchner é o atual presidente do UTI Research Group; Fuchs é membro de seu conselho
executivo. O Grupo de Pesquisa da UTI enfoca “o papel da informação, comunicação, mídia,
tecnologia e cultura na sociedade”, contribuindo para “estudos de ciência da informação, comunicação
e mídia e estudos de ciência e tecnologia”; ver http://uti.at/ 25Veja
http://www.triple-c.at/index.php/tripleC/about/editorialPolicies 26Estudos
de informação: Ron Day, Michel Menou, Alice Robbin e Dan Schiller; Conselho editorial de
informações´ : Burgin, Capurro, Dodig-Crnkovic, Hilty, Leydesdorff e Logan; Grupo de Pesquisa da
UTI: Jose Mar ´ÿa D´ÿaz Nafr´ÿa, Peter Fleissner, Francisco Salto e Rainer Zimmermann, assim
como Hofkirchner
´ e novamente Burgin; Conselho consultivo do FIS 2010: Søren Brier, John Collier,
Charles Ess, Pedro Marijuan, Michel Petitjean e Tom Ziemke, bem como D´ÿaz Nafr´ÿa, Fleissner,
Hofkirchner, Logan, Zimmermann e Burgin mais uma vez; consulte http://www.triple-c.at/index.php/
tripleC/about/ editorialTeam
Machine Translated by Google

170 J. Furner

aqui, mas uma amostra dos tipos de resultados que podemos obter de tal estudo pode
ser dada por um exame dos dois WIIs em nossa lista que foram produzidos por membros
do grupo recém-emergido.

7.6.1 Logan (2012)

Robert K. Logan é um ecologista de mídia, ex-colaborador de Marshall McLuhan,


professor emérito de física na Universidade de Toronto e uma figura central no grupo
Information –TripleC–UTI–FIS.27 Seu recente WII (Logan 2012 ), publicado na revista
Information, é uma revisão relativamente informal que critica a aplicabilidade da
concepção de Shannon à bioinformática. Ao fazer isso, ele fornece respostas distintas
para duas versões da pergunta “O que é informação?” Questão que tem sido muito
discutida ao longo dos anos e entre as disciplinas: 1. Que tipo de informação existe? 2.
Que tipo de coisa é a informação?

Que tipos de informações existem?

Assim como os autores de outros artigos de revisão, Logan defende uma abordagem
pluralista das concepções de informação. Ele analisa várias concepções e argumenta
que cada concepção individual é apropriada apenas para um contexto limitado diferente.
Ele dá maior atenção a quatro tipos de informação, três explicitamente (informação de
Shannon, informação estrutural e informação biótica) e um um pouco menos, no sentido
de que ele não a rotula senão como uma variante Wieneriana da informação de Shannon.

(a) Informações de Shannon. Logan (2012) afirma que, apesar das reivindicações feitas
para os outros tipos de informação que ele identifica, é a informação de Shannon
que “foi aceita como a definição canônica de informação por todos, exceto por um
pequeno grupo de críticos” (p. 75). . (Isto pode ser verdade para a própria disciplina
de física de Logan, mas não é obviamente assim em LIS, por exemplo, nem em
filosofia - não obstante a afirmação de Logan de que, "[i] se alguma vez pressionado
sobre o assunto, a maioria dos especialistas ou filósofos de TI contemporâneos
voltar à definição de informação de Shannon” (p. 80). Logan apresenta seu artigo
como um antídoto oportuno para o que ele vê como uma aceitação acrítica do
paradigma Shannoniano, no qual ele demonstra a inaplicabilidade das informações
de Shannon além da engenharia de telecomunicações e em particular à
bioinformática. (b) Informação de Wiener. A motivação para a apresentação de Logan
da variante Wieneriana da informação de Shannon é sua convicção de que, qualquer
outra informação que seja, não é entropia. Como “muitos físicos antes” dele, Logan (2012) é

27Conforme indicado anteriormente, Logan é membro do conselho editorial de ambas as revistas e fez parte
do conselho consultivo da FIS 2010. Logan também faz parte do conselho de administração do Science of
Information Institute (SoII; consulte a Seção 7.6.2 abaixo ).
Machine Translated by Google

7 Estudos de Informação Sem Informação 171

preocupado em demonstrar que “informação e entropia são opostos e não paralelos


como sugerido por Shannon” (p. 69). Na versão publicada do artigo de Logan, o sinal
negativo (bem como o símbolo de soma) infelizmente foi retirado da citação da fórmula
de Shannon para entropia (de Shannon 1948), que aparece como H D pi log pi (Logan
2012, 71 ) em vez de H DP pi log pi. Em qualquer outro contexto, o erro tipográfico
seria trivial, mas, neste caso particular, serve apenas para turvar as águas da discussão
subsequente de Logan sobre a relação entre informação e entropia, onde ele destaca
a “diferença de sinal” entre a fórmula de Shannon e Boltzmann's (S D k ln W, onde,
como vimos na Seção 7.5 acima, W é o número de maneiras diferentes de organizar
os componentes de um sistema enquanto produz a mesma temperatura, e k é a
constante de Boltzmann). A confusão é agravada pela afirmação de Logan, no contexto
de mostrar como Shannon iguala informação e entropia, que “Shannon usa um sinal
positivo” (p. 73). Os comentários de Logan sobre os sinais das fórmulas são enganosos
por dois motivos: (a) a fórmula de Shannon para entropia não usa, de fato, um sinal
positivo; e (b) as fórmulas de Shannon e Boltzmann são geralmente consideradas
análogas.

A questão real, que Logan levanta, não é que Shannon esteja de alguma forma
errado em sua representação da entropia, mas sim que estaríamos errados se
usássemos a fórmula de entropia de Shannon para medir informações.
A posição de Logan é que, na medida em que a informação é concebível como uma
quantidade, ela é inversamente (em vez de diretamente) proporcional à entropia.
Nesse sentido, a concepção de Logan é análoga à de Stonier (1986), discutida acima
na Seção. 7.5.2. Enquanto a entropia é uma medida de desordem, a informação (para
Logan) é uma medida de ordem. Logan (2012) credita Norbert Wiener como a fonte
desse insight: “Assim como a quantidade de informação em um sistema é uma medida
de seu grau de organização, a entropia de um sistema é uma medida de seu grau de
desorganização”. (p. 86, citando Wiener 1948). A concepção Wieneriana de informação
que Logan defende é aquela segundo a qual a informação é maximizada no caso de
um sistema maximamente ordenado ou organizado, ao invés de (como Logan interpreta
Shannon como sugerindo) no caso de um sistema maximamente desordenado,
desorganizado, randomizado ou sistema caótico. (c) Informação
estrutural. Seguindo Hayles, Logan identifica Donald MacKay como o criador em 1951 de
uma concepção rival de informação – “informação estrutural”, definida como a “mudança
na mentalidade de um receptor” (Logan 2012: 74; citando Hayles 1999 ) . Para Logan,
a informação estrutural está “relacionada com o efeito da informação na mente do
receptor ::: ” e essencialmente com o significado – não apenas “o significado literal de
:::

uma frase”, mas também o significado “que o falante ou escritor pretendido” e “as
possíveis interpretações do receptor” (p. 76). (d) Informação biótica. Logan (2012)
então volta sua atenção para as
concepções de informação aplicáveis em contextos biológicos, e apresenta um relato de (o
que ele e seus colegas chamaram) informação biótica ou instrucional, definida como “a
organização da [a] troca de energia e matéria ” que os organismos vivos (ou seja,
agentes bióticos) “se propagam” através da replicação (pp. 78–79) e
Machine Translated by Google

172 J. Furner

como as “restrições ou condições limítrofes” que “direcionam ou causam parcialmente” os


processos pelos quais a energia é transformada em trabalho e pelos quais os organismos
vivos se reproduzem (p. 79).

Que tipo de coisa é informação?

(a) Informações de Shannon. Ao mesmo tempo em que caracteriza a informação de


Shannon como uma “medida do grau de incerteza para um receptor”, Logan (2012)
afirma que Shannon “definiu” informação como “uma mensagem enviada por um
remetente a um destinatário” (p. 71), e refere-se à “sugestão[ção]” de Shannon de que
“a informação na forma de uma mensagem muitas vezes contém significado” (p. 74).
Situada no contexto do objetivo de Logan de distinguir entre uma concepção de
informação (a de Shannon) na qual o significado é ignorado e outra concepção (a de
MacKay) na qual o significado é central, a referência à informação como mensagem é
compreensível. Deve-se considerar, no entanto, que a informação-como-mensagem é
uma concepção ontologicamente bem diferente da de Shannon. Em uma leitura mais
rigorosa da obra de Shannon, nem o conteúdo semântico de uma mensagem (isto é,
seu significado) nem sua forma (isto é, os sinais que a compõem) devem ser tratados
como sua informação: ao contrário, informação é aquilo que é medido por A fórmula
de Shannon - ou seja, a informatividade, ou redução da incerteza, produzida por uma mensagem.
Esta última leitura é consistente com a avaliação de Hayles, sobre a qual Logan
escreve com aprovação, que “embora a informação [Shannon] seja instanciada em
:::

coisas materiais, [ela] não é material em si” (Logan 2012: 81), mas sim “ uma
quantidade ” (p. 81), “um padrão” (p. 81, citando Hayles 1999) e “uma abstração” (p.
82). A ideia aqui é que, ontologicamente falando, as instâncias da informação de
Shannon devem ser consideradas como propriedades de coisas materiais – ou seja,
nos termos de Lowe ( 2006) , como modos. Para Logan, é precisamente essa
imaterialidade ou insubstancialidade da informação de Shannon que mais pesa
contra sua aplicabilidade em contextos
biológicos. (b) Informação estrutural. Devemos pensar na informação estrutural de uma
maneira shannoniana, ou seja, como uma medida da quantidade de mudança que
ocorre no estado de conhecimento de um destinatário como resultado do recebimento
de uma mensagem? Ou como o conteúdo semântico ou o significado da mensagem,
ou mesmo como a própria mensagem – a causa ou o catalisador da mudança? Ao
introduzir inicialmente a ideia de informação estrutural, Logan (2012) é ambíguo
nesse ponto; mas, um pouco mais adiante em seu artigo, ele cita com aprovação
uma versão da pirâmide DIKW (Documento–Informação–Conhecimento–Sabedoria)28
na qual dados são definidos como “fatos puros e simples sem nenhuma estrutura ou

organização particular ::: ,” e informação como “dados estruturados, que :::

agregam mais significado aos dados (p. 83, citando Logan e Stokes 2004). Aqui,
Logan claramente iguala os dados com “os sinais transmitidos entre o remetente e o destinatário de

´
28Ver, por exemplo, Fricke( 2009).
Machine Translated by Google

7 Estudos de Informação Sem Informação 173

que
informações com “dados têm significado”
:::
(p. 83). Por conta disso, a intenção parece ser que
:::

informação e significado sejam tratados como coisas de diferentes tipos ontológicos: isto é, que
significado (uma propriedade) é algo que pode ser atribuído à informação (uma substância). Essa
concepção de instâncias de informação como (nos termos de Lowe (2006) ) objetos concretos
que têm significado contrasta com aqueles da família semiótica (por exemplo, Lagache (1997),
discutido na Seção 7.5.3 acima) em que a informação é significado. (c) Informação biótica. Uma
maneira pela qual a concepção de informação biótica de Logan é semelhante
à sua concepção de informação estrutural é em virtude da distinção que ele faz entre a própria
informação biótica e o significado ou efeito que a informação biótica tem. Além disso, Logan
(2012) é ainda mais claro sobre a materialidade da informação biótica do que sobre a materialidade
da informação estrutural: “a informação biótica está muito ligada à sua instanciação material nos
ácidos nucleicos e proteínas de que é composta” (p. . 84), ele escreve, acrescentando, “[um]
sistema biológico é tanto um padrão de informação quanto um objeto material ou, mais
precisamente, padrões de informação instanciados em uma presença material” (p. 84). De fato,
é a natureza material dos ácidos nucléicos e das proteínas que lhes permite participar de
interações químicas com outras biomoléculas. Logan contrasta a natureza simbólica da
informação de Shannon (e, por implicação, da informação estrutural) com a natureza química da
informação biótica: no primeiro caso, o meio da mensagem, a própria mensagem e o conteúdo
da mensagem (isto é, sua informação ) são todos “bastante separados” e “independentes” uns
dos outros, enquanto no último caso, “[o] meio é tanto a mensagem quanto o conteúdo” (p. 85).

No entanto, Logan não chega a argumentar, como fizeram alguns outros físicos e proponentes da
vida artificial, que a própria matéria orgânica pode ser reduzida a informação – que os seres humanos,
por exemplo, são construídos de informação e nada mais. O “erro” que esses outros cometem, de
acordo com Logan (2012), é deixar de apreciar o que Bateson (1972) e outros articularam claramente
– ou seja, que a verdadeira natureza da informação é “a organização das moléculas das quais nós
são compostos” (p. 87, grifo do autor) em vez das próprias moléculas.

Logan parece estar nos pedindo para conceber a informação simultaneamente como material
(isto é, como matéria biomolecular) e imaterial (isto é, como algum tipo de propriedade dessa
matéria). No entanto, ainda não está claro exatamente que tipo de meio-termo está
ontologicamente disponível para nós entre (como Lowe (2006) teria) informação-como-objeto
e informação-como-modo, ou precisamente como a concepção de Logan se relaciona com a
de Stonier (1986) ou Versões de Bates (2005, 2006) de informação como organização.

7.6.2 D´ÿaz Nafr´ÿa (2010)

Voltamo-nos agora para outro autor cujas conexões institucionais o colocam no ´ÿa centro do grupo
Information–TripleC–UTI–FIS identificado anteriormente. Jose Mar ´
Machine Translated by Google

174 J. Furner

D´ÿaz Nafr´ÿa é cientista da computação e filósofo da ciência afiliado à Universidade de


´
Leon, Espanha, e à Hochschule M ¨ unchen, Alemanha, bem como ao UTI Research
Group,29 the Science of Information Institute (SoII) , 30 a Sociedade Internacional de
Estudos da Informação (ISIS),31 e BITrum.32
O WII de D´ÿaz Nafr´ÿa (2010) é outro artigo de revisão, mas ele adota uma
abordagem um pouco mais sistemática do que Logan, classificando as concepções de
informação em três dimensões separadas: (1) grau de objetividade da informação; (2)
tipo de propriedade enfatizada; e (3) fonte disciplinar.

Objetivo-Relacional-Subjetivo

A primeira dessas dimensões é definida por uma distinção entre objetividade e


subjetividade: “Se for objetivo, será independente dos estados mentais ou das intenções
do usuário; se for subjetivo, dependerá da interpretação de um agente cognitivo ou
intencional” (D´ÿaz Nafr´ÿa 2010: 82). D´ÿaz Nafr´ÿa não deixa totalmente claro a que
“isso” se refere nesta formulação, nem qual (se houver) das seguintes manifestações
da distinção objetivo/subjetivo ele pretende priorizar:

• informação como substância física, material e concreta versus informação como


propriedade
abstrata; • informação como um fenômeno natural cuja existência como informação não
é (ou não necessariamente) o resultado da atividade criativa humana versus
informação como artefato humano;
• informação como um tipo natural cuja identidade como informação não depende de
ser identificada como tal no curso da atividade humana versus informação como uma
construção social; e

29Ver Seção 7.6 acima. D´ÿaz Nafr´ÿa também é membro do conselho editorial da TripleC e atuou
no conselho consultivo da FIS 2010.
30O Science of Information Institute, fundado em 2006, é “dedicado ao desenvolvimento e
reconhecimento da informação como uma ciência única que cruza as disciplinas acadêmicas
tradicionais”; consulte http://www.soii.info/. Hofkirchner,
´ Logan e D´ÿaz Nafr´ÿa estão entre os
membros de seu conselho de administração; Burgin, Collier, Dodig-Crnkovic, Marijuan, Salto e
Zimmermann, bem como Brier, Floridi, Elizabeth Buchanan (Center for Applied Ethics, Wisconsin-
Stout) e Leah Lievrouw (Information Studies, UCLA), estão entre os membros do seu comitê consultivo científico.
31A International Society for Information Studies foi fundada em 2011 com sede em Viena, Áustria,
e tem como objetivo promover “estudos globais e colaborativos nas ciências da informação,
tecnologia da informação e sociedade da informação como um campo em si, impulsionando a
elaboração de quadros conceituais comuns, cuja implementação na prática contribui para vencer os
desafios da era da informação”; consulte http://mod1.syros.aegean. gr/soii/index.php/en/news/3-
newsflash/41-the-fifth-congress-on-the-foundations-of-information science-will-be-held-next-summer-
in-russia-under -isis-suporte O 32BITrum é um “grupo de
investigação interdisciplinar ::: constituído para desenvolver uma clarificação conceptual e teórica
da informação, pretendendo reunir todos os pontos de vista relevantes e procurando preservar
todos os interesses em jogo (científicos, técnicos e sociais)”; consulte http://en.bitrum. unileon.es/.
A BITrum foi fundada por D´ÿaz Nafr´ÿa e Salto em 2008 e conta com Brier, Buchanan, Burgin,
Capurro, Dodig-Crnkovic, Fleissner, Floridi, Hofkirchner, Petitjean e Zimmermann entre os membros
de seu comitê científico.
Machine Translated by Google

7 Estudos de Informação Sem Informação 175

• informação como uma classe de objetos cujos significados são intrínsecos e não dependem
da tomada de decisão humana versus informações cujos significados são determinados por
intérpretes.

O resultado é uma taxonomia de teorias da informação organizadas desde a categoria


objetivista “mais extrema” (que inclui, por exemplo, a teoria da informação de Stonier como
uma entidade física fundamental a par da matéria e da energia; p. 82) até a mais subjetivista
( ou seja, teorias nas quais propriedades como relevância e veracidade são tratadas como
condições de identidade para a informação (D´ÿaz Nafr´ÿa coloca teorias de informação
semântica como a de Dretske ( 1981) neste polo).

Sintático-Semântico-Pragmático

D´ÿaz Nafr´ÿa (2010) argumenta que é útil categorizar separadamente as teorias da informação
em uma segunda dimensão de acordo com o tipo de “grandes questões” sobre as propriedades
da informação que abordam, e identifica três desses tipos:

• perguntas sobre o conteúdo sintático da informação – por exemplo, “Como é expresso?” (p.
84) – onde “mensagens que ::: [cumprem] todos os requisitos sintáticos” são tratadas como
informativas até certo ponto, mesmo se “falsas, incorretas, inúteis, [ou] redundantes” (p.
81); • perguntas sobre o
conteúdo semântico da informação – por exemplo, “O que isso representa?” e “Com que valor
de verdade?” (p. 84) — “pela qual os sinais ou símbolos considerados pela MTC [teoria
matemática da comunicação de Shannon] são necessariamente referidos a algo” (p. 81); e

• perguntas sobre o conteúdo pragmático da informação – por exemplo, “Que valor e utilidade
ela tem?” (p. 84) — “pelo qual a informação é a base para a ação, seja por atores
intencionais, seres vivos ou sistemas automáticos” (p. 81).

A teoria de Shannon, por exemplo, está localizada na extremidade sintática do espectro,


para ser distinguida das várias concepções probabilísticas de informação fornecidas por
filósofos (por exemplo, Dretske 1981) preocupados com a medição do valor semântico das
proposições. No que diz respeito às teorias relacionadas com a pragmática, D´ÿaz Nafr´ÿa
(2010) recorre a fontes da antropologia e da filosofia. É notável que, apesar da importância do
papel desempenhado na pragmática das concepções de relevância, “verdade, valor, inovação
[e] surpresa” (p. 81), e da relação da informação com o conhecimento, ele não faz nenhuma
referência à literatura LIS sobre esses tópicos.

Disciplinas Técnicas–Ciências–Filosofia

A terceira dimensão de D´ÿaz Nafr´ÿa é fonte disciplinar. Aqui a biblioteconomia é listada


(juntamente com automação, telecomunicações e computação) como uma das disciplinas
técnicas que atuam como fontes de teorias de informação, mas é a única das disciplinas na
taxonomia de D´ÿaz Nafr´ÿa a não ser associada a um nome teoria.
Machine Translated by Google

176 J. Furner

D´ÿaz Nafr´ÿa (2010) observa uma ampla correlação entre todas as suas três dimensões:
“o fato de ter as ciências naturais à esquerda [da exibição diagramática da taxonomia
disciplinar] e as ciências sociais ou humanas à direita tem o consequência disso, à esquerda
prevalecem as teorias mais sintáticas e objetivistas, enquanto à direita predominam as
teorias semânticas, pragmáticas e mais subjetivistas” (p. 88).

Como muitos já fizeram, D´ÿaz Nafr´ÿa (2010) pergunta: “Existe uma única noção [de
informação] útil para todas as disciplinas? Em outras palavras, toda noção científica pode
ser reduzida a uma única e fundamental? (pág. 88). Em vez de fornecer uma resposta direta,
sua preferência é apontar para o fato de que “há algumas deficiências em todo conceito de
informação em relação a outros” (p. 88) e indicar as questões mais proeminentes sobre as
quais o acordo teria que ser feito. ser alcançado antes que qualquer teoria unificada pudesse
esperar atrair apoio generalizado. Com esse último objetivo em mente, a segunda metade
de seu artigo compreende um glossário de alguns dos conceitos que são centrais para este
discurso.33 A entrada sobre
“Biblioteconomia e Biblioteconomia Especial” neste glossário identifica “dois significados
opostos” do conceito de informação utilizado em LIS: “(1) a informação como objeto em
documentos, e (2) sua subjetivação radical, ou seja, informação como tudo 'que pode ser
informativo para alguém.'” (p. 101). A distinção que está sendo feita parece ser aquela entre
duas características separadas de instâncias de informação – a saber, seu status ontológico
como objetos concretos (nos termos de Lowe (2006)) e sua função representacional – ambas
as quais são consistentes com várias versões de um simples visão da informação como
dados significativos (cf., por exemplo, a versão de Logan (2012) da pirâmide DIKW) que não
está totalmente integrada na estrutura de D´ÿaz Nafr´ÿa. Nessa visão, os dois significados
são complementares em vez de “opostos”.

7.7 Conclusão

Luciano Floridi é atualmente o estudioso mais prolífico e amplamente celebrado que trabalha
com problemas de filosofia e informação (cf. Furner 2010: 170–173). Nos últimos anos,
desenvolveu uma hierarquia de categorias de fenômenos que inclui (i) dados; (ii) informação
(semântica), também conhecida como conteúdo (semântico) — ou seja, dados significativos
e bem formados; e (iii) informações factuais, também conhecidas como informações
semânticas “epistemicamente orientadas” – ou seja, dados verdadeiros, significativos e bem
formados (ver, por exemplo, Floridi 2003: 42–46). A definição “geral” de informação de Floridi
(GDI) especifica três condições (data-ness, boa formação e significância) que devem ser
satisfeitas para que um x se qualifique como uma instância de informação, enquanto sua
definição “específica” de informação (SDI ) acrescenta um quarto (veracidade). Ele observa que o senso ger

33 Uma versão continuamente atualizada e de autoria colaborativa - o Glossarium BITri - está


disponível online em http://glossarium.bitrum.unileon.es/glossary
Machine Translated by Google

7 Estudos de Informação Sem Informação 177

em que a informação é entendida simplesmente como conteúdo semântico é “trivial” (Floridi


2003: 46), e que, no contexto da comunicação, “o tipo mais importante de informação
semântica é a informação factual” (Floridi 2003: 45, ênfase no original ). Floridi (2003: 42)
afirma que a definição geral tornou-se, no entanto, o “padrão operacional” em campos como
o LIS.
Por que deveria ser assim? Por que razões os estudiosos que trabalham em LIS
adotaram a definição geral em vez da definição específica de Floridi (ou qualquer outra)?
Floridi aponta na direção de uma resposta possível com a sua identificação, entre um
conjunto de conceitos “muito importantes” de informação que ele opta por não aprofundar,
de “ informação pragmática ::: [que] inclui informação útil, um conceito-chave em teoria da
gestão da informação, ::: onde características como relevância, pontualidade, atualidade,
:::

custo, significância, e assim por diante são cruciais” (Floridi 2003: 57, ênfase no original).
Essa lista de valores – alternativas, de certa forma, à verdade – serve para nos lembrar que
as concepções de informatividade e conhecimento dos estudiosos da LIS são tipicamente
bem diferentes daquelas tradicionalmente aceitas por epistemólogos ou cientistas naturais.
Os teóricos da LIS na tradição sociocognitiva, por exemplo, tendem a se interessar por
mudanças nas estruturas cognitivas pessoais ou “imagens” do mundo, em como essas
mudanças são produzidas e em como as necessidades e desejos pessoais são atendidos,
em vez de em questões de “verdade”; e os da tradição semiótica tendem a aderir a uma ou
outra das versões subjetivistas nas quais os significados dos signos são subdeterminados
pelas propriedades dos próprios signos (cf. Furner 2010: 173-178 ).

Um resultado do que podemos considerar ser a determinação dos estudiosos da LIS de


não se prender a nenhuma definição “especial” de informação é o pluralismo ontológico do
campo. Não devemos necessariamente esperar que os membros da comunidade LIS
forneçam quaisquer possibilidades fundamentalmente originais para concepções de
informação. Como indiquei no início, esse é o trabalho, estritamente falando, da ontologia
propriamente dita, e LIS não é ontologia. Mas talvez tenhamos motivos para reservar um
momento para refletir com aprovação sobre a falta de restrições a priori sobre os
compromissos ontológicos esperados dos colaboradores do campo. Como pretende indicar
a gama de opções listadas nas Tabelas 7.1 e 7.3 , parece que mal consideramos muitas
das possibilidades ontológicas que estão abertas para nós. Em vez de ruminar sobre o que
poderíamos imaginar ser a extensão limitada em que as ideias originadas em LIS
influenciaram o debate mais amplo sobre a natureza da informação, podemos desejar nos
desafiar a especificar com precisão o que quer que seja que seja distinto e distintamente
útil, sobre as concepções de informação originárias do LIS - em outras palavras, para
especificar o que está faltando em uma literatura na qual as contribuições do LIS são
frequentemente ignoradas. O uso de ontologia própria é sugerido como um meio
potencialmente produtivo de identificar possibilidades até então inexploradas.
Em “Estudos de informação sem informação” (Furner 2004), argumentei que realmente
não precisamos de um conceito separado de informação para fazer estudos de informação,
porque já temos conceitos perfeitamente bons de sinal, dados, significado, relevância e
assim por diante , que nos permitem fazer o trabalho. Neste artigo, quis chamar a atenção
para o fato de que, inversamente, existem várias comunidades acadêmicas além dos
estudos de informação que requerem um conceito separado de informação, mas que
Machine Translated by Google

178 J. Furner

essas comunidades têm boas razões para procurar ajuda nos estudos de informação.
Qualquer abordagem para conceituar informação que menospreze as contribuições de LIS
– ou seja, informação sem estudos de informação – é desnecessariamente empobrecida,
não menos por conta da gama de possibilidades ontológicas que ela perde.

Agradecimentos Gostaria de agradecer aos editores deste volume, Tom Dousa e Fidelia Ibekwe-SanJuan, por seus
comentários muito úteis sobre uma versão anterior deste capítulo.

Referências

Atkin, A. 2010. A teoria dos signos de Peirce. Na enciclopédia de filosofia de Stanford, ed. E. Zalta.
Stanford: Universidade de Stanford. http://plato.stanford.edu/entries/peirce-semiotics/. Acessado em 3 de
setembro de 2012.
Bates, MJ 2005. Informação e conhecimento: Uma estrutura evolutiva para a informação.
Pesquisa de Informação 10(4). http://informationr.net/ir/10-4/paper239.html. Acessado em 3 de setembro de
2012.
Bates, MJ 2006. Formas fundamentais de informação. Jornal da Sociedade Americana de
Ciência e Tecnologia da Informação 57(8): 1033–1045.
Bates, MJ 2010. Informação. Na Enciclopédia de Biblioteconomia e Ciências da Informação, 3ª ed, ed.
MJ Bates e MN Maack, 2347–2360. Boca Ratón: CRC Press.
Bateson, G. 1972. Passos para uma ecologia da mente: ensaios coletados em antropologia, psiquiatria,
evolução e epistemologia. São Francisco: Chandler. ´
Briet, S. 1951. O que é documentação? Paris: Documentário, Industrial e
Técnicas.
Buckland, MK 1991. Informação como coisa. Jornal da Sociedade Americana de Informação
Ciência 42(5): 351–360.
Capurro, R. 1978. Informação: Um contributo para a história etimológica e intelectual
Justificativa do conceito de informação. Munique: Saur.
Capurro, R., e B. Hjørland. 2003. O conceito de informação. Revisão Anual de Informações
Ciência e Tecnologia 37: 343–411.
Case, DO 2012. O conceito de informação. Em Procurando por informações: um levantamento de pesquisas sobre
busca de informações, necessidades e comportamento, 3ª ed, 45–75. Bingley: Esmeralda.
Cover, TM e JA Thomas. 1991. Elementos da teoria da informação. Nova York: Wiley.
D´ÿaz Nafr´ÿa, JM 2010. O que é informação? Uma preocupação multidimensional. TripleC: Cognição, Comunicação,
Cooperação 8(1): 77–108. http://www.triple-c.at/index.php/tripleC/article/view/76 . Acessado em 1 de agosto de
2012.
Dretske, FI 1981. Conhecimento e fluxo de informação. Cambridge, MA: MIT Press.
Floridi, L. 2003. Informação. No guia Blackwell para a filosofia da computação e
informação, ed. L. Floridi, 40–61. Oxford: Blackwell.
French, S. e D. Krause. 2006. A lógica dos quanta. Em Identidade na física: Uma análise histórica, filosófica e formal,
354-383. Oxford: Oxford University Press.
Fricke,´M. 2009. A pirâmide do conhecimento: Uma crítica da hierarquia DIKW. Journal of
Information Science 35(2): 131–142.
Furner, J. 2004. Estudos de informação sem informação. Library Trends 52(3): 427–446.
Furner, J. 2010. Filosofia e estudos de informação. Revisão Anual da Ciência da Informação e
Tecnologia 44: 161–200.
Hartley, RVL 1928. Transmissão de informações. Bell System Technical Journal 7: 535–563.
Hayles, NK 1999. Como nos tornamos pós-humanos: corpos virtuais na cibernética, literatura e
informática. Chicago: University of Chicago Press.
Machine Translated by Google

7 Estudos de Informação Sem Informação 179

Lagache, A. 1997. O que é informação? Em Sinais e imagens: artigos selecionados da 7ª e 8ª reunião do GIRI,
realizada em Montpellier, França, de 20 a 21 de novembro de 1993, e Jerusalém, Israel, de 10 a 11 de
dezembro de 1994, ed . M. Bastide, 279–292. Dordrecht: Kluwer Academic.
Logan, RK 2012. O que é informação? Por que é relativista e qual é a sua relação com a materialidade,
significado e organização. Informação 3(1): 68–91. http://www.mdpi.com/2078-2489/3/1/68 . Acessado em
1 de agosto de 2012.
Logan, RK e LW Stokes. 2004. Colaborar para competir: Impulsionando a lucratividade no
conhecimento econômico. Toronto: Wiley.
Loux, MJ 2002. Metafísica: Uma introdução contemporânea, 2ª ed. Londres: Routledge.
Lowe, EJ 2006. A ontologia de quatro categorias: Uma fundação metafísica para a ciência natural.
Oxford: Oxford University Press.
Lowe, EJ 2011. A racionalidade da metafísica. Síntese 178: 99–109.
Pitzer, KS 1995. Termodinâmica, 3ª ed. Nova York: McGraw-Hill.
Qvortrup, L. 1993. A controvérsia sobre o conceito de informação: uma visão geral e uma seleção
e bibliografia comentada. Cibernética e Conhecimento Humano 1(4): 3–24.
Rapoport, A. 1955. O que é informação? Síntese 9(1): 157–173.
Rowley, J. 1998. O que é informação? Serviços de informação e uso 18(4): 243–254.
Scarrott, G. 1986. A necessidade de uma “ciência” da educação [sic]. Revista de Tecnologia da Informação
1(2): 33–38.
Shannon, CE 1948. Uma teoria matemática da comunicação. Jornal Técnico Bell System 27:
379–423, 623–656.
Stonier, T. 1986. O que é informação? Em Pesquisa e desenvolvimento em sistemas especialistas, III:
Procedimentos de sistemas especialistas '86: A sexta conferência técnica anual do British Computer
Society Specialist Group em sistemas especialistas, Brighton, 15–18 de dezembro de 1986, ed .
M. Bramer, 217–230. Cambridge: Cambridge University Press.
Stonier, T. 1990. Informação e a estrutura interna do universo: Uma exploração em
física da informação. Londres: Springer.
Stonier, T. 1992. Além da informação: A história natural da inteligência. Londres: Springer.
Stonier, T. 1997. Informação e significado: Uma perspectiva evolutiva. Londres: Springer.
Weaver, W. 1949. Contribuições recentes à teoria matemática da comunicação. Em A teoria matemática da
comunicação, ed. CE Shannon e W. Weaver, 1–28. Urbana: University of Illinois Press.

Wiener, N. 1948. Cibernética: Ou, controle e comunicação no animal e na máquina.


Paris: Herman.

Você também pode gostar