Escolar Documentos
Profissional Documentos
Cultura Documentos
Capítulo 7
Estudos de informação sem informação
Jonathan Furner
7.1 Introdução
Várias opções se apresentam como abordagens para responder a perguntas como “O que é
informação?”
J. Furner ()
Escola de Pós-Graduação em Educação e Estudos da Informação, Universidade da
Califórnia, Los Angeles, Los Angeles,
CA, EUA e-mail: furner@gseis.ucla.edu
144 J. Furner
Se nos voltarmos para a literatura (sem nos limitar a nenhuma disciplina em particular),
veremos que o discurso pós-1950 sobre a natureza da informação está repleto de
exemplos de pelo menos as três primeiras dessas abordagens. Também descobrimos
que as contribuições individuais tiveram propósitos de vários tipos distintos:
Na Seção 7.2 seguindo esta introdução, a maneira pela qual podemos adotar uma
abordagem ontológica para a análise de conceitos de informação é descrita com um
pouco mais de detalhes. Na Seção 7.3, começo uma investigação sobre “o que a
informação poderia ser”, construindo uma lista preliminar de candidatos, classificados
por categoria ontológica. Na Seção 7.4, procuro na teoria da probabilidade alguns
candidatos adicionais que assumiram um peso considerável fora do LIS e exploro os
Machine Translated by Google
importância de uma distinção básica que pode ser traçada entre concepções de informação
como informatividade e concepções de informação como informativa. Na Seção 7.5, examino
os compromissos ontológicos de três autores que escrevem sobre informações de
perspectivas fora do LIS. Na Seção 7.6, concentro-me no trabalho de dois representantes de
uma comunidade emergente de estudiosos que, embora se dedique a estabelecer “os
fundamentos da ciência da informação”, (ainda?) não formou fortes laços com a LIS. Por
último, na Sec. 7.7, concluo provisoriamente que qualquer abordagem para conceituar
informação que menospreze as contribuições de LIS – ou seja, informação sem estudos de
informação – é desnecessariamente empobrecida, não menos por conta da gama de
possibilidades ontológicas que ela perde.
1Veja, por exemplo, Loux (2002) para uma introdução oficial a este campo.
2A Figura 7.1 é adaptada da Figura 1.2, The four-category onlogy, em Lowe (2006: 18).
Machine Translated by Google
146 J. Furner
Atribuir
Abstrato é caracterizado por resumo
substancial caracteriza não substancial
universal amável universal
Objeto Modo
particular é caracterizado por particular
substancial caracteriza abstrato não
concreto/abstrato substancial
Você joga uma moeda. Dá cara. Você escreve “Deu cara” como uma nota para si mesmo;
mas (por razões desconhecidas) você me diz “Surgiu Tails”. Nesse cenário, onde
exatamente está a informação?
Se ser verdadeiro (ou seja, corresponder à realidade; representar com precisão os
fatos) é uma condição necessária para ser informação, então, seja lá o que for, eu tiro disso
Machine Translated by Google
Mas parar ali seria abrir apenas um ou dois compartimentos de uma extensa caixa de
ferramentas. Informação como o que gera mudanças nos estados humanos de conhecimento/
crença; informação como o que é produzido por atos humanos de representação; informação
como sinal, como sinal, como evidência; informação como diferença; informação como tudo -
a lista de concepções distintas é longa e pode ser organizada de muitas maneiras mais ou
menos úteis, várias das quais são bem conhecidas em LIS. Furner (2010, 174–175), por
exemplo, fornece uma estrutura conceitual que diferencia entre (i) uma família semiótica na
qual são feitas distinções entre situações do mundo real, representações mentais dessas
situações e expressões linguísticas dessas representações; (ii) uma família sociocognitiva em
que a ênfase está na ação e no processo, e especialmente nos processos pelos quais as
pessoas se informam ou informam outras; e (iii) uma família epistêmica na qual as concepções
são desenvolvidas com o objetivo de dar conta das propriedades que um recurso de informação
deve ter se as crenças que são geradas ao interpretar o conteúdo desse recurso são vistas
como justificadas. As origens dessas concepções podem ser atribuídas a várias disciplinas
cognatas, incluindo psicologia cognitiva, lingüística, filosofia da linguagem, semiótica, ciência
da computação, física e biologia, e são essas comunidades que os autores geralmente
procuram quando embarcam em análises do natureza da informação.
Uma lista indubitavelmente incompleta dos fenômenos que estão envolvidos no cenário
coin flip, categorizados de acordo com a ontologia de Lowe, é apresentada na Tabela 7.1. A
fim de progredir em nossa exploração da gama de possibilidades ontológicas, podemos
considerar cada um dos itens da lista como um candidato para satisfazer as condições de
informabilidade.
Uma das maneiras óbvias pelas quais, tal como está, esta lista está longe de ser completa
é a omissão de uma série de categorias de instâncias de propriedade que têm grande
significado dentro das concepções de informação derivadas da teoria da probabilidade. Apesar
de sua ampla aceitação em aplicações da teoria matemática da comunicação de Shannon
(Shannon 1948) nas ciências naturais e na engenharia, essas concepções normalmente não
são abordadas com tanta simpatia na literatura LIS, e uma rápida revisão pode ser útil.
Machine Translated by Google
148 J. Furner
Objetos (substâncias-instâncias)
Objetos concretos
O evento de jogar a moeda; o evento de
suas cabeças chegando; o caso de
estar em um estado de dar cara; no caso de você observar a moeda
saindo cara
O caso de você decidir escrever “Deu cara”; no caso de você decidir me
dizer “Aí surgiu o Tails”
O evento de você escrever “Deu cara”; o caso de você me
dizer “Aí surgiu o Tails”; sua inscrição da frase “Deu
cara”; sua pronúncia da frase “Aí veio o Tails”; sua mensagem
para mim “Apareceu Tails”
objetos abstratos
O fato de esta moeda ter saído Cara
O fato de você ter me dito que essa moeda surgiu Tails
A proposição de que esta moeda deu cara
A proposição de que surgiu Tails
A série de eventos relacionados aos quais este coin-flip pertence
A série de eventos relacionados aos quais sua mensagem pertence
A subsérie de eventos de cara ou cara
A subsérie de eventos de você me dizendo que uma cara ou coroa surgiu Tails
O conjunto de instâncias da propriedade de um cara ou cara
O conjunto de instâncias da propriedade de significado de que um coin-flip surgiu Tails
O conjunto de propriedades de um coin-flip
O conjunto de propriedades de uma mensagem sobre um coin-flip
O conjunto de valores possíveis de um coin-flip
O conjunto de valores possíveis de uma mensagem sobre um coin-flip
(contínuo)
Machine Translated by Google
Suponha que você jogue uma moeda um grande número de vezes e, após cada lançamento,
registre o resultado — Cara ou Coroa — e mantenha um registro da frequência cumulativa de
cada um dos dois tipos de resultados. Se for uma moeda honesta, depois de um tempo você
começará a ver um padrão simples. O total corrente na coluna Caras será aproximadamente igual
ao da coluna Coroas. Na verdade, a definição de uma moeda honesta é uma moeda com a
mesma probabilidade de dar cara ou coroa. Com o tempo, conforme você continua lançando,
ambas as contagens tenderão para a mesma proporção (50%) do número total de lançamentos.
Usando a terminologia da teoria da probabilidade,3 podemos dizer que a probabilidade p da
variável aleatória X (o lançamento de uma moeda honesta) com o valor x1 (Cara) é p(X D x1) D
0,5. Uma variável é uma série de eventos ou observações, cada uma das quais pode assumir
qualquer um dos valores especificados em um conjunto conhecido como domínio da variável.
Com uma variável aleatória, o valor de qualquer evento futuro dado não pode ser previsto com
certeza: tudo o que podemos fazer é dar nossa melhor estimativa da probabilidade (ou seja, a
probabilidade) de que o próximo evento terá um ou outro dos valores no domínio.
No caso do cara ou coroa justo, o domínio tem dois membros (x1:Cara, x2:Coroa), e a distribuição
de probabilidade - o gráfico dos valores da variável X contra as probabilidades p com os quais
esses valores ocorrem - é uniforme , no sentido de que todos os valores de p são iguais.
O valor de p(X D xi) pode ser encontrado calculando-se a razão entre f(X D xi), a frequência
de eventos em que a variável X tem o valor xi, para n, a frequência total de eventos. Os valores
de p sempre variam de 0 a 1. Quando p(X D xi) D 1, estamos em uma posição de certeza
absoluta: não há dúvida de que o próximo evento em X assumirá o valor xi. Da mesma forma,
quando p(X D xi) D 0, podemos ter certeza de que o próximo evento em X não assumirá o valor
xi. Todos os valores de p entre 0 e 1 indicam vários graus de incerteza. Poderíamos descrever o
caso do cara ou coroa justo, com sua
3Veja, por exemplo, Cover e Thomas (1991) para uma apresentação oficial do material matemático nesta seção.
Machine Translated by Google
150 J. Furner
4Deve-se notar que o uso aqui de “bit” como unidade de medida é distinto de seu outro uso regular
como nome para um tipo de dado.
Machine Translated by Google
Existem pelo menos quatro maneiras diferentes de passar de tal relato (da informatividade como
surpresa) para um relato de informação.
1. Uma maneira seria pensar na informação como se fosse a mesma propriedade dos eventos que
a surpresa. Nesta conta, informação é informatividade. Assim como podemos falar sobre a data
ou local de um evento, podemos falar sobre suas informações. Se perguntássemos: “Qual é a
informação (ou seja, o caráter informativo) do evento eX?” – uma pergunta para a qual a
resposta seria algo como “0,74 bits” – então (nesse relato) é a surpresa particular do evento eX
que estaríamos tratando como informação. Nos termos de Lowe, seria um modo.
2. Outro grupo de opções surge ao pensar na informação como tudo o que é informativo. Por conta
disso, a informação tem informatividade. Se perguntássemos: “Quão informativo é o evento
eX?” – outra pergunta para a qual a resposta seria algo como “0,74 bits” – então (neste relato)
há vários candidatos para aquilo que estaríamos tratando como informação , do seguinte modo:
(i) a categoria do valor produzido pelo evento eX, tal como x1: Caras (em
termos de Lowe: um atributo); ou (ii)
a instância particular do valor produzido pelo evento eX (no Lowe's
termos: um modo diferente).
(b) Alternativamente, poderia ser o próprio evento eX - ou seja, o lançamento real da moeda
(nos termos de Lowe: um objeto concreto).
Podemos nos perguntar: o que realmente significa dizer que a entropia de uma moeda honesta
é maior do que a entropia de uma moeda viciada? A entropia é maximizada quando todas as
probabilidades de ocorrência dos possíveis resultados de um evento são iguais: ou seja, quando a
distribuição de probabilidade é uniforme. Portanto, a entropia é um indicador da extensão em que
essas probabilidades tendem à uniformidade, uniformidade ou igualdade. Quanto mais desiguais
as probabilidades, mais próximo o valor de H(X) de 0. A entropia atinge
Machine Translated by Google
152 J. Furner
este valor mínimo quando um dos resultados possíveis tem uma probabilidade de 1 (e cada um
dos outros resultados tem uma probabilidade de 0). Consequentemente, a entropia é
frequentemente caracterizada como uma medida de incerteza: quanto mais iguais as
probabilidades de resultados possíveis, mais incerta é qualquer previsão do resultado do próximo
evento. O fato de que a entropia de nossa moeda viciada é ligeiramente menor do que a entropia
da moeda honesta reflete o nível ligeiramente inferior de incerteza (ou seja, o nível ligeiramente
superior de certeza ou confiança) que teríamos em qualquer previsão que pudéssemos fazer do
resultado. do próximo evento.
Novamente, há pelo menos quatro maneiras diferentes de passar de tal explicação (da
informatividade média como entropia) para uma explicação da informação.
1. Uma maneira seria pensar na informação como se fosse a mesma propriedade das variáveis
que a entropia. Nesta conta, informação é informatividade média. Assim como podemos falar
sobre a frequência ou alcance de uma variável, podemos falar sobre sua informação. Se
perguntássemos: “Qual é a informação (ou seja, a informatividade média) da variável X?” –
uma questão para a qual a resposta seria algo como “0,97 bits” – então (nesse relato) é a
entropia particular da variável X que estaríamos tratando como informação. Nos termos de
Lowe, seria um modo.
2. Outro grupo de opções surge ao pensar na informação como tudo o que é informativo. Por
conta disso, a informação tem informatividade média. Se perguntássemos: “Quão informativa
é a variável X?” – outra pergunta para a qual a resposta seria algo como “0,97 bits” – então
(neste relato) há vários candidatos para aquilo que estaríamos tratando como informação. ,
do seguinte modo.
(a) Pode ser o conjunto de resultados produzidos pelos eventos que compreendem variáveis
X - ou seja, ou
(i) o conjunto de categorias dos valores produzidos pelos eventos que compreende
variável X (nos termos de Lowe: um objeto abstrato); ou
(ii) o conjunto de instâncias particulares dos valores produzidos pelos eventos que
compõem a variável X (nos termos de Lowe: um objeto abstrato diferente).
(b) Alternativamente, poderia ser a própria variável X – isto é, a série real de cara ou coroa
(nos termos de Lowe: ainda um objeto abstrato diferente).
Suponha que agora introduzamos um novo elemento no cenário de cara ou coroa. Desta vez,
em vez de lançar repetidamente apenas uma moeda, pegamos duas moedas diferentes.
Jogamos um, registramos o resultado (Cara ou Coroa), depois viramos o outro e registramos o
resultado (Cara ou Coroa). Fazemos essa operação de lançamento duplo um grande número
de vezes e terminamos com uma contagem indicando que cada uma das quatro combinações
possíveis (Cara, Cara; Cara, Coroa; Coroa, Cara; e Coroa, Coroa) ocorre em 25% das ocasiões. Pudermos
Machine Translated by Google
digamos que a probabilidade conjunta da co-ocorrência dos valores x1 (Cara da primeira moeda)
e y1 (Cara da segunda moeda) é pX D x1; YD a1/ D 0:25. Esse resultado nos dá boas razões
para acreditar que temos duas moedas honestas. A distribuição de probabilidade conjunta — o
gráfico dos quatro pares de valores xi, yi em relação às probabilidades p com as quais esses
valores ocorrem — é uniforme.
Claro, poderíamos fazer o experimento dual-flip com nossas duas moedas originais, a
honesta e a viciada, em vez de duas honestas. Nesse caso, a distribuição de probabilidade
conjunta não é mais uniforme: a probabilidade de duas Caras, por exemplo, é 0,3, enquanto a
probabilidade de uma Cara e depois uma Coroa é 0,2.
Armados com as probabilidades dos quatro resultados em ambos os casos, podemos
calcular um valor em bits para a improbabilidade de cada resultado, ou seja, lb p XD xi ; YD yj ;
e podemos calcular um valor para a entropia da distribuição conjunta, ou seja, H .X; Y/D Ppp
XD xi ; YD yj lb p XD xi ; YD yj . No caso das duas moedas
justas, H(X, Y) D 2; no caso de uma moeda honesta e outra viciada, H(X, Y) D 1,97.
Como nos exemplos anteriores com as moedas individuais, podemos considerar esses valores
de entropia como indicadores da uniformidade das probabilidades de ocorrência dos possíveis
resultados dos eventos em questão (ou seja, pares de cara ou coroa), ou como medidas de a
incerteza de qualquer previsão do resultado do próximo par de lançamentos. O fato de que a
entropia conjunta no caso de viés justo é ligeiramente menor do que a entropia no caso justo-
justo reflete o nível ligeiramente inferior de tal uniformidade e incerteza.
Até agora, consideramos variáveis independentes umas das outras.
Temos assumido que o resultado do segundo em cada par de cara ou coroa não é influenciado
pelo resultado do primeiro. O próximo caso que podemos considerar é aquele em que não
temos razão para fazer tal suposição - por exemplo, um caso em que a segunda variável não é
uma segunda série de cara ou coroa, mas um relator dos resultados da primeira série de cara
ou coroa - flips. Suponha que tenhamos uma moeda honesta e um repórter totalmente confiável,
que sempre relata todos os resultados corretamente, 100% do tempo. Em outras palavras, a
probabilidade condicional p(Y D yjjX D xi) — ou seja, a probabilidade de Y D yj dado que X D xi
— é 1 quando yj D xi e 0 caso contrário. Embora a distribuição de probabilidade dos valores de
Y neste caso seja exatamente a mesma dos valores de Y no caso das duas moedas justas, a
distribuição conjunta é bem diferente. Por exemplo, no presente caso, pX D x1; YD y1/ D 0:5 e
pX D x1; YD y2/ D 0. Além disso, descobrimos que H(X, Y) D 1, um valor menor do que o
encontrado no caso justo-justo ou no caso justo-viciado, indicando menos uniformidade na
distribuição de probabilidade, e menos incerteza em qualquer previsão que possa ser feita sobre
o resultado do próximo par flip-report.
Por fim, suponha que tenhamos uma moeda honesta e um repórter não confiável, que nem
sempre relata todos os resultados corretamente. Digamos que as probabilidades condicionais
relevantes sejam as seguintes: em 90% das ocasiões em que a jogada é Cara, o repórter diz
que foi Cara; em 80% das ocasiões em que o flip é Tails, o repórter diz que foi Tails. Aqui
descobrimos que H(X, Y) D 1,60, um pouco mais alto do que no caso confiável anterior, mas
ainda mais baixo do que nos casos justo ou tendencioso.
É possível interpretar valores de entropia conjunta como medidas de capacidade informativa
exatamente da mesma maneira que valores de entropia são interpretáveis nos casos em que
cada um envolve uma única variável. Mas é importante perceber que nossa atenção
Machine Translated by Google
154 J. Furner
Tanto no caso justo-justo quanto no caso justo-viciado, I(X;Y) D 0, uma vez que as
duas variáveis são independentes e o conhecimento do valor de uma não ajuda a prever
o valor da outra. Mas no caso razoavelmente não confiável, I(X;Y) D 0,40, e no caso
razoavelmente confiável, I(X;Y) D 1,00, indicando graus sucessivamente maiores de
dependência e maiores quantidades de redução em nossa incerteza quando baseamos
nossas previsões dos valores de um no conhecimento dos valores do outro. De fato, no
caso razoavelmente confiável, a informação mútua é maximizada, pois a incerteza (expressa na forma d
Machine Translated by Google
H(X,Y)
156 J. Furner
A probabilidade de a moeda dar cara; o inesperado de sair cara Sua incerteza se sairia cara
ou coroa A fração de mensagens que você envia que são
verdadeiras (ou seja, representações precisas do fato)
A fração de mensagens que recebo que são
verdadeiras Sua confiabilidade em representar com precisão os fatos em geral e/ou cara
ou coroa em particular A fração do conteúdo das mensagens
enviadas que não são recebidas A fração do conteúdo das
mensagens recebidas que não são enviadas A confiabilidade
do canal através do qual as mensagens são enviadas A probabilidade de você me dizer que
esta moeda surgiu
Coroa; o inesperado de você me dizer que saiu coroa Minha incerteza se
você me diria que saiu cara ou coroa Minha incerteza se saiu cara ou coroa
entropia condicional, estaríamos propondo que quanto mais uniforme tal distribuição,
mais informativa ela é. Usando informações mútuas, podemos medir a co-dependência de
duas variáveis. Se optássemos por igualar informatividade média com informação mútua,
estaríamos propondo que quanto mais codependente um par de variáveis, mais informativa
cada uma é.
Em cada um desses casos, como vimos, existem várias maneiras diferentes de passar
da explicação da informatividade que cada uma fornece para uma explicação da
informação. Por exemplo, se igualarmos informatividade com informação, então podemos
concluir que instâncias de informação são instâncias de propriedade (ou seja, modos na
ontologia de Lowe), como a surpresa particular de um evento particular. Se, em vez disso,
decidirmos que a informatividade é uma propriedade da informação, então podemos
concluir (escolhendo entre várias possibilidades) que instâncias de informação são
instâncias-substâncias (ou seja, objetos concretos na ontologia de Lowe).
Voltando à lista de fenômenos envolvidos em nosso cenário original de coin-flip,
algumas das entradas que agora devem ser adicionadas à categoria “Modos” são
identificadas na Tabela 7.3 .
(contínuo)
Machine Translated by Google
158 J. Furner
Harms, WF 2006. O que é informação? Três conceitos. Teoria Biológica: Integrando Desenvolvimento,
Evolução e Cognição 1(3): 230–242.
Tipo de contribuição: B (revisão)
Disciplina do autor: Filosofia
Disciplina da fonte: Biologia
LIS autores citados: –
(contínuo)
Machine Translated by Google
Rocchi, P. 2011. O que é informação? Além da selva das teorias da informação. Ubiquity, março de 2011, artigo
no. 1. http://dx.doi.org/10.1145/1959016.1959017. Acessado em 1 de agosto de 2012.
Logan, RK 2012. O que é informação? Por que é relativista e qual é a sua relação com a materialidade, significado
e organização. Informação 3(1): 68–91. http://www.mdpi.com/2078-2489/3/1/68 . Acessado em 1 de agosto
de 2012.
Tipo de contribuição: B (revisão)
Disciplina do autor: Física Disciplina
da fonte: Ciência e tecnologia da informação LIS autores citados: Losee
O estudante LIS, talvez criado com uma dieta de Bates, Bawden e Buckland, com
porções substanciais de Belkin, Briet e Brookes, pode ser perdoado por não reconhecer
não apenas os nomes dos autores representados na Tabela 7.4, mas até mesmo os
títulos das revistas e conferências. Com a única exceção do artigo de Rowley de 1998
em Information Services and Use, é difícil imaginar qualquer um desses artigos sendo
tratado rotineiramente como contribuições para a literatura LIS. Poucos foram citados
em grande extensão pelos autores do LIS; e, da mesma forma, poucos contêm citações de fontes LIS.
No entanto, como poderíamos esperar, cada um é uma contribuição intrigante e
provocativa para a literatura sobre a natureza da informação. Minha intenção nesta
seção e na próxima é examinar as concepções de informação que são desenvolvidas
em uma amostra pequena e intencional desses artigos, com o objetivo de esclarecer a
natureza das relações entre essas concepções e demonstrar o valor potencial da
ontologia. abordagem descrita acima.
Antes de nos concentrarmos em alguns dos artigos mais recentes do conjunto listado
na Tabela 7.4, vale a pena dar uma olhada em algumas das contribuições mais antigas
com um pouco mais de detalhe: um dos anos 1950 (de Rapoport) que apresenta aos
seus leitores a teoria (de Shannon) que teve de longe o maior impacto no desenvolvimento
de concepções de informação no mundo além do LIS; um dos anos 1980 (Stonier's) em
que o autor desenvolve um dos primeiros relatos sérios de informação
Machine Translated by Google
160 J. Furner
como uma entidade física; e outro da década de 1990 (de Lagache) que apresenta
uma versão convincente da teoria semiótica da informação que é amplamente
admirada no LIS.
5Rapoport não foi de forma alguma o primeiro a articular o valor da teoria de Shannon dessa maneira.
Entre outros resumos, a introdução de Warren Weaver (1949) a um volume no qual o artigo de
Shannon de 1948 foi reimpresso foi especialmente influente.
6Veja a discussão sobre informação mútua na Seção 7.4.4 acima.
Machine Translated by Google
Esta definição técnica de informação é contrastada por Rapoport (1955) com aquela
implícita na antiga forma de medir a quantidade de informação numa mensagem, “conhecida
desde que as mensagens foram inventadas” (p. 158), segundo a qual se assume que uma
mensagem transporta “mais ou menos informações nele dependendo do estado de
conhecimento dos destinatários” (p. 158). Em vez de comparar o conteúdo de mensagens
individuais com o conteúdo da mente de cada pessoa, a nova sugestão (ou seja, a de
Shannon) é que comparemos as distribuições de probabilidade dos valores dos sinais
enviados e dos sinais recebidos.
Seguindo Weaver (1949) e outros, Rapoport (1955) observa a oportunidade oferecida
pela teoria da informação para estender a noção de informação mútua para que possamos
falar não apenas sobre a quantidade média de informação por mensagem enviada por uma
determinada fonte para um determinado alvo , mas também a quantidade de informações
em uma única mensagem. Todas as outras coisas sendo iguais, a quantidade de tal "auto-
informação" em uma mensagem - isto é, a surpresa da mensagem - aumenta conforme
aumenta o tamanho do repertório do qual a mensagem é selecionada.7 Quanto mais
mensagens você (como um potencial remetente de uma mensagem) tem para escolher,
menos chance um receptor tem de prever com precisão qual mensagem você escolherá
enviar e sua “capacidade de fornecer informações” aumenta (p. 159).
Em sua aplicação à engenharia de comunicações, a teoria da informação fornece
maneiras de (por exemplo) estimar os efeitos do ruído na recepção precisa de sinais e
calcular os limites nos quais se pode esperar que os canais de comunicação funcionem. Em
lingüística, a teoria da informação pode ser usada para medir a quantidade de redundância
em uma linguagem natural ou codificada. Voltando sua atenção para as aplicações na física,
Rapoport (1955) observa que “a fórmula para a quantidade de informação se parece
exatamente com a fórmula para a entropia na mecânica estatística” (p. 168), e insiste na
:::
importância dessa matemática (em vez de meramente metafórica) analogia: “Tal analogia é
evidência de estrutura similar em duas ou mais classes de eventos, e muito pode ser
deduzido de tal similaridade” (p. 168).
Uma explicação da relação entre informação e entropia requer alguma familiaridade com
conceitos relacionados em termodinâmica, ou seja, o estudo das leis físicas que governam
a conversão de energia de uma forma para outra e o fluxo de energia de um objeto para
outro.8 Estes as leis são expressas em termos de relações quantitativas entre quantidades
de trabalho, energia, calor, temperatura e entropia. Trabalho é a ação de uma força sobre
um objeto, e energia é a capacidade de um objeto realizar trabalho. Ambos são medidos em
joules. A energia tem duas formas: energia potencial, que um objeto tem como consequência
de sua posição, forma ou estado; e energia cinética, que um objeto tem como consequência
de seu movimento. O calor é o fluxo de energia de um objeto para outro como resultado da
diferença de temperatura: quando o calor flui, diz-se que o objeto do qual o calor flui está em
uma temperatura mais alta; quando nenhum calor flui entre dois objetos, suas temperaturas
são iguais. No ultimo
162 J. Furner
Nesse caso, diz-se que a energia dos objetos não está disponível para realizar trabalho. A
entropia é a indisponibilidade de energia em um sistema, medida em joules por kelvin, e é
maximizada quando as temperaturas de todos os objetos no sistema são iguais. A segunda
lei da termodinâmica especifica que a entropia de qualquer sistema fechado – ou seja, o
grau em que as temperaturas dos objetos no sistema são uniformes – aumenta com o tempo.
O conceito de entropia foi introduzido em 1865 por Rudolf Clausius (físico alemão; 1822–
1888), que já havia formulado a segunda lei da termodinâmica em 1850. Uma fórmula para
calcular a entropia - S D k ln W - recebeu o nome de Ludwig Boltzmann (Físico austríaco;
1844–1906). Aqui k é a constante de Boltzmann, igual a 1,38062 1023 J/K, e W é o número
de maneiras distintas pelas quais os átomos e moléculas que compõem o sistema podem
ser arranjados preservando a temperatura do sistema, ou seja, o número de microestados
possíveis do sistema que são consistentes com seu macroestado atual. Esta fórmula
assume que cada microestado é igualmente provável. Uma generalização da entropia de
Boltzmann é devida a J. Willard Gibbs (cientista americano, 1839–1903): S D k Pp ln p,
onde p é a probabilidade de ocorrência de um microestado. A semelhança na forma desta
fórmula com a introduzida na Seção 7.4.2 acima (e contrastado com surpresa e informação
mútua na Tabela 7.2 acima) deve ser observado.
Frequentemente se argumenta - como Rapoport (1955) faz em seu WII - que a entropia
pode ser vista como uma medida da desordem de um sistema, no sentido de que um valor
mais alto de entropia indica um número maior de configurações possíveis do sistema em o
nível microscópico. Mas essa caracterização da entropia pode ser confusa, principalmente
quando se considera que, no nível macroscópico, maior entropia indica maior uniformidade,
homogeneidade e equilíbrio.
Em resumo: Na apresentação de Rapoport (1955) , os leitores são apresentados aos
conceitos (se não aos termos precisos) de surpresa, entropia e informação mútua; e somos
convidados a considerá-los como medidas de quantidades de informação, com a implicação
de que informação deve ser igualada a informatividade.
Nesta visão, a informação não é algo que tem informatividade: é a informatividade de algo.
Nos termos de Lowe (2006) , instâncias da informação de Rapoport são modos.
Nosso segundo WII (o que é informação?) de interesse é o de Tom Stonier (1986). Stonier
(1927–1999) foi um biólogo nascido na Alemanha, ativo nos EUA e no Reino Unido, que
fez contribuições célebres para STS (ciência, tecnologia e sociedade) e estudos sobre a
paz. Ele escreveu uma trilogia de livros (Stonier 1990, 1992, 1997) desenvolvendo uma
“teoria geral da informação” baseada na ideia um tanto controversa de que a entropia pode
ser negativa.
Stonier (1986) começa seu WII falando sobre informação em um sentido bastante
convencional, como algo que as pessoas “absorvem” toda vez que falam ou leem, que pode
ser armazenado fora do cérebro humano e (como “dados brutos”) é processado não apenas por
Machine Translated by Google
cérebros humanos, mas por “máquinas de informação” (ou seja, computadores). Ele observa
que a ciência da termodinâmica surgiu apenas quando tivemos experiência com “máquinas de
energia” (ou seja, máquinas a vapor), e expressa frustração por, em sua opinião, ainda não
termos uma “ciência da informação” equivalente que nos permita compreender as “propriedades
reais da informação, como função, estrutura, comportamento dinâmico e características
estatísticas” (Stonier 1986: 220, citando Scarrott 1986). Torna-se então claro que Stonier está
:::
tentando tratar a informação como “uma propriedade do universo” – ou seja, uma entidade
física em si mesma, análoga à matéria e à energia, e talvez até mesmo presente na forma de
partículas como infons.
A concepção de informação de Stonier (1986) é de uma quantidade I cujos valores podem
ser calculados usando a fórmula I D 1/ W, onde W tem o mesmo significado que na fórmula de
Boltzmann para entropia. Em outras palavras, a informação de Stonier é o recíproco do número
de possíveis microestados do sistema que são consistentes com seu macroestado atual, e a
relação entre a entropia e a informação de Stonier é dada por S D k ln c/ I, onde c é uma
constante que podem variar entre sistemas de diferentes tipos.
Stonier (1986) é muito claro sobre a diferença entre sua concepção de informação e a que
atribui a Shannon: Os dois conceitos são “diametralmente opostos” (p. 222). Um sistema em
estado de alta entropia, ou seja, caracterizado por uma uniformidade de temperatura (no nível
macroscópico) e um alto nível de desordem atômica e molecular ou aleatoriedade (no nível
microscópico), é aquele que exibe uma grande quantidade de (o que Stonier caracteriza como)
informação de Shannon, mas uma pequena quantidade de informação de Stonier. Por outro
lado, se um sistema é altamente ordenado, altamente organizado, altamente diferenciado,
altamente complexo e altamente improvável – como moléculas orgânicas e células vivas são –
então seu conteúdo de informação Stonier é alto.9 De fato, Stonier sugere que é possível para
a maioria sistemas complexos (e, portanto, informativos) sejam caracterizados por valores de
entropia que descem abaixo de 0, ou seja, valores de entropia negativa. Um caso como esse,
no entanto, exigiria um valor para W menor que 1, e Stonier não deixa claro como esse valor
poderia ser gerado. É importante reconhecer, além disso, que a caracterização de Stonier da
“informação” de Shannon como equivalente à entropia é uma visão estreita na qual outros
conceitos de informação derivados da teoria da probabilidade (informação mútua em particular;
ver Fig. 7.2 e Tabela 7.2 ) são ignorados .
A concepção de informação de Stonier (1986) é a peça central de sua proposta para uma
nova “física da informação” na qual matéria, energia e informação são reconhecidas como os
três componentes básicos do universo. Qualquer sistema que não seja aleatório em sua
estrutura - ou seja, qualquer sistema que seja ordenado de alguma forma - contém informações:
“O que a massa é para a manifestação da matéria e o momento é para a energia, a organização
é para a informação” (p. 224) . Assim como diferentes formas de matéria (isto é, sólido, líquido,
gás) contêm diferentes quantidades de energia, diferentes formas de energia (por exemplo,
energia mecânica, energia química, energia elétrica) contêm
9A ideia de que a informação é uma quantidade equivalente ao recíproco da entropia deve-se a Norbert
Wiener (1948), que Stonier não cita.
Machine Translated by Google
164 J. Furner
O trabalho deve ser reconceituado como um processo que pode resultar em uma mudança no conteúdo de
informação de um sistema, bem como (ou ao invés de) uma mudança no conteúdo de energia de um sistema.
“Demais coisas sendo iguais, o conteúdo de informação de um sistema é determinado
pela quantidade de trabalho necessária para produzir a informação ou organização
exibida pelo sistema” (p. 224). Stonier chega a propor que a luz contém informação e que
um fóton não é em si uma partícula elementar; em vez disso, é composto de dois
componentes elementares: um energon (ou seja, um quantum de energia pura) e um
infon (ou seja, um quantum de pura informação). “[Infons] não apareceria em nenhum
experimento de física tradicional, uma vez que tais partículas não possuiriam massa nem
energia – elas, no entanto, manifestariam seus efeitos por mudanças na organização” (p.
227).
A postulação da existência de fenômenos quânticos de qualquer tipo levanta algumas
questões complicadas para os ontologistas.10 Certamente não é imediatamente óbvio
onde, na ontologia de quatro categorias de Lowe (2006) , as partículas de informação
pura sem massa e energia devem ser colocadas; mas as categorias de modo e objeto
são duas possibilidades. Esclarecer o status ontológico da informação é uma questão
importante para os teóricos contemporâneos que, seguindo Stonier e outros, defendem
concepções de informação como algum tipo de princípio estruturante ou organizador
exercido sobre a matéria e a energia.11
relato convincente da informação como os significados dos signos - em virtude do qual sua
concepção encontra seu habitat natural entre a família semiótica (identificada na Seção 7.2
acima) que está bem estabelecida na comunidade LIS.12
Lagache (1997) inicia sua discussão (p. 284) com uma declaração do “princípio geral”
da informação de Gregory Bate son como “uma diferença que faz diferença”
(Bateson 1972), e prossegue para reconciliar esta definição com uma visão semiológica do
papel central da informação no processo de significação ou representação.
Os principais elementos dessa concepção são os seguintes (Lagache 1997):
• Signos são aqueles fenômenos que são informativos, isto é, aquelas “diferenças” (isto é,
distinções entre um “elemento” e a “estrutura” na qual ele aparece) que “fazem diferença”
ao se tornarem “significativos” (isto é, literalmente, significando ou representando).
13A semelhança deste argumento com a explicação de Suzanne Briet (1951) sobre a distinção que deve ser feita entre o status
documental de um antílope na natureza e o de um antílope em um zoológico (uma explicação que é bem conhecida no LIS graças
ao glosas fornecidas por Michael Buckland e outros; ver, por exemplo, Buckland 1991) é impressionante, especialmente dada a
caracterização de documentos de Briet como sinais (índices). No entanto, deve-se notar que as pinturas de Sartre assumem um
papel de signo apenas quando estão sendo observadas; ao passo que, uma vez que entra na coleção do zoológico, o antílope de
Briet permanece um documento mesmo quando ninguém está olhando para ele.
Machine Translated by Google
166 J. Furner
(a) No “nível mais primário” da representação, existem imagens, que são “semelhantes à coisa, mas
mantendo uma diferença constitutiva com as coisas” (p. 286), por exemplo, a representação da
mão de um homem formada pelo homem mergulhando a mão na tinta e depois pressionando-a
na parede: “ ::: [I]magos ::: significantes, isto é, um signo concreto da coisa, mas são
14Lagache (1997: 284) também cita Merleau-Ponty, de sua Fenomenologia da percepção (1945):
“A mera presença de um ser vivo transforma o mundo físico, faz aparecer aqui alimentos, ali
esconderijos, e confere aos estímulos um significado eles não tinham.
Machine Translated by Google
O ideograma, substantivo de uma coisa, tem sido tomado como um som, que se refere
não à coisa, mas à vocalização de seu substantivo. Há uma transferência analógica
da referência à coisa, ao acontecimento corporal de vocalização do seu nome” (p.
288). (d) E, finalmente, há signos simbólicos, ou seja, palavras escritas, onde a “ruptura
entre significado e significante” é completa: “As letras são completamente simbólicas:
não são mais imagens; referem-se ao registro da linguagem verbal como suporte de
todos os referentes necessários” (p. 287).15
A rigor, o que Lagache chama de meros sinais (por exemplo, “um feromônio entre
borboletas”, p. 285) não são informativos, porque não têm uma função representacional e
não são interpretáveis. Como objetos materiais, os sinais desempenham apenas um papel
“determinista” (isto é, causal).
Para Lagache, então, os signos são o que são informativos: a informatividade é uma
propriedade dos signos. Mas os próprios signos não são informação, já que informação
não é o que tem informatividade: informação é informatividade. A informação (ou seja, a
informatividade) de um signo é o seu significado. Nos termos de Lowe (2006) , instâncias
da informação de Lagache são modos. Embora as duas sejam bastante diferentes uma da
outra em seu conteúdo, a concepção Shannoniana (baseada na teoria da probabilidade) e
a concepção Lagachiana (baseada na semiótica) são surpreendentemente semelhantes
no status ontológico que atribuem à informação.
No contexto das questões levantadas até agora, duas das revistas representadas na lista
da Tabela 7.4 são de particular interesse. Dada a sua relativa falta de visibilidade no LIS
no momento, pode ser útil fornecer alguns detalhes contextuais, antes de darmos uma
olhada em mais dois WIIs que apareceram muito recentemente em suas páginas.
Information é o título direto de um periódico on-line relativamente novo16 , de acesso
aberto e revisado por pares, publicado trimestralmente pelo MDPI17 de Basel, Suíça. Isso é
15Como Lagache não usa a terminologia semiótica padrão (devido a Peirce; ver, por exemplo, Atkin 2010) de
ícone, índice e símbolo, não fica imediatamente claro como os três primeiros de seus quatro tipos de signos
devem ser mapeados para um signo peirceano estrutura. Por exemplo, a impressão da mão é um ícone
(referindo-se a seu objeto por meio de similaridade) ou um índice (referindo-se a seu objeto por meio de uma conexão física)?
16Seu primeiro volume foi publicado em 2010.
17Do site do MDPI em http://www.mdpi.com/about/history, aprendemos que, na época de sua fundação em
1996 como um instituto sem fins lucrativos para “a promoção e preservação da diversidade de compostos
químicos” e como editor da revista eletrônica Molecules, MDPI originalmente significava “Molecular Diversity
Preservation International ”; que agora significa “Instituto Multidisciplinar de Publicação Digital”; e que a
organização agora publica mais de 70 periódicos de acesso aberto em uma variedade de (principalmente)
campos científicos, muitos dos quais são financiados pela coleta de “taxas de processamento de artigos” dos
autores dos artigos de periódicos.
Machine Translated by Google
168 J. Furner
18 Consulte http://www.mdpi.com/journal/information/about/
19 Consulte http://www.mdpi.com/journal/information/editors
20 Consulte http://www.math.ucla.edu/mburgin/fl/cv.htm
21 Uso da informação: Suzie Allard e Kizer Walker; cienciometria: Loet Leydesdorff e Lokman Meho; ética
da informação: Rafael Capurro, Luciano Floridi e Herman Tavani; ciência da computação: Gordana Dodig-
´
Crnkovic, Lorenz Hilty e Paul Vitanyi; física: Giorgio Kaniadakis, Andrei Khrennikov e Robert Logan;
consulte http://www.mdpi.com/journal/information/editors 22FIS 2010: Towards a New
Science of Information (Pequim, China, 20–23 de agosto de 2010), co-presidido por Hua-Can He, Pedro
´
Marijuan e Wolfgang Hofkirchner, com Burgin, Floridi e Logan entre os membros de seu comitê
internacional conselho consultivo, foi a Quarta Conferência Internacional sobre os Fundamentos da
Ciência da Informação; veja http://bitrumagora.wordpress.com/ 2010/03/17/2010fis-conference/
23 Consulte http://www.triple-c.at/index.php/tripleC/index
Machine Translated by Google
pelo teórico da mídia Christian Fuchs (Universidade de Uppsala, Suécia).24 Ele fornece
um fórum para a discussão dos “desafios que a humanidade enfrenta hoje na sociedade
da informação”, e seu escopo é definido pela seguinte lista de áreas temáticas: “sociedade
da informação estudos, estudos de mídia e comunicação, pesquisa na internet, estudos
de novas mídias, informática social, tecnologias de informação e comunicação e
sociedade; estudos de ciência e tecnologia (STS), avaliação de tecnologia, design
science; ciências sociais, economia, economia política, estudos de comunicação; ciência
da informação, estudos da informação, ciência cognitiva, semiótica; filosofia,
humanidades, artes; com um interesse especial em estudos críticos” Submissões para a
:::
revista são necessárias para mostrar como as descobertas contribuem para “a iluminação
das condições que promovem ou impedem o avanço de uma sociedade da informação
participativa e sustentável global.”25
O conselho editorial da TripleC inclui vários estudiosos de estudos de informação;
vários que também fazem parte do conselho da Information ; vários membros do Grupo
de Pesquisa UTI; e vários que atuaram no conselho consultivo do FIS 2010.26 Em outras
palavras, há muita sobreposição entre os membros desses órgãos, indicando a existência
de uma comunidade de pesquisa relativamente pequena, mas bem definida e coesa. A
TripleC publicou muitos artigos nos quais a pergunta “O que é informação?” é um tópico
´
central, incluindo artigos de Burgin, Marijuan, Brenner, Collier e (em uma edição especial
de 2009 sobre “O que é realmente informação? Uma abordagem interdisciplinar”)
Capurro, Floridi, Fleissner, Fuchs, D´ÿaz Nafr´ÿa e Hofkirchner. Uma edição especial de
2011 sobre “Rumo a uma nova ciência da informação” coletou 31 outras contribuições
para o FIS 2010, somando-se às 14 publicadas na Information.
Poucos dos artigos publicados nas edições especiais de Information e TripleC citam a
literatura LIS ou (ainda) atraem citações do LIS. Por que isso pode ser? Existe uma
sensação em qualquer um dos campos de que o outro tem pouco a oferecer? Ou uma
falta de consciência da existência um do outro? Uma maneira de abordar essa questão
seria realizar uma revisão abrangente dos tipos de respostas para a pergunta “O que é
informação?” perguntas que são fornecidas na comunidade Information–TripleC–UTI–
FIS , e para determinar o quão diferentes elas são daquelas que são rotineiramente
coletadas nas pesquisas que são lidas e citadas pelos estudiosos do LIS. Não é minha intenção fazer is
24Hofkirchner é o atual presidente do UTI Research Group; Fuchs é membro de seu conselho
executivo. O Grupo de Pesquisa da UTI enfoca “o papel da informação, comunicação, mídia,
tecnologia e cultura na sociedade”, contribuindo para “estudos de ciência da informação, comunicação
e mídia e estudos de ciência e tecnologia”; ver http://uti.at/ 25Veja
http://www.triple-c.at/index.php/tripleC/about/editorialPolicies 26Estudos
de informação: Ron Day, Michel Menou, Alice Robbin e Dan Schiller; Conselho editorial de
informações´ : Burgin, Capurro, Dodig-Crnkovic, Hilty, Leydesdorff e Logan; Grupo de Pesquisa da
UTI: Jose Mar ´ÿa D´ÿaz Nafr´ÿa, Peter Fleissner, Francisco Salto e Rainer Zimmermann, assim
como Hofkirchner
´ e novamente Burgin; Conselho consultivo do FIS 2010: Søren Brier, John Collier,
Charles Ess, Pedro Marijuan, Michel Petitjean e Tom Ziemke, bem como D´ÿaz Nafr´ÿa, Fleissner,
Hofkirchner, Logan, Zimmermann e Burgin mais uma vez; consulte http://www.triple-c.at/index.php/
tripleC/about/ editorialTeam
Machine Translated by Google
170 J. Furner
aqui, mas uma amostra dos tipos de resultados que podemos obter de tal estudo pode
ser dada por um exame dos dois WIIs em nossa lista que foram produzidos por membros
do grupo recém-emergido.
Assim como os autores de outros artigos de revisão, Logan defende uma abordagem
pluralista das concepções de informação. Ele analisa várias concepções e argumenta
que cada concepção individual é apropriada apenas para um contexto limitado diferente.
Ele dá maior atenção a quatro tipos de informação, três explicitamente (informação de
Shannon, informação estrutural e informação biótica) e um um pouco menos, no sentido
de que ele não a rotula senão como uma variante Wieneriana da informação de Shannon.
(a) Informações de Shannon. Logan (2012) afirma que, apesar das reivindicações feitas
para os outros tipos de informação que ele identifica, é a informação de Shannon
que “foi aceita como a definição canônica de informação por todos, exceto por um
pequeno grupo de críticos” (p. 75). . (Isto pode ser verdade para a própria disciplina
de física de Logan, mas não é obviamente assim em LIS, por exemplo, nem em
filosofia - não obstante a afirmação de Logan de que, "[i] se alguma vez pressionado
sobre o assunto, a maioria dos especialistas ou filósofos de TI contemporâneos
voltar à definição de informação de Shannon” (p. 80). Logan apresenta seu artigo
como um antídoto oportuno para o que ele vê como uma aceitação acrítica do
paradigma Shannoniano, no qual ele demonstra a inaplicabilidade das informações
de Shannon além da engenharia de telecomunicações e em particular à
bioinformática. (b) Informação de Wiener. A motivação para a apresentação de Logan
da variante Wieneriana da informação de Shannon é sua convicção de que, qualquer
outra informação que seja, não é entropia. Como “muitos físicos antes” dele, Logan (2012) é
27Conforme indicado anteriormente, Logan é membro do conselho editorial de ambas as revistas e fez parte
do conselho consultivo da FIS 2010. Logan também faz parte do conselho de administração do Science of
Information Institute (SoII; consulte a Seção 7.6.2 abaixo ).
Machine Translated by Google
A questão real, que Logan levanta, não é que Shannon esteja de alguma forma
errado em sua representação da entropia, mas sim que estaríamos errados se
usássemos a fórmula de entropia de Shannon para medir informações.
A posição de Logan é que, na medida em que a informação é concebível como uma
quantidade, ela é inversamente (em vez de diretamente) proporcional à entropia.
Nesse sentido, a concepção de Logan é análoga à de Stonier (1986), discutida acima
na Seção. 7.5.2. Enquanto a entropia é uma medida de desordem, a informação (para
Logan) é uma medida de ordem. Logan (2012) credita Norbert Wiener como a fonte
desse insight: “Assim como a quantidade de informação em um sistema é uma medida
de seu grau de organização, a entropia de um sistema é uma medida de seu grau de
desorganização”. (p. 86, citando Wiener 1948). A concepção Wieneriana de informação
que Logan defende é aquela segundo a qual a informação é maximizada no caso de
um sistema maximamente ordenado ou organizado, ao invés de (como Logan interpreta
Shannon como sugerindo) no caso de um sistema maximamente desordenado,
desorganizado, randomizado ou sistema caótico. (c) Informação
estrutural. Seguindo Hayles, Logan identifica Donald MacKay como o criador em 1951 de
uma concepção rival de informação – “informação estrutural”, definida como a “mudança
na mentalidade de um receptor” (Logan 2012: 74; citando Hayles 1999 ) . Para Logan,
a informação estrutural está “relacionada com o efeito da informação na mente do
receptor ::: ” e essencialmente com o significado – não apenas “o significado literal de
:::
uma frase”, mas também o significado “que o falante ou escritor pretendido” e “as
possíveis interpretações do receptor” (p. 76). (d) Informação biótica. Logan (2012)
então volta sua atenção para as
concepções de informação aplicáveis em contextos biológicos, e apresenta um relato de (o
que ele e seus colegas chamaram) informação biótica ou instrucional, definida como “a
organização da [a] troca de energia e matéria ” que os organismos vivos (ou seja,
agentes bióticos) “se propagam” através da replicação (pp. 78–79) e
Machine Translated by Google
172 J. Furner
coisas materiais, [ela] não é material em si” (Logan 2012: 81), mas sim “ uma
quantidade ” (p. 81), “um padrão” (p. 81, citando Hayles 1999) e “uma abstração” (p.
82). A ideia aqui é que, ontologicamente falando, as instâncias da informação de
Shannon devem ser consideradas como propriedades de coisas materiais – ou seja,
nos termos de Lowe ( 2006) , como modos. Para Logan, é precisamente essa
imaterialidade ou insubstancialidade da informação de Shannon que mais pesa
contra sua aplicabilidade em contextos
biológicos. (b) Informação estrutural. Devemos pensar na informação estrutural de uma
maneira shannoniana, ou seja, como uma medida da quantidade de mudança que
ocorre no estado de conhecimento de um destinatário como resultado do recebimento
de uma mensagem? Ou como o conteúdo semântico ou o significado da mensagem,
ou mesmo como a própria mensagem – a causa ou o catalisador da mudança? Ao
introduzir inicialmente a ideia de informação estrutural, Logan (2012) é ambíguo
nesse ponto; mas, um pouco mais adiante em seu artigo, ele cita com aprovação
uma versão da pirâmide DIKW (Documento–Informação–Conhecimento–Sabedoria)28
na qual dados são definidos como “fatos puros e simples sem nenhuma estrutura ou
”
organização particular ::: ,” e informação como “dados estruturados, que :::
agregam mais significado aos dados (p. 83, citando Logan e Stokes 2004). Aqui,
Logan claramente iguala os dados com “os sinais transmitidos entre o remetente e o destinatário de
´
28Ver, por exemplo, Fricke( 2009).
Machine Translated by Google
que
informações com “dados têm significado”
:::
(p. 83). Por conta disso, a intenção parece ser que
:::
informação e significado sejam tratados como coisas de diferentes tipos ontológicos: isto é, que
significado (uma propriedade) é algo que pode ser atribuído à informação (uma substância). Essa
concepção de instâncias de informação como (nos termos de Lowe (2006) ) objetos concretos
que têm significado contrasta com aqueles da família semiótica (por exemplo, Lagache (1997),
discutido na Seção 7.5.3 acima) em que a informação é significado. (c) Informação biótica. Uma
maneira pela qual a concepção de informação biótica de Logan é semelhante
à sua concepção de informação estrutural é em virtude da distinção que ele faz entre a própria
informação biótica e o significado ou efeito que a informação biótica tem. Além disso, Logan
(2012) é ainda mais claro sobre a materialidade da informação biótica do que sobre a materialidade
da informação estrutural: “a informação biótica está muito ligada à sua instanciação material nos
ácidos nucleicos e proteínas de que é composta” (p. . 84), ele escreve, acrescentando, “[um]
sistema biológico é tanto um padrão de informação quanto um objeto material ou, mais
precisamente, padrões de informação instanciados em uma presença material” (p. 84). De fato,
é a natureza material dos ácidos nucléicos e das proteínas que lhes permite participar de
interações químicas com outras biomoléculas. Logan contrasta a natureza simbólica da
informação de Shannon (e, por implicação, da informação estrutural) com a natureza química da
informação biótica: no primeiro caso, o meio da mensagem, a própria mensagem e o conteúdo
da mensagem (isto é, sua informação ) são todos “bastante separados” e “independentes” uns
dos outros, enquanto no último caso, “[o] meio é tanto a mensagem quanto o conteúdo” (p. 85).
No entanto, Logan não chega a argumentar, como fizeram alguns outros físicos e proponentes da
vida artificial, que a própria matéria orgânica pode ser reduzida a informação – que os seres humanos,
por exemplo, são construídos de informação e nada mais. O “erro” que esses outros cometem, de
acordo com Logan (2012), é deixar de apreciar o que Bateson (1972) e outros articularam claramente
– ou seja, que a verdadeira natureza da informação é “a organização das moléculas das quais nós
são compostos” (p. 87, grifo do autor) em vez das próprias moléculas.
Logan parece estar nos pedindo para conceber a informação simultaneamente como material
(isto é, como matéria biomolecular) e imaterial (isto é, como algum tipo de propriedade dessa
matéria). No entanto, ainda não está claro exatamente que tipo de meio-termo está
ontologicamente disponível para nós entre (como Lowe (2006) teria) informação-como-objeto
e informação-como-modo, ou precisamente como a concepção de Logan se relaciona com a
de Stonier (1986) ou Versões de Bates (2005, 2006) de informação como organização.
Voltamo-nos agora para outro autor cujas conexões institucionais o colocam no ´ÿa centro do grupo
Information–TripleC–UTI–FIS identificado anteriormente. Jose Mar ´
Machine Translated by Google
174 J. Furner
Objetivo-Relacional-Subjetivo
29Ver Seção 7.6 acima. D´ÿaz Nafr´ÿa também é membro do conselho editorial da TripleC e atuou
no conselho consultivo da FIS 2010.
30O Science of Information Institute, fundado em 2006, é “dedicado ao desenvolvimento e
reconhecimento da informação como uma ciência única que cruza as disciplinas acadêmicas
tradicionais”; consulte http://www.soii.info/. Hofkirchner,
´ Logan e D´ÿaz Nafr´ÿa estão entre os
membros de seu conselho de administração; Burgin, Collier, Dodig-Crnkovic, Marijuan, Salto e
Zimmermann, bem como Brier, Floridi, Elizabeth Buchanan (Center for Applied Ethics, Wisconsin-
Stout) e Leah Lievrouw (Information Studies, UCLA), estão entre os membros do seu comitê consultivo científico.
31A International Society for Information Studies foi fundada em 2011 com sede em Viena, Áustria,
e tem como objetivo promover “estudos globais e colaborativos nas ciências da informação,
tecnologia da informação e sociedade da informação como um campo em si, impulsionando a
elaboração de quadros conceituais comuns, cuja implementação na prática contribui para vencer os
desafios da era da informação”; consulte http://mod1.syros.aegean. gr/soii/index.php/en/news/3-
newsflash/41-the-fifth-congress-on-the-foundations-of-information science-will-be-held-next-summer-
in-russia-under -isis-suporte O 32BITrum é um “grupo de
investigação interdisciplinar ::: constituído para desenvolver uma clarificação conceptual e teórica
da informação, pretendendo reunir todos os pontos de vista relevantes e procurando preservar
todos os interesses em jogo (científicos, técnicos e sociais)”; consulte http://en.bitrum. unileon.es/.
A BITrum foi fundada por D´ÿaz Nafr´ÿa e Salto em 2008 e conta com Brier, Buchanan, Burgin,
Capurro, Dodig-Crnkovic, Fleissner, Floridi, Hofkirchner, Petitjean e Zimmermann entre os membros
de seu comitê científico.
Machine Translated by Google
• informação como uma classe de objetos cujos significados são intrínsecos e não dependem
da tomada de decisão humana versus informações cujos significados são determinados por
intérpretes.
Sintático-Semântico-Pragmático
D´ÿaz Nafr´ÿa (2010) argumenta que é útil categorizar separadamente as teorias da informação
em uma segunda dimensão de acordo com o tipo de “grandes questões” sobre as propriedades
da informação que abordam, e identifica três desses tipos:
• perguntas sobre o conteúdo sintático da informação – por exemplo, “Como é expresso?” (p.
84) – onde “mensagens que ::: [cumprem] todos os requisitos sintáticos” são tratadas como
informativas até certo ponto, mesmo se “falsas, incorretas, inúteis, [ou] redundantes” (p.
81); • perguntas sobre o
conteúdo semântico da informação – por exemplo, “O que isso representa?” e “Com que valor
de verdade?” (p. 84) — “pela qual os sinais ou símbolos considerados pela MTC [teoria
matemática da comunicação de Shannon] são necessariamente referidos a algo” (p. 81); e
• perguntas sobre o conteúdo pragmático da informação – por exemplo, “Que valor e utilidade
ela tem?” (p. 84) — “pelo qual a informação é a base para a ação, seja por atores
intencionais, seres vivos ou sistemas automáticos” (p. 81).
Disciplinas Técnicas–Ciências–Filosofia
176 J. Furner
D´ÿaz Nafr´ÿa (2010) observa uma ampla correlação entre todas as suas três dimensões:
“o fato de ter as ciências naturais à esquerda [da exibição diagramática da taxonomia
disciplinar] e as ciências sociais ou humanas à direita tem o consequência disso, à esquerda
prevalecem as teorias mais sintáticas e objetivistas, enquanto à direita predominam as
teorias semânticas, pragmáticas e mais subjetivistas” (p. 88).
Como muitos já fizeram, D´ÿaz Nafr´ÿa (2010) pergunta: “Existe uma única noção [de
informação] útil para todas as disciplinas? Em outras palavras, toda noção científica pode
ser reduzida a uma única e fundamental? (pág. 88). Em vez de fornecer uma resposta direta,
sua preferência é apontar para o fato de que “há algumas deficiências em todo conceito de
informação em relação a outros” (p. 88) e indicar as questões mais proeminentes sobre as
quais o acordo teria que ser feito. ser alcançado antes que qualquer teoria unificada pudesse
esperar atrair apoio generalizado. Com esse último objetivo em mente, a segunda metade
de seu artigo compreende um glossário de alguns dos conceitos que são centrais para este
discurso.33 A entrada sobre
“Biblioteconomia e Biblioteconomia Especial” neste glossário identifica “dois significados
opostos” do conceito de informação utilizado em LIS: “(1) a informação como objeto em
documentos, e (2) sua subjetivação radical, ou seja, informação como tudo 'que pode ser
informativo para alguém.'” (p. 101). A distinção que está sendo feita parece ser aquela entre
duas características separadas de instâncias de informação – a saber, seu status ontológico
como objetos concretos (nos termos de Lowe (2006)) e sua função representacional – ambas
as quais são consistentes com várias versões de um simples visão da informação como
dados significativos (cf., por exemplo, a versão de Logan (2012) da pirâmide DIKW) que não
está totalmente integrada na estrutura de D´ÿaz Nafr´ÿa. Nessa visão, os dois significados
são complementares em vez de “opostos”.
7.7 Conclusão
Luciano Floridi é atualmente o estudioso mais prolífico e amplamente celebrado que trabalha
com problemas de filosofia e informação (cf. Furner 2010: 170–173). Nos últimos anos,
desenvolveu uma hierarquia de categorias de fenômenos que inclui (i) dados; (ii) informação
(semântica), também conhecida como conteúdo (semântico) — ou seja, dados significativos
e bem formados; e (iii) informações factuais, também conhecidas como informações
semânticas “epistemicamente orientadas” – ou seja, dados verdadeiros, significativos e bem
formados (ver, por exemplo, Floridi 2003: 42–46). A definição “geral” de informação de Floridi
(GDI) especifica três condições (data-ness, boa formação e significância) que devem ser
satisfeitas para que um x se qualifique como uma instância de informação, enquanto sua
definição “específica” de informação (SDI ) acrescenta um quarto (veracidade). Ele observa que o senso ger
custo, significância, e assim por diante são cruciais” (Floridi 2003: 57, ênfase no original).
Essa lista de valores – alternativas, de certa forma, à verdade – serve para nos lembrar que
as concepções de informatividade e conhecimento dos estudiosos da LIS são tipicamente
bem diferentes daquelas tradicionalmente aceitas por epistemólogos ou cientistas naturais.
Os teóricos da LIS na tradição sociocognitiva, por exemplo, tendem a se interessar por
mudanças nas estruturas cognitivas pessoais ou “imagens” do mundo, em como essas
mudanças são produzidas e em como as necessidades e desejos pessoais são atendidos,
em vez de em questões de “verdade”; e os da tradição semiótica tendem a aderir a uma ou
outra das versões subjetivistas nas quais os significados dos signos são subdeterminados
pelas propriedades dos próprios signos (cf. Furner 2010: 173-178 ).
178 J. Furner
essas comunidades têm boas razões para procurar ajuda nos estudos de informação.
Qualquer abordagem para conceituar informação que menospreze as contribuições de LIS
– ou seja, informação sem estudos de informação – é desnecessariamente empobrecida,
não menos por conta da gama de possibilidades ontológicas que ela perde.
Agradecimentos Gostaria de agradecer aos editores deste volume, Tom Dousa e Fidelia Ibekwe-SanJuan, por seus
comentários muito úteis sobre uma versão anterior deste capítulo.
Referências
Atkin, A. 2010. A teoria dos signos de Peirce. Na enciclopédia de filosofia de Stanford, ed. E. Zalta.
Stanford: Universidade de Stanford. http://plato.stanford.edu/entries/peirce-semiotics/. Acessado em 3 de
setembro de 2012.
Bates, MJ 2005. Informação e conhecimento: Uma estrutura evolutiva para a informação.
Pesquisa de Informação 10(4). http://informationr.net/ir/10-4/paper239.html. Acessado em 3 de setembro de
2012.
Bates, MJ 2006. Formas fundamentais de informação. Jornal da Sociedade Americana de
Ciência e Tecnologia da Informação 57(8): 1033–1045.
Bates, MJ 2010. Informação. Na Enciclopédia de Biblioteconomia e Ciências da Informação, 3ª ed, ed.
MJ Bates e MN Maack, 2347–2360. Boca Ratón: CRC Press.
Bateson, G. 1972. Passos para uma ecologia da mente: ensaios coletados em antropologia, psiquiatria,
evolução e epistemologia. São Francisco: Chandler. ´
Briet, S. 1951. O que é documentação? Paris: Documentário, Industrial e
Técnicas.
Buckland, MK 1991. Informação como coisa. Jornal da Sociedade Americana de Informação
Ciência 42(5): 351–360.
Capurro, R. 1978. Informação: Um contributo para a história etimológica e intelectual
Justificativa do conceito de informação. Munique: Saur.
Capurro, R., e B. Hjørland. 2003. O conceito de informação. Revisão Anual de Informações
Ciência e Tecnologia 37: 343–411.
Case, DO 2012. O conceito de informação. Em Procurando por informações: um levantamento de pesquisas sobre
busca de informações, necessidades e comportamento, 3ª ed, 45–75. Bingley: Esmeralda.
Cover, TM e JA Thomas. 1991. Elementos da teoria da informação. Nova York: Wiley.
D´ÿaz Nafr´ÿa, JM 2010. O que é informação? Uma preocupação multidimensional. TripleC: Cognição, Comunicação,
Cooperação 8(1): 77–108. http://www.triple-c.at/index.php/tripleC/article/view/76 . Acessado em 1 de agosto de
2012.
Dretske, FI 1981. Conhecimento e fluxo de informação. Cambridge, MA: MIT Press.
Floridi, L. 2003. Informação. No guia Blackwell para a filosofia da computação e
informação, ed. L. Floridi, 40–61. Oxford: Blackwell.
French, S. e D. Krause. 2006. A lógica dos quanta. Em Identidade na física: Uma análise histórica, filosófica e formal,
354-383. Oxford: Oxford University Press.
Fricke,´M. 2009. A pirâmide do conhecimento: Uma crítica da hierarquia DIKW. Journal of
Information Science 35(2): 131–142.
Furner, J. 2004. Estudos de informação sem informação. Library Trends 52(3): 427–446.
Furner, J. 2010. Filosofia e estudos de informação. Revisão Anual da Ciência da Informação e
Tecnologia 44: 161–200.
Hartley, RVL 1928. Transmissão de informações. Bell System Technical Journal 7: 535–563.
Hayles, NK 1999. Como nos tornamos pós-humanos: corpos virtuais na cibernética, literatura e
informática. Chicago: University of Chicago Press.
Machine Translated by Google
Lagache, A. 1997. O que é informação? Em Sinais e imagens: artigos selecionados da 7ª e 8ª reunião do GIRI,
realizada em Montpellier, França, de 20 a 21 de novembro de 1993, e Jerusalém, Israel, de 10 a 11 de
dezembro de 1994, ed . M. Bastide, 279–292. Dordrecht: Kluwer Academic.
Logan, RK 2012. O que é informação? Por que é relativista e qual é a sua relação com a materialidade,
significado e organização. Informação 3(1): 68–91. http://www.mdpi.com/2078-2489/3/1/68 . Acessado em
1 de agosto de 2012.
Logan, RK e LW Stokes. 2004. Colaborar para competir: Impulsionando a lucratividade no
conhecimento econômico. Toronto: Wiley.
Loux, MJ 2002. Metafísica: Uma introdução contemporânea, 2ª ed. Londres: Routledge.
Lowe, EJ 2006. A ontologia de quatro categorias: Uma fundação metafísica para a ciência natural.
Oxford: Oxford University Press.
Lowe, EJ 2011. A racionalidade da metafísica. Síntese 178: 99–109.
Pitzer, KS 1995. Termodinâmica, 3ª ed. Nova York: McGraw-Hill.
Qvortrup, L. 1993. A controvérsia sobre o conceito de informação: uma visão geral e uma seleção
e bibliografia comentada. Cibernética e Conhecimento Humano 1(4): 3–24.
Rapoport, A. 1955. O que é informação? Síntese 9(1): 157–173.
Rowley, J. 1998. O que é informação? Serviços de informação e uso 18(4): 243–254.
Scarrott, G. 1986. A necessidade de uma “ciência” da educação [sic]. Revista de Tecnologia da Informação
1(2): 33–38.
Shannon, CE 1948. Uma teoria matemática da comunicação. Jornal Técnico Bell System 27:
379–423, 623–656.
Stonier, T. 1986. O que é informação? Em Pesquisa e desenvolvimento em sistemas especialistas, III:
Procedimentos de sistemas especialistas '86: A sexta conferência técnica anual do British Computer
Society Specialist Group em sistemas especialistas, Brighton, 15–18 de dezembro de 1986, ed .
M. Bramer, 217–230. Cambridge: Cambridge University Press.
Stonier, T. 1990. Informação e a estrutura interna do universo: Uma exploração em
física da informação. Londres: Springer.
Stonier, T. 1992. Além da informação: A história natural da inteligência. Londres: Springer.
Stonier, T. 1997. Informação e significado: Uma perspectiva evolutiva. Londres: Springer.
Weaver, W. 1949. Contribuições recentes à teoria matemática da comunicação. Em A teoria matemática da
comunicação, ed. CE Shannon e W. Weaver, 1–28. Urbana: University of Illinois Press.