Você está na página 1de 2

TEORIA DA COMUNICAÇÃO

Módulo 1- Introdução ao estudo da Comunicação

Conceitos fundamentais da comunicação – 2ª parte

Informação- Medida de uma possibilidade de escolha, na seleção de uma mensagem.


Tudo o que reduz a incerteza, eliminando certas possibilidades, é dotado de informação.
Assim, a informação de um evento depende da sua probabilidade e não de si mesma.
Segundo Umberto Eco, a informação não é tanto o que é dito, mas o que pode ser dito:
“Uma mensagem computável num bit (a escolha entre duas possibilidades
equiprováveis) e uma computável em três bits distinguem-se pelo número maior de
escolhas possíveis que a segunda situação apresentava – na fonte – em relação à
primeira. No segundo caso, a mensagem informa mais, porque, na fonte, havia uma
incerteza em relação à escolha que iria ser feita. Para darmos um exemplo fácil e
compreensível: num romance policial, maior será o suspense quanto maior for o número
de personagens entre as quais se supõe estar o assassino e quanto mais imprevista for a
solução. A informação representa a liberdade de escolha que se tem a construir uma
mensagem. (…)” Frequência e informação estão em relação inversa: quanto maior for a
possibilidade de ocorrência (de uma ideia, de um signo, de um conjunto de signos, de
um facto, de um conceito) menor será o seu grau de informação.

Redundância – Fenómeno de reiteração de probabilidades no mesmo código, para


reduzir os riscos de ruído. Informação (repetitiva) transmitida adicionalmente, para
“estabilizar” uma informação nova. Na cadeia comunicativa (emissor – mensagem –
recetor), a redundância nunca é nula e cada canal implica uma determinada medida de
redundância para que a informação seja transmitida com eficácia. “A mensagem ideal é
a que contém informação máxima (tendência para a entropia); no entanto, à medida que
cresce a taxa de informação de uma mensagem, menor será a sua inteligibilidade.
Inversamente, aumenta-se a inteligibilidade de uma mensagem reduzindo-se a sua taxa
de informação, isto é, tornando a mensagem mais previsível, menos original, levando-a
para mais longe do ponto entrópico – utilizando, portanto, símbolos não equiprováveis.
Por outras palavras, aumenta-se a inteligibilidade de uma mensagem através da
redundância” (J. Coelho Netto). Um exemplo elementar de procedimento redundante é
o costume de bater à porta com os nós dos dedos: se dermos um simples e breve toque,
dificilmente conseguiremos transmitir a nossa informação a quem se encontra dentro de
casa; por isso repetimos o toque várias vezes, para neutralizar o ruído ambiente, evitar a
ambiguidade e assegurar a efetiva receção da mensagem pelo destinatário. Outro
exemplo significativo é a própria comunicação de massas, que prima essencialmente
pela redundância: na difusão (em escala industrial) de mensagens para um público
heterogéneo, os MCM procuram evitar as soluções originais, norteando-se pela média
dos gostos e repertórios, para conquistar o máximo de audiência.

Entropia – Informação máxima; originalidade máxima; absoluta imprevisibilidade.


Estado de equiprobabilidade para o qual tendem os elementos de um sistema. (…)
Estado de “desordem”, de “caos”. Tomemos o exemplo clássico de Guilbaud: se todos
os caracteres formados com o teclado de uma máquina de escrever tiverem a mesma
probabilidade de ocorrência (equiprobabilidade), quantas mensagens diferentes
poderiam ser produzidas numa folha de papel? (…) Se 25 linhas multiplicadas por 60
espaços resultam em 1500 espaços, quantas sequências diferentes de 1500 espaços
podem ser produzidas escolhendo-se cada um dos 85 signos disponíveis no teclado? O
resultado seria um número com 2895 algarismos. (…) Num caso como este, a
equiprobabilidade dos elementos (os caracteres da máquina) constitui um sistema de
altíssima entropia: “a informação na fonte, em termos de liberdade de escolha, é
extraordinária, mas a possibilidade de transmitir essa informação possível,
individualizando-se uma mensagem completa, é bastante difícil” (Umberto Eco).
Ante esse impasse, intervém a função ordenadora do código, que limita as
possibilidades de combinação entre os elementos em jogo, dando uma estrutura sintática
às mensagens, introduzindo na situação de equiprobabilidade da fonte um sistema de
probabilidades: certas combinações são possíveis, outras não; algumas situações são
mais correntes, outras menos. Com tal procedimento, a informação da fonte diminui,
mas aumenta a possibilidade de transmitir mensagens inteligíveis. (…)
A comunicação, essencialmente organizadora e codificadora, atribui valores e
significados a sinais, estabelece diferenciação entre os seus elementos participantes no
processo, tende a intensificar a interação e o feedback. A comunicação é, portanto, uma
permanente atividade antientrópica.

(Adaptado de
RABAÇA & BARBOSA (2002) Dicionário de Comunicação. S. Paulo: Campus)

Você também pode gostar