Você está na página 1de 10

SHANNON, Claude Elwood

Claude Elwood Shannon naci en 1916. Se gradu en Ingeniera Elctrica en la Universidad


de Michigan en 1936. Cuatro aos ms tarde obtuvo el Master en Ciencias en Ingeniera
Elctrica, y el Doctorado en Matemticas por el Massachusetts Institute of Technology. En
1941, y an siendo becario del Consejo Nacional de Investigacin, ingres en los
Laboratorios de la compaa Bell de Nueva York, donde se le encarg el estudio de los
problemas de rendimiento de las lneas telegrficas.

Entre 1943 y 1945, bajo la influencia de las ideas de Norbert Wiener, cre las bases de la
teora matemtica de las comunicaciones mediante la sntesis de los trabajos dispersos que se
remontaban a comienzos de la era de las telecomunicaciones, al tiempo que proporcion una
medida del valor de la comunicacin, punto esencial que habra de determinar todo el
desarrollo de lo que se llama ahora ciencia de las comunicaciones, o teora de la
informacin.

Impregnado de las ideas que reinaban en el MIT, pudo marginar el limitado problema del
contenido de un mensaje (el sentido), en beneficio exclusivo del continente (el soporte
material). Recogi una idea fundamental expresada dos siglos antes por Leibnitz, segn la
cual cualquier mensaje poda reducirse a una combinacin de seales de todo o nada,
(seales binarias de 0 y 1), transmitida de un punto a otro por un canal exento de ruido.
Cre entonces, mediante un razonamiento bastante simple, lo que se llama ahora Frmula
fundamental de Shanonn, mostrando que el valor del mensaje poda traducirse en una
magnitud que denomin informacin y que era equivalente, en el mundo de los signos, a lo
que Boltzmann, siguiendo a Clausius, haba llamado entropa a propsito de la agrupacin
de las partculas gaseosas en un recipiente.

Este estudio origin un progreso decisivo que se tradujo, hacia 1946, en tres artculos
clebres publicados en el Bell System Technical Journal, trabajo que se constituy en la base
de todos los problemas de construccin de un mensaje con elementos simples sacados de un
repertorio y combinados segn ciertas reglas. Dos aos ms tarde estos artculos se
reunieron en el volumen The Mathematical Theory of Communication, editado por la
Universidad de Illinois.

Algunos aos despus Shanonn, ya clebre, volvi como profesor al MIT, recinto en el que
continu desarrollando su teora, considerada como una prolongacin de las enseanzas de
Wiener y, al mismo tiempo, prefiguradora de una nueva forma de ciencia de las relaciones
entre el ser y el medio, de la que la informtica representa apenas un aspecto tcnico.

WEAVER, Warren

Matemtico norteamericano nacido en 1894. Profesor en Wisconsin, director de Ciencias


Naturales de la Fundacin Rockefeller, y de la Fundacin Sloan-Kettering. Fue colaborador
de Shannon en los primeros escritos de la Teora Matemtica de la Comunicacin;
precisamente por esta razn, algunos autores denominan a esta teora como el Modelo de
Shannon y Weaver.
MATEMTICAS DE LA COMUNICACIN

Cmo se comunican los hombres entre s? La palabra en forma directa, por telfono o
radiofona, la palabra escrita o impresa, transmitida por mano, por correo, por telgrafo o de
cualquier otra manera, son formas obvias y comunes de comunicacin. Pero existen muchas
otras. Una inclinacin de cabeza, un guiar de ojos, un toque de tambor en la jungla, un
gesto que aparece en una pantalla de televisin, las guiadas de una luz de seales, un trozo
de msica que nos recuerda un suceso del pasado, las seales de humo en el aire del
desierto, los movimientos y las posturas de un ballet, son todos medios que el hombre usa
para transmitir ideas.

En realidad, aqu utilizaremos la palabra comunicacin en un sentido muy amplio que


incluye todos los procedimientos por medio de los cuales una mente puede afectar a otra.
Si bien el lenguaje empleado especficamente se referir a menudo a la comunicacin por
medio de la palabra, prcticamente todo lo que se dice es aplicable tambin a la msica,
las imgenes y una gran variedad de otros mtodos usados para transmitir informacin.

Pareciera que, en materia de comunicacin, existen problemas en tres niveles: 1) tcnico, 2)


semntico, y 3) persuasivo.

Los problemas tcnicos se refieren a la exactitud de la transferencia de informacin entre


el emisor y el receptor y existen en todas las formas de comunicacin, sea sta a travs de
smbolos (palabra escrita), por medio de una seal variable (transmisin de la palabra o de
msica por telfono o por radio), o por medio de una pauta variable bidimensional
(televisin).

Los problemas semnticos se refieren a la interpretacin del significado por parte del
receptor comparada con el significado que se propone transmitir el emisor. Se trata de una
situacin muy profunda y complicada, aun cuando se refiera a problemas relativamente
simples de la comunicacin por medio de la palabra hablada. Por ejemplo, si se sospecha que
el seor X no comprende lo que dice el seor Y, no es posible aclarar la situacin en un
tiempo finito por el nico expediente de hacer que el seor Y contine hablando con el seor
X. Si el seor Y pregunta: Me comprende usted ahora?, y el seor X contesta: Claro
que s, esto no asegura que se haya llegado necesariamente a un entendimiento. Quiz slo
se trate de que el seor X no comprendi la pregunta. Si esto le parece tonto, haga otra
prueba formulndola de esta manera: Czy pan mnie rozumier?, con la respuesta: Hai
wakkate imasu. En el restringido campo de la comunicacin hablada tal vez la dificultad se
reduzca a un tamao tolerable, pero las explicaciones jams la eliminarn del todo.
Presumiblemente, ellas no son sino aproximaciones a las ideas que se explican, pero
resultan comprensibles cuando se las expresa en un lenguaje que el uso ha hecho
razonablemente claro. Por ejemplo: no lleva mucho tiempo hacer que, en cualquier idioma,
resulte comprensible el smbolo para expresar s.
Los problemas relativos a la persuasin o efectividad se refieren al xito obtenido en el
sentido de que el significado transmitido al receptor conduzca a la conducta que de l se
desea. A primera vista podra parecer demasiado mezquina la idea de que toda comunicacin
tenga como propsito ejercer influencia en la conducta del receptor. Pero cualquier
definicin ms o menos amplia de conducta indica que la comunicacin la afecta o, de lo
contrario, carece en absoluto de un efecto discernible y susceptible de prueba.

Podramos sentirnos inclinados a pensar que los problemas tcnicos slo implican los
detalles tcnicos del buen diseo de un sistema de comunicacin, mientras que los
semnticos y persuasivos contienen la mayor parte -si no todos- de los que se vinculan con
el contenido filosfico del problema general de la comunicacin. Para darnos cuenta de que
no es as deberemos examinar ahora algunos importantes trabajos recientes dentro de la
teora matemtica de la comunicacin.

Esta teora no es de ninguna manera nueva. Tal como lo subraya el matemtico John von
Neumann, el fsico austraco del siglo XIX Ludwing Boltzmann sugiri que algunos
conceptos de mecnica estadstica son aplicables al concepto de informacin. Otros
cientficos, principalmente Norbert Wiener, del Instituto de Tecnologa de Massachusetts,
han efectuado aportes profundos. El trabajo sobre el cual informaremos aqu es el de Claude
Shannon de los Laboratorios de Telfonos Bell, que fue precedido por el de H. Nyquist y
R.V.L. Hartley de la misma organizacin. En principio, este trabajo es aplicable a la
problemtica tcnica, pero la teora tiene un significado ms amplio. Por empezar, el
significado y la efectividad se ven inevitablemente restringidos por los lmites de la
exactitud en la transmisin del smbolo. Y, lo que resulta an ms significativo, un anlisis
terico de los problemas tcnicos revela que ellos se superponen a los semnticos y
persuasivos mucho ms de lo que se pudiera sospechar.

Un sistema de comunicacin es el que aparece simblicamente representado en el dibujo de


las pginas 64 y 65. La fuente de informacin elige el mensaje deseado entre un conjunto
de mensajes posibles. (Como se ver ms adelante, sta es una funcin particularmente
importante). El transmisor cambia este mensaje por una seal que enva el receptor por
medio de un canal de comunicacin.

El receptor es una especie de emisor invertido que transforma la seal transmitida en el


mensaje y lo lleva a destino. Cuando hablo con usted mi cerebro es la fuente de informacin
y el suyo es el destino; mi sistema vocal es el transmisor y su odo -con el nervio auditivo- el
receptor.

Es desgraciadamente caracterstico del sistema de transmisin de seales que a ella se


agreguen ciertas cosas que la fuente no se propona. Estos agregados indeseables pueden
consistir en distorsiones del sonido (en el telfono, por ejemplo), esttica (en la radio),
distorsiones en la forma o tonalidades de la imagen (televisin) o errores en la transmisin
(telgrafo o similares). A todos estos cambios en la seal podemos denominarlos ruido.

Las cuestiones que deben estudiarse en un sistema de comunicacin tienen que ver con la
cantidad de informacin, la capacidad del canal, el proceso de codificacin que puede usarse
para convertir el mensaje en seal y los efectos del ruido.
En primer lugar debemos tener bien clara la extraa manera como se emplea en esta teora la
palabra informacin. Se trata de un sentido especial que, entre otras cosas, no debe
confundirse con significado. Resulta sorprendente pero es verdad que, desde este enfoque,
dos mensajes -uno muy cargado de significado y el otro sumamente tonto- pueden ser
equivalentes en cuanto a informacin.

En realidad, en esta nueva teora la palabra informacin se vincula, no tanto con lo que se
dice, como con lo que se podra decir. Es decir, la informacin es una medida de su
libertad de eleccin cuando usted elige el mensaje. Si se encuentra frente a una situacin
muy elemental en la que debe elegir uno de dos mensajes alternativos, se dice
-arbitrariamente- que la informacin asociada con esta situacin es una unidad. El
concepto de informacin se aplica, no a los mensajes individuales -como ocurrira con el
concepto de significado-, sino a la situacin considerada como un todo; la unidad de
informacin indica que, en esta situacin, la persona tiene una cierta medida de libertad de
eleccin al elegir el mensaje, que es conveniente considerar como estndar o cantidad de
unidad. Los dos mensajes entre los cuales se debe elegir en este caso puede ser cualquier
cosa que uno quiera: una de las alternativas sera la versin del Rey Jacobo de la Biblia y la
otra S.

Lo que hemos dicho hasta ahora se vincula con situaciones artificialmente simples en las
cuales la fuente de informacin tiene libertad para elegir slo entre varios mensajes definidos
-como el hombre que elige entre varias frmulas fijas de telegramas de felicitacin para
cumpleaos. Ms natural e importante es aquella situacin en la cual la fuente de
informacin realiza una secuencia de elecciones de un conjunto de smbolos elementales y el
mensaje queda formado con la secuencia elegida. De este modo el hombre puede elegir una
palabra despus de otra y estas palabras, individualmente seleccionadas, darn como
resultado el mensaje.

Es evidente que la probabilidad desempea un papel importante en la produccin del


mensaje; las elecciones de los smbolos sucesivos dependern de las elecciones
precedentes. As, si lo que utilizamos es la palabra castellana y el ltimo smbolo elegido es
los, la probabilidad de que el vocablo siguiente sea un artculo o una forma verbal que no
sea un sustantivo verbal es remota. Despus de las tres palabras en caso de, es bastante
probable que la siguiente sea que y muy poco probable que sea elefante. De la misma
manera, es muy baja la probabilidad de una secuencia de palabras tal como pesca en
Constantinopla detestablemente rosa. Muy baja, pero no absolutamente imposible, ya que
puede pensarse en un pasaje, una de cuyas frases termine con las palabras pesca en
Constantinopla, mientras que la siguiente comience diciendo detestablemente rosa.
(Observemos, al pasar, que la frase en discusin se ha producido en una buena expresin en
castellano: la que aparece ms arriba).

Cabe sealar que Shannon ha hecho notar que, cuando las letras o las palabras elegidas al
azar se colocan en secuencias dictadas solamente por consideraciones de probabilidad,
tienden a disponerse en forma de palabras y frases con significado (ver ejemplo en la pg.
72).

SEAL SEAL
FUENTE DE TRANSMISOR CANAL RECEPTOR DESTINO
INFORMACIN RECIBIDA
FUENTE DE
MENSAJE RUIDO MENSAJE

Volvamos ahora a la idea de informacin. La nica cantidad que satisface los


requerimientos naturales que se establecen para una medida de informacin resulta ser
exactamente aquello que en termodinmica se conoce como entropa o, si se prefiere,
retorno, lo cual expresa en trminos las probabilidades del caso.

Para quienes han estudiado ciencias fsicas resulta muy significativo que una expresin
similar a la entropa aparezca dentro de la teora de la comunicacin como medida de
informacin. El concepto de entropa, introducido hace casi cien aos por el fsico alemn
Rudolf Clasius, estrechamente asociado con el nombre de Boltzmann y dotado de un
profundo significado por Williard Gibbs, de Yale, en su clsico trabajo sobre mecnica
estadstica, ha llegado a ser un concepto tan fundamental y general que Sir Arthur Eddington
sostiene: La ley que afirma que la entropa crece siempre -segunda ley de la
termodinmica- ocupa, en mi opinin, la posicin suprema dentro de las leyes de la
naturaleza.

As, cuando nos encontramos, dentro de la teora de la comunicacin, con el concepto de


entropa, tenemos razn de sentirnos algo excitados. Que la informacin deba medirse por
entropa es, despus de todo, natural si recordamos que ella se asocia con la cantidad de
libertad de eleccin de que disponemos al construir mensajes. De este modo, es posible decir
de una fuente de comunicacin tal como lo decimos de un conjunto termodinmico: Esta
situacin es sumamente organizada; no se caracteriza por un considerable grado de azar o
de eleccin, es decir, la informacin o la entropa son bajas.

Debemos tener presente que, en la teora matemtica de la comunicacin, nos interesa no el


significado de los mensajes individuales, sino la naturaleza estadstica total de la fuente de
informacin. No nos sorprende, pues, que la capacidad de un canal de comunicacin deba
describirse en trminos de la cantidad de informacin que puede transmitir, o, mejor an, en
trminos de su capacidad para transmitir lo que, de una determinada informacin, es
producido por una fuente.

El transmisor puede tomar un mensaje escrito y utilizar algn cdigo para cifrar dicho
mensaje en, por ejemplo, una secuencia de nmeros, nmeros que luego se enviarn como
seal a travs del canal. Decimos entonces, en general, que la funcin del transmisor
consiste en codificar y la del receptor en decodificar el mensaje. La teora se adapta a
transmisores y receptores sumamente sofisticados tales como, por ejemplo, aquellos que
tienen memoria, de modo que la manera como codifican cierto smbolo del mensaje
depende no slo de este nico smbolo, sino de los smbolos anteriores del mensaje y de la
manera como fueron codificados.

Estamos ahora en una posicin que nos permite enunciar el teorema fundamental para un
canal sin ruidos que transmita smbolos discretos. Este teorema se refiere a un canal de
comunicacin con capacidad para C unidades por segundo y acepta seales de una fuente de
informacin de H unidades por segundo. El teorema establece que, si se elaboran procesos
de codificacin adecuados para el transmisor, es posible transmitir smbolos a travs del
canal a un promedio que se acerca a C/H pero que, por excelente que sea la codificacin,
jams exceder de C/H.

Considerado superficialmente, hablar de una analoga con el uso de transformadores para


circuitos elctricos parece natural y resulta, sin duda, muy claro contar con este teorema que
expresa que codificacin eficiente es aquella que se equipara con las caractersticas
estadsticas de la fuente de informacin y el canal. Pero si examinamos con cuidado el
asunto teniendo en cuenta cualquiera de la enorme cantidad de situaciones en las que puede
aplicarse este resultado, advertiremos lo profunda y fuerte que es dicha teora.

De qu manera la informacin se ve afectada por el ruido? Recordemos enseguida que la


informacin es una medida de la propia libertad de eleccin para seleccionar un mensaje.
Cuanto mayor sea la libertad de eleccin, mayor ser la incerteza de que el mensaje elegido
sea uno en particular. Es decir que, a mayor libertad de eleccin, mayor incerteza y mayor
informacin.

Si se introduce el ruido, el mensaje recibido contiene ciertas distorsiones, ciertos errores,


cierto material extrao que sin duda conducir a una mayor incerteza. Pero si se aumenta la
incerteza, tambin aumentar la informacin y esto hara pensar que el ruido es beneficioso.

Es verdad que cuando hay ruido la seal recibida se elige de entre un conjunto ms variado
de seales del que se propuso el emisor. Esta situacin ilustra muy bien la trampa semntica
en la que podemos caer si no recordamos que la palabra informacin se emplea aqu con
un sentido especial que mide la libertad de eleccin y, por lo tanto, la incerteza acerca de
la eleccin realizada. La incerteza que surge de la libertad de eleccin por parte del
emisor es una incerteza deseable. La incerteza que surge de errores o debido a la
influencia del ruido es, sin duda, indeseable. Para obtener la informacin til contenida en
el mensaje recibido debemos sustraer la parte espuria. Segn la teora, ello se consigue
estableciendo una cantidad conocida como equivocacin, que significa el monto de la
ambigedad introducida por el ruido. Se refina o extiende entonces la definicin anterior
sobre la capacidad de un canal sin ruido y se enuncia que la capacidad de un canal ruidoso se
define como igual a la velocidad mxima con que es posible transmitir informacin til (es
decir, incerteza total menos incerteza producida por ruido) a travs del canal.

Podemos ahora, finalmente, enunciar el gran teorema central de toda esta teora de la
comunicacin. Supongamos que un canal ruidoso de capacidad C est aceptando
informacin de una fuente de entropa H, entropa que corresponde al nmero de mensajes
posibles de la fuente. Si la capacidad C del canal es igual o mayor que H, elaborando
sistemas de codificacin adecuados ser posible transmitir la produccin de la fuente por el
canal con tan poco error como se desee. Pero si la capacidad C del canal es menor que H
-entropa de la fuente- resultar imposible elaborar cdigos que reduzcan la frecuencia del
error para hacerla tan baja como se desee.

Por ms hbil que sea en el proceso de codificacin, ser siempre verdad que, una vez
recibida la seal, quedar una cierta incerteza indeseable acerca de cul era el mensaje, y esta
incerteza indeseable -ruido o equivocacin- ser siempre igual o mayor que H menos C.
Pero siempre existe por los menos un cdigo capaz de reducir esta incerteza indeseable
hasta un valor que exceda muy poco H menos C.
Este potente teorema ofrece una descripcin simple, precisa y casi asombrosa acerca del
mximo de confiabilidad que podemos conseguir de un canal de comunicacin que funciona
con la presencia de ruido. Para darnos cuenta de la verdadera fuerza y amplitud de este
sorprendentemente slido teorema ser necesario reflexionar y considerar sus muchas
aplicaciones. Slo una de ellas podemos indicar aqu, pero, para hacerlo, debemos volver
por un momento a la idea de la informacin de una fuente.

Calculada la entropa (o informacin, o libertad de eleccin) de determinada fuente de


informacin es posible compararla con el valor mximo que dicha entropa podra tener con
la condicin de que la fuente contine empleando los mismos smbolos. La relacin entre la
entropa real y la mxima es lo que se llama entropa relativa de la fuente. Si, por ejemplo,
la entropa relativa de determinada fuente fuera ocho dcimos, esto significara que dicha
fuente tiene, en su eleccin de smbolos para formar un mensaje, alrededor de un 80% de la
libertad que podra tener utilizando estos mismos smbolos. Se llama redundancia a uno
menos la entropa relativa. Es decir, esta fraccin del mensaje es innecesaria en cuanto a
que, si no estuviera en l, aqul todava sera esencialmente completo o, por lo menos, se lo
podra completar.

Resulta interesante sealar que la redundancia del idioma ingls es de alrededor del 50%.
Dicho de otro modo, alrededor de la mitad de las letras o palabras que elegimos para
hablar o escribir provienen de nuestra libre eleccin, y alrededor de la mitad estn
realmente controladas por la estructura estadstica del lenguaje aun cuando, por lo
general, no nos demos cuenta de ello. Digamos al pasar que ste es ms o menos el mnimo
de libertad (o entropa relativa) en la eleccin de letras de que debe disponerse para poder
construir problemas de palabras cruzadas. En un lenguaje que slo tuviera 20% de libertad y
80% de redundancia sera imposible construir problemas de palabras cruzadas con suficiente
nmero y complejidad como para que el entretenimiento resultara popular.

Ahora bien, dado que el ingls es redundante en un 50%, un proceso de codificacin


adecuado permitira ahorrar alrededor de la mitad del tiempo que lleva transmitir por
telgrafo, siempre que la transmisin se efectuara en un canal sin ruido. Pero, cuando en un
canal hay ruido, existen reales ventajas en no utilizar un proceso de codificacin que elimine
toda la redundancia. Y es que la redundancia ayuda a combatir el ruido. La alta redundancia
del ingls facilita, por ejemplo, la correccin de errores de ortografa que se producen
durante la transmisin.

Los sistemas de comunicacin estudiados hasta ahora implican el uso de un conjunto


discreto de smbolos -como, por ejemplo, letras- moderadamente numerosos. Podra
suponerse que la teora se complica infinitamente si se la aplica a mensajes continuados tales
como los que provienen de la palabra hablada con sus constantes variaciones de tono y
energa. Pero, como suele ocurrir a menudo, un muy interesante teorema matemtico viene
en nuestra ayuda. Desde un punto de vista prctico, siempre nos interesa una seal continua
construida con elementos armnicos simples, no de todas las frecuencias, sino slo de
aquellas que entran totalmente en una banda que va desde cero hasta, por ejemplo, W ciclos
por segundo. As, aun cuando la voz humana contenga frecuencias ms altas, es posible
lograr comunicaciones muy satisfactorias a travs de un canal telefnico que maneja
frecuencias de hasta 4.000. Tambin es posible la transmisin radial en alta fidelidad de
msica sinfnica con frecuencias de hasta 10.000 o 12.000.

El teorema que nos sirve de ayuda es aquel segn el cual una seal continua de T segundos
de duracin, y cuya banda de frecuencia est limitada al alcance cero a W, puede ser
totalmente especificada enunciando 2TW nmeros. Se trata de un teorema realmente
notable. Por lo general, slo es posible definir una curva continua de manera aproximada por
medio de un nmero definido de puntos. Pero, si la curva est construida con elementos
armnicos simples de un nmero limitado de frecuencias, dado que un sonido complejo se
construye con un nmero limitado de tonos puros, todo lo que se necesita para definir
completamente la curva es contar con un nmero finito de cantidades.

Debido en parte a este teorema y, en parte, a la naturaleza esencial de la situacin, ampliar la


teora de la comunicacin continua resulta matemticamente algo ms difcil y complicado,
pero no esencialmente distinto de la teora para los smbolos discretos. Muchas de las
afirmaciones efectuadas con respecto a los smbolos discretos no necesitan modificacin
alguna en lo que concierne a los continuos, otras slo exigen cambios menores.

La teora matemtica de la comunicacin es tan general que no hace falta decir cules son
los smbolos que se consideran: letras o palabras escritas, notas musicales, palabras habladas,
msica sinfnica o imgenes. Las relaciones que revela se aplican a todos ellos y a otras
formas de comunicacin. La teora est tan imaginativamente motivada que llega al meollo
del problema de la comunicacin.

Una prueba de su universalidad es que ofrece un importante aporte -en realidad resulta
fundamental para su teora- a la criptografa, que, claro est, es una forma de codificacin.
Del mismo modo, la teora contribuye a la solucin del problema de la traduccin de un
idioma a otro si bien, en este caso, es necesario considerar no solamente la informacin, sino
tambin el significado. Las ideas formuladas en este trabajo se vinculan tan estrechamente
con el problema del diseo lgico de las computadoras que no nos sorprende que Shanonn
haya elaborado un trabajo sobre diseo de una de estas mquinas que sera capaz de jugar
hbilmente con el ajedrez. Y tambin es pertinente con lo que aqu se sostiene que su trabajo
se cierre con la afirmacin de que, o aceptamos que esa computadora piensa o
modificamos sustancialmente las implicancias convencionales del verbo pensar.

La teora va todava ms all. Si bien es ostensiblemente aplicable a problemas de nivel


tcnico, resulta til y sugerente tambin en los niveles semntico y de la efectividad. Es muy
probable que el diagrama formal de sistema de comunicacin que aparece en las pginas 64
y 65 pueda ampliarse de modo que incluya los problemas centrales del significado y la
efectividad.

Si entramos en esos niveles, quiz resulte esencial tener en cuenta las caractersticas
estadsticas del destino. Es posible imaginar, como agregado a ese diagrama, otra casilla
titulada Receptor semntico que se colocara entre el receptor tcnico (que cambia las
seales por mensajes) y el destino. Este receptor semntico somete el mensaje a una
segunda decodificacin a la que se exige que equipare las caractersticas estadsticas
semnticas del mensaje con la capacidad estadstica semntica de la totalidad de los
receptores o de aquel sub-conjunto de receptores que constituye la audiencia a la cual se
desea afectar.

Podemos imaginar, de igual modo, otra casilla en el diagrama que, colocada entre la fuente
de informacin y el transmisor, podra denominarse ruido semntico (que no debe
confundirse con ruido tcnico). Ella representara las distorsiones en el significado
introducida por la fuente de informacin, como un orador por ejemplo, que no son
intencionales pero que, de todas maneras, afectan al destinatario u oyente. Y el problema
de la decodificacin semntica debe tener en cuenta este ruido semntico. Es posible
pensar, asimismo, en un tratamiento o ajuste del mensaje original que lograra que la suma
del significado del mensaje ms el ruido semntico fuera igual al total del mensaje que se
deseara hacer llegar al destino.

Otra manera en que la teora puede resultar til para mejorar la comunicacin surge del
hecho de que el error y la confusin aumentan y la fidelidad disminuye cuando, por bueno
que sea el cdigo, se trata de amontonar demasiado en un canal. Una teora general a todos
los niveles seguramente deber tener en cuenta, no slo la capacidad del canal (hasta las
palabras mismas son adecuadas) sino la capacidad de la audiencia. Por analoga directa
probablemente sea verdad que, si se excede la capacidad de la audiencia, no se la llene del
todo, y slo se desperdicie lo que queda porque se derram. Lo ms probable es que,
tambin por analoga directa, se produzcan error y confusin generales.

Una primera aproximacin al concepto de informacin desarrollado en esta teora lo hace


parecer extrao y causa desilusin porque nada tiene que ver con el significado, y extraeza
porque no trata con un mensaje nico, sino con el carcter estadstico de todo un conjunto
de mensajes y tambin porque, en estas expresiones estadsticas, las palabras informacin y
certeza aparecen como socias.

Pero un examen ms detenido de la teora nos ha permitido ver que este anlisis aclara el
ambiente de una manera tan penetrante que ahora, por primera vez, estamos preparados para
una verdadera teora sobre significado. Una teora matemtica de la comunicacin es como
la nia modosa y discreta que, en la oficina de telgrafos, acepta su telegrama. No presta
atencin alguna a su texto sea ste triste, alegre o embarazoso, pero debe estar preparada
para manejar con inteligencia todos los mensajes que llegan a sus manos. Esta idea de que
un sistema de comunicacin debe procurar manejar todos los mensajes posibles, y que la
manera inteligente de intentarlo consiste en basarse en el carcter estadstico de la fuente, no
deja de tener sin duda un significado para la comunicacin en general. El lenguaje debe
crearse o desarrollarse pensando en la totalidad de las cosas que el hombre puede desear
decir pero, si es incapaz de lograrlo todo, debe actuar lo mejor que le sea posible tan a
menudo como le sea posible. Es decir, tambin l debe enfrentar la tarea estadsticamente.

Este estudio revela hechos sobre la estructura estadstica del idioma ingls, tomado como
ejemplo, que deben resultar significativos a los estudiosos de cualquier fase del lenguaje y
la comunicacin. Sugiere, como camino prometedor, la aplicacin de la teora de la
probabilidad a los estudios semnticos. Es especialmente pertinente aquella parte importante
de la teora de la probabilidad que se refiere a lo que los matemticos llaman los procesos
de Markoff, segn los cuales los acontecimientos pasados ejercen influencia sobre las
probabilidades presentes y ello se debe a que esta teora se adapta especficamente para
manejar uno de los aspectos ms significativos pero difciles del significado: la influencia del
contexto. Tenemos la vaga idea de que la informacin y el significado pueden resultar algo
as como un par de variables unidas cannicamente en la teora del quantum, es decir, que la
informacin y el significado pueden estar sujetos a alguna restriccin conjunta que obliga al
sacrificio de uno si se insiste en tener mucho del otro.

Quizs el significado resulte ser anlogo a una de las cantidades de las que depende la
entropa de un conjunto termodinmico. Eddington tiene, acerca de esto, un comentario
pertinente: Supongamos que se nos pidiera ordenar lo que sigue en dos categoras:
distancia, masa, energa elctrica, entropa, belleza, meloda.

Pienso que existen excelentes razones para colocar la entropa con la belleza y la meloda, y
no con las otras tres. La entropa slo se encuentra cuando las partes se consideran
asociadas y es viendo u oyendo asociadas las partes como es posible discernir la belleza y
la meloda. En los tres casos se trata de aspectos que se vinculan con la disposicin. Es un
pensamiento lleno de posibilidades el que nos dice que una de estas tres socias debiera
figurar como cantidad comn de la ciencia. La razn por la cual esta extraa puede
inmiscuirse entre los aborgenes del mundo fsico es que ella es capaz de hablar en su idioma,
es decir, en el lenguaje de la aritmtica.

Estamos seguros de que Eddington se hubiera mostrado dispuesto a incluir la palabra


significado junto a los vocablos belleza y meloda; y sospechamos que le hubiera
entusiasmado ver aqu que la entropa no slo habla el lenguaje de la aritmtica, sino tambin
el lenguaje del lenguaje.

MODELOS FSICO-MATEMTICOS
Tomado de:

WEAVER, Warren: Matemticas de la Comunicacin, en BORDEN, George y John


Stone: La comunicacin humana, Buenos Aires, Editorial El Ateneo, 1982.pp. 61-71.

Você também pode gostar