Você está na página 1de 3

UnADM

AL 125 08 534
10 de junio de 2015

La entropa y el rden.
Termodinmica.

Por mucho tiempo los antiguos trataron de calcular y dar nombre a las propiedades de
la materia que hacen que las cosas se desordenen. Muchos textos y artculos se refieren a la
entropa como una medida del desorden o la aleatoriedad, pero no fue hasta el ao de
1850 que el fsico y matemtico, Julius Emmanuel Rudolf Clausius le dio el nombre de
entropa que viene del Griego () y significa evolucin o transformacin. Ms tarde en
1877 el fsico Ludwig Eduard Boltzmann, encontr la forma de demostrar matemticamente
este concepto desde el punto de vista de la probabilidad.
1. Para aclarar las ideas anteriores investiga y explica lo siguiente:
Las razones para hacer la relacin entre entropa y orden.
En la mayora de los procesos naturales intervienen miles de millones de tomos que se
pueden mover en infinidad de direcciones. Si, por casualidad, la disposicin de tomos
estuviera en un principio sometida a alguna clase de orden, es casi seguro que cualquier
movimiento aleatorio, cualquier cambio espontneo, disminuira ese orden, o por decirlo de
otra manera, aumentara el desorden. De acuerdo con el segundo principio de la
termodinmica, la entropa del universo est en constante aumento; es decir, la distribucin
de energa en el universo est constantemente igualndose. Puede demostrarse que cualquier
proceso que iguala las concentraciones de energa aumenta tambin el desorden. Por
consiguiente, esta tendencia a incrementar el desorden en el universo con los movimientos
aleatorios libres de las partculas que lo componen no es sino otro aspecto del segundo
principio y la entropa cabe considerarla como una medida del desorden que existe en el
universo.
Las ventajas y desventajas de tal relacin.
Cuando las cosas se observan desde esta perspectiva, es fcil ver la mano del segundo
principio por doquier porque los cambios naturales actan claramente en la direccin del
desorden; para restaurar el orden hace falta un esfuerzo especial. Los objetos se des-colocan,
las cosas se desordenan... Y para tener las cosas a punto es preciso estar constantemente
arreglando y limpiando el polvo y ordenando.

INFORME GEOLOGA 101

)1

La relacin entre entropa y la carencia de informacin.


La conexin de la entropa con la informacin fue establecida por Shannon y Weaver en su
teora de informacin. Si el sistema es uno de comunicacin, en este caso, la informacin
transmitida tender a degradarse (a desordenarse); a medida que un mensaje circula, el ruido
lo altera y el contenido original se va desordenando (un chisme, un "telfono roto", una
fotocopia de una fotocopia de una fotocopia, etc.). Ellos proponan entonces mecanismos de
retroalimentacin que permitieran mejorar la relacin entre un mensaje enviado y un
mensaje recibido. Y para hacerlo, la frmula de entropa de la termodinmica result
apropiada. Mientras que la entropa mide el nivel de desorden en el sistema, es decir la
incertidumbre; la informacin representa el orden, la certidumbre. Por tanto, la informacin
correspondera a entropa negativa dando la posibilidad de medir la cantidad de informacin
en un sistema (o en un mensaje para compararlo con la cantidad enviada y corregir o
reenviar en caso de prdida de informacin).
Las razones para relacionar la entropa con la carencia de informacin.
En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la
informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la incertidumbre
de una fuente de informacin. La entropa tambin se puede considerar como la cantidad de
informacin promedio que contienen los smbolos usados. Los smbolos con menor
probabilidad son los que aportan mayor informacin; por ejemplo, si se considera como
sistema de smbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a"
aportan poca informacin, mientras que palabras menos frecuentes como "corren", "nio",
"perro" aportan ms informacin. Si de un texto dado borramos un "que", seguramente no
afectar a la comprensin y se sobreentender, no siendo as si borramos la palabra "nio"
del mismo texto original. Cuando todos los smbolos son igualmente probables (distribucin
de probabilidad plana), todos aportan informacin relevante y la entropa es mxima. El
concepto de entropa es usado en termodinmica, mecnica estadstica y teora de la
informacin. En todos los casos la entropa se concibe como una "medida del desorden" o la
"peculiaridad de ciertas combinaciones". La entropa puede ser considerada como una
medida de la incertidumbre y de la informacin necesaria para, en cualquier proceso, poder
acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de informacin y el de
entropa estn ampliamente relacionados entre s, aunque se necesitaron aos de desarrollo
de la mecnica estadstica y de la teora de la informacin antes de que esto fuera percibido.
Las ventajas y desventajas de usar la comparacin entre entropa y carencia de informacin.
La informacin es tratada como magnitud fsica, caracterizando la informacin de una
secuencia de smbolos utilizando la Entropa. Se parte de la idea de que los canales no son
ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos mtodos
de envo de informacin o la cantidad de informacin til que se pueda enviar a travs de un
canal. La informacin necesaria para especificar un sistema fsico tiene que ver con su
entropa.
Los fundamentos fsicos de ambas comparaciones y cul de las dos es la que consideras que
ayudan a entender mejor el concepto de entropa.
La vida es el conflicto de lo singular contra lo universal; del desequilibrio de cada sistema
contra el equilibrio mximo; del esfuerzo de mantenerse inestable en relacin con la mxima
estabilidad a que tiende la naturaleza y del orden contra el caos. La materia y la energa se

INFORME GEOLOGA 101

)2

mueven simultneamente a favor y en contra de la vida. Por su gran diferenciacin, los


sistemas compuestos por materia viva, son inestables y frgiles y cada uno de ellos, como
unidad individual, llega necesariamente al momento de su desaparicin, de su incorporacin
al equilibrio y a la estabilidad: a la muerte que es la mxima entropa del sistema. Para seguir
siendo la materia viva necesita consumir y degradar energa continuamente; energa que los
sistemas transforman en trabajo que a su vez, este trabajo, es utilizado en las funciones
necesarias para la obtencin de energa, para el crecimiento y el desarrollo; as como los seres
gastamos energa y la reponemos mediante la comida.

INFORME GEOLOGA 101

)3

Você também pode gostar