Você está na página 1de 11

UNIVERSIDAD ABIERTA Y A DISTANCIA DE MXICO

INGENIERA EN BIOTECNOLOGA TERMODINMICA UNIDAD 3 ACTIVIDAD 3. LA ENTROPA Y EL ORDEN MAESTRO JAVIER TEPEPA MARTINEZ ALUMNO SERGIO LPEZ MARTNEZ

La entropa y el orden Muchos textos y artculos se refieren a la entropa como una medida del desorden o la aleatoriedad. Esta interpretacin se justifica por la definicin de entropa. El argumento es que un aumento en el desorden en un sistema corresponde a un aumento en la entropa. Sin embargo, existen dos problemas con esta interpretacin: no agrega nada a la comprensin de la entropa y es inconsistente con la concepcin comn de desorden. 1. Para aclarar las ideas anteriores investiga y explica lo siguiente: Las razones para hacer la relacin entre entropa y orden. En la mayora de los procesos naturales intervienen billones y billones de tomos que se pueden mover en infinidad de direcciones. Si, por casualidad, la disposicin de tomos estuviera en un principio sometida a alguna clase de orden, es casi seguro que cualquier movimiento aleatorio, cualquier cambio espontneo, disminuira ese orden, o por decirlo de otra manera, aumentara el desorden. De acuerdo con el segundo principio de la termodinmica, la entropa del universo est en constante aumento; es decir, la distribucin de energa en el universo est constantemente igualndose. Puede demostrarse que cualquier proceso que iguala las concentraciones de energa aumenta tambin el desorden. Por consiguiente, esta tendencia a incrementar el desorden en el universo con los movimientos aleatorios libres de las partculas que lo componen no es sino otro aspecto del segundo principio, y la entropa cabe considerarla como una medida del desorden que existe en el universo. Las ventajas y desventajas de tal relacin. Miradas las cosas de esta manera, es fcil ver la mano del segundo principio por doquier, porque los cambios naturales actan claramente en la direccin del desorden; para restaurar el orden hace falta un esfuerzo especial. Los objetos se descolocan, las cosas se desordenan... Y para tener las cosas a punto es preciso estar constantemente arreglando y limpiando el polvo y ordenando. La relacin entre entropa y la carencia de informacin. La conexin de la entropa con la informacin fue establecida por Shannon y Weaver en su teora de informacin. Si el sistema es uno de comunicacin, en este caso, la informacin transmitida tender a degradarse (a desordenarse); a medida que un mensaje circula, el ruido lo altera y el contenido original se va desordenando (un chisme, un "telfono roto", una fotocopia de una fotocopia de una fotocopia, etc.). Ellos proponan entonces mecanismos de retroalimentacin que permitieran mejorar la relacin entre un mensaje enviado y un mensaje recibido. Y para hacerlo, la frmula de entropa de la termodinmica result apropiada. Mientras que la entropa mide el nivel de desorden en el sistema, es decir la incertidumbre; la informacin representa el orden, la certidumbre. Por tanto, la informacin correspondera a entropa negativa dando la posibilidad de medir la

cantidad de informacin en un sistema (o en un mensaje para compararlo con la cantidad enviada y corregir o reenviar en caso de prdida de informacin). Las razones para relacionar la entropa con la carencia de informacin. En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de informacin. La entropa tambin se puede considerar como la cantidad de informacin promedio que contienen los smbolos usados. Los smbolos con menor probabilidad son los que aportan mayor informacin; por ejemplo, si se considera como sistema de smbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca informacin, mientras que palabras menos frecuentes como "corren", "nio", "perro" aportan ms informacin. Si de un texto dado borramos un "que", seguramente no afectar a la comprensin y se sobreentender, no siendo as si borramos la palabra "nio" del mismo texto original. Cuando todos los smbolos son igualmente probables (distribucin de probabilidad plana), todos aportan informacin relevante y la entropa es mxima. El concepto de entropa es usado en termodinmica, mecnica estadstica y teora de la informacin. En todos los casos la entropa se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La entropa puede ser considerada como una medida de la incertidumbre y de la informacin necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de informacin y el de entropa estn ampliamente relacionados entre s, aunque se necesitaron aos de desarrollo de la mecnica estadstica y de la teora de la informacin antes de que esto fuera percibido. Las ventajas y desventajas de usar la comparacin entre entropa y carencia de informacin. La informacin es tratada como magnitud fsica, caracterizando la informacin de una secuencia de smbolos utilizando la Entropa. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos mtodos de envo de informacin o la cantidad de informacin til que se pueda enviar a travs de un canal.

Resumen. A pesar de la identificacin entre la entropa y el desorden, se abusa de las referencias y su uso como metfora. En este trabajo se hace una introduccin a algunas definiciones consultadas y a la aplicacin de modelos matemticos propuestos por Clausius y por Boltzmann en la solucin de varios ejemplos.

Introduccin. Tema: La Entropa define la tendencia natural y universal a la prdida de orden. Originalmente, y de forma estricta, es un concepto de la termodinmica; mejor dicho, una magnitud que mide la parte de energa que no puede utilizarse para realizar un trabajo. Y que es el grado de desorden de las molculas que integran un cuerpo en fsica. Problema: El problema de la Entropa es su uso metafrico, como sinnimo del desorden o desorganizacin. Muchos textos sealan que la Entropa es el destino final de todo sistema organizado, incluido el Universo. As, por ejemplo, un organismo muerto que entra en descomposicin camina hacia su destino de incremento de la entropa propia, pero el sistema que lo degrada y devuelve al entorno sus materiales lo hace en el sentido contrario, aumentando su orden o, si se prefiere, su organizacin a costa de ese cadver. Segn el Primer Principio de la Termodinmica, un barco podra moverse en el ocano tomando el calor del mar que le rodea, pero el Segundo Principio, del que deriva el concepto de Entropa, nos dice que eso es imposible: no se puede transferir calor de un cuerpo de menor temperatura a otro de mayor (como la caldera del barco frente al agua de mar). Es decir, no se pude absorber calor de un foco para realizar un trabajo. El enunciado usual de este principio es en un sistema aislado, que por tanto no intercambia materia y energa con el entorno, la Entropa, es decir, la fraccin de energa de este sistema que no es posible convertir en trabajo, siempre aumenta con el tiempo. Eso implica dos cosas, que el concepto de entropa, en sentido estricto, no es aplicable en biologa, donde los sistemas biolgicos, sean organismos o ecosistemas, son siempre necesariamente abiertos al entorno, y, sin salir de la fsica, que el flujo de calor es siempre unidireccional desde los cuerpos de ms temperatura a los de menos. Segn la Segunda Ley de la Termodinmica, como la Entropa es una especie de energa degradada que no puede utilizarse para realizar trabajo, a cada instante el Universo se hace ms desordenado. En definitiva, hay un deterioro general pero inexorable hacia el caos. Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden, pero desconocemos que el paso de una situacin a la otra implica, el final de todo movimiento, la muerte del Universo. Propuesta de solucin: Proponer y resolver diferentes ejemplos, tanto del uso metafrico como de las aplicaciones prcticas en qumica y termodinmica, con modelos matemticos propuestos para su clculo.

Desarrollo. Modelos: Enfoque Filosfico. El caos (desorden) es todo aquello que exista en un estado completamente indiferenciado, estuvo asociado con lo informe, lo impensado, lo vaco y lo desordenado. El caos es la ausencia de forma y tambin el medio donde tiene lugar la creacin de forma. Es el motor que impulsa a un sistema hacia un tipo de orden ms complejo. El caos hace posible el orden siendo su precursor y socio, y no su opuesto. El caos posee dentro de s profundas estructuras de orden donde las zonas de simetra se mezclan con las de asimetra, recorriendo todas las escalas de magnitud creando as formas cada vez ms complejas. El orden es una condicin necesaria de todo lo que la mente humana desea comprender. Por ejemplo: una pintura se dice que es ordenada cuando un observador puede captar su estructura general y la ramificacin de la estructura con algn detalle. En muchos casos, el orden se capta ante todo por los sentidos. Por ejemplo, el observador percibe una estructura organizada en las formas y colores de una pintura (Figura 1). Figure 1. Thermodynamic Horizon de Adam Scott Miller. Modelo de Clausius. Si consideramos uno de los soportes fundamentales de la Segunda Ley de la Termodinmica a la Entropa, entonces nos sirve para medir el grado de desorden dentro de un proceso y nos permite distinguir la energa til, que es la que se convierte en su totalidad en trabajo, de la intil, que se pierde en el medio ambiente. Originalmente la palabra Entropa viene del griego em que significa sobre, en y cerca de; y sqopg que significa giro, alternativa, cambio y evolucin. Este trmino fue usado por primera vez en 1850 por el fsico alemn Rudolf Julius Emmanuel Clausius, que introduce la Entropa como la formulacin matemtica de la Segunda Ley de la Termodinmica, definida como SA=dQ/T Donde SA es el valor (arbitrario) que asignamos a la Entropa del estado de referencia A, T es la temperatura absoluta y Q es el calor intercambiado en un proceso reversible. Ejemplo 1: Una sustancia slida con un calor latente de fusin Lf se funde a una temperatura Tm. Calcular el cambio de entropa cuando se funden m gramos de la sustancia. Hacer el clculo si se funden 0.3 kg de plomo a 327 C, de calor de fusin 24.5 kJ/kg. Datos: Q = Lf = 24.5 kJ/kg

T = Tm = 327 C = 600 K m = 0.3 kg Solucin: Suponer que el proceso de fusin se produce lentamente en forma reversible. En este caso es posible considerar constante la temperatura Tm. Como el calor latente de fusin es Q = mLf, reemplazando en la ecuacin del modelo de Clausius, se obtiene: Resultado: Es decir, que de acuerdo al sentido de la definicin y modelo matemtico de Clausius, se pierden 12.25 J/K en el ambiente, es decir es energa no apta para convertirse en trabajo. Modelo de Boltzmann. En 1877, Ludwing Boltzmann la caracteriz como el nmero de estados microscpicos distintos (N) en los que pueden hallarse las partculas que componen un trozo de materia de forma que siga pareciendo el mismo trozo desde un punto de vista macroscpico. Su frmula indica que la Entropa o S, es igual a una constante K por el logaritmo del nmero (N). S = k ln N Donde k es la constante de Boltzmann una constante universal igual a la constante de los gases R dividida por el nmero de Avogadro (NA). Un estado desordenado es ms probable que un estado ordenado, debido a que el estado desordenado se puede alcanzar de mltiples maneras. La ecuacin de Botzmann nos da una interpretacin precisa de la Entropa en trmino de orden y desorden, proporciona una medida cuantitativa del desorden. Con esta ecuacin Boltzman hizo la conexin crucial entre Entropa termodinmica y desorden. A partir de esta ecuacin es claro que un incremento en N resulta en un incremento en S. Un cambio espontneo en el macroestado de un sistema aislado est siempre acompaado por un incremento en N, por lo que siempre estar acompaado por un incremento de Entropa. Cuanta ms alta es la Entropa mayor es el desorden. La Entropa es una medida de medida del desorden del sistema (p. ej. la dispersin de su materia y energa del sistema). La diferencia de Entropa entre dos estados microscpicos depende de la razn del nmero de posibles es estados microscpicos: S = Sf - Si = k ln Nf - k ln Ni = k ln Nf/Ni Ejemplo 2:

Para entender este resultado y como la ecuacin de Boltzmann est relacionada con la probabilidad supongamos que tenemos un caja (mini-universo) de 20 monedas. Datos: 20 monedas 1 caja Solucin: Si agitamos la caja y observamos el resultado esperamos que el estado perfectamente ordenado (20 caras p. ej.) es mucho menos probable que un estado desordenado donde las caras y cruces aparecen de manera azarosa. Ello es debido a que la probabilidad de los estados ordenados y desordenados es proporcional al nmero de maneras en las que el estado es alcanzado. Para alcanzar el estado perfectamente ordenado (20 caras) solo puede ser alcanzado de una manera al consistir en una nica configuracin. Por otra parte un estado desordenado se puede alanzan de mltiples maneras. Resultado: Para veinte monedas el nmero de posibles ordenamientos desordenados es 220. Es por ello que la probabilidad de aparicin de un estado desordenado es 220 veces mayor que el estado ordenado. Ejemplo 3: Supongamos ahora que nuestro mini universo es un cristal conteniendo molculas de monxido de carbono CO en las cuales el tomo de oxgeno corresponde a la cabeza de nuestra moneda y el tomo de carbono corresponde a la cruz del ejemplo 1. Datos: 20 molculas de CO 1 caja Solucin: Supongamos que las molculas estn orientadas en su eje mayor verticalmente y a una temperatura de 0 K para mantener las molculas en una configuracin fijada. El ordenamiento de todas las molculas de CO con los tomos de O orientados hacia arriba puede ser obtenido en una sola vez, mientras que el estado desordenado con las cabezas de O y colas de C orientadas al azar puede ser igual a 220. Por lo tanto el estado desordenado del cristal es 220 ms probable que la estructura perfectamente ordenada. Si aplicamos la ecuacin de Boltzamn a estas diferentes situaciones tenemos que:

Para el estado ordenado con todas las molculas de CO orientadas en la misma direccin: S = k ln N = k ln 1 = 0 Para el estado desordenado (las molculas de CO orientadas al azar) S = k ln N = k ln 220 = (1.38 x 10-23 J/K)(20)(ln 2) = 1.91x10-22 J/K Si el cristal de CO contiene 1 mol de molculas de CO, la Entropa del estado perfectamente ordenado (6.02 x 1023 molculas orientadas hacia arriba) sera cero, pero la Entropa de un estado totalmente desordenado podra ser mucho ms alta pues un nmero de Avogadro de molculas (6.02 x 1023 puede ser organizado en un nmero enorme de maneras): S = k ln N = k ln 2NA = k NA ln 2 Debido a que k = R/NA S = R ln 2 = (8.14 J/K) (0.693) = 5.76 J/K Resultado: Basados en datos experimentales, la Entropa de un mol (Entropa molar) de CO slido que est cercana a 0 K es aproximadamente de 5 J/K, indicando as que las molculas en el mismo adoptan una configuracin casi al azar. Ejemplo 4: Segundo Principio de la Termodinmica. El primer principio de la termodinmica relaciona las diferentes formas de energa que intervienen en un proceso (p. ej. una reaccin qumica), pero no puede dar cuenta de la espontaneidad de un proceso, o la forma de producirse la misma, sin ayuda exterior. Se necesita algo que complete el primer principio, que nos informe sobre que procesos pueden ocurrir y cuales son imposibles. Este algo es el Segundo Principio de la Termodinmica que afirma que: La Entropa total de cualquier sistema ms la de su entorno (Universo) se incrementa como resultado de cualquier proceso natural, o dicho de otra manera: La Entropa del Universo se incrementa en el curso de cualquier cambio espontneo que ocurre en l Solucin: Esto es matemticamente S (Universo) > 0

Esto es, todos los procesos que ocurren en el Universo constituyen un proceso neto adiabtico. Considerando explcitamente la posibilidad de mltiples procesos se puede escribir: La suma de los cambios entrpicos de un sistema y su exterior nunca puede disminuir: S (Universo) = Si > 0 Donde Si representa el cambio de Entropa de un proceso individual. Esta desigualdad indica que los cambios de Entropa asociados con un proceso individual pueden ser positivos (Si > 0), negativos (Si < 0) o iguales acero (Si = 0) siempre que la suma del cambio de entropa de todos los procesos individuales que ocurran sea siempre ms grande cero. O dicho de otro modo cuando todos los cambios de Entropa que resultan en algn proceso natural son sumados algebraicamente juntos, la suma es ms grande que cero. Esta ecuacin proporciona una manera para determinar si un proceso es reversible, irreversible y permitido o irreversible y no permitido. Uno debe simplemente sumar todos los cambios de Entropa en el Universo (sistema + entorno) resultante del proceso. Cuando el cambio neto de Entropa es cero Stotal = 0 el proceso es reversible, y entonces se dice que el sistema est en equilibrio. Si el cambio de Entropa total (sistema + ambiente) es mayor que cero Stotal > 0, el proceso puede ocurrir, dicindose entonces que es un proceso espontneo o natural. Si la Entropa neta es menor que cero Stotal < 0, el proceso no es espontneo o no natural y no puede ocurrir. As la Segunda Ley de la Termodinmica proporciona un mtodo importante para predecir la espontaneidad o reversibilidad de un proceso. La direccin del cambio espontneo est siempre determinada por el signo de la variacin de Entropa total del proceso. Resultado: En cualquier proceso real espontneo (incluyendo las reacciones qumicas) el desorden del Universo siempre se incrementa. As en cualquier sistema aislado, en la cual la energa total no cambia, una reaccin es espontnea es aquella en la que la Entropa (y el desorden) se incrementa. En ningn proceso que produce orden, es decir que baja la Entropa, puede ocurrir sin la intervencin o ayuda exterior. Un importante aspecto de la Segunda Ley de la Termodinmica es que nos dice tambin que en cualquier proceso natural irreversible existe alguna energa que aparece como no disponible para hacer trabajo til. As aunque la energa no se pierde cuantitativamente, como exige el Primer Principio de la Termodinmica, si pierde cualidad, es decir es menos til para hacer trabajo. La energa en este sentido se degradada, es decir que va de una forma ms ordenada y til para hacer trabajo (tal como la mecnica) a otra forma eventualmente menos ordenada, energa interna o energa trmica. Una salida natural de este proceso a lo largo del tiempo sera la muerte trmica del Universo, en la que toda la energa del Universo se habra degradado en energa trmica, ningn trabajo sera posible de hacer, y el Universo se encontrara en un estado de mximo desorden en equilibrio trmico.

Conclusiones: La Entropa tiene un uso amplio en el sentido metafrico, del cual se abusa, tanto por parte de autores dedicados a las ciencias exactas, como de filsofos o de otro tipo de cientficos. Para entender el concepto aplicable en Termodinmica, se pueden utilizar los modelos propuestos por Clausius y por Boltzman, de donde se obtienen resultados numricos que se pueden interpretar y aplicar. De esto ltimo por ejemplo, por el modelo de Clausius podemos medir en unidades de J/K la energa que no se utiliza en forma de trabajo y que hace cumplir el Primer principio de la Termodinmica; o bien desde el enfoque probabilstico de Boltzman hacer cumplir la Ley de la Conservacin de la energa para reacciones qumicas.

Referencias: Bevan Ott, J. y Boerio-Goates, J. 2000. Chemical Thermodynamics. Principles and Applications. Elsevier Academic Press. Volumen 54, Issue 6, Pg. B110. Hewitt, P. G. 2004. Fsica Conceptual, Novena Edicin. Edit. Perarson Educacin. Mxico. 816 Pp. Kondepudi, D. y Progogine, I. 1998. Modern Thermodynamics. From Engines to Dissipative Structures. Edit. John Wiley & Son. 486 Pp.

Recuperado 18/03/13 de http://catarina.udlap.mx/u_dl_a/tales/documentos/lap/carmona_c_dc/capitulo1.pdf Recuperado 18/03/13 de http://books.google.com.mx/books?id=lg49BBMdCAwC&pg=PA57&dq=La+relaci%C3%B3 n+entre+ Recuperado 20/03/13 de entrop%C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CDEQ6AEwAQ#v=onepage&q=La%2 0relaci%C3%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de%20infor maci%C3%B3n.&f=false Recuperado 19/03/13 de http://books.google.com.mx/books?id=ZxVlO2ELnugC&pg=PA157&dq=La+relaci%C3%B3 n+entre+entrop%C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CCsQ6AEwAA#v=onepage&q=La%2 0relaci%C3%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de%20infor maci%C3%B3n.&f=false

Recuperado 20/03/13 de http://enciclopedia.us.es/index.php/Entrop%C3%ADa_(teor%C3%ADa_de_la_informaci% C3%B3n)

Você também pode gostar