Você está na página 1de 3

ENTROPIA - Aula complementar

Profa. Maria Laura Gomes Silva da Luz

Significado da palavra:
Originalmente, "entropia" (troca interior) surgiu como uma palavra cunhada do grego
de   em   (en - em, sobre, perto de...) e sqopg (tropêe - mudança, o voltar-se, alternativa, troca,
evolução...). O termo foi primeiramente usado em 1850 pelo físico alemão Rudolf Julius
Emmanuel Clausius (1822-1888).
A entropia (do grego εντροπία, entropía) é uma grandeza TMD que aparece
geralmente associada ao que se denomina, não em senso comum, de "grau de desordem" de
um sistema TMD.
A entropia é uma função de estado cujo valor (sempre) cresce durante processos
naturais em sistemas isolados.

Entropia x Segundo Princípio


Em acordo com o Segundo Princípio da TMD, trabalho pode ser completamente
convertido em calor, mas calor não pode ser completamente convertido em trabalho.
A entropia mede a parcela de energia que não pode mais ser transformada em
trabalho em transformações TMD.
O Segundo Princípio obriga que uma máquina térmica (ou um refrigerador) opere
necessariamente entre uma fonte quente e uma fonte fria.
Um aumento da entropia representa, em tais sistemas, uma medida da energia que,
oriunda da fonte quente, poderia ter sido aproveitada na forma de trabalho, mas, não o sendo,
foi simplesmente "desperdiçada" como calor na fonte fria, tornado-se doravante indisponível
para produzir o citado trabalho.
O calor entregue à fonte fria não pode mais ser convertido em trabalho.

O Segundo Princípio indica que, com o tempo, dispomos de sempre menos energias
utilizáveis.
Ou, resumindo: "a energia total do universo é constante e a entropia (a desordem)
total está em contínuo aumento".
A entropia tem somente duas tendências: ficar  constante ou aumentar.  Se a entropia
aumentar, o processo é irreversível; não se pode voltar ao estado anterior.

1
Tem-se um sistema com uma fronteira adiabática e uma restrição interna. O estado de
equilíbrio TMD de um sistema, satisfeitas as restrições internas, corresponde ao estado onde a
entropia é a máxima possível. Na parte inferior a restrição é removida. O sistema passa por
uma expansão livre e sua entropia aumenta.

A entropia está relacionada com a quantidade de informação necessária para


caracterizar um sistema. Dessa forma, quanto maior a entropia, mais informações são
necessárias para descrevermos um sistema.
Um baralho com as cartas organizadas de acordo com a sua sequência e naipes, o
nosso sistema (baralho) contém um certo grau de informação. Rapidamente descobrimos qual
é a regra que está organizando as cartas.
Quando embaralhamos as cartas, elas ficam desorganizadas. Para recolocá-las na
ordem inicial, necessitaremos de muito mais informações a respeito da posição da carta
(teremos que descobrir onde está o 5 de copas para colocá-lo após o 4 de copas).
As cartas embaralhadas apresentam, então, uma entropia maior do que a das cartas
organizadas.
Pegue o baralho e jogue-o para o ar. As cartas cairão todas espalhadas para o chão.
Temos aí uma entropia que é a completa desordem das cartas pelo chão. E, por um processo
natural, ou seja, espontâneo, não teremos todas as cartas novamente em nossas mãos do
mesmo modo que antes (de modo organizado, ou seja, ordenado), a não ser que abaixemos e
peguemos, o que deixa de ser um processo espontâneo e necessita da realização de um
trabalho para tal. Essa energia que foi dissipada, “perdida”, é a entropia. Ela é considerada
desordenada porque você nunca mais conseguirá reutilizá-la no processo inverso. Portanto,
quanto maior a desordem, mais difícil voltar ao estado normal, então maior é a entropia do
sistema.
Entropia x Estatística
Estudado por Ludwig Boltzmann (1844-1906).
Temos um total de 16 possibilidades ou 16 estados (4 moedas). Qual situação ou
microestado é a mais provável? No quadro, vemos que o estado desorganizado (2 caras e 2
coroas) é o mais provável de ser encontrado; a chance de encontrá-lo nesta desorganização é
de 6/16.

2
Terceiro Princípio da Termodinâmica

Walter Hermann Nerst, físico-químico alemão, postulou a Terceira Lei da Termodinâmica


(1901), segundo a qual, a temperaturas próximas do zero absoluto, toda matéria tende a
mover-se aleatoriamente e toda a energia tende à dissipação, o que lhe rendeu o Prêmio
Nobel de Química (1920).
Um enunciado para o Segundo Princípio da Termodinâmica seria: “Quando um sistema
contendo uma grande quantidade de partículas é deixado ao seu próprio controle, ele assume
um estado de máxima entropia, isto é, torna-se o mais desordenado possível”. Este estado é
denominado estado de equilíbrio, que é a condição estável final. A Entropia do sistema
aumenta com o aumento da temperatura absoluta do sistema. Isto significa que o sistema é
mais desordenado a altas temperaturas. Também significa que se a temperatura diminui, a
entropia diminui e ao mesmo tempo o sistema fica mais ordenado. Quando o sistema fica
perfeitamente ordenado não é possível continuar o processo alcançando-se a temperatura do
zero absoluto. Esta condição conduz ao Terceiro Princípio da Termodinâmica, que diz: “Um
sistema em equilíbrio, no zero absoluto de temperatura, está no estado de perfeita ordem e
tem entropia zero”.
Embora seja possível transformar totalmente qualquer tipo de energia em calor, o inverso
não é verdadeiro, porque parte da energia volta a ser calor. Todas as formas de energia
tendem a se converter em calor, que é a forma mais degradada de energia. Esse estado de
movimento das partículas é totalmente desordenado e é conhecido como entropia.
Em um sistema fechado, a entropia que caracteriza o calor não pode diminuir, somente
manter-se constante ou aumentar devido às outras formas de energia se transformarem em
calor.
Numa transformação reversível, a entropia é constante, conforme demonstrou Clausius.
Se o Universo é um sistema fechado, este estaria em irreversível aumento de entropia, o
que o levaria à morte térmica. Portanto, a entropia inicial do Universo deveria ser mínima,
apesar de o calor ser máximo.

Você também pode gostar