Você está na página 1de 4

Entropia e Segunda Lei da

Termodinâmica
A segunda lei da termodinâmica, cujo enunciado clássico afirma que a entropia de um sistema
macroscópico isolado sempre tende a aumentar, sempre surge em círculos de discussão sobre a
validade da Teoria da Evolução (TE), com o intuito de invalidá-la, ao assumir que o acréscimo
temporal de complexidade dos sistemas vivos seria uma violação prática desta lei: o inevitável
aumento de entropia inviabilizaria o aumento de complexidade durante a evolução, já que
associam aumento de entropia com aumento da desordem e evolução com aumento da ordem.
Muitos destes argumentos se baseiam num conhecimento raso sobre a entropia, que, aliás, além
de ser baseada em uma enunciação ambígua, é um conceito pouco intuitivo. De fato, como já
me foi sugerido, quando alguém levantar a questão da segunda lei como argumento contra a TE,
pergunte ao proponente quais são as outras três leis da termodinâmica. A probabilidade é de
que você fique sem resposta. Em resumo, há de se ter muita cautela em invocar a entropia para
justificar algo que não esteja totalmente contido no escopo dos processos de troca de calor,
como será discorrido.

Apesar de constituir um erro de raciocínio e conceituação, o argumento é recorrente


(http://evolucionismo.org/profiles/blogs/termodinamica-e-evolucao-o?xg_source=activity).

A primeira falha do argumento é o fato de seres vivos não serem sistemas isolados: nem sequer
a Terra é assim. Em teoria, somente a totalidade do universo seria considerada um sistema
isolado (http://en.wikipedia.org/wiki/Isolated_system). Seres vivos constantemente aumentam a
complexidade de seus sistemas, através do simples crescimento, ou, mais genericamente, pelo
desenvolvimento ontogenético (http://en.wikipedia.org/wiki/Ontogeny), com a retirada de energia
do ambiente e outras formas vivas, que por sua vez vem de outras fontes, a mais evidente sendo
o Sol. Neste sentido, o aumento de entropia do Sol ao consumir hidrogênio durante a fusão
nuclear compensa a redução de entropia local das moléculas de glicose produzidas na
fotossíntese, sem prejuízo à segunda lei.

Segunda falha, aumentos de entropia nem sempre constituem desorganização e tendem à


menor complexidade: a organização complexa das moléculas de água em flocos de neve
(http://www.google.com.br/images?hl=pt-BR&safe=off&client=firefox-
a&hs=bxJ&rls=org.mozilla:pt-BR:official&q=snowflake+fractal&um=1&ie=UTF-
8&source=univ&ei=Dxw7TIKnD42JuAfy1b2jBA&sa=X&oi=image_result_group&ct=title&resnum=
1&ved=0CCgQsAQwAA) é resultado da perda de calor para o ambiente no processo de
congelamento, portanto aumento de entropia do floco em si, resultando nas belíssimas e
altamente complexas figuras geométricas e fractais que são observados.

Citando fractais, dentro da teoria do caos, ainda, há respaldo a este tipo de argumento: um
sistema caótico é visto como de um nível de complexidade extremamente alto que fica
impossível de formalizar, como o clima e os sistemas financeiros. Caos determinístico e
complexidade não são mutuamente excludentes, nesta visão, em que sistemas dinâmicos
também podem exibir padrões emergentes auto-organizados – como os sistemas complexos
adaptativos. Em poucas palavras, sistemas caóticos são apenas aqueles que apresentam forte
sensibilidade às condições iniciais, divergindo exponencialmente a partir de minúsculas
diferenças nas variáveis de contorno
(http://en.wikipedia.org/wiki/Complex_systems#Complexity_and_chaos_theory)
(http://order.ph.utexas.edu/chaos/), e não uma bagunça generalizada.

O Design Inteligente (DI) já não se sairia muito bem com a termodinâmica: primeiro, porque
“criar” coisas é uma clara violação da primeira lei
(http://en.wikipedia.org/wiki/First_law_of_thermodynamics). Mas vamos assumir que não se crie,
mas direcione-se o desenvolvimento, o que seria menos absurdo. Quanto à segunda lei, é
evidente que um designer na natureza agiria como um grande “agente redutor de entropia”, ou
seja, assim como acontece no experimento mental do Demônio de Maxwell
(http://en.wikipedia.org/wiki/Maxwell%27s_demon), a redução local de entropia dos seres vivos
sendo “criados” teria que implicar num aumento da entropia na informação retida pelo designer,
de algum modo. Para contornar os problemas de limites de retenção de informação, ou explicar
o aumento de entropia no designer em si sem que ele reduza sua complexidade ou tenda a
equilíbrio, cessando sua existência como entidade projetista, os proponentes do Design acabam
por defini-lo como uma entidade sobrenatural, que não está, no final das contas, limitada, e,
portanto submetida, às leis naturais.

Por que estes proponentes deveriam argumentar, portanto, que o DI substitui a explicação
naturalista da TE? Isto só evidencia que o DI se baseia em fé e não é ciência, pois não se
submete às mesmas limitações que todo o resto da ciência está submetido. O DI é, de fato,
criacionismo e mitologia porcamente vestidos de ciência, não falseando a TE e ainda por cima
propondo uma explicação ainda mais complexa à origem das espécies. Tudo o que o DI tem são
analogias não generalistas e uma hipótese, por sinal, muito ruim: o argumento do desígnio. E
como costumo dizer, analogias não provam nada, somente tentam explicar uma hipótese ou
ponto que não se consegue ou não se quer evidenciar formalmente. O Design, entre outras
“saídas” sobrenaturalistas, funciona como uma forma de admitir que algo não tem explicação
racional e passível de investigação posterior e aprofundamento, sendo no final das contas uma
estagnação científica e uma satisfação com a falta de explicação, ainda por cima embasando o
refúgio mental que é todo sobrenaturalismo.

Como notado por Adami (http://www.kgi.edu/Documents/BE2002.pdf), usando o conceito de


entropia informacional, “a seleção natural pode ser vista como um filtro, um tipo de membrana
semipermeável que deixa a informação fluir para dentro do genoma, mas impede-a de fluir para
fora. A respeito disto, a ação da seleção natural é muito parecida com aquela do dispositivo
conhecido como Demônio de Maxwell na física, implicando que a seleção natural pode ser
também bem compreendida pela perspectiva da termodinâmica”. Entre TE e DI, a diferença é
que a redução da entropia causada pelo processo de seleção natural é compensada pela
energia retirada do ambiente, enquanto propor um ser que ativamente seleciona e direciona a
evolução das formas de vida, além de uma hipótese mais complexa, cria a lacuna de explicar de
como este ser, em si, foge da tendência ao equilíbrio termodinâmico. E também que uma se
baseia num PROCESSO NATURAL e o outro num SER SOBRENATURAL. Difícil engolir seco
assim, só por fé.

Muito disto nos leva a reconhecer que a seleção natural é um manejo egoísta da energia
disponível no ambiente que somente leva o sistema global (i.e., o universo) ao estado de
entropia alta mais rapidamente – o que está de acordo com a segunda lei, ao mesmo tempo em
que demonstra que isto seria até mesmo mais plausível de acontecer. O que faria o sistema
tender mais rapidamente ao equilíbrio termodinâmico: deixá-lo incorrer disto ao longo do tempo
naturalmente ou possuir um processo (aqui, a seleção natural) que reduz localmente a entropia à
custa de aumentá-la globalmente de forma acelerada, dada sua inerente ineficiência de
conversão? A seleção natural, entre outros processos similares de “redução local por aumento
global acelerado”, passa a parecer uma regra e não uma exceção no universo. A formação de
estrelas é outro exemplo de processo similar, um modo de “consumir” a energia de forma mais
rápida. E, quem sabe, também explica o porquê de haver “algo” no lugar do “nada”, sem ser
necessário assumir um objetivo divino.

Um ex-professor meu de Cálculo (Cálculo IV, especificamente), um sujeito brilhante que, aliás,
tem bacharelado em química, física e matemática, com mestrado e doutorado na última, certa
vez disse que entropia é a maior lorota da física. Um conceito meio que inventado, se posto na
forma simplista. De fato, os enunciados mais clássicos e populares da termodinâmica são
realmente pouco inteligíveis, para não dizer completamente confusos e enganosos,
principalmente quando retirados de seu contexto original. Em discussões sobre a eficiência de
máquinas térmicas e o porquê de sua incapacidade de converter a energia total original do
sistema em trabalho à custa de um gradiente de temperatura, mesmo numa idealização dos
componentes, é fácil aplicar o conceito de entropia. Porém tentar aumentar a abrangência do
conceito pode ser traiçoeiro, por isto exige cautela.

Não tiro a razão do meu professor: entropia não mede nível de complexidade, nem de
informação, puramente falando. A segunda lei não fala que tudo tende ao caos, mas ao
equilíbrio. Também, entropia não é uma entidade física diretamente mensurável ou “palpável”, ou
seja, não existem entropiômetros para medir a entropia dos sistemas físicos. Ela poderia ser
mais bem descrita como uma medida associada à “distância” que um sistema, durante sua
evolução temporal, se encontra do seu estado de equilíbrio, ou seja, do estado macroscópico
observável em que seus microestados são equiprováveis e indistinguíveis. Viu como fica difícil
de definir? Pior ainda compreender. Principalmente porque o conceito está associado às nossas
grandes dificuldades de abstrair em questões e definições probabilísticas – vide a mecânica
quântica e as funções de onda (http://en.wikipedia.org/wiki/Wave_function), por exemplo. Assim
como acontece com a lei de Ohm (http://en.wikipedia.org/wiki/Ohm%27s_law), a entropia é uma
entidade matemática de definição empírica, usada para descrever um fenômeno invariável da
natureza macroscópica, gerando um modelo desta propriedade.

Matematicamente, a entropia está definida somente no escopo do transporte de calor: é a


quantidade de calor divida pela temperatura absoluta (i.e., joules por kelvin – J/K). Mas em
termos da energia usada nos processos vitais e no aumento temporal de complexidade por
meios evolutivos, as evidências nos indicam que a mudança líquida da entropia no universo
ainda é positiva como resultado da evolução (http://www.talkorigins.org/faqs/faq-
misconceptions.html#thermo), sendo o processo de seleção natural, ainda por cima, dedutível da
equação da segunda lei aplicada a sistemas abertos conectados que não estão em equilíbrio
termodinâmico, como seres vivos – somos sistemas abertos por tomar energia do ambiente e
não estamos em equilíbrio termodinâmico por usarmos de processos bioquímicos auto-
sustentáveis para manter o nível de organização dos nossos corpos, portanto mantendo a vida.
Neste sentido, a TE seria ela mesma uma expressão da segunda lei, baseado no princípio do
menor esforço realizado pelo processo de seleção natural
(http://rspa.royalsocietypublishing.org/content/464/2099/3055.full).

Como visto, a entropia é um conceito bem ambíguo, não sendo difundido no meio científico na
forma simplista que é assumida nos argumentos contra-evolucionistas. Assim como aconteceu
na mecânica quântica, os métodos de mecânica estatística explicam muito melhor o que
entendemos por entropia do que a termodinâmica “clássica”. Apesar de a segunda lei ser, na
prática, inviolável na natureza – da forma como é realmente posta –, a entropia é atualmente
definida como uma tendência estatística de determinado sistema sofrer dada mudança
instantânea (a tendência provável, num dado instante, de pra onde o sistema “vai”). Pense numa
gota de corante pingada num copo d’água: a probabilidade é de que, com o passar do tempo, o
corante se difunda cada vez mais na água, tornando este processo termodinamicamente
irreversível, dado a alta improbabilidade de se reorganizar as moléculas, ao acaso, novamente
numa gota de corante organizada. A probabilidade tende para onde há difusão, neste caso
desorganização e equilíbrio num nível de menor energia, caracterizando um aumento de
entropia. É claro que existem outras formulações mais intuitivas para entender o processo de
difusão, no entanto é evidente que ele respeita a segunda lei, podendo ser compreendido porque
as moléculas espalhadas são “mais naturais” do que moléculas “segregadas”: existem muitos
mais configurações “espalhadas equivalentes” do que juntas em um canto, por isso é para onde
o aumento de entropia aponta, pois a probabilidade pesa muito mais para a difusão destas
moléculas do que para sua concentração. Reorganizar estas moléculas de forma ativa requererá
um alto nível de informação sobre a posição no tempo e no espaço destas moléculas (imagine
só: matematicamente, são necessárias 4 coordenadas num espaço vetorial quadridimensional, 3
de espaço e 1 de tempo, para cada molécula, formando uma matriz “4 x n moléculas”, com
vetores para cada instante dum parâmetro temporal discretizado!), de onde surge o conceito da
entropia dentro da teoria da informação
(http://en.wikipedia.org/wiki/Entropy_%28information_theory%29), já supracitado, no entanto num
escopo um tanto diferente do puramente físico e naturalista.

No final das contas, uma coisa que podemos inferir a partir da segunda lei quanto à biologia é
que, mais cedo ou mais tarde, um dia a vida cessa de existir. A morte é a maior evidência que
temos para provar que a vida respeita a segunda lei da termodinâmica, pois ela representa o
equilíbrio termodinâmico a qual todos os seres vivos estão fadados a tenderem, retornando à
natureza energia e matéria numa forma de aumento da entropia global, indo para um estado
mais simples da organização molecular e a cessação de todos os processos bioquímicos que
mantinham a complexidade do corpo em ordem, enquanto vivo. A vida é uma luta constante
contra o equilíbrio termodinâmico, e de forma alguma uma violação de seus princípios.

Indo ainda mais além, é certo que a vida cessará não somente nos organismos individuais, mas
no universo. É bem evidente que os aumentos locais de entropia não podem ser sustentados
para sempre. Mais cedo ou mais tarde, a vida será extinta, como consequência de nosso
universo físico ter aversão às reduções de entropia. Neste ponto de vista, ponto pros religiosos e
apocalípticos: de fato o juízo final existe. Só que neste caso, estaremos respondendo diante da
física, e não do Arrebatador Supremo.

Você também pode gostar