Você está na página 1de 32

O UNIVERSO

TEORIAS SOBRE SUA ORIGEM E EVOLUÇÃO

Este arquivo foi copiado do site http://www.ifi.unicamp.br/~ghtc/Universo/, onde o livro está


disponível online, quando a 1a edição esteve esgotada . A edição atualizada está a venda atualmente,
pela Livraria da Física.
Ele contém a Introdução, e os capítulos 06, 09, 10 e 11, que tratam das teorias do Heliocentrismo e
Geocentrismo, da fonte de energia do Sol e Cosmologia Relativística,.

INTRODUÇÃO

A origem do universo é um tema que sempre interessou a toda a humanidade. Em todos


os povos, em todas as épocas, surgiram muitas e muitas tentativas de compreender de onde veio
tudo o que conhecemos. No passado, a religião e a mitologia eram as únicas fontes de
conhecimento. Elas propunham uma certa visão de como um ou vários deuses produziram este
mundo.
Há mais de dois mil anos, surgiu o pensamento filosófico. Ele propôs novas idéias,
modificando ou mesmo abandonando a tradição religiosa. Por fim, com o desenvolvimento da
ciência, apareceu um outro modo de estudar a evolução do universo.
Atualmente, a ciência predomina. É dessa ciência que muitos esperam obter a resposta às
suas indagações sobre a origem do universo. Muitas vezes, lemos notícias em jornais e revistas
apresentando pesquisas recentes sobre a formação do universo. Na tentativa de chamar a
atenção para uma nova descoberta, os jornalistas às vezes exageram sua importância e publicam
manchetes do tipo: "Acaba de ser provado que o universo começou de uma explosão". Mas foi
provado, mesmo?
As notícias, quase sempre, dão a impressão de que acabaram todos os mistérios, que não
há mais dúvidas sobre o início e evolução do cosmo. Mas a verdade não é exatamente essa. Há
dezenas de anos, os jornais repetem as mesmas manchetes, com notícias diferentes. Quem se
der ao trabalho de consultar tudo o que já se publicou sobre o assunto, verá que os meios de
comunicação revelam sempre um enorme otimismo. O resultado de cada nova pesquisa é
apresentado como se tivesse sido conseguida a solução final. Mas se a notícia de trinta anos
atrás fosse correta, não poderiam ter surgido todas as notícias dos anos seguintes - até hoje -
repetindo sempre que um certo cientista ou grupo de pesquisadores "acaba de provar" que o
universo começou assim e assim.
A ciência tem evoluído, isso é inegável. Durante o século XX, nossos conhecimentos
aumentaram de um modo inconcebível. Entretanto, nem todos os problemas foram resolvidos. A
ciência ainda não esclareceu a maior parte das dúvidas. As teorias sobre a origem do universo
ainda devem sofrer muitas mudanças, no futuro. Por isso, ninguém deve esperar encontrar aqui a
resposta final. A última palavra ainda não foi dita.
A ciência não é o único modo de se estudar e tentar captar a realidade. O pensamento
filosófico e religioso possuem também grande importância. As antigas indagações ressurgem
sempre: será possível que esse universo tenha surgido sem uma intervenção divina? até que
ponto a ciência e a religião se contradizem ou se completam?
Ao longo da história da humanidade, desenrolou-se - e ainda se desenrola - um enorme
esforço para descobrir de onde veio tudo aquilo que existe. É a história desse esforço que será
descrita neste livro. Apenas sabendo todas as fases pelas quais já passou o pensamento humano,
podemos tentar avaliar corretamente o estágio atual de nossos conhecimentos. Para isso, não
podemos nos limitar apenas às investigações mais recentes, nem apenas à ciência. Devemos
recuar a um passado distante, e acompanhar essa grandiosa aventura intelectual da humanidade:
a tentativa de entender a origem do universo, a sua própria origem e o seu próprio significado.
Em nossa viagem, encontraremos alguns dos maiores pensadores de toda a história.
Muitas teorias são difíceis ou obscuras. É preciso um certo esforço para entendê-las. Mas vale à
pena esse esforço de elevar-se e poder dialogar com alguns dos maiores gênios da humanidade.
Nossa viagem pela história do pensamento humano nos mostrou muitas tentativas
realizadas para se compreender a origem de nosso universo. Essa busca existiu em todas as
civilizações, em todos os tempos. Mas a forma de buscar essa explicação variou muito. O mito, a
filosofia, a religião e a ciência procuraram dar uma resposta às questões fundamentais: O
universo existiu sempre, ou teve um início? Se ele teve um início, o que havia antes? Por
que o universo é como é? Ele vai ter um fim?
Nosso conhecimento moderno sobre o universo está muito distante daquilo que era
explicado pelos mitos e pela religião. Nenhum mito ou religião descreveu o surgimento do
sistema solar, do Sol, das galáxias ou da própria matéria. Esperaríamos da ciência uma resposta
às nossas dúvidas, mas ela também não tem as respostas finais.
Por que não desistimos, simplesmente, de conhecer o início de tudo? Que importância
pode ter alguma coisa que talvez tenha ocorrido há 20 bilhões de anos?
A presença universal de uma preocupação com a origem do universo mostra que esse
é um elemento importante do pensamento humano. Possuir alguma concepção sobre o
universo parece ser importante para que possamos nos situar no mundo, compreender nosso
papel nele. Em certo sentido, somos um microcosmo. O astrônomo James Jeans explicava o
interesse dos cientistas por coisas tão distantes de nossa vida diária, da seguinte maneira:
Ele quer explorar o universo, tanto no espaço quanto no tempo, porque ele próprio faz
parte do universo, e o universo faz parte do homem.
Essa busca de uma compreensão do universo e do próprio homem ainda não terminou.
De uma forma ou de outra, todos participamos dessa mesma procura. Uma procura que tem
acompanhado e que ainda deverá continuar a acompanhar todos os passos da humanidade.

CAPÍTULO 6 - O PENSAMENTO CIENTÍFICO MODERNO E A ORIGEM DO MUNDO

6.1 O UNIVERSO SEGUNDO ARISTÓTELES

Em cada fase da humanidade, a tentativa de explicar o surgimento do universo precisa


tentar dar conta daquilo que se conhece sobre a estrutura do próprio universo. Quando se
imaginava a Terra como sendo um disco achatado, coberto por uma cúpula hemisférica, era isso o
que precisava ser explicado. Mas o conhecimento sobre o mundo foi mudando. Vamos voltar um
pouco atrás no tempo, para poder compreender o surgimento do pensamento científico moderno,
nos séculos XVI e XVII.
Na antiga Grécia, na época de Platão, já se sabia que a Terra era redonda. No século IV
antes da era cristã, o grande filósofo Aristóteles, de Estagira (384 a 322 antes de Cristo) apresenta
argumentos muito claros para mostrar a forma da Terra. Ele indica que, quando um navio se
afasta do porto, uma pessoa que fica em terra vê, inicialmente, o navio todo que parece cada vez
menor; mas, depois de uma certa distância, a parte de baixo do navio começa a ficar oculta pelo
mar, e por fim só se vê a parte mais alta dos mastros. Se o mar fosse plano, isso não poderia
acontecer. Tal acontece exatamente porque o mar é curvo. Da mesma forma, para se ver ao
longe, no mar, é preciso estar em um ponto elevado. Nos navios, o melhor ponto de observação é
no alto de um mastro. Em terra, o melhor ponto de observação é o alto de uma colina ou de um
prédio alto. Se o mar fosse plano, a altura do observador não faria diferença nenhuma.
Outra indicação apresentada por Aristóteles é que, quando se viaja para o Sul, na África,
começam a ser observadas estrelas que não são vistas na Grécia. Isso é correto. Sabemos que a
constelação do Cruzeiro do Sul, por exemplo, não pode ser vista por quem esteja na Europa. Da
mesma forma, nós, no Brasil, não podemos ver estrelas que estão próximas ao pólo Norte – como
a constelação da Ursa. Isso também acontece por causa da curvatura da Terra: se ela fosse
plana, seria possível ver exatamente as mesmas partes do céu de qualquer ponto em que
estivéssemos.
Por fim, outro tipo de fato indicado por Aristóteles vem da observação de eclipses da Lua.
A Lua é eclipsada na fase de Lua Cheia, quando a Terra fica entre o Sol e a Lua. Quando isso
acontece, a sombra da Terra é projetada sobre a Lua, e a encobre parcialmente ou totalmente. A
Lua é menor do que a Terra, por isso não se pode ver a sombra toda da Terra projetada sobre ela.
Mas pode-se observar partes dessa sombra, e ela é sempre arredondada. Se a sombra da Terra é
sempre redonda, isso indica que a própria Terra é redonda. Se a Terra fosse um disco, a sombra
não seria sempre redonda. Todos esses argumentos, que Aristóteles apresentou mais de dois mil
anos atrás, são perfeitamente válidos até hoje.
Não se sabe exatamente como surgiu essa nova concepção, mas ela deve ter sido
sentida, na época, como uma das maiores revoluções do pensamento humano. Antes, pensava-se
que o mundo terrestre tinha um limite: se alguém navegasse pelo oceano, acabaria chegando ao
final do mesmo – e, lá, o que aconteceria? Encontraria um precipício, onde as águas cairiam?
Acharia o ponto de encontro do Céu com a Terra? Ninguém sabia.
Com a nova visão do mundo terrestre redondo, tudo ficava diferente: era possível navegar
sempre, pelo oceano, sem nunca chegar ao fim do mundo. Se uma pessoa pudesse caminhar
sempre na mesma direção (para Leste, por exemplo), acabaria voltando ao ponto de partida. Tudo
isso era muito diferente e estranho. Mas havia conseqüências ainda mais “absurdas”: em qualquer
lugar da Terra, devem poder existir pessoas, e portanto poderiam existir pessoas que estão de
cabeça para baixo, em relação a nós, e que não caem da Terra. Além disso, a própria Terra não
está apoiada nem presa a nada, e apesar disso não cai. Idéias como essas devem ter sido
consideradas como muito difíceis ou mesmo como impossíveis.
Aos poucos, no entanto, a visão de uma Terra esférica foi sendo aceita. Aristóteles
desenvolveu uma nova Física, na época, para tentar compreender essas coisas. Estudando o
movimento dos objetos terrestres, ele concluiu que existem coisas “pesadas”, como os sólidos e
líquidos, que caem em direção ao centro da Terra; e outras coisas “leves”, como o ar e o fogo, que
se afastam do centro da Terra. No entanto, ele pensou que isso não poderia ocorrer por causa da
própria Terra. Imaginou que todos os corpos pesados possuem uma tendência natural de se
aproximarem do centro do universo, assim como os corpos leves tentam se afastar do centro do
universo. Assim sendo, deve se formar naturalmente um aglomerado de matéria pesada no centro
do universo e, como essa matéria pressiona, de todos os lados, para esse ponto central, forma-se
uma grande massa redonda, que fica parada e que não cai para nenhum lado, pois é empurrada
igualmente por todos os lados, em direção ao centro. Isso explicaria por que a Terra não cai.
Por outro lado, Aristóteles observou que os astros (estrelas, planetas, Sol, Lua) não caem
em direção à Terra, nem se afastam dela. Por isso, concluiu que não podiam ser formados nem
por elementos pesados, nem por elementos leves, ou seja: não poderiam ser formados nem por
terra, nem água, nem ar, nem fogo. Ele propôs que todos os corpos celestes são formados por um
“quinto elemento”, o éter. O universo seria, assim, dividido em duas partes totalmente distintas. O
mundo celeste, a partir da Lua, seria feito de éter. O mundo terrestre, ou sublunar (abaixo da Lua),
seria formado por terra, água, ar e fogo.
Aristóteles pensava, como quase todos os antigos, que era impossível a existência de
espaços totalmente vazios de matéria. Por isso, imaginou que a atmosfera chegaria até a altura
da Lua e que, a partir daí, haveria uma série de esferas transparentes, encaixadas umas nas
outras, que girariam em torno da Terra, arrastando os planetas. Essas cascas esféricas, feitas de
éter, foram chamadas de “orbes”. A casca mais distante seria a esfera das estrelas, e o universo
terminaria aí. Podemos perguntar: e o que haveria depois da última esfera? Haveria um espaço
vazio?
Aristóteles responde que não. Para Aristóteles, um espaço é uma região cercada por
alguma coisa material (por exemplo, o espaço dentro de uma garrafa, que é cercado pelo material
da garrafa). O espaço ou lugar onde eu estou é determinado pelas coisas que estão em volta de
mim e que me cercam, envolvem e tocam: o ar, o assento de uma cadeira, etc. Ora, se o universo
é tudo aquilo que existe, não há nada fora do universo que possa tocá-lo ou cercá-lo. Por isso, ele
não está em lugar nenhum, não está em nenhum espaço. Também não se pode falar sobre o
espaço onde não existe nada. Por isso, não se pode falar sobre os espaços fora do universo.

6.2 A ASTRONOMIA GREGA

Aristóteles não era um astrônomo. Seu interesse era explicar o universo, mas sem entrar
em detalhes e sem fazer cálculos. Os astrônomos, que estudavam os movimentos das estrelas,
adotaram em geral uma concepção parecida com a de Aristóteles. Praticamente todos aceitavam
que a Terra estava parada no centro do universo, embora alguns (como Aristarco, de Samos – 310
a 230 antes de Cristo) afirmassem que a Terra girava em torno do Sol. O argumento de Aristarco
se baseou nas suas avaliações de tamanho dos astros. O tamanho da Terra já era conhecido na
época de Aristóteles; mas discutia-se muito se o Sol e a Lua eram muito menores, ou de tamanho
semelhante, ou muito maiores do que a Terra. Aristarco fez as primeiras medidas das distâncias
da Terra até a Lua e o Sol, e verificou que a Lua era menor do que a Terra, mas o Sol era muito
maior. Concluiu, por isso, que o Sol era mais importante, e que não poderia ficar girando em torno
da Terra. No entanto, as idéias de Aristarco não foram aceitas, na sua época.
Sabia-se, há muito tempo, que a Lua estava mais próxima de nós do que o Sol. De fato, a
Lua pode passar entre a Terra e o Sol, produzindo eclipses solares; isso só pode acontecer se ela
está mais perto de nós do que o Sol. Nada se sabia sobre as distâncias dos planetas. Conhecia-
se, na Antigüidade, a existência de Mercúrio, Vênus, Marte, Júpiter e Saturno. Sabia-se que
Mercúrio e Vênus tinham alguma ligação com o Sol, pois nunca são vistos muito longe dele. Por
isso, pensava-se que eles deviam estar mais ou menos à mesma distância que o Sol – um pouco
mais próximos ou um pouco mais distantes. Quanto aos outros planetas, há alguns que se movem
muito lentamente, em relação às estrelas, e outros que se movem mais rapidamente. Pensava-se
que os que se moviam mais lentamente eram os mais distantes da Terra. Nesse caso, Marte, que
demora quase dois anos para percorrer os signos do zodíaco, estaria mais próximo. Depois viria
Júpiter, que demora quase 12 anos para dar uma volta em relação às estrelas, depois Saturno,
cujo período é de quase 30 anos. Mas tudo o que se acreditava sobre suas distâncias eram
suposições. Não havia nenhum modo de medir essas distâncias, na época.
O mais famoso astrônomo da Antigüidade foi Claudio Ptolomeu, que viveu no século II
depois de Cristo. Ele aceitou as idéias de Aristóteles, e elaborou uma detalhada teoria matemática
dos movimentos dos planetas. Sua teoria permitia prever, com grande precisão, a posição de
qualquer planeta, em qualquer época. Durante muitos séculos, seu trabalho não foi ultrapassado
por outros astrônomos.
Na época em que as grandes navegações levaram os europeus à América, à Ásia e ao sul
da África, ainda se acreditava que a Terra estava parada no centro do universo, imóvel. Em torno
dela, existiria uma camada de ar, de altura desconhecida; e, depois, a série de cascas esféricas
ou “orbes”, com os astros. O orbe mais distante da Terra seria a esfera das estrelas fixas, onde
estariam todas as constelações. Esse orbe não seria muito distante: apenas uma distância
algumas vezes maior do que a que existe entre o Sol e a Terra. As estrelas, presas a essa esfera
mais distante, eram imaginadas como coisas muito menores do que o Sol e semelhantes aos
planetas. O universo seria relativamente pequeno, indo apenas até onde nosso olhar alcança.
Depois disso, não existiria mais nada, ou talvez um espaço vazio, ou ainda um caos impossível de
ser conhecido, ou o Céu divino. No centro de tudo, estaria a Terra e o homem, para quem tudo foi
criado, de acordo com a tradição bíblica.
Como vimos, os atomistas defenderam a idéia de um universo infinito, cheio de mundos de
muitos tipos. Mas essa idéia não foi aceita, durante o período medieval.

6.3 O MODELO HELIOCÊNTRICO DE COPÉRNICO

Nos séculos XVI e XVII, a Europa passa por uma fase de grande ebulição intelectual e de
renovação científica. Ao contrário do período do Renascimento, no qual a Antigüidade era
valorizada acima de qualquer outra coisa, agora, no início da Idade Moderna, os pensadores
europeus adquirem uma grande independência e ousam aventurar-se, como navegantes
intelectuais, em novos mundos.
É no século XVI que surge Nicolau Copérnico (1473-1543) e uma nova teoria astronômica.
Como todos sabem, Copérnico propõe uma teoria heliocêntrica, na qual o Sol é o centro em torno
do qual se movem todos os planetas; e a própria Terra é tirada do centro do universo e
considerada apenas como um dos planetas, girando em volta do Sol. Mas a visão geral de
Copérnico não era totalmente diferente da antiga. Ele ainda acreditava em orbes transparentes,
encaixados e girando uns dentro dos outros. A diferença é que eles estariam girando em torno do
Sol e não da Terra.
Foi Copérnico quem conseguiu, pela primeira vez, estabelecer as distâncias dos vários
planetas. Em linhas gerais, a estrutura do sistema solar proposta por ele ainda é aceita. Na sua
teoria, Mercúrio era o mais próximo ao Sol, seguido de Vênus, da Terra, Marte, Júpiter e, por fim,
Saturno. Ele foi capaz de comparar essas distâncias, e mostrar, por exemplo, que a distância de
Saturno ao Sol é cerca de 10 vezes maior do que a distância entre a Terra e o Sol; e que a
distância de Mercúrio ao Sol é pouco mais de um terço da distância da Terra ao Sol. As distâncias
das estrelas não podiam ser determinadas: mas Copérnico supôs que eram muito mais distantes
do que Saturno.
A teoria de Copérnico não foi aceita, logo que foi proposta, por muitos motivos. Ela colidia
com toda a ciência de sua época e parecia em contradição com os fatos conhecidos. Não
sentimos nenhum efeito do movimento da Terra. Se ela se movesse, não deveria surgir algum
efeito disso? Além de ser estranha, ela entrava também em conflito com toda a tradição cultural e
religiosa. Foi, por isso, considerada como uma hipótese curiosa e engenhosa, que permitia fazer
cálculos astronômicos, mas que não descrevia a realidade.
No entanto, algumas pessoas começam a se convencer de que a teoria de Copérnico era
verdadeira. Um deles foi o italiano Giordano Bruno. Ele aceitou e levou a teoria heliocêntrica de
Copérnico às suas conseqüências mais extremas, do ponto de vista filosófico. Admitiu que as
estrelas estão muito mais distantes de nós do que qualquer planeta ou do que o Sol, e que são
outros tantos sóis, com planetas à sua volta. O nosso mundo, com a Terra, o Sol, a Lua e os
planetas, seria apenas um dos infinitos mundos em um universo infinito. Todos ou muitos desses
mundos poderiam ser habitados. A humanidade não teria importância nenhuma para o universo
como um todo, sendo ridículo pensar que tudo pudesse ter sido criado para o homem.
Em uma de suas obras, “A ceia dos penitentes”, Bruno considera que Copérnico libertou a
humanidade de uma prisão intelectual, expandindo o universo até o infinito:
Quem poderia louvar dignamente a grandeza desse Alemão que, com pouca
consideração pela multidão tola, voltou-se contra a torrente da opinião vulgar... ; que libertou o
espírito humano e o conhecimento, que estavam limitados na prisão estreita do ar turbulento
onde, como por certos furos, as estrelas distantes podiam nos olhar... Ele que atravessou o ar,
penetrou o céu, espalhou as estrelas pelo infinito, rompeu as fronteiras do mundo, dissipou as
fantásticas muralhas da primeira esfera, da oitava, da décima e de quantas outras quiserem
adicionar.
Embora se baseie em Copérnico, Giordano Bruno vai muito mais longe do que ele.
Copérnico ainda mantinha uma idéia de esferas que produziam o movimento dos astros. Ele não
chega a defender a idéia de um universo infinito, embora tenha afirmado que as estrelas estariam
muito mais distantes de nós do que se pensava. O que levou Bruno às suas concepções não foi o
conhecimento astronômico da época, nem a observação. Ele próprio afirma que não temos
nenhum sentido capaz de perceber o infinito e que, portanto, jamais poderíamos constatar, pela
observação, que o universo não tem limites. No entanto, ele defende a idéia de que um universo
finito é incompatível com o poder de Deus. Se Deus pudesse criar um universo infinito, por que
motivo não o criaria? Só há duas respostas possíveis: ou porque não pode ou porque não quer.
Mas um Deus que não pode criar um universo infinito não é Deus, pois não é onipotente. E um
Deus que pode mas não cria um universo infinito seria preguiçoso.
Percebe-se em Bruno todo um desejo de liberdade, em todos os sentidos, que se
manifesta tanto em sua concepção do universo sem limites como em todo o seu pensamento.
Romper as fronteiras do mundo é, simbolicamente, libertar a humanidade de qualquer limitação
para poder pensar e agir livremente. Pois Bruno também acredita na antiga concepção de
identidade entre o homem e o universo: ele afirma que pela contemplação do macrocosmo pode-
se facilmente chegar ao conhecimento do microcosmo (o homem), cujas partículas correspondem
às partes do macrocosmo. Mudando-se a concepção do universo muda-se também a concepção
sobre o homem.
Giordano Bruno foi queimado pela Inquisição, em 1600, pelas suas idéias. Mas outras
pessoas continuaram a aceitar e a defender o pensamento de Copérnico. Galileo Galilei (1564-
1642) foi um dos mais famosos defensores do heliocentrismo, tendo proposto uma nova física,
diferente da de Aristóteles, para tornar aceitável que a Terra se move em torno do Sol. Por sua
defesa da teoria de Copérnico, Galileo foi perseguido pela Inquisição, mas não recebeu nenhuma
penalidade mais grave.
Entre outras coisas, Galileo descobriu, por meio de um telescópio, a existência de “luas”
(satélites) que se moviam em torno de Júpiter e observou a existência de montanhas na Lua.
Esses estudos ajudaram a romper com a visão que se tinha anteriormente de que o mundo
celeste era algo totalmente diferente do mundo terrestre. No entanto, como Galileo não
desenvolve nenhuma proposta cosmogônica, não iremos discutir aqui suas idéias.
6.4 A ORIGEM DO UNIVERSO SEGUNDO DESCARTES

Um dos grandes pensadores da primeira metade do século XVII foi o francês René
Descartes (1596-1650). Afastando-se da tradição bíblica, Descartes tentou imaginar como o
universo todo poderia ter se originado e produzido tudo o que conhecemos, sem a intervenção
divina. No entanto, sua proposta não foi um ataque aberto à religião. Ele admitiu a existência de
Deus e afirmou que o início absoluto do universo é devido à ação de Deus. Mas supôs que Deus
apenas precisou criar a matéria e o movimento e que as leis naturais determinaram tudo o que
ocorreu depois.
Descartes estava concluindo em 1633 um tratado chamado “O Mundo”, sobre esse
assunto, quando soube da condenação de Galileo pela Inquisição. Desistiu então de publicar esse
livro (que só foi conhecido depois de sua morte). Mas divulgou suas idéias, de um modo
cauteloso, em outros livros. No “Discurso do Método”, ele diz:

Com a finalidade de deixar todos esses tópicos na penumbra, e ser capaz de me exprimir
livremente sobre eles, sem ser obrigado a aceitar nem a refutar as opiniões que são aceitas pelos
eruditos, resolvi deixar todo este mundo para que eles o disputassem, e falar apenas sobre o que
aconteceria, se Deus criasse agora, em algum lugar em um espaço imaginário, matéria suficiente
para formar um novo mundo, e se Ele agitasse as diferentes porções dessa matéria de diversos
modos, e sem qualquer ordem, de modo que resultasse um caos tão confuso quanto o que os
poetas imaginaram; e concluísse o Seu trabalho simplesmente prestando seu auxílio à Natureza
do modo usual, deixando que ela agisse de acordo com as leis que Ele estabeleceu.
A versão mais elaborada dessas idéias é apresentada por Descartes em sua obra
“Princípios da Filosofia”.
Descartes imagina o universo, inicialmente, como um espaço totalmente preenchido por
uma matéria homogênea: igual em todos os lugares. Não existiria nem luz, nem estrelas, nem
planetas, nem nada que conhecemos. Essa matéria inicial seria sólida – como um imenso bloco
de cristal. Deus, no entanto, teria dado dois movimentos iniciais a essa matéria, quebrando-a em
pequenos blocos: um movimento interno, de rotação de cada pedaço em torno de si próprio, que
faria com que a matéria inicialmente sólida fosse se fragmentando em pedaços cada vez
menores, produzindo uma espécie de “pó” que preencheria todos os espaços entre as partícula
maiores; e um movimento de rotação de diferentes grupos de partículas em torno de um centro
comum. As partículas iniciais não tinham nenhuma forma arredondada, senão não poderiam
preencher todo o espaço. Mas, pela sua rotação, em contato com outras partículas, iriam
perdendo suas pontas e se tornando arredondadas.
Através do movimento e sucessiva quebra das partes da matéria, teriam se originado
diferentes tipos de partículas – todas constituídas a partir da mesma matéria primitiva. Descartes
distingue três tipos de “elementos” produzidos dessa forma: partículas sólidas maiores, tais como
as que constituem o solo; uma matéria mais sutil (“segundo elemento”), resultante do
arredondamento das partículas sólidas, e que seria constituída por partículas esféricas muito
pequenas; e algo ainda menor (“primeiro elemento”), que preencheria todo espaço não ocupado
por esses outros tipos de matéria.
Descartes imagina que a matéria primordial foi agitada por Deus, de modo desordenado,
em todas as direções. Esse movimento inicial produziria movimentos circulares: imensos
turbilhões e redemoinhos distribuídos pelo espaço.
Nessa teoria, a rotação da matéria nesses redemoinhos produz uma separação das
partículas de diferentes tamanhos: as menores se concentram no centro dos turbilhões. Assim, no
centro de cada gigantesco redemoinho, forma-se um espaço redondo, ocupado apenas pelo
“primeiro elemento” – a matéria com as menores partículas. Todas as partículas estão sempre se
movendo, e as menores são as que têm um movimento mais rápido. Descartes compara esse
primeiro elemento a um fogo, cujas partículas estão permanentemente se movendo com grande
velocidade.
Esse seria o processo de formação das estrelas. Cada grande turbilhão vai ocupar uma
região semelhante ao nosso sistema solar, e no centro de cada um deles vai aparecer uma
estrela, formada pelas menores partículas, as do primeiro elemento.
O segundo elemento, que ocupa quase todo o volume do turbilhão, é descrito por
Descartes como um tipo de líquido, pois suas partículas redondas escorregam com facilidade
umas sobre as outras, sem resistência. O segundo elemento não é constituído por partículas
todas iguais entre si. Existiriam esferas menores e outras maiores, em uma gradação contínua. As
esferas menores ficariam mais próximas ao centro (ou seja, mais próximas da estrela central do
turbilhão). Cada parte do turbilhão teria uma velocidade de rotação diferente. Descartes imagina
que a região mais próxima do centro deve girar mais depressa, e que os círculos sucessivamente
mais afastados do centro devem gastar um tempo maior para completar uma volta.
Cada estrela estaria recebendo continuamente matéria do primeiro elemento através dos
seus pólos, e espalhando essa matéria à sua volta. No meio dessa matéria recebida pelos pólos,
haveria partículas maiores e irregulares. Elas poderiam se enganchar e prender-se umas às
outras e formar partículas maiores, mais lentas. Ao invés de sair da estrela e espalhar-se pelo
segundo elemento, elas ficariam presas à superfície da estrela, formando uma espécie de nata ou
espuma.
O lugar da superfície da estrela onde se formasse essa camada do terceiro elemento
ficaria escuro e essa seria a causa das manchas solares. Essas manchas poderiam crescer ou
diminuir, pela agitação contínua do primeiro elemento, que estaria o tempo todo colidindo contra
essa camada do terceiro elemento, mas, ao mesmo tempo, estaria trazendo mais partículas
irregulares para a superfície. Como as manchas estão na superfície do sol ou estrela, elas giram
juntamente com a estrela – como se observa no caso das manchas solares.
Descartes acreditava que poderiam se formar manchas em torno de uma estrela que
crescessem até cobrir toda a sua superfície, formando uma casca opaca. Isso faria com que a
estrela diminuisse muito seu brilho ou até mesmo desaparecesse. Por outro lado, uma estrela
totalmente encoberta por uma casca desse tipo poderia romper essa camada opaca, e tornar-se
brilhante novamente. Isso, segundo Descartes, explicaria as chamadas “estrelas novas”, que se
tornam visíveis repentinamente e que, depois, podem permanecer visíveis ou enfraquecer seu
brilho e acabar desaparecendo novamente.
Quando uma estrela fica totalmente recoberta por uma casca opaca, todos os seus
processos se enfraquecem. O redemoinho em seu redor diminui gradualmente de rotação. A
estrela recoberta pela casca acabará sendo capturada por um outro turbilhão vizinho, no centro do
qual existe outra estrela. Ela poderá virar um planeta ou um cometa.
Ao ser capturada por um turbilhão vizinho, a estrela recoberta pela casca opaca irá se
mover em direção ao centro do turbilhão, mas, conforme sua consistência e o movimento que
adquirir, acabará por se estabelecer a uma certa distância do centro, girando juntamente com a
matéria do segundo elemento em torno da estrela central. Nesse caso, ela se transforma em um
planeta. Pode também ocorrer que a estrela encoberta não fique presa a um turbilhão, mas vá
passando de um para outro, sem nunca adquirir um movimento igual ao do segundo elemento.
Isso aconteceria se a estrela fosse bastante sólida, sendo mais dificilmente arrastada pelo
movimento do segundo elemento. Nesse caso, ela se transforma em um cometa.
Cada planeta gira em torno da estrela central (ou do Sol) em uma região na qual as
partículas do segundo elemento possuem o mesmo grau de “força” que o planeta. Se o planeta se
aproxima um pouco mais do centro, ele entra em contato com partículas menores e que possuem
uma agitação mais forte. Adquire, então, um movimento maior, e se afasta do centro. Mas, ao se
afastar do centro, entra em uma região na qual entra em contato com partículas maiores, e mais
lentas, que também tornam o seu movimento menor. Então, ele perde movimento e se aproxima
novamente do centro. Assim, além de girar em torno do centro, o planeta pode se aproximar e
afastar do centro, oscilando em torno de uma distância média. Este seria um dos modos de
explicar por que motivo a órbita dos planetas em torno do Sol não é exatamente circular, mas
elíptica.
Para explicar a formação de todo o sistema solar, Descartes imagina que poderiam existir,
inicialmente, mais de dez turbilhões próximos uns dos outros, de diferentes tamanhos. Nos
menores de todos, as estrelas centrais se recobririam primeiro com uma casca opaca, e seriam
então capturados pelos turbilhões próximos, que aumentariam de tamanho. Depois, as estrelas
dos turbilhões médios poderiam também ir se recobrindo por manchas e “morrerem”, sendo todas
gradualmente capturadas pelo turbilhão maior, central.
Nesse livro, Newton lança as bases de toda a física posterior. Ele propõe a lei de atração
gravitacional, e mostra como ela permite explicar exatamente todos os movimentos dos planetas,
dos cometas e dos satélites conhecidos. Mas sua visão de universo é incompatível com a de
Descartes. Newton adota uma visão semelhante à dos atomistas antigos, aceitando a existência
do vácuo (que Descartes não admite como possível). Para Newton, os planetas se movem no
espaço vazio e não no meio de um líquido transparente (o “segundo elemento” de Descartes).
Eles se movem por inércia, e ficam “presos” ao Sol pela força gravitacional – e não por serem
arrastados por um turbilhão.
Newton ataca cuidadosamente e de modo arrasador diversos pontos fundamentais da
teoria de Descartes. Ele desenvolve, pela primeira vez, um estudo matemático dos turbilhões
gerados pela rotação de um líquido. Ele mostra que, se uma esfera gira no meio de um líquido
infinito, essa rotação da esfera vai produzir uma rotação no líquido próximo a ela, e que quanto
mais distante da esfera, menor é a velocidade do líquido; mas calcula matematicamente qual é
essa velocidade, e verifica que é incompatível com as velocidades dos planetas. Pois, como já se
sabia desde Kepler – muito antes de Descartes – há uma relação matemática (chamada “terceira
lei de Kepler”) entre a distância dos planetas e o tempo que eles demoram para dar uma volta em
torno do Sol. A relação pode ser representada por:
T² = k.R³
Ou seja: o quadrado do tempo T é proporcional ao cubo da distância R ao Sol. Se um
planeta está a uma distância quatro vezes maior do que um outro, a sua volta em torno do Sol
demora oito vezes mais do que a do outro. No entanto, para o caso da esfera girando dentro do
líquido, Newton deduz que deveria valer a seguinte relação:
T = k.R²
Newton provou também que, mesmo se fossem feitas modificações nas suposições a
respeito do “segundo elemento”, para permitir explicar a terceira lei de Kepler, surgiriam outros
problemas: não seria possível explicar a forma exata das órbitas dos planetas (que é uma elipse)
nem calcular corretamente as variações de velocidade dos planetas, quando eles se aproximam
ou afastam do Sol.
No caso dos cometas, Newton apresenta uma crítica ainda mais pesada. Graças aos
estudos que foram realizados, na época, sobre o cometa de Halley, verificou-se que este mesmo
cometa aparecia repetidamente, de tempos em tempos iguais, e que tinha uma órbita em forma de
elipse muito alongada, em torno do Sol. A teoria da gravitação de Newton permitia calcular
corretamente o movimento desse cometa. Mas, na teoria de Descartes, os cometas não deveriam
retornar nunca: eles deveriam ficar passando de um turbilhão para outro, e seu movimento seria
totalmente irregular.
Newton estuda também os satélites que se movem em torno dos planetas, e mostra que o
turbilhão que Descartes imagina em torno de cada planeta deveria sofrer influência do turbilhão do
Sol, e que eles não poderiam existir ao mesmo tempo.
Haveria outras dificuldades mais gerais, ainda. A estrela, no centro do turbilhão, está
constantemente girando, e transmitindo sua rotação ao segundo elemento que a cerca. Para que
o movimento da estrela não acabasse, seria necessário que houvesse algum fenômeno, alguma
força, que mantivesse a sua rotação. Descartes não menciona nenhum mecanismo para isso.
Nesse caso, a tendência natural seria que a estrela fosse diminuindo sua rotação, e acabasse
parando.
Através dessas e de outras críticas, em que utiliza cálculos matemáticos para determinar
exatamente o que deveria acontecer, Newton mostra que a teoria de Descartes não é aceitável.
Como a teoria da gravitação, sem nenhum turbilhão, permite explicar todos os movimentos
celestes, Newton conclui que a teoria de Descartes deve ser rejeitada totalmente.
Não se pode dizer, no entanto, que Newton pudesse explicar tudo o que Descartes
explicava. Newton não tem uma teoria sobre a origem das estrelas, dos planetas ou do sistema
solar. Ele reconhece que a sua teoria não permite explicar o motivo pelo qual todos os planetas
giram no mesmo sentido, quase no mesmo plano, em torno do Sol. A teoria da gravitação
permitiria que cada planeta girasse em um sentido diferente. A única explicação que havia sido
proposta era a de Descartes. Qual a alternativa, agora? Newton desiste de uma explicação
científica e retorna à religião:
Embora estes corpos [planetas e cometas] possam realmente continuar em suas órbitas
meramente pelas leis da gravidade, no entanto eles não poderiam de modo algum ter obtido a
posição regular de suas órbitas a partir dessas mesmas leis.
Não se pode conceber que meras causas mecânicas pudessem produzir tantos
movimentos regulares ... Este maravilhoso sistema do Sol, planetas e cometas, só pode vir do
poder e da sabedoria de um Ser inteligente e poderoso. E se as estrelas fixas forem os centros de
outros sistemas semelhantes, eles, sendo também formados por uma decisão sábia semelhante,
devem todos estar sujeitos ao domínio desse Um ... E para que os sistemas das estrelas fixas,
por suas gravidades, não caíssem uns sobre os outros, Ele os colocou a imensas distâncias uns
dos outros.
Ou seja: Newton não tem e nem pretende ter uma explicação para a origem do universo ou
do sistema solar. Ele abandona toda tentativa de explicação puramente natural e afirma que a
ordem que se observa no sistema solar vem da inteligência divina.
Newton não faz nenhum estudo propriamente cosmológico, isto é, sobre o universo como
um todo. Ao utilizar a teoria da gravitação, ele assume, sem discussão, que as estrelas estão
muito afastadas do sistema solar e que, por isso, não é preciso levar em conta sua influência
sobre os planetas de nosso sistema. Também assume que as estrelas estão muito distantes umas
das outras, e que a sua atração gravitacional é mínima; por isso, elas não se aproximam umas
das outras. No entanto, é difícil aceitar esse ponto. Afinal de contas, embora a força diminua com
a distância, ela nunca se torna zero. Se houver um número infinito de estrelas, em um espaço
infinito, a força total que elas exercem é zero ou não? Não poderia haver uma tendência
significativa de todas as estrelas se aproximarem umas das outras, colidindo e aniquilando o
universo? Essa questão de extrema importância, sobre a estabilidade gravitacional do universo,
não foi discutida por Newton.

CAPÍTULO 9 - AS FONTES DE ENERGIA DO UNIVERSO

9.1 A ENERGIA IRRADIADA PELO SOL

Em algumas das teorias e propostas estudadas até agora, vários autores tentaram explicar
alguns aspectos da energia do universo. Por exemplo: como a matéria do universo começou a se
mover? Segundo Descartes, foi por um empurrão de Deus. Segundo Kant, foi pela força de
atração gravitacional. Como o Sol ficou quente e luminoso? Segundo Descartes, foi pela
pulverização da matéria inicial do universo: isso produziu a matéria mais fina (primeiro elemento)
cujas partículas se movem muito rapidamente, ou, como diríamos hoje, com grande energia, e
que constituiram as estrelas e o Sol. Segundo Kant, o Sol é simplesmente um aglomerado de
matéria que pegou fogo e está queimando.
Todas essas questões envolvem noções sobre energia. Mas o próprio conceito de energia
e a ciência que a estuda (termodinâmica) só surgiram na metade do século XIX. Antes disso,
ninguém tinha uma idéia clara sobre o assunto.
Na década de 1840, através dos trabalhos de vários pesquisadores, tornou-se claro que a
energia pode ser convertida de uma forma para outra, mas nunca pode ser criada nem destruída.
Como o Sol está continuamente irradiando energia para o espaço, e como a energia contida em
qualquer corpo deve ser finita, não é possível que o Sol tenha estado quente desde um tempo
infinito no passado. Também não é possível que ele continue a emitir energia, no futuro, por um
tempo ilimitado. Em algum tempo no futuro, a Terra estará fria – se ela não for destruída antes.
O desenvolvimento da termodinâmica levou imediatamente a estudos sobre a energia
solar. Poderia o calor e a luz do Sol vir da queima de matéria em sua superfície ou em seu
interior? Ou poderia ele ser apenas uma grande bola quente, que vai esfriando muito lentamente a
emitindo essa luz que vemos? Enquanto não se faz nenhum cálculo, tudo parece possível. Mas,
como já foi indicado no capítulo anterior, quando se começa a aplicar o conhecimento físico e a
matemática às hipóteses, a coisa fica muito mais difícil.
Para se poder fazer qualquer cálculo, foi preciso, em primeiro lugar, medir o calor que é
emitido pelo Sol. Isso foi feito em 1837 por de William Herschel filho e por outro cientista, Claude
Pouillet (1790-1868). O método básico que eles utilizaram foi medir o calor recebido, aqui na
Terra, por uma superfície negra, que seja atingida perpendicularmente pela luz do Sol. Obteve-se
o valor de cerca de 1,76 calorias recebidas por cada centímetro quadrado, em cada minutos. Essa
é a energia recebida à distância em que estamos.
Agora, basta imaginar uma superfície negra gigantesca, envolvendo o Sol completamente
por todos os lados, com um raio igual à distância da Terra ao Sol. por minuto, do Sol. É fácil
calcular a área dessa superfície e determinar, assim, a energia total que sai do Sol, para todos os
lados. Pouillet calculou que, em um ano, o Sol irradia um total de:
2.600.000.000.000.000.000.000.000.000.000.000 de calorias,
(ou seja, 2,6x1033 cal ou 2,6 decilhões de calorias). Esse valor obtido por Pouillet é muito próximo
ao valor aceito atualmente. Como a massa total do Sol é conhecida e vale cerca de:
1.900.000.000.000.000.000.000.000.000.000.000 de gramas,
(ou seja, 1,9x1033 g) pode-se calcular que cada grama de matéria do Sol emite, em média, 1,3
calorias por ano.
O que isso significa? Comparemos com um caso conhecido. Quando 1 grama de água
perde 1,3 calorias, sua temperatura diminui 1,3 Celsius. Portanto, se o material do Sol tiver
propriedades térmicas semelhantes à da água, e se ele estiver apenas esfriando, sua temperatura
média deveria diminuir 1,3 graus por ano.
É claro que o Sol é muito quente (a temperatura de sua superfície é de cerca de 5.500
graus), e que uma redução de alguns graus não faz diferença nenhuma. Mas vamos continuar.
Suponhamos que a redução de temperatura do Sol, por ano, fosse de um grau. Em 4.000 anos,
ele teria esfriado 4.000 graus, ou seja, há 4.000 anos ele teria uma temperatura 4.000 graus
acima da atual. Isso significa que ele seria muito mais quente do que agora, o que poderia ser
perfeitamente sentido, na Terra. Ora, 4.500 anos é a idade das pirâmides mais antigas do Egito.
Se, nessa época, o Sol fosse muito mais quente do que hoje em dia, os egípcios não teriam
sobrevivido para construir as pirâmides. Certamente a temperatura do Sol não pode ter variado
muito nesse tempo.
Mesmo levando em conta apenas os poucos milhares de anos da história humana, uma
variação de 100 graus na temperatura do Sol seria o máximo admissível. Logo, o Sol não pode
estar esfriando nem um décimo de grau por ano. Não se pode explicar o seu calor e sua luz
supondo que ele é uma bola incandescente que está esfriando.
Poderíamos então supor que o Sol está queimando, como Kant propôs? Também não. Os
cálculos foram feitos em meados do século XIX, por William Thomson – mais conhecido como
Lord Kelvin (1824-1907). Lord Kelvin, em 1854, fez a suposição de que o Sol fosse todo ele
constituído por um material que liberta muita energia, como o algodão-pólvora. Se o Sol fosse
todo feito de algodão-pólvora e pudesse queimar sem explodir, a energia total produzida só
poderia manter o Sol aquecido durante 8.000 anos.

9.2 OUTROS PROCESSOS IMAGINADOS PARA PRODUZIR A ENERGIA DO SOL

Um dos próprios descobridores da lei da conservação da energia, Julius Robert Mayer


(1814-1878), preocupou-se com esse problema. Em um trabalho publicado em 1848, ele estudou
uma outra alternativa. Quando um corpo, a alta velocidade, colide com outro, produz-se um
aquecimento: a energia cinética é transformada em energia térmica. Esse efeito é, normalmente,
muito pequeno. Um bloco de chumbo, caindo de uma altura de 100 metros (um prédio de 33
andares) e batendo contra uma pedra, deve se aquecer aproximadamente 7 graus. Mas
imaginemos agora um meteorito, que estivesse muito afastado do Sol, e caísse nele. Ele teria
uma velocidade de 610 quilômetros por segundo, ao chegar à superfície do Sol. Se, nesse
impacto, toda a energia cinética for convertida em energia térmica, haverá um desprendimento de
energia enorme.
Os cálculos mostraram que, se caíssem constantemente meteoritos sobre o Sol, eles
poderiam produzir toda a energia que se desprende do Sol, desde que a massa desses
meteoritos, por século, fosse equivalente à massa da Terra. Em 15 milhões de anos, a massa do
Sol se tornaria o dobro da atual.
À primeira vista, esse parece ser um interessante mecanismo para explicar a energia solar.
Mas há vários problemas. O próprio Mayer percebeu que o gradativo aumento da massa solar
produziria um aumento da sua atração gravitacional; isso produziria pequenas mudanças nos
movimentos dos planetas e essa variação já teria sido notada pelas cuidadosas medidas
astronômicas. Há outros problemas: se estivesse caindo uma quantidade tão grande assim de
meteoritos no Sol, vindo do espaço, uma grande quantidade cairia também na Terra. O cálculo
mostrou que a quantidade de meteoritos que de fato atinge a Terra é 10 milhões de vezes menor
do que o que seria previsto de acordo com a teoria de Mayer. Ela não pode ser aceita.
Em 1854, Hermann von Helmholtz (1821-1894) propôs que a causa do calor do Sol
poderia ser sua própria contração. Na teoria de Laplace, o Sol e todas as estrelas se formam pela
contração de uma nuvem. Não há nenhum motivo para supor que essa contração já terminou. O
Sol poderia estar ainda se contraindo e essa contração corresponde a uma “queda” de todas as
suas partes em direção ao centro. Essa “queda” produziria um aumento de energia cinética das
partículas, se elas estivessem caindo livremente. No caso, deve haver uma conversão em energia
térmica, e essa contração deve produzir um aquecimento, que poderia explicar a energia emitida
pelo Sol.
Lord Kelvin calculou que se o Sol se contraísse apenas 35 metros por ano, isso poderia
explicar a energia que ele emite. E a sua contração antes de chegar ao tamanho atual poderia ter
mantido sua emissão de luz e calor durante cerca de 20 milhões de anos, no passado. Esse foi o
primeiro mecanismo físico aceitável, capaz de dar uma longa duração para o calor solar.
Este exemplo mostra a importância de se fazer cálculos, para testar teorias. Sem se fazer
nenhum cálculo, pode parecer perfeitamente razoável acreditar que o Sol é uma esfera quente
que está esfriando, ou que produz seu calor pela queima de algum material. Mas ao se fazer os
cálculos, esses dois processos se mostram impossíveis, e descobre-se que há um outro, muito
menos intuitivo – a contração do Sol – que é capaz de explicar um desprendimento muito maior de
energia. Sem o conhecimento das leis físicas envolvidas e sem o estudo quantitativo detalhado
dos fenômenos, tudo fica no nível de suposições, apenas.

9.3 A DURAÇÃO DO SOL E A EVOLUÇÃO DA TERRA

Os 20 milhões de anos são mais do que suficientes para se explicar a história conhecida
da humanidade. Mas serão suficiente para explicar toda a história da Terra? No século XIX, não
havia nenhum método conhecido para se medir a idade de uma rocha. Mas já havia uma
estimativa da idade da Terra, estudando-se os processos de formação gradativa das camadas
terrestres.
Os estudos geológicos mostraram que, desde o período denominado Cambriano,
formaram-se camadas de até 30 km de espessura, com sedimentos. Os geólogos estimaram que
a formação de um metro de sedimento exigia entre 3.000 e 20.000 anos. Concluiu-se, assim, que
desde o Cambriano haviam decorrido entre 90 milhões e 600 milhões de anos.
Outra evidência vinha do estudo da água do mar: o oceano é salgado, embora só receba
água doce, dos rios. A água dos rios contém uma quantidade muito pequena de sais dissolvidos;
mas como essa quantidade se acumulou nos mares durante tempos enormes, o oceano acabou
ficando salgado. Calculando o tempo necessário para isso, chegou-se a uma estimativa de 100
milhões de anos.
A teoria de evolução das espécies de Charles Darwin, que se desenvolveu na época em
que foram feitos esses cálculos sobre a duração do calor solar, exigia enormes tempos para que a
vida terrestre pudesse ter atingido o estado atual. Darwin fundamentava sua teoria em estudos
geológicos, que indicavam, por exemplo, que o Weald, uma região da Inglaterra, deveria ter uma
idade de 300 milhões de anos. Lord Kelvin atacou essa estimativa, pois, por qualquer hipótese
física que se pudesse imaginar na época, o Sol não poderia ter irradiado seu calor por um tempo
tão grande.
Estariam os geólogos e naturalistas errados? Ou seriam os físicos que estavam
enganados? Alguma coisa estava errada. Mas só muito tempo depois, com o estudo da
radioatividade e das reações nucleares, é que se descobriu a fonte de energia do Sol.
9.4 A DISSIPAÇÃO DA ENERGIA

Além desse tipo de questões, o estudo da termodinâmica assumiu uma importância mais
ampla, sob o ponto de vista cosmológico. Lord Kelvin mostrou que a tendência da energia é
dispersar-se. A energia que surge nas estrelas é espalhada por todo o espaço, sob forma de luz e
outras radiações. Se olharmos para trás no tempo, todas as estrelas que atualmente brilham no
espaço devem ter começado a emitir sua luz há bastante tempo, mas um tempo finito. Além disso,
por maior que seja a energia que pode ser desprendida das estrelas, ela deve ser finita e deverá
acabar. Então, o universo irá esfriando, terminará toda vida, e por fim deve apenas restar uma
matéria escura, com uma mesma temperatura em todo o universo.
Essa conclusão de Kelvin pareceu chocante a muitos cientistas. Um deles, William
Rankine, propôs em 1852 um modelo de reconcentração da energia do universo, para que todos
os processos celestes pudessem recomeçar. Ele imaginou que o universo fosse finito, e que toda
luz e calor que chegasse ao fim do universo fossem refletidos de volta, concentrando-se em certos
pontos ou focos. As estrelas estariam continuamente irradiando luz e acabariam por se tornar
frias. Mas, quando alguma estrela apagada passasse por um dos focos do universo, ela receberia
uma enorme quantidade de energia, concentrada de todo o universo, e seria vaporisada, podendo
essa matéria servir, depois, para formar novas estrelas e recomeçar o ciclo. Pouco tempo depois,
Rudolf Clausius (1822-1888) estudou em detalhe os fenômenos de dispersão e concentração das
radiações e mostrou que essa reconcentração de energia era impossível, mesmo com um
universo finito.
É preciso notar que a termodinâmica introduziu algo totalmente novo, no estudo do
universo. Até o século XIX, se as concepções religiosas fossem deixadas de lado, parecia
possível imaginar um universo com uma duração infinita no passado e no futuro. Aceitando a
visão religiosa, podia-se pensar que o universo havia surgido um certo tempo atrás, mas que
poderia durar para sempre, a menos que Deus resolvesse destruir seu trabalho. Agora, no
entanto, a própria Física dizia que o universo não poderia ter luz e vida durante um tempo muito
longo, nem para o passado, nem para o futuro. Ele acabaria tendo o que foi chamado de “morte
térmica”.

9.5 O “ETERNO RETORNO” DE NIETZSCHE

Esse tipo de concepção foi rejeitada por muitos pensadores, por motivos filosóficos. Um
importante filósofo que se recusou a aceitar um fim absoluto para o universo foi Friedrich
Nietzsche. Em uma famosa obra, “O Eterno Retorno”, ele defende a idéia de um universo que se
repete sempre.
Nietzsche imagina que o universo é enorme mas finito. Se fosse infinito, seria possível
imaginar que toda sua energia se dispersaria e que ele morreria. Mas, se ele é finito, Nietzsche
considera que isso não vai acontecer. Ele admite que as quantidades de matéria e energia total do
universo são também finitas. A matéria e a energia se conservam; podem transformar-se, mas há
limites para o que pode surgir dentro do universo, pois a matéria e a energia são limitadas. Assim,
se pensarmos que o tempo é infinito, já se passou em tempo imensurável, no qual já devem ter
ocorrido todas as transformações que se possa imaginar.
Nietzsche conclui que aquilo que está acontecendo agora já deve ter ocorrido antes, e que
tudo o que vai acontecer também já aconteceu. Quando um estado do universo se repete, todos
os estados seguintes, que são conseqüências desse estado inicial, devem também se repetir.
“Tudo já existiu um número infinito de vezes, enquanto o conjunto de todas as forças repete suas
voltas”. Não há um estado de equilíbrio final: se isso fosse possível, já teria acontecido.
O mundo das forças não sofre desgaste nenhum, pois do contrário, em um tempo infinito
essas forças teriam ido diminuído até acabar totalmente. O mundo das forças não tem repouso
nenhum, pois do contrário esse já teria acontecido e o relógio da existência teria parado. Portanto,
o mundo das forças nunca está em equilíbrio; não tem um momento de descanso; a quantidade
de força e de movimento são sempre iguais em todo tempo.
Esse “eterno retorno” seria um ciclo sem início e sem fim, que se repete sempre e que não
leva a nada. Não há, portanto, nenhuma finalidade, nenhuma tendência, nenhum objetivo e
nenhuma origem para o universo. Ele não se torna melhor, nem mais belo, nem pelo contrário
mais imperfeito. Ele se origina de si mesmo, em cada instante, sempre.
Qualquer estado que este mundo possa alcançar, ele já o alcançou, e não uma vez, mas
um número infinito de vezes. Da mesma forma, este instante já ocorreu em um outro tempo, e
voltará a ocorrer, e todas as forças se distribuirão novamente como agora.
Tudo é repetição: a estrela Sirius, e a aranha, e as tuas idéias neste instante, e este pensamento
que agora tu formulas, de que ‘tudo se repete’.
Essa repetição contínua de tudo – de todos os detalhes de nossa vida, de cada dor ou
prazer, de cada pensamento, de cada sensação ou emoção – pode parecer um grande pesadelo
filosófico e uma teoria desesperadora, já que não há liberdade: tudo irá acontecer porque já
aconteceu antes. No entanto, Nietzsche não sente assim. Ele considera que há um aspecto muito
positivo nessa concepção filosófica, pois leva a uma nova atitude. Ao resolver-se a fazer ou não
alguma coisa, a pessoa deverá pensar: “Será que eu gostaria de repetir isso por toda a
eternidade?”. Mas haverá a possibilidade de escolher fazer ou não alguma coisa? Nietzsche
considera que essa própria filosofia é uma força, um poder, que ressurgiu em sua época mais uma
vez porque era o tempo em que devia surgir, e que ela própria deverá produzir resultados em
outras pessoas. E que esse resultado será exatamente transformar a vida dessas pessoas, para
que tenham um novo tipo de vida – como já ocorreu em todas as vezes anteriores em que esse
mundo se repetiu.
A concepção de Nietzsche, é claro, não tenta ser uma teoria científica. Ele era um filósofo,
e não físico. Mas não se pode dizer que sua idéia seja absurda. Imagine um espaço fechado,
finito, cheio de partículas; e suponha que não pode entrar nem sair nada (nem matéria, nem
energia) desse espaço. Nessas condições, pode-se provar que, seja qual for a disposição e os
movimentos iniciais das partículas, essa situação inicial vai acabar se repetindo – ou exatamente
a mesma situação, ou outra situação muito próxima dela. No entanto, se o universo for
considerado como infinito, não se pode aplicar esse raciocínio; e, no século XIX, quando
Nietzsche escreve sua proposta de eterno retorno, quase todos consideravam o universo como
infinito.
A proposta de Nietzsche é bastante interessante sob outro aspecto: mostra a recusa em
aceitar um universo com início e fim. É uma reação à visão de universo que parecia inevitável,
diante da Física do século XIX.

9.6 O ETERNO RETORNO DEFENDIDO POR CIENTISTAS

Outras pessoas propuseram, no início do século XX, hipóteses físicas para tentar salvar o
universo da “morte térmica”. O químico sueco Svante Arrhenius (1859-1927) propôs uma
concepção bastante interessante. Ele supôs que as estrelas, ao mesmo tempo que emitem luz e
calor, estariam também emitindo pequenas partículas para fora. Essas partículas seriam
empurradas para longe das estrelas pela própria pressão exercida pela luz da estrela. No espaço
interestelar, essas partículas poderiam ser reunir, por atração mútua, formar partículas maiores e
cair sobre a mesma ou sobre outras estrelas. Ao se chocarem contra a estrela, haveria libertação
de energia e pulverização das partículas maiores, podendo haver novamente emissão de
partículas, e assim por diante, indefinidamente.
Por outro lado, mesmo se uma estrela acabasse por se apagar, ela poderia, depois de
muito tempo, acabar se chocando contra uma outra estrela (luminosa ou apagada), pois as
estrelas não estão paradas no espaço. Essa colisão, violentíssima, produziria a libertação de
grande quantidade de energia e poderia reativar a estrela, ou pulverizá-la, produzindo uma grande
nuvem que depois poderia se contrair e virar uma nova estrela.
Embora os mecanismos propostos por Arrhenius sejam interessantes, eles não podem
impedir a morte térmica do universo. Nenhum desses processos pode recuperar toda a energia
perdida pelas estrelas. Esses e outros processos poderiam reativar parcialmente as estrelas,
retardando a morte do universo; mas aos poucos a energia iria se perdendo pelo espaço, sob
forma de luz e radiação, sem retorno.
Em 1931, a idéia de um “eterno retorno” foi revivida pelo cientista inglês Arthur Eddington
(1882-1944). Em uma conferência muito famosa, apresentada em uma reunião da Sociedade de
Matemática de Londres, ele discutiu a questão da “morte térmica” do universo, tomando como
ponto de partida as leis da termodinâmica.
De acordo com o segundo princípio da termodinâmica, em todo sistema isolado a
desordem (entropia) tende a aumentar, sempre, tendendo a um máximo. Se aplicarmos essa idéia
ao universo como um todo, ele deveria ter inicialmente uma entropia mínima (um estado
altamente organizado, estruturado) e depois sua entropia deve ter aumentado sempre e
continuará a aumentar no futuro. À medida que a entropia aumente, a tendência será que a
energia se distribua por todo o espaço, ao invés de ficar concentrada nas estrelas; e toda vida,
toda estruturação da matéria, deveria desaparecer.
Essa tendência à desordem e à dispersão de energia pode ser entendida com um exemplo
simples. Suponhamos que houvesse uma sala totalmente fechada, onde fosse colocado, em um
canto, um pedaço de metal aquecido e, em outro canto, um fraco de perfume aberto. Se
esperarmos bastante tempo, o que deve acontecer? O metal deve ir esfriando, e sua energia deve
se distribuir pela sala toda. O perfume irá se evaporando, e espalhando-se pelo ar da sala, até
ficar uniformemente distribuído. Esse seria o estado de desordem máxima, ou seja, de entropia
máxima.
Mas suponhamos que o universo já tivesse chegado ao estado de entropia máxima,
estivesse “morto”, mas houvesse ainda um tempo infinito pela frente. O que aconteceria? Nada
mais? Isso é impossível. A matéria não estará totalmente parada (ainda haverá energia e
movimento); ela poderá adotar novas formas, mais ou menos ao acaso. Essas novas formas
estarão próximas ao estado de entropia máxima; será difícil o surgimento de qualquer estrutura
que se afaste muito desse estado.
No exemplo da sala fechada, dissemos que o calor e o perfume ficarão distribuídos de
modo uniforme. Isso é verdade – aproximadamente. O ar da sala e o perfume são constituídos por
moléculas, que estão em movimento constante. Essas moléculas não possuem todas velocidades
exatamente iguais, mas colidem umas com as outras e podem aumentar ou diminuir de
velocidade (desde que a energia total seja constante). Ao longo do tempo, formam-se na sala
pequenas concentrações de energia e de perfume, ao acaso, em diferentes lugares – e depois
elas se dissolvem. Está sempre acontecendo alguma coisa.
Há uma probabilidade minúscula (mas que não é zero) de que todas as moléculas do
perfume estejam concentradas, em certo instante, em uma só metade da sala. É igual à
probabilidade de se atirar uma moeda comum para o alto, tantas vezes quantas são as moléculas
da sala, e todas as vezes a moeda cair com a mesma face para cima. A probabilidade disso é de
1/2 elevado ao número de moléculas de perfume que existem na sala. Por exemplo: se o vidro
continua 2 gramas de uma substância aromática de peso molecular 200, existirão
aproximadamente 6x1021 moléculas espalhadas pela sala, e a probabilidade de que todas se
concentrem em uma só metade da sala é de 1/2 elevado à potência 6x1021 que é um número
muito, MUITO pequeno: 0,000.000.000.000. ... seguido de quase dois sextilhões de zeros, e
depois alguns algarismos diferentes de zero. É claro que isso é “quase zero”, mas não é zero.
Pode-se também calcular a probabilidade de que todas as moléculas do perfume voltem, por
acaso, ao mesmo tempo, ao vidro de onde saíram. A probabilidade é ainda menor, mas também
não é zero.
Há também uma chance mínima de que algumas moléculas do ar adquirissem uma
velocidade muito maior do que as outras, e fosse acumulando energia em cada colisão, até que
elas absorvessem praticamente toda a energia do ar da sala e, depois, por acaso, colidissem
contra o pedaço de metal e o fizessem ficar tão quente quanto no início. É claro que a
probabilidade disso é MUITO pequena. Mas, se o tempo disponível for infinito, qualquer estado,
por menos provável que seja, acabará por ocorrer. Ou seja: se observamos a sala durante um
tempo infinito, o perfume retornará ao vidro e o calor voltará a se concentrar no pedaço de metal.
Essa é a idéia que Eddington aplica ao universo como um todo. Em sua conferência, que deve ter
impressionado muito aos que o ouviam, ele afirmou:
Se esperarmos bastante tempo, um certo número de átomos se arranjará, apenas por
acaso, como estão presentemente arrumados nesta sala; e, apenas por acaso, as mesmas ondas
sonoras surgirão de um sistema de átomos como as que estão agora brotando de meus lábios;
elas atingirão os ouvidos de outros sistemas de átomos, arranjados pelo acaso de modo a
assemelhar-se a vocês, e nos mesmos estados de atenção e de sonolência. Essa imitação da
reunião da Associação Matemática se repetirá muitas vezes – de fato, um número infinito de
vezes – antes que t adquira um valor infinito. Não me perguntem se eu espero que vocês
acreditem que isso realmente ocorrerá. “Lógica é lógica. Isso é tudo o que eu digo.”
Os cientistas não têm certeza sobre até que ponto a idéia de Eddington pode ser aplicada
ao universo. Se a aceitarmos, o universo se repetiria sempre, ao acaso – mas nem sempre do
mesmo modo, pois devem surgir todas as variações possíveis, todas as possibilidades.
Poderia haver uma seqüência do universo em que Eddington chegasse à reunião da
Associação Matemática e ficasse sem voz, sendo incapaz de apresentar sua conferência; outra
seqüência em que ele apresentasse sua conferência e ela fosse aceita por todos, e lhe dessem o
Prêmio Nobel; outra em que ele fosse assassinado logo depois da conferência; e assim por
diante. E cada uma delas ocorreria e se repetiria, um número infinito de vezes, no tempo infinito.
Boa sorte, professor Eddington.

CAPÍTULO 10 - A TEORIA DA RELATIVIDADE E A COSMOLOGIA MODERNA

10.1 A COSMOLOGIA NO SÉCULO XX

No século XX, as teorias cosmogônicas sofreram grande influência dos novos


conhecimentos astronômicos e de novas teorias físicas. Sob o ponto de vista de conhecimento do
universo, surgiram métodos para se observar e medir as distâncias e movimentos das galáxias,
para estudar a composição química e outras propriedades das estrelas. O desenvolvimento de
telescópios mais potentes tornou possível observar corpos celestes que estão a enormes
distâncias da Terra. E, a partir da metade do século XX, foram desenvolvidos métodos para
estudar diversos tipos de radiações que vêm do espaço.
Sob o ponto de vista teórico, a física sofreu uma profunda revolução nas primeiras
décadas do século XX. Surgiu a teoria da relatividade, que modificou a teoria da gravitação e
introduziu métodos matemáticos totalmente novos, envolvendo o estudo do espaço e do tempo.
Surgiu a mecânica quântica, que trata das propriedades da radiação, dos átomos e de outras
partículas. Desenvolveu-se a física nuclear, que levou ao conhecimento de fontes de energia
antes desconhecidas e ao estudo de processos capazes de alterar ou de formar novos tipos de
átomos.
Todos esses desenvolvimentos foram trazendo novos elementos para o estudo do
universo. É difícil separar cada aspecto do outro, mas, para facilitar a compreensão, vamos tratar
neste capítulo apenas de um aspecto: o estudo desenvolvido em torno de 1930, sobre a dinâmica
geral do universo, de acordo com os conhecimentos que surgiram sobre os movimentos das
galáxias e sobre a gravitação. Os aspectos que envolvem as propriedades internas da própria
matéria e sua transmutação serão examinados no próximo capítulo.

10.2 A TEORIA DA RELATIVIDADE ESPECIAL

Existem duas teorias da relatividade, como será visto. A primeira delas surgiu no início do
século XX. Não se deve pensar que a teoria da relatividade tenha sido criada por Einstein. Ele foi
uma das pessoas que colaborou no desenvolvimento dessa teoria, e acabou se tornando o mais
famoso. No entanto, essa teoria foi o resultado de estudos desenvolvidos por diversos cientistas,
sendo os mais importantes deles Hendrik Lorentz (1853-1928), Henri Poincaré (1854-1912) e
Albert Einstein (1879-1955).
Provavelmente Einstein não conseguiria fazer o que fez se antes dele não existisse o
trabalho de Lorentz e de Poincaré; e provavelmente as suas contribuições à teoria da relatividade
teriam sido feitas por outras pessoas, se ele nunca tivesse nascido. A ciência não é a obra isolada
de indivíduos, mas um trabalho coletivo, em que muitos contribuem para o resultado final.
A primeira teoria da relatividade (usualmente chamada “teoria da relatividade especial”)
não tinha nenhuma relação direta com o estudo da gravitação. Ela surgiu por estudos sobre a luz,
sobre a eletricidade e o magnetismo. Esses estudos mostraram, através de uma série de
experimentos, que não era possível medir a velocidade com a qual a Terra se desloca pelo
espaço, por nenhum aparelho que esteja na própria Terra. Ou seja: para qualquer experiência feita
na própria Terra, tudo se passa como se ela estivesse parada. Essa é a idéia básica do “princípio
da relatividade”.
Esse resultado não era esperado. Quando foram feitas as tentativas de se medir a
velocidade de translação da Terra pelo espaço, havia várias teorias físicas que indicavam que isso
devia ser possível. Foi necessário, por isso, modificar essas teorias, para explicar os resultados
das experiências.
Surgiram várias conseqüências estranhas, como a descoberta de que um corpo que se
move deve se contrair na direção do movimento; e que um relógio que se move deve se atrasar
em relação a um relógio parado . No entanto, esses efeitos só são notados e medidos por um
observador que não esteja se movendo junto com o objeto ou com o relógio: um observador que
se desloque juntamente com o objeto ou o relógio não vai notar nenhuma mudança neles. Ou
seja: esses efeitos dependem do observador, não são absolutos e sim relativos.
A teoria da relatividade não tem nada a ver com o relativismo, que afirma que “tudo é
relativo”. Ela estabelece que algumas coisas são relativas, isso é, dependem do observador (ou,
mais exatamente, do referencial de medida), e determina as equações que permitem calcular
essas diferenças. Mas a teoria também estabelece que muitas coisas não são relativas: a carga
elétrica de um objeto, o número de partículas dentro de uma caixa e a velocidade da luz, por
exemplo, são grandezas absolutas: não dependem do observador.
As mudanças que a teoria da relatividade introduziu nos conceitos de espaço e de tempo
são as mais importantes. O movimento influencia tanto o tamanho dos objetos como a duração
dos fenômenos. No entanto, nem tudo é relativo: a teoria indica que há uma outra grandeza, que
depende tanto do espaço como do tempo, que não se altera pelo movimento. Essa grandeza é o
“intervalo relativístico” s, que é uma combinação de distância L e de intervalo de tempo t:
,
onde c é a velocidade da luz no vácuo.
Criou-se assim, na teoria da relatividade, o conceito de um “espaço-tempo”: uma conexão
íntima entre o espaço e o tempo, do qual eles são aspectos parciais. O espaço-tempo é algo de
absoluto, que não depende do observador. Mas diferentes observadores podem estudar esse
espaço-tempo de diferentes perspectivas, que o decompõem de modos diferentes em espaço e
tempo.
Pode-se dar uma comparação para facilitar o entendimento dessa idéia. Um círculo,
dependendo do ângulo de que é observado, pode parecer uma elipse, ou um círculo, ou uma reta.
Essas aparências (ou projeções) dependem do observador, mas o círculo em si mesmo é uma
realidade que é sempre a mesma, independentemente do ângulo do qual ele é observado. Da
mesma forma, o espaço-tempo seria uma realidade, mas o espaço e o tempo seriam apenas
projeções dessa realidade e, por isso, dependem do observador.

10.3 A TEORIA DA RELATIVIDADE GERAL E A GRAVITAÇÃO

Embora esses primeiros estudos não tivessem nenhuma relação com o estudo da
gravitação, os pesquisadores chegaram à conclusão de que todos os fenômenos (não só os
relacionados com eletromagnetismo e óptica) deviam obedecer ao princípio da relatividade e que,
portanto, também as forças gravitacionais deviam se comportar de um modo que não fosse
influenciado pelo movimento da Terra (ou de qualquer outro corpo) pelo espaço. Isso exigia uma
mudança na teoria da gravitação.
Várias pessoas tentaram, então, fazer alterações na teoria gravitacional de Newton para
que ela se tornasse aceitável de acordo com o princípio da relatividade. Os primeiros a fazer esse
tipo de tentativa foram Poincaré e Lorentz. Os resultados não foram muito satisfatórios, mas
mostraram que talvez a teoria modificada pudesse explicar uma das irregularidades dos
movimentos planetários que haviam sido notadas por Simon Newcomb (1835-1909) no final do
século XIX. Depois, Einstein, Abraham e Hilbert prosseguiram o trabalho. Aos poucos, foi se
tornando claro que não bastavam pequenos ajustes. Era preciso elaborar uma teoria
completamente nova, com uma estrutura matemática diferente, e que apenas em casos simples
levasse aos resultados já conhecidos e explicados pela teoria de Newton.
A passagem da antiga teoria da relatividade para a nova utilizou o chamado “princípio de
equivalência”. A idéia desse princípio é muito antiga: já se encontrava nas obras de Newton. O
princípio de equivalência afirma que, se vários corpos estiverem caindo livremente, juntos, pela
força da gravidade, aquilo que acontece entre eles não é influenciado por essa força nem pela
aceleração que os corpos têm: tudo se passa, entre esses corpos, como se eles estivessem em
um local sem gravidade, sem aceleração. Por exemplo: se um avião, a grande altitude, perdesse
de repente suas asas e começasse a cair livremente, os passageiros dentre dele sentiriam como
se não existisse gravidade: poderiam flutuar dentro do avião.
Se, nessa situação, um passageiro jogar um objeto para outra pessoa, esse objeto
parecerá se mover em linha reta, ou seja, não vai se desviar para baixo. Assim, para os
passageiros, os objetos possuem um movimento de acordo com a lei da inércia: retilíneo e
uniforme, como se não estivessem sendo atraídos pela Terra. Mas, para alguém que não esteja
caindo junto com o avião, a descrição é muito diferente: o avião, todos os passageiros e todos os
objetos estão caindo e estão, por isso, igualmente acelerados para baixo. Quando um objeto é
jogado de um passageiro para outro, ele adquire uma certa velocidade para o lado, mas continua
caindo como antes, e, visto por esse observador, tem uma trajetória curva (em forma de parábola).
Assim, aquilo que é um movimento retilíneo e uniforme para os passageiros, torna-se um
movimento curvo e acelerado para o outro observador que não está caindo. Em um certo
sentido, qualquer corpo se movendo em um campo gravitacional tem um movimento retilíneo e
uniforme. Mas a forma observada desse movimento depende do observador.
O mesmo raciocínio indicado acima vale tanto para o movimento de um corpo como para o
movimento da luz. No vácuo, quando não há nenhum campo gravitacional, a luz se move em linha
reta, com velocidade constante. Se um feixe de luz estiver em um local onde existe campo
gravitacional, mas estiver sendo estudado por um observador que está caindo nessa região, tudo
se passa como se não houvesse campo nenhum: o observador vai ver o feixe luminoso como uma
reta. Mas para um outro observador, que não esteja caindo, a luz não estará se movendo em linha
reta: o feixe luminoso será curvo. Ou seja: a luz deve se encurvar, no campo gravitacional, quando
vista por um observador que não está caindo.
O princípio de equivalência permite comparar uma região sem gravidade com outra em
que existe gravidade. Nessa comparação, é preciso considerar objetos que estão caindo, com
uma certa aceleração. Mas a teoria da relatividade especial só estudava sistemas de referência
sem aceleração. Por isso, os próprios métodos da primeira teoria da relatividade não eram
suficientes. Foi preciso utilizar um formalismo matemático chamado “cálculo tensorial”, com o qual
é possível estudar qualquer tipo de movimento. Nesse formalismo, torna-se fácil trabalhar com o
movimento retilíneo uniforme que se torna curvo e acelerado, por exemplo, dependendo do
observador. Mas as leis físicas adquirem uma aparência muito diferente do usual. Um movimento
inercial, ou seja, retilíneo e uniforme, por exemplo, passa a ser descrito assim:

onde os símbolos representam coordenadas do corpo que está se


movendo, é o símbolo que representa o “tempo próprio”:

e o símbolo é um modo abreviado de escrever 64 expressões do tipo:

onde os símbolos do tipo representam os elementos de uma matriz 4x4, chamada de


“tensor métrico fundamental”. Simples, não é?
Não podemos aqui explicar o que significa isso. Pode-se dizer que, utilizando o cálculo
tensorial, é possível descrever um espaço-tempo curvo. A nova teoria da relatividade (ou
“relatividade geral”) é um estudo que utiliza essa noção de espaço-tempo curvo.
Na teoria de Newton, a atração gravitacional é uma força entre dois corpos, causada pelas
suas massas. Na relatividade geral, um objeto cria em sua volta um campo gravitacional, que é
uma deformação do espaço-tempo. Esse campo gravitacional não depende só da massa do
objeto; depende da energia, das pressões e movimentos de matéria que existem em seu interior.
A deformação do espaço-tempo criada pelo objeto vai influenciar o movimento de outros corpos,
fazendo com que eles se desviem.
Muitas das coisas que descrevemos até agora, neste livro, possuem um aspecto
matemático mas também possuem uma descrição qualitativa – isto é, um modelo ou imagens que
podemos utilizar para compreender a idéia básica. De um modo geral, esse modelo ou imagem
surge antes do cálculo matemático e, por isso, ele pode ser explicado sem o acompanhamento
matemático. No entanto, há casos em que ocorre o contrário. Às vezes, a matemática leva a
determinados resultados e, depois disso, é preciso tentar entender o que significam os cálculos.
Foi o que aconteceu com a teoria da relatividade geral. Nem Einstein, nem ninguém,
começou “imaginando” um espaço curvo para depois fazer cálculos baseados nessa idéia. O
trabalho partiu de um formalismo matemático que, para dizer a verdade, o próprio Einstein não
compreendia bem, e esses cálculos é que acabaram levando à teoria. Por isso, nesse caso em
particular, qualquer explicação que não utilize matemática é artificial, e não pode dizer direito o
que é o conteúdo da teoria.
Não se deve pensar que a teoria da relatividade seja uma coisa incompreensível. Ela pode
ser compreendida e dominada por qualquer pessoa que tenha uma inteligência normal, que seja
capaz de ingressar em um curso universitário da área de ciências exatas e que disponha de
vontade e tempo para se dedicar a essa teoria. Para uma pessoa nessas condições, pode-se
dizer que é mais fácil aprender a teoria da relatividade do que aprender a tocar piano, ou aprender
a dançar balé, por exemplo. Não é impossível compreender a teoria da relatividade; mas é
impossível compreendê-la sem o uso da matemática adequada.
Mas vamos tentar continuar. A teoria da relatividade geral é uma teoria muito mais
complicada do que a teoria da gravitação de Newton mas, em situações simples, leva ao mesmo
resultado. Para se lançar foguetes e satélites, basta a teoria de Newton. Os movimentos dos
planetas são explicados quase tão bem por uma teoria quanto pela outra. Mas a teoria da
relatividade geral leva a pequenas diferenças, e conseguiu explicar irregularidades do movimento
de Mercúrio que haviam sido descobertas por Newcomb.
Em outros casos, a diferença pode ser bastante grande: isso ocorre quando se estuda o
movimento da luz. Utilizando a física de Newton, é possível prever que, se a luz for constituída por
partículas se movendo com altíssima velocidade, ela vai ser desviada pela força gravitacional.
Pode-se calcular o valor desse desvio. Na teoria da relatividade geral, existe também um desvio
da luz, mas que é calculado de outra forma. O desvio previsto pela relatividade geral dá o dobro
do valor calculado pela física de Newton. E as medidas que já foram feitas desse fenômeno
concordam muito melhor com a relatividade geral do que com a física de Newton. Esse foi um
importante motivo para preferir a teoria da relatividade à antiga teoria gravitacional newtoniana.

10.4 MODELOS RELATIVÍSTICOS DO UNIVERSO

Como já foi dito, o campo gravitacional corresponde a uma curvatura do espaço-tempo.


Assim sendo, a presença de matéria (ou energia) muda as propriedades geométricas à sua volta.
Em casos normais, essas mudanças são pequenas. Mas para grandes quantidades de matéria
(como o universo inteiro), o efeito pode ser grande.
Pouco depois do desenvolvimento da relatividade geral, diversos pesquisadores tentaram
aplicar essa teoria ao estudo do universo como um todo. O objetivo era determinar uma
distribuição de matéria e o espaço-tempo associado a essa configuração que fosse compatível
com a teoria. As duas primeira soluções foram obtidas por A. Einstein e Willem de Sitter.
Einstein procurou descrever um universo com uma distribuição uniforme de matéria, por
todo o espaço (como um gás).
Nosso universo não é homogêneo: ele tem concentrações de matéria (nas galáxias e nos
diversos corpos celestes). Mas Einstein imaginou que um universo homogêneo era uma boa
aproximação inicial para uma teoria mais realista do universo. Ele supôs que, se o universo
começasse dessa forma (com matéria distribuída uniformemente, como um gás), a formação de
galáxias, estrelas e planetas não iria alterar, depois, esse equilíbrio, e o universo poderia
permanecer estático, em grande escala. Assim, Einstein estava tentando, basicamente, resolver a
questão da estabilidade do universo, ou seja, elaborar uma teoria que pudesse explicar por que as
estrelas e as galáxias se mantêm a grandes distâncias entre si, sem caírem umas em direção às
outras.
Inicialmente, ele não conseguiu obter um modelo que pudesse ficar em equilíbrio, ou seja,
com a matéria parada no espaço. Se a matéria estava inicialmente parada, ela adquiria um
movimento de contração (causada pela atração gravitacional). Isso ocorria tanto supondo que o
espaço fosse infinito, como supondo que o espaço fosse finito (de curvatura positiva). Mas,
introduzindo uma alteração na teoria da relatividade geral, foi possível obter um modelo em
equilíbrio, ou seja, um universo no qual houvesse uma matéria homogênea, isto é, distribuída
uniformemente por todo o espaço, sem movimento nenhum.
Havia, no entanto, uma série de problemas com o “universo de Einstein”. Como foi dito,
inicialmente Einstein não conseguiu obter um modelo em equilíbrio, e por isso ele fez uma
alteração na teoria da relatividade geral. Qual foi essa mudança? Ela consistiu, basicamente, em
introduzir um fator chamado “constante cosmológica”, que representa um tipo de repulsão
gravitacional.
É fácil compreender que, se existir uma repulsão, ela pode anular a atração gravitacional e
fazer com que o universo fique em equilíbrio. Assim, o que Einstein fez foi introduzir um “truque”
na teoria, que não tinha justificativa física nenhuma, pois jamais se havia observado nenhum tipo
de repulsão associado à gravitação. Não havia justificativa física para introduzir essa idéia.
Nesse sentido, a introdução da “constante cosmológica” não foi muito bem recebida. No
entanto, como era uma alteração aceitável, do ponto de vista matemático, acabou sendo admitida
– não como uma realidade, mas como uma possibilidade a ser investigada.
10.5 UNIVERSOS CURVOS, EM EXPANSÃO OU CONTRAÇÃO

O “universo de Einstein” tinha uma estranha característica: as equações levavam ao


resultado de que o tamanho total do universo não devia ser infinito, e sim finito. Isso ocorria
porque o espaço-tempo é deformado pela presença de matéria e energia, e essa deformação, no
caso, levava à criação de um espaço “curvo”, análogo à superfície de uma esfera: se uma reta for
prolongada sempre, nesse espaço, ela deve retornar ao ponto de partida, depois de percorrer uma
distância finita. A distância entre dois pontos quaisquer desse espaço é sempre finita. No entanto,
esse espaço não é limitado: ele não tem uma superfície ou barreira onde tudo termina. A partir de
um ponto qualquer desse espaço, é sempre possível caminhar em linha reta para qualquer
direção. Todos os pontos são iguais entre si, não há nenhuma região diferente das outras. O
espaço é finito, mas é ilimitado.
O modo mais fácil de se pensar nesse tipo de espaço é por comparação com a superfície
de uma esfera. Nessa superfície, uma “reta” prolongada sempre acaba retornando ao ponto de
partida. E pode-se, de um ponto qualquer da esfera, traçar “retas” em qualquer direção. Mas há
uma diferença importante. A superfície esférica é encurvada em uma direção determinada, em
uma outra dimensão. O espaço tridimensional não é encurvado para lado nenhum, e não é
preciso supor que exista uma outra dimensão na qual o espaço se encurve. A noção de espaço
curvo é totalmente independente desse tipo de suposição. É um conceito matemático abstrato,
que só pode ser representado de modo imperfeito, pela analogia da superfície de uma esfera.
Na teoria desenvolvida por Einstein, há uma relação matemática simples entre a constante
cosmológica , o raio de curvatura do universo R e a densidade média do universo d:

(Nessa equação, G é a constante da atração gravitacional e c é a velocidade da luz no


vácuo). Ou seja: se soubermos o valor de uma dessas grandezas (a constante cosmológica, o raio
do universo ou a densidade média do universo), pode-se calcular as outras duas.
Alguns pesquisadores continuaram a investigar as conseqüências da teoria, mais como um
exercício matemático do que como uma tentativa de descrever a realidade. Um desses
pesquisadores foi o matemático russo Alexander Friedmann. Em 1922, ele estudou modelos do
universo que fossem homogêneos, mas sem impor a condição de que o universo fosse estático.
Ele mostrou que havia várias possibilidade, de acordo com a relatividade geral. Podiam ser
descritos modelos em que o universo começasse sem movimento nenhum, e depois começasse
ou a se contrair (aumentando de densidade) ou a se dilatar (diminuindo de velocidade). Isso
dependia, basicamente, da densidade e da pressão inicial do universo. Se fossem muito
pequenas, a atração gravitacional não seria capaz de compensar a repulsão cósmica, e por isso
haveria uma expansão. Se a densidade inicial do universo fosse muito alta, a atração gravitacional
seria maior do que a repulsão cósmica e o universo iria se contrair.
Em cada um dos dois casos, a contração ou expansão, uma vez iniciada, não deveria
parar mais, ou seja: se o universo começasse a se contrair, ele deveria ir diminuindo de tamanho
até virar um ponto; e se começasse a se dilatar, deveria aumentar de tamanho, com sua
densidade tendendo a zero e seu raio tendendo a infinito.
Outros pesquisadores, Robertson e Walker, desenvolveram depois trabalhos semelhantes
ao de Friedmann, estudando todas as possibilidades matemáticas da teoria.
Eles estudaram outros tipos de situações hipotéticas. Se o universo não estivesse
inicialmente parado, mas já tivesse um movimento inicial de contração ou repulsão, o que
aconteceria? Haveria várias possibilidades: se ele já estivesse se contraindo e tivesse densidade
maior do que a densidade de equilíbrio, ele iria continuar a se contrair. Mas se sua densidade
inicial fosse menor do que a densidade de equilíbrio, ele poderia se contrair um pouco, depois
parar, e por fim se expandir. Mas, depois dessa expansão, não poderia mais se contrair: a
expansão seria ilimitada.
Se o universo tivesse uma densidade inicial maior do que a densidade de equilíbrio e
estivesse de expandindo, ele poderia ou ultrapassar a densidade de equilíbrio e se expandir
sempre, ou parar de se expandir antes disso, e, nesse caso, ele iria se contrair de novo.
Poderiam, nesse caso, existir pulsações: o universo se contrairia ao máximo, depois aumentaria
de tamanho até um tamanho máximo, depois se contrariria de novo, e assim por diante.
Todos esse modelos relativísticos descreviam universos homogêneos, ou seja: universos
que, em grande escala, sejam iguais em todas as regiões. Há dois motivos para se estudar esse
tipo de modelos. Um motivo é matemático: se supusermos que o universo tem regiões muito
diferentes umas das outras, o estudo teórico do universo pode se tornar intratável, pela
complexidade das equações. Outro motivo é filosófico: se não admitirmos que o universo é
semelhante em todas as regiões, torna-se impossível um estudo de cosmologia, pois só podemos
observar a região do universo em que estamos. Se as outras regiões distantes fossem muito
diferentes, não poderíamos adivinhar como elas são e seria impossível fazer uma teoria do
universo. Por isso, adota-se o chamado “princípio cosmológico”, que afirma exatamente que todas
as regiões do universo são semelhantes entre si. Esse princípio não é estabelecido pela
observação: é uma suposição que nos permite fazer uma teoria sobre o universo.
O trabalho inicial de Friedmann não despertou muita atenção. Parecia uma simples
brincadeira matemática, sem relação nenhuma com o universo conhecido.
No entanto, houve uma interessante coincidência entre a pesquisa teórica e o estudo
experimental do universo, nessa época. Ao mesmo tempo em que estavam sendo criados os
modelos cosmológicos relativísticos, os astrônomos descobriram que o universo era muito maior
do que se pensava; e começaram a perceber que o universo, em grande escala, não estava
parado. Ele parecia estar crescendo, ou seja, expandindo-se.

10.6 O MOVIMENTO DAS GALÁXIAS

Como já vimos, Kant havia proposto, na metade do século XVIII, que o universo seria
constituído por um grande número de galáxias, cada uma delas sendo um imenso conjunto de
estrelas, como nossa Via Láctea. No entanto, no início do século XIX, as observações de Herschel
levaram a acreditar que as nebulosas em espiral e elípticas eram apenas nuvens de gases
relativamente “pequenas”, que estavam se condensando para formar uma estrela.
Mas Herschel estava enganado. No início do século XX, quando foram construídos os
primeiros grandes telescópios modernos, nos Estados Unidos, foi possível observar essas
nebulosas com uma ampliação muito maior, e perceber que elas eram conjuntos de estrelas, e
não nuvens de gás. Logo depois, graças principalmente ao trabalho do astrônomo Edwin Hubble,
foi possível medir as distâncias de algumas galáxias e perceber que elas estão muito mais
distantes do que as estrelas da Via Láctea, sendo, portanto, “outros universos”, por assim dizer.
Não é possível medir-se diretamente a distância ou a velocidade das estrelas e das
galáxias. Os astrônomos avaliam essas distâncias e velocidades indiretamente. Para as estrelas
mais próximas da Terra, mede-se a distância por “paralaxe”, isto é, observando-se as mudanças
aparentes de posição das estrelas à medida que a Terra vai e volta em sua órbita. Uma vez que
se mediu a paralaxe de algumas estrelas e elas foram bem estudadas, foi possível determinar a
distância de outras estrelas semelhantes a essas comparando suas grandezas aparentes, ou seja,
a intensidade da luz que recebemos dessas estrelas: o brilho aparente da estrela é inversamente
proporcional ao quadrado da sua distância até nós. Suponhamos que duas estrelas são do
mesmo tipo, mas que uma delas parece ser cem vezes menos brilhante do que a outra. Ela deve
estar a uma distância dez vezes maior do que a outra. Se soubermos a distância da primeira,
determinaremos a distância da outra.
Mas como podemos saber se uma estrela é, de fato, do mesmo tipo que uma outra? Nem
sempre isso é possível. Há, no entanto, estrelas especiais que são utilizadas para isso. Um dos
tipos mais importantes são as “cefeidas”. Elas são estrelas pulsantes, que possuem um brilho
variável: sua luminosidade aumenta e diminui periodicamente, oscilando. Descobriu-se que as
cefeidas que possuem o mesmo tempo de oscilação possuem também o mesmo tamanho, massa
e luminosidade. Por isso, se forem observadas duas cefeidas de mesmo tempo de pulsação, mas
brilhos diferentes, isso permite comparar as suas distâncias até nós.
Utilizando-se esse e outros “truques”, os astrônomos conseguem determinar,
indiretamente, a distância das estrelas até nós, e também a distância das galáxias.
A medida das velocidades dos astros é também indireta. Ela se baseia na medida de um
efeito chamado “desvio para o vermelho”, observado no espectro luminoso das estrelas. Vamos
explicar esse efeito através de uma comparação com o som.
Os sons mais “finos” ou agudos possuem uma freqüência maior do que os sons “grossos”,
“baixos” ou graves. A freqüência do som que ouvimos não é sempre igual à freqüência do som
que está sendo produzido e emitido. Ela depende também da velocidade com a qual o objeto
sonoro se afasta ou aproxima de nós. Suponhamos, por exemplo, que uma ambulância vem
correndo a alta velocidade por uma rua, com sua sirene ligada. Quando ela está se aproximando
de nós, seu som fica mais agudo e, quando ela está se afastando, o som fica mais grave . Isso é
chamado de “efeito Doppler-Fizeau” para as ondas sonoras. Ocorre uma coisa parecida, com
qualquer outra onda.
A luz também muda sua freqüência, quando um objeto luminoso se aproxima ou se afasta
de nós. Quando ele se aproxima, a luz que chega até nós tem uma freqüência mais alta e, quando
ele se afasta, a luz tem uma freqüência mais baixa. No espectro luminoso, as freqüências mais
altas são as correspondentes às cores azul e violeta; e as freqüências mais baixas são as
correspondentes ao vermelho. Assim, se um objeto luminoso se aproximar de nós com altíssima
velocidade, sua cor tenderá a ficar mais azulada; e, se ele se afastar de nós a uma velocidade
muito alta, sua cor tenderá a ficar avermelhada (esse é o “desvio para o vermelho”). Com
velocidades relativamente pequenas (de um automóvel, avião ou mesmo foguete), não se nota
nenhum efeito significativo para a luz; esse efeito só pode ser notado com velocidades muito
grandes, comparáveis à velocidade da própria luz (300.000 km/s).
Só podemos saber que uma luz ficou mais avermelhada ou azulada se soubermos como
ela é quando está parada. Assim, se observamos uma estrela avermelhada ou azulada, isso não
quer dizer que ela está se afastando ou aproximando de nós a uma grande velocidade. Pois ela
pode não ser branca, e sim exatamente da cor observada, e estar parada. A cor das estrelas
depende de vários fatores, e principalmente de sua temperatura: normalmente, as estrelas de
maior temperatura são azuladas e as estrelas de menor temperatura são avermelhadas, em sua
superfície.
As mudanças de cor associadas à velocidade são, na verdade, medidas através de mais
um “truque” utilizado pelos astrônomos. Eles utilizam certos riscos ou linhas que aparecem no
espectro luminoso das estrelas, como pontos de referência, para medir esse desvio da luz para o
azul ou para o vermelho.
Foi em torno de 1917 que foram realizadas as primeiras medidas de velocidade e distância
das galáxias mais próximas de nós. Essas primeiras medidas mostraram que algumas galáxias
estavam se aproximando de nós, enquanto que outras estavam se afastando. Em 1922, já tinham
sido medidas as velocidades de 40 galáxias, e verificou-se que 36 delas se afastavam de nosso
sistema. Estudos posteriores, feitos por Edwin Hubble e outros astrônomos, mostraram que as
únicas galáxias que parecem estar se aproximando de nós são as mais próximas. As mais
distantes estão sempre se afastando, e as mais distantes estão se afastando mais depressa do
que as mais próximas. Depois de uma grande série de medidas, Hubble concluiu que a velocidade
de afastamento das galáxias era aproximadamente proporcional às suas distâncias de nós.
Isso não quer dizer que estejamos no centro do universo e que nossa região do
universo tenha algo de especial. Nós só podemos observar e medir as estrelas e galáxias a partir
de nossa posição, de nosso ponto de vista; e parece que quase todas as galáxias estão fugindo
de nós. Mas se estivéssemos em qualquer outro ponto do universo, em outra galáxia, também
observaríamos que todas as galáxias parecem se afastar desse ponto.
Suponhamos que a Terra estivesse aumentando de raio, e se expandindo. Se em um certo
tempo ela dobrasse de tamanho, todas as distâncias sobre a Terra ficariam também o dobro. Se
fizesse medidas das distâncias entre Salvador e cada uma das outras capitais brasileiras, seria
possível notar que todas as capitais estão se afastando de Salvador, e que as mais distantes
estão se afastando mais rapidamente do que as mais próximas (é claro que todas as distâncias
dobram ao mesmo tempo, mas dobrar a distância entre Salvador e Porto Alegre é um aumento
muito maior do que dobrar a distância entre Salvador e Belo Horizonte). Se tivessem apenas essa
informação, os habitantes de Salvador poderiam imaginar que estão no centro de um estranho
processo, em que todos estão fugindo de Salvador. Mas não é nada disso. Todas as cidades terão
exatamente a mesma impressão. Está ocorrendo uma expansão geral, para todos os lados, e não
existe um centro dessa expansão.
Deve estar ocorrendo a mesma coisa no universo: todas as galáxias estão se afastando
umas das outras, e qualquer uma delas que seja habitada deve observar o mesmo fenômeno que
nós observamos.
A equação que relaciona a velocidade V das galáxias com sua distância D é muito simples:
uma é proporcional à outra.
V = H.D
A constante H (constante de Hubble) é obtida dividindo-se a velocidade de afastamento
das galáxias por suas distâncias. Se a velocidade for dada em km/s e a distância em km, o valor
da constante de Hubble será dado em 1/s (ou seja, as unidades de distância se cancelam). Em
1931, Hubble havia realizado muitas medidas, obtendo, em média, o valor:
H = 0,000.000.000.000.000.018/s, ou seja, 1,8x10–17 /s
Esse número indica que galáxias que estejam a uma distância de um milhão de anos-luz
(cerca de 9,46x1018 km de distância) devem ter, em média, uma velocidade de 170 km/s de
afastamento de nosso sistema. A regra não vale para galáxias próximas (com distância de
“apenas” alguns milhares de anos-luz), que podem estar até se aproximando, ao invés de se
afastarem. Também não se sabe se a proporcionalidade entre velocidade e distância vale sempre,
mesmo para galáxias que estejam a enormes distâncias de nós.
É importante fazer um alerta, aqui: a mudança de freqüência da luz é o único efeito que
nos permite medir as velocidades das galáxias. Acreditamos que esse efeito é, realmente,
produzido pelo movimento das galáxias. Mas poderia existir uma outra causa, que produzisse
essa mudança da luz.
Na verdade, já foram publicados muitos trabalhos científicos propondo outras explicações
para o “desvio para o vermelho”. Mas, até hoje, a maior parte dos cientistas prefere aceitar a
explicação mais simples: que aquilo que Hubble mediu é, realmente, a velocidade das galáxias.
Quando esses dados astronômicos foram comparados aos resultados da teoria da
relatividade geral, chegou-se à conclusão de que nosso universo, ao invés de ser estático como
Einstein pensava, está na verdade se expandindo. Todas as distâncias do universo estão
aumentando simultaneamente, numa mesma proporção. A partir de então, tornou-se
extremamente importante voltar a estudar os modelos relativísticos em que o universo, ao invés
de estar sempre parado, pode estar se expandindo.

10.7 O MODELO DE UNIVERSO EM EXPANSÃO DE LEMAITRE

Foi em 1925 que os dados astronômicos foram conectados à teoria da relatividade geral,
por Georges Lemaître. Ele se interessou pelo tema depois de tomar conhecimento das medidas
realizadas por Hubble. Sem conhecer os trabalhos de Friedmann, Lemaître deduziu de novo
vários dos seus resultados, estudando no entanto apenas modelos de universo em expansão. Os
resultados de Lemaître foram publicados em 1927. Pouco depois, outro cientista, H. R. Robertson,
sem conhecer esses trabalhos, descobriu de novo as mesmas soluções e as publicou. Foram
esses três cientistas – Friedmann, Lemaître e Robertson – que propuseram os modelos de um
universo em expansão, e não Einstein, a quem muitas vezes se atribui essa idéia.
Lemaître propôs o seguinte modelo para o universo: ele supôs que, inicialmente, o
universo seria do tipo proposto por Einstein: um espaço cheio de um gás, com densidade
praticamente igual em todos os pontos, e em equilíbrio. Mas em todo gás existem partículas que
se movem e que podem se aproximar ou afastar, ao acaso. Assim, podiam surgir e desaparecer
pequenas concentrações de matéria, no espaço. Se elas fossem muito pequenas, acabariam por
se desfazer logo depois. Mas por acaso, depois de um tempo muito longo, poderiam surgir
concentrações maiores de matéria. Quando isso acontecesse, essas grandes nuvens de gás
começariam a se contrair, aumentando de densidade e se separando do restante do gás que
constitui o universo inicial.
Lemaître supõe o surgimento de grande número dessas condensações, por todo o espaço.
Isso vai diminuir a pressão do gás, nos espaços intermediários. Com essas modificações do
universo, o equilíbrio inicial se rompe, e pode-se mostrar, teoricamente, que ele deve começar a
se expandir.
Lemaître supôs que dentro das grandes nuvens em contração iriam se formar as galáxias
isoladas ou certos pequenos grupos de galáxias; e que esses grupos se afastariam uns dos outros
por causa dessa expansão geral do universo.
As equações desenvolvidas por Lemaître mostraram que essa expansão, no início, seria
muito lenta, mas que ela iria aumentando sempre – pois a repulsão cósmica vai aumentando com
a distância, e a atração gravitacional vai diminuindo. Assim, depois que a expansão começasse, o
raio do universo iria aumentar exponencialmente com o tempo, ou seja, seria multiplicado por um
mesmo fator de tempos em tempos iguais. A velocidade de afastamento das porções de matéria
também iria crescendo de forma exponencial; e essa velocidade seria proporcional à distância –
como foi verificado por Hubble, através de suas medidas de velocidades de galáxias. No entanto,
essas velocidades não seriam constantes, e sim variáveis.
Se fosse possível observar o universo um bilhão de anos atrás, por exemplo, as galáxias
estariam se movendo a uma velocidade bem menor do que a atual. Não temos uma máquina do
tempo para voltar atrás. Mas, de certo modo, podemos ver como era o universo muito tempo
atrás: observando as galáxias mais afastadas. As galáxias mais distantes que se podia observar
em torno de 1930 estavam a distâncias de 100 ou 200 milhões de anos-luz. Isso significa que a
luz demora 100 ou 200 milhões de anos para vir delas até nós, e que a imagem que estamos
captando agora delas não mostra como elas são, mas sim como eram há 100 ou 200 milhões de
anos.
Se o universo está se acelerando, essas galáxias mais distantes, no passado, deveriam ter
uma velocidade menor do que a prevista pelas medidas realizadas a partir de galáxias próximas,
que mostram a velocidade atual. Ou seja: elas deveriam se afastar da lei de proporcionalidade de
Hubble. Mas as medidas realizadas naquela época não mostraram nenhuma diferença clara de
velocidade para essas galáxias mais distantes. Elas pareciam obedecer à lei de proporcionalidade
entre distância e velocidade, como as outras. Como as medidas eram muito difíceis e imprecisas,
não foi possível chegar a nenhuma conclusão clara.
O modelo de Lemaître foi também desenvolvido e apoiado por Arthur Eddington. Dentro
das várias opções disponíveis de modelos relativísticos, esse tipo de universo era apenas um dos
possíveis. Por que escolher este e não algum outro universo em expansão? A escolha não se
baseava nem em cálculos, nem em observações. A grande vantagem desse modelo sobre os
outros (pelo menos de acordo com Eddington) seria um aspecto filosófico: ele elimina o problema
do “início do universo”, já que pode assumir um passado infinito. Em uma conferência, em 1931,
Eddington comenta:
Filosoficamente, a noção de um início da ordem atual da natureza me parece repugnante.
Em um livro publicado posteriormente, pode-se notar de modo ainda mais claro que
Eddington tem um motivo não-científico para essa escolha:
As opiniões relativas ao princípio das coisas caem quase fora do terreno do argumento
científico. Não podemos dar razões científicas para explicar por que o mundo foi criado de um
modo de preferência a um outro. Mas suponho que todos temos um sentimento estético na
questão.
Já que não posso evitar tocar nesta questão do começo, pareceu-me que a teoria mais
satisfatória seria aquela que fizesse que esse começo não fosse demasiado repentino do ponto
de vista estético. Esta condição só pode ser satisfeita por um universo de Einstein com todas as
forças principais em equilíbrio. Segundo isto, o estado primordial de coisas que imagino é uma
distribuição uniforme de prótons e elétrons, extremamente diluída e enchendo todo o espaço
(esférico), que permaneça quase em equilíbrio por um tempo muito grande, até que prevaleça sua
inerente instabilidade.
É curioso que Lemaître não gostou da justificativa que Eddington deu para o estado inicial
do universo. Lemaître era um religioso, e deve ter percebido, através do trabalho de Eddington,
que esse modelo tornava desnecessária a existência de Deus. Como resultado imediato do artigo
de Eddington, Lemaître mudou suas idéias. Apenas 6 semanas após a publicação do trabalho de
Eddington, ele publicou, na mesma revista, o primeiro esboço de uma nova teoria.
Nessa teoria, ele rejeita totalmente o modelo de Einstein como sendo o estado inicial do
universo, e propõe, pelo contrário, que o universo teve um início brusco. Ele propõe, nessa nova
teoria, que à medida que recuarmos para o passado encontraremos o universo em um estado
mais concentrado, tanto sob o ponto de vista de energia como de matéria. Ele supõe que o
universo pode ter surgido, inicialmente, sob a forma de poucas ou mesmo de uma única partícula,
completamente diferente das conhecidas, e que foi depois se dividindo, fragmentando e criando
um universo em expansão. Ele sugere que essa partícula inicial poderia ser um super-átomo, com
peso atômico igual à soma dos pesos atômicos de todas as partículas do universo. Como esse
início do universo é brusco, e diferente de qualquer coisa que conhecemos, abre-se nessa teoria a
possibilidade de introduzir a necessidade de Deus, para criar o átomo primitivo do qual surgiu
tudo.
Esse átomo seria instável, ou seja, radioativo, e iria se quebrando, emitindo radiações e
partículas de muitos tipos. Esses pedaços constituiriam toda a matéria atualmente conhecida.
Lemaître chega a sugerir que dentro das estrelas poderiam existir grandes porções radioativas
desse átomo primitivo, o que proporcionaria a energia que elas desprendem. Assim, as estrelas
seriam corpos que teriam se originado de uma fragmentação e não de uma condensação. As
galáxias teriam se formado depois, pela reunião de uma “nuvem” de estrelas já formadas – o
contrário do que se supunha antes.
À medida que o super-átomo inicial fosse se quebrando, começaria a expansão do
universo. Lemaître supôs que essa expansão obedeceria às leis da relatividade geral.

10.8 PROBLEMAS DA TEORIA DE LEMAÎTRE

Havia, no entanto, um grave problema. Se o universo tivesse se expandido a partir de um


estado muito concentrado, sua velocidade de expansão inicial deve ter sido maior do que a atual.
A velocidade atual é conhecida, por isso pode-se calcular o tempo máximo que já poderia ter
decorrido desde o início da expansão do universo. Supondo-se a velocidade constante, temos que
o tempo seria dado pela distância dividida pela velocidade:
T = D/V
Utilizando a relação de Hubble (V = H D), deduz-se imediatamente que esse tempo T deve
ser 1/H, ou seja, o inverso da constante de Hubble. Como a constante tinha o valor de 1,8x10 –17
/s, o tempo decorrido desde o início da expansão seria de 1/(1,8x10–17/s), ou seja, 5,5x1016
segundos. Isso corresponde a 1,8 bilhões de anos. Essa seria a idade máxima do universo se a
velocidade fosse constante. Se a velocidade das galáxias está diminuindo (por causa da atração
gravitacional), o tempo seria inferior a 1,8 bilhões de anos. Mas isso introduzia um problema:
nessa época, estimava-se que a Terra tinha se formado cerca de 2 bilhões de anos atrás, e isso
seria impossível, por esse modelo.
No entanto, os cientistas são bastante espertos, e com algum trabalho conseguem “dar um
jeito” e adaptar suas idéias de tal forma a ficarem aceitáveis. Como vimos, a teoria da relatividade
geral permite uma grande variedade de modelos. Lemaître vai mudar a sua teoria. Ele continua a
admitir que o universo começou como um super-átomo que se dividiu e expandiu. Mas supõe que,
durante essa expansão, o universo já ultrapassou a densidade característica do modelo de
Einstein – a densidade na qual a atração gravitacional é igual à repulsão cósmica.
Até chegar a esse estágio, a velocidade de expansão estava diminuindo, e Lemaître vai
supor que era muito pequena, quando chegou à densidade de equilíbrio. Como, nesse estágio, o
universo não tem nenhuma tendência a se contrair nem a se dilatar, e sua velocidade era muito
pequena, ele deve ter mantido essa baixa velocidade durante um grande tempo, e só aos poucos
foi aumentando de novo sua velocidade, à medida que a repulsão cósmica ultrapassou a atração
gravitacional. A partir daí, a velocidade iria crescendo cada vez mais rapidamente.
De acordo com esse modelo, o tempo que pode ter decorrido desde o início da explosão
do átomo primitivo não pode ser calculado a partir do valor atual da constante de Hubble: ele pode
ser muito superior ao que foi indicado acima. Assim, era possível conciliar esse modelo com
qualquer idade que se quisesse atribuir à Terra ou às estrelas.
É importante comentar um pouco o espírito geral da proposta de Lemaître. Existem teorias
que fazem cálculos e previsões muito claros, que permitem comparações precisas com a
observação. Mas há teorias em que há muitos fatores que podem ser alterados à vontade, e que
podem ser sempre adaptados, qualquer que seja o fato observado, de modo que a teoria sempre
pode ser “salva”.
A teoria da relatividade geral surgiu, inicialmente, como uma teoria muito clara e definida,
com a possibilidade de fazer cálculos e predições que não podiam ser ajustados. Por exemplo:
quando se observou, em 1919, o desvio gravitacional da luz, a teoria havia feito uma previsão
muito clara sobre o valor desse desvio. Se as medidas tivessem dado um valor que fosse a
metade ou o dobro da previsão, não haveria nenhum “jeitinho” que pudesse salvar a teoria da
relatividade. Ela teria que ser abandonada ou sofrer uma mudança radical.
A situação mudou, no entanto, quando Einstein introduziu a “constante cosmológica”: a
teoria se tornou muito mais maleável. Como o valor dessa constante não é conhecido e não é
determinado pela teoria, pode-se ajustar esse valor de tal modo que os cálculos concordem com a
observação. Como havia ainda outros fatores ajustáveis na teoria, era possível, em princípio, um
número infinito de modelos cosmológicos diferentes, todos eles satisfazendo os fatos conhecidos.
Ou seja: era totalmente impossível justificar a escolha de um desses modelos ao invés de um
outro.
É claro que, com o passar do tempo e com novos tipos de observações, fica mais difícil
adaptar os modelos cosmológicos aos fatos. O número de modelos possíveis diminui, mas podem
ao mesmo tempo surgir outros totalmente diferentes, que possam explicar os novos fatos
conhecidos. Pode até acontecer que nenhum modelo seja compatível com os fatos. Nesse caso, a
atitude mais “neutra” e sábia seria recusar todos os modelos e admitir nossa ignorância. Mas
ocorre que os cientistas não se conformam em defender apenas aquilo que é totalmente seguro e
comprovado. Por fatores de muitos tipos – pessoais, sociais, que nada têm a ver com a ciência –
eles podem ser envolver com determinada idéia e defendê-la mesmo se ela não tem uma boa
base científica. No caso de Lemaître parece ter acontecido exatamente isso: as suas idéias
religiosas eram tão importantes, que ele foi levado a adotar um novo modelo de universo, que
tivesse um início bem definido, e que pudesse introduzir a necessidade de Deus.

10.9 A COSMOLOGIA E OS DADOS ASTRONÔMICOS

Dependendo dos conhecimentos disponíveis em cada época, é possível escolher entre


várias alternativas. As observações astronômicas não decidem qual a teoria correta e por isso
esses fatores pessoais ou subjetivos podem pesar bastante. Eles servem para preencher a
ignorância científica.
Para se poder limitar ou escolher cientificamente um modelo cosmológico relativístico,
é necessário conhecer certos valores do universo. Há uma série de grandezas que, em princípio,
poderiam ser medidas, e que serviriam para delimitar o modelo:
a) a densidade média atual do universo;
b) a idade atual do universo;
c) o valor atual da constante de Hubble, ou seja, da velocidade de afastamento das
galáxias;
d) o valor da aceleração atual do movimento das galáxias.
A densidade média do universo pode ser estimada calculando-se a massa das galáxias e a
distância entre elas. Se esses dados forem conhecidos, pode-se dividir a massa das galáxias pelo
volume total ocupado por elas, para achar essa densidade. Mas não é muito fácil calcular a massa
das galáxias; e, além disso, poderia existir uma quantidade indeterminada de matéria “invisível”,
no espaço entre as galáxias. Esses são os principais fatores de incerteza dessa grandeza. Os
valores estimados para essa densidade média, desde 1930, variam entre 10 –28 g/cm3 e 10–31
g/cm3. Ou seja: os valores variam entre um mínimo e mil vezes esse mínimo.
A idade atual do universo não pode ser medida, propriamente; mas pode-se estimar a
idade de alguns corpos do universo (planetas, meteoritos, estrelas, galáxias), o que vai determinar
a idade mínima do universo. Durante o século XX, as avaliações da idade da Terra e de outros
corpos celestes foram aumentando gradativamente, passando de cerca de um bilhão de anos
para cerca de 5 bilhões de anos, atualmente. Há meteoritos cuja idade foi avaliada em mais de
dez bilhões de anos. Isso mostra que essas avaliações são bastante imprecisas. Mas, de qualquer
forma, é necessário que a idade do universo seja superior a alguns bilhões de anos.
O valor da constante de Hubble é determinado medindo-se a velocidade das galáxias e as
suas distâncias. A velocidade é medida pelo desvio do espectro luminoso para o lado vermelho.
As distâncias das galáxias são muito mais difíceis de medir. Durante o século XX, houve
sucessivas correções para as distâncias estimadas das galáxias, que mudaram muito o valor da
constante de Hubble. Do seu valor inicial de 1,8x10–17 /s, seu valor passou para 4 ou 10 vezes
menos, pois descobriu-se que as galáxias estavam 4 ou 10 vezes mais distantes do que se
pensava antes. Pode ser que esse valor ainda sofra alguma revisão.
Por fim, a medida da aceleração do movimento das galáxias (se existir) depende de se
poder comparar o valor da constante de Hubble para galáxias próximas, com o valor obtido para
as galáxias mais distantes. Essa comparação é muito difícil e incerta. Até hoje, não se sabe se
essa aceleração é negativa, positiva ou nula. Houve medidas realizadas em 1970 por Alan
Sandage, que parecem indicar que ela é negativa, ou seja, que a velocidade das galáxias parece
estar diminuindo. Mas os resultados obtidos eram muito imprecisos e não foi possível confirmá-
los.
Talvez fosse possível, também, medir o raio do universo, a partir de suas propriedades
geométricas. Se isso fosse possível, introduziria mais uma grandeza importante nas equações
cosmológicas. O universo pode ser aberto (infinito) ou fechado (finito). Se ele for aberto, sua
curvatura pode ser nula (espaço euclidiano) ou negativa (espaço hiperbólico). Se ele for fechado,
sua curvatura é necessariamente positiva.
Seria possível tentar determinar o tipo de curvatura (e até o seu valor) por contagens de
galáxias distantes. Se a geometria for euclidiana, e se as galáxias estiverem distribuídas ao acaso
pelo espaço, então o número total de galáxias deve aumentar com o volume observado, que seria
proporcional ao cubo da distância. Se a curvatura for positiva, o volume não deve aumentar com o
cubo da distância, mas de um modo mais lento – e, portanto, seria observada uma relativa falta de
galáxias distantes. Se a curvatura for negativa, o volume deve aumentar mais rapidamente do que
o cubo da distância, e então deve ser observado um excesso de galáxias distantes. Mas as
observações não permitem concluir nada.
Por outro lado, sob o ponto de vista da teoria, existem três fatores principais que
podem ser ajustados:
a) o valor da constante cosmológica;
b) o sinal da curvatura do espaço;
c) a situação inicial do universo.
Se os quatro fatores observacionais indicados acima (densidade do universo, idade do
universo, constante de Hubble e aceleração do universo) fossem conhecidos, seria possível
determinar os três fatores teóricos aqui colocados. Mas, dadas as incertezas existentes, é
possível fazer muitos ajustes nos fatores teóricos, de tal forma que a dinâmica do universo não
pode ser determinada.
Muitas vezes, os jornais e as revistas apresentam a teoria da expansão do universo de um
modo totalmente distorcido, como se já se tivesse conseguido medir perfeitamente todas as
grandezas astronômicas importantes e fosse possível saber exatamente como é o universo e
como ele se expande. Na verdade, nosso conhecimento ainda é muito imperfeito. As observações
e medidas são muito difíceis, e exigem anos e anos de trabalho de muitos astrônomos – às vezes,
sem levar a resultados definidos. É claro que sabemos, atualmente, muito mais do que cem anos
atrás; mas não sabemos tanto quanto gostaríamos de saber, nem sabemos tanto quanto os
jornais e revistas divulgam.

CAPÍTULO 11 - A CRIAÇÃO DA MATÉRIA E O BIG BANG

11.1 A RADIOATIVIDADE E A ENERGIA DO SOL

Paralelamente à criação da teoria da relatividade e ao estudo do movimento das galáxias,


desenvolveu-se, no século XX, o conhecimento da radioatividade e da física nuclear. Esse
conhecimento levou a uma teoria para explicar a própria formação dos elementos químicos que
constituem o universo.
Como vimos, no século XIX não houve nenhuma teoria física que pudesse explicar
satisfatoriamente a origem da energia do Sol e das estrelas: segundo o conhecimento da época,
era impossível que o Sol pudesse estar emitindo sua energia há cem milhões de anos ou mais.
No final do século XIX e início do século XX, a descoberta da radioatividade e o início dos
estudos nucleares mudou a situação. Primeiramente, descobriu-se que os elementos radioativos
eram capazes de emitir radiações de alta energia. Verificou-se que, para alguns elementos (como
o urânio), a radioatividade podia durar muitos milhões de anos. Essa poderia, talvez, ser a fonte
de energia das estrelas. Se elas contivessem uma grande quantidade de materiais radioativos,
isso poderia produzir uma energia adicional, no seu interior, durante muito tempo.
Mas essa idéia não resistiu a um estudo mais aprofundado. Era necessário que os
elementos radioativos fossem de longa duração e, ao mesmo tempo, que emitissem bastante
energia. Verificou-se que se houvesse menos de 1% de materiais como o urânio no Sol, isso não
poderia aumentar muito seu tempo de “vida”. Se todo o Sol fosse constituído por urânio, sua “vida”
poderia ser de algumas centenas de milhões de anos – de acordo, então, com os estudos
geológicos – mas ele já deveria estar agora se esgotando. Mas pode existir tanto material
radioativo no Sol? Ele deve ter se formado da mesma nuvem que originou os planetas; como os
elementos radioativos existem em pequena quantidade na Terra, é pouco provável que possa
existir uma proporção muito grande desses elementos no Sol.
Ao invés de trazer soluções, a descoberta da radioatividade trouxe problemas ainda
maiores para a teoria da energia do Sol. Pois, com o estudo dos materiais radioativos, descobriu-
se a possibilidade de medir a idade das rochas que continham urânio e outros elementos
semelhantes. Isso é feito determinando-se a porcentagem do urânio que tinha se desintegrado e
transformado em outros elementos, desde a formação da rocha. Com esse novo método de
datação de rochas, foi possível testar as avaliações do geólogos e verificou-se que elas eram, em
geral, corretas. Pior ainda: foram descobertas rochas com idade de mais de um bilhão de anos, o
que tornava ainda mais difícil entender como o Sol ainda podia estar quente e irradiando energia
até hoje.
Surgiram propostas de que talvez a Terra tivesse se formado fora do sistema solar,
sendo mais velha do que o Sol, e que depois ela fosse atraída e “capturada” por ele. Mas essas
propostas não eram razoáveis, sob outros pontos de vista, e foram abandonadas.
11.2 OS PROCESSOS DE FUSÃO NUCLEAR NAS ESTRELAS
Somente na década de 1940 o problema começou a ser resolvido. Os estudos de
física nuclear de Hans Bethe e outros pesquisadores mostraram que era possível unir ou fundir os
núcleos atômicos leves para formar outros mais pesados. Nesse processo, há desprendimento de
energia muito maior do que na radioatividade. Esse processo de fusão nuclear pode ser feito com
átomos dos gases hidrogênio e de hélio, que existem em grande quantidade no Sol.
A fusão nuclear só acontece quando os núcleos colidem entre si com enorme velocidade.
Isso ocorre se os gases estiverem a uma altíssima temperatura – de milhões de graus. A
temperatura da superfície do Sol é muito baixa para que isso possa acontecer, mas o seu interior
deve ser muito mais quente. Quando nuvem inicial que formou o Sol se contraiu, podem ter
surgido no seu centro temperaturas de milhões de graus – o suficiente para iniciar e manter as
reações de fusão nuclear.
Essas reações de fusão nuclear podem manter a energia do Sol durante bilhões de anos,
se a maior parte da massa do Sol era de elementos leves (como hidrogênio e hélio). As reações
iniciais devem ter sido de fusão de núcleos de hidrogênio para formar dêuterons (núcleos de
hidrogênio pesado); depois, a fusão de núcleos de hidrogênio com dêuterons para formar o
isótopo 3 do Hélio; e, por fim, nova síntese para formar núcleos de Hélio 4.
Para o desenvolvimento da teoria da energia das estrelas, foi necessário, por um lado,
estudar em laboratório as reações nucleares e medir sua energia e condições de ocorrência; e,
por outro lado, estudar as estrelas, sua composição química e fazer modelos do seu interior, para
estudar qual poderia ser sua temperatura interna. Esse trabalho é considerado um grande
sucesso da astrofísica, e acredita-se que os principais aspectos da geração de energia nas
estrelas são agora compreendidos.
Embora ninguém jamais possa medir a temperatura no centro do Sol, sabe-se que ela
deve ser de aproximadamente 14 milhões de graus, e que a matéria, nessa região, deve ter uma
densidade 100 vezes maior do que a densidade da água. Como se sabe isso? Não é possível
explicar sem equações, e elas são muito difíceis para serem descritas aqui.
É provável que o Sol tenha cerca de 5 bilhões de anos de idade, e talvez ele fosse um
pouco menos luminoso há dois bilhões de anos – uma diferença de cerca de 20%.
Há estrelas de maior luminosidade, isto é, que emitem muito mais energia do que o Sol, e
que por isso não podem durar o mesmo tempo. Há desde estrelas 10.000 vezes mais brilhantes
do que o Sol, até outras que são milhares de vezes mais fracas. As mais brilhantes esgotam todo
seu hidrogênio em poucas centenas ou mesmo em algumas dezenas de milhões de anos. Logo
depois, no entanto, começam outras reações nucleares, que vão produzir núcleos mais pesados:
de berílio, carbono, oxigênio, etc. Essas reações vão ocorrendo à medida que o centro da estrela
se contrai ainda mais, e sua temperatura central vai aumentando. A fusão do hélio para produzir
elementos mais pesados ocorre a uma temperatura de cerca de 120 milhões de graus.
Pode-se atualmente prever cada um dos estágios pelo qual as estrelas vão passando, e
como as mais luminosas já estão em estágios mais avançados do que o Sol, pode-se testar essa
teoria. A concordância entre a teoria e a observação tem sido muito boa.

11.3 A CRIAÇÃO DOS ELEMENTOS NAS ESTRELAS


Há um aspecto extremamente interessante na reações nucleares do interior das estrelas:
mesmo se supusermos que o universo inicialmente só continha hidrogênio, as estrelas poderiam
produzir núcleos de novos elementos no seu interior. Todas as teorias científicas anteriores
haviam suposto que os elementos químicos sempre existiram. O desenvolvimento da física
nuclear mostrou, no entanto, que era possível introduzir a própria idéia de criação dos elementos
durante a evolução do universo.
Não se deve supor que a nuvem que originou o sistema solar só tivesse hidrogênio: os
planetas não podem produzir novos elementos, e eles se formaram dessa nuvem; por isso, a
nuvem já devia conter elementos pesados. E esses, de onde vieram? Poderiam ter vindo de
estrelas mais antigas do que o Sol, que tivessem sintetizado esses elementos e depois explodido,
por exemplo.
Os meteoritos são blocos sólidos de matéria que vagueiam pelo espaço e que podem ter
existido em quantidade muito maior, sendo unidos para formar os planetas. Costuma-se supor que
a composição química dos meteoritos representa a composição química média dos elementos
sólidos que estavam presentes na nossa galáxia, na nuvem de onde nosso sistema planetário se
formou. Os elementos gasosos, é claro, não podem ser estudados desse modo. Eles são
estimados analisando-se a composição das estrelas de pequena massa e luminosidade, que
podem ser consideradas “jovens” e não podem ter ainda sintetizado uma quantidade significativa
de elementos novos.
Calcula-se, por medidas de meteoritos e observações de estrelas, que a proporção
cósmica dos principais elementos é aproximadamente a seguinte: 72% de toda a massa do
universo é constituída por hidrogênio e cerca de 27% por hélio. Todos os outros elementos,
somados, dão apenas cerca de 1% da massa total. Desses, os mais importantes são:
* Oxigênio – 0,95%
* Carbono – 0,23%
* Ferro – 0,16%
* Neônio – 0,12%
* Nitrogênio – 0,095%
* Silício – 0,069%
* Magnésio – 0,047%
* Enxofre – 0,037%
Os estudos de física nuclear mostraram que podem ocorrer reações de fusão nuclear, com
desprendimento de energia, que formem os elementos com massa atômica menor ou igual à do
ferro. Acima dessa massa, a reação pode acontecer, mas, ao invés de libertar energia, ela
absorve energia. Pode-se supor que esses elementos mais pesados são produzidos em uma fase
muito avançada da evolução das estrelas. Depois que elas consumiram a maior parte dos seus
núcleos leves, elas devem ter uma grande porcentagem de núcleos de massa semelhante à do
ferro. A produção de energia nuclear vai ficando cada vez menor, e por isso o núcleo da estrela
começa novamente a se contrair. A energia central vai aumentando, mas continua não ocorrendo
nenhuma nova reação capaz de gerar energia.
Se a estrela for de pequena massa, ela vai perdendo a energia gerada pela contração
gravitacional, vai esfriando, e não surge mais nenhuma reação nuclear. Ela acaba virando uma
estrela anã e, por fim, deverá se apagar. Mas se a massa da estrela não for tão pequena, podem
surgir outros efeitos. À medida que a contração aumenta, a temperatura cresce, e podem começar
a ocorrer as reações que absorvem energia, produzindo núcleos mais pesados do que os do ferro.
A contração pode ser muito rápida, e libertar energia tão rapidamente que a estrela explode, como
uma nova ou supernova. Ela espalha, então, pelo espaço, elementos de todos os tipos, incluindo
elementos radioativos.
Durante esse processo, nem toda a matéria se espalha. Pode ocorrer que uma parte do
núcleo da estrela continue coesa, e vá se contraindo sempre, havendo uma síntese cada vez
maior de elementos pesados, com absorção de energia. Nesse processo, os próprios elétrons que
vagueiam pelo interior da estrela devem ser absorvidos pelos prótons nucleares, produzindo
nêutrons:

Com a transformação dos prótons em nêutrons, desaparece a repulsão elétrica entre as


partículas, e elas vão se agregando, em número cada vez maior, até formar uma espécie de
aglomerado gigantesco de nêutrons, unidos entre si. A densidade desse material deve ser imensa
– trilhões de vezes maior do que a densidade da água. Por isso, as estrelas de nêutrons podem
ter um tamanho muito pequeno (semelhante ao tamanho da Terra), mas com uma massa
semelhante à do Sol.
Os elementos químicos podem, assim, se formar nas estrelas. Mas há também outras
possibilidades. A formação de novos elementos poderia ter ocorrido, pelo menos em parte, antes
de existirem estrelas. Se o universo está se expandindo, ele deve ter tido, antes, uma densidade
maior. Dependendo do modelo utilizado, quanto mais recuarmos para o passado, mais
concentrada estava a matéria e mais alta devia ser sua temperatura. Assim, recuando no passado
também poderiam ser encontradas condições de temperatura tão altas que pudessem ocorrer as
reações nucleares necessárias para formar os elementos.

11.4 A SÍNTESE DOS ELEMENTOS NO “BIG BANG”

Vários autores propuseram teorias para explicar a formação inicial dos elementos
químicos, antes da criação das estrelas. Uma das teorias mais famosas foi a do “Big Bang”
(grande explosão), proposta em 1947 por George Gamow. Ele admitiu um modelo relativístico do
universo em expansão, utilizando os cálculos que haviam sido feitos vinte anos antes por
Lemaître, Friedmann, Walker, Tolman e Robertson. Supôs o início do universo com uma
densidade enorme, a uma altíssima temperatura. Esse material inicial conteria partículas como
nêutrons ou prótons, e radiação gama de alta energia.
Pode-se supor que o estágio inicial do universo correspondia a uma densidade
praticamente infinita de matéria e de radiação. À medida que o universo se expande, a densidade
da matéria Dm diminui (porque ela vai se espalhando) e a densidade de radiação Dr diminui ainda
mais rapidamente, porque, além dela se espalhar, a temperatura T do universo vai diminuindo.
Gamow utilizou as seguintes equações, desenvolvidas na década de 1930 por Richard Tolman:

onde t é o tempo que passou desde o “início” do universo, contado em anos.


Segundo essa teoria , portanto, a temperatura média do universo vai diminuindo, à medida
que ele se expande. De acordo com as equações, no instante t = 0 a temperatura e a densidade
seriam infinitas. Isso provavelmente não tem sentido físico nenhum. Mas a temperatura diminui
muito rapidamente, no início.
Depois de um centésimo de segundo do início da expansão, a temperatura do universo
devia ser de 10 bilhões de Kelvin. A essa temperatura, os prótons e nêutrons colidem a alta
velocidade, e podem começar a se prender e formar núcleos de hidrogênio pesado e de hélio.
Mas não se pode dizer que exista matéria, propriamente dita.
Enquanto o temperatura ainda é muito alta, os elétrons não ficam presos aos átomos: a
radiação tem energia suficiente para arrancar qualquer elétron que se ligue a um núcleo. Mas,
quando a temperatura baixa, a radiação vai ficando cada vez mais fraca, e quanto a temperatura é
de aproximadamente 3.000 Kelvin, formam-se átomos estáveis. A matéria e a radiação
praticamente se separam uma da outra. De acordo com a teoria do “Big Bang”, isso deve ter
acontecido quando o universo era umas 1.000 vezes menor do que hoje, e quando haviam se
passado 700.000 anos desde o início da expansão. É a partir desse instante que a matéria
poderia começar a se aglomerar e formar grandes nuvens de gases, de onde poderiam surgir
galáxias.
Gamow supõe que, em um estágio inicial, só existiam nêutrons, ou seja: o universo seria,
inicialmente, uma super-estrela de nêutrons. Com a expansão, esses nêutrons se separaram e
começaram a se desintegrar, produzindo elétrons e prótons. Os prótons que se formaram
poderiam então fundir-se com nêutrons, e formar núcleos mais pesados. Quando houvesse uma
proporção maior de nêutrons do que prótons em um núcleo desses, um dos nêutrons poderia se
desintegrar, emitindo um elétron, e produzindo um próton que ficaria preso ao núcleo. Por esse
tipo de síntese, poderiam ter se formado muitos elementos, durante a fase inicial do universo, em
que a matéria tivesse grande densidade e temperatura. No entanto, como a matéria continuaria a
se expandir durante esse processo, ela logo esfriaria e ficaria com uma densidade muito menor,
cessando então esses processos.
A teoria de Gamow permite, com o auxílio dos conhecimentos de física nuclear, calcular
qual seria a proporção dos elementos químicos que poderiam ser formados nesse processo inicial
da expansão do universo. A formação dos núcleos dependeria da facilidade com que eles podem
absorver nêutrons, e já eram conhecidos os valores dessas capacidades de absorção. Podia-se,
assim, prever quais os elementos que deviam ser formados em maior ou menor quantidade. Os
resultados concordavam razoavelmente com os dados conhecidos. Esse é o aspecto importante
da teoria do “Big Bang”: unir a teoria relativística, que já existia, com os conhecimentos de física
nuclear desenvolvidos na década de 1940.
A teoria do “Big Bang” tinha alguns problemas, no entanto. O primeiro estava relacionado
ao processo de criação dos elementos. De um modo geral, a teoria explicava a abundância dos
elementos, mas Enrico Fermi notou dificuldades quando fez um estudo mais detalhado do
processo inicial. Os primeiros núcleos formados iriam capturando nêutrons para ir crescendo
progressivamente; mas o processo deveria parar logo no início. Alguns núcleos leves não podem
absorver nêutrons e formar núcleos mais pesados, pois não há núcleos estáveis com 5 nem com
8 partículas. Apenas nas condições de grande densidade, existentes no núcleo das estrelas, é que
pode ocorrer uma reação em dois estágios, capaz de ultrapassar essa barreira:

Na verdade, apesar de seu sucesso inicial, a explicação que a teoria do “Big Bang” dava
para a formação dos elementos teve que ser abandonada. Atualmente, apenas se admite que a
explosão inicial pode ter formado os núcleos mais simples, e a teoria só consegue explicar a
proporção entre as quantidades de hidrogênio e hélio existentes no universo. Embora, como foi
indicado, as reações nucleares das estrelas possam formar hélio, é provável que a proporção de
cerca de 27% de hélio, encontrada mesmo em estrelas de pequena massa, indique que esse hélio
se formou antes do que as estrelas.
Havia outro problema, relacionado com os cálculos de duração do universo. Quando
Gamow fez sua proposta, as medidas de velocidade de expansão do universo indicavam que a
“explosão” inicial deveria ter ocorrido há cerca de 2 bilhões de anos. No entanto, as estimativas de
idade da Terra e de vários grupos de estrelas indicavam idades de cerca de 5 bilhões de anos.
Como isso seria possível? Repetiu-se aqui, de certa forma, a velha contradição entre o modelo de
origem do universo e a avaliação da idade geológica.

11.5 O MODELO DO UNIVERSO ESTACIONÁRIO

Imediatamente após a proposta do modelo do “Big Bang”, surgiu uma outra teoria
cosmológica completamente diferente. Ela foi elaborada em 1948 por Hermann Bondi, Thomas
Gold e Fred Hoyle. Ela supõe que o universo nunca foi e nunca será diferente do que é agora:
nunca houve um estado passado de concentração e explosão, nem haverá um estado futuro de
dispersão e morte do universo.
Essa proposta radical, chamada “teoria do estado estacionário”, admite que as galáxias
estão se afastando umas das outras; mas interpreta de um modo diferente esse distanciamento.
Se o número de galáxias for constante, é claro que esse aumento de distância indica que no
futuro a densidade média do universo será menor e que, no passado, a densidade era maior. Mas
a teoria do estado estacionário supõe justamente que o número de galáxias do universo não é
constante. À medida que elas se afastam umas das outras, ocorre a criação de matéria no espaço
entre as galáxias. Essa criação de matéria é muito lenta, mas contínua, e vai aos poucos
acumulando uma massa de gás no espaço. Depois que esse gás aumenta, ocorre a formação de
novas galáxias e estrelas; e assim por diante.
De acordo com a teoria do estado estacionário, a densidade do universo D e a constante
de Hubble H possuem valores constantes, que estão relacionados entre si pela equação:

onde G é a constante de gravitação. Supondo-se que o inverso da constante de Hubble (1/


H) tem um valor de 2 bilhões de anos, a densidade média do universo seria igual a 4x10–30
g/cm3. A teoria do estado estacionário prevê que a rapidez de criação de matéria no espaço
(dm/dt) seria proporcional ao volume V considerado, à constante de Hubble H e à densidade
média D do universo:

O valor dessa criação de matéria seria de alguns poucos átomos de hidrogênio em cada
milhão de anos, em um volume de 100 metros cúbicos.
Essa teoria do estado estacionário viola as leis de conservação da energia e da massa.
Nesse sentido, ela se afasta dos conhecimentos físicos existentes, e só poderia ser aceita se
houvesse algum motivo muito forte para isso. Um dos motivos pelos quais ela foi proposta foi a
discrepância entre a idade da Terra e a idade do universo nos modelos do tipo “Big Bang”. Na
teoria do estado estacionário, o universo tem uma idade infinita; a matéria que nos cerca é uma
mistura de matérias de muitas idades diferentes: tanto átomos que acabaram de surgir do nada,
no espaço, como átomos muito antigos, que já podem ter sofrido muitas transformações. Podem
existir, assim, tanto estrelas de enorme idade, como outras muito recentes. Essa teoria nos dá
todo o tempo que quisermos para a idade da Terra e das estrelas.
Os defensores da teoria do estado estacionário tiveram um importante papel no estudo da
formação dos elementos químicos no interior das estrelas, e mostraram que todos eles podem ter
sido formados sem a ocorrência de um “Big Bang”.

11.6 A RADIAÇÃO DE MICROONDAS

Até a década de 1960, as teorias do “Big Bang” e do estado estacionário disputaram a


preferência dos cientistas. Pode-se dizer que havia mais astrônomos favoráveis ao “Big Bang” do
que à teoria do estado estacionário. Mas a decisão era, na época, uma questão de escolha
pessoal, pois não havia nada que pudesse mostrar que uma delas estava errada e a outra estava
correta. É provável que as escolhas de uma ou outra teoria dependessem de fatores não-
científicos. Na teoria do “Big Bang”, o universo tem um início, no tempo. Pode-se tentar identificar
esse início com a criação do universo por Deus. Pelo contrário, na teoria do estado estacionário,
não houve um início para o universo, ele é eterno e sempre foi como é agora. A possibilidade de
uma criação por Deus ficaria em conflito com a teoria.
Na década de 1960, no entanto, surgiu um fato totalmente novo. Foi descoberta uma
importante confirmação da teoria do “Big Bang”, um fato que é muito difícil ou impossível de
explicar de acordo com a teoria do estado estacionário: a radiação de fundo.
Como vimos, a temperatura do universo vai diminuindo e, após 700.000 anos do início da
expansão, a radiação e a matéria se separam. Nesse instante, a temperatura do universo seria de
3.000 Kelvin. Depois disso, a matéria irá se aglomerar, para formar galáxias. A radiação, que
nesse instante é uma luz avermelhada bastante brilhante, continua a preencher o universo que vai
se expandindo. À medida que o universo se expande ainda mais, a temperatura vai diminuindo e
essa luz que preenche o universo vai também mudando. Ela deve se transformar, depois de
algum tempo, em radiação infravermelha – como aquela que podemos sentir colocando a mão ou
o rosto próximo à superfície quente de um ferro de passar roupas. Depois, deve se enfraquecer
cada vez mais, até não poder mais ser percebida pelos nossos sentidos. No entanto, ela não
desaparece.
De acordo com a teoria, o espaço todo ainda deve estar preenchido por essa radiação,
mas ela agora deve estar muito enfraquecida. Sua temperatura deve ser de poucos graus de
temperatura absoluta – cerca de 270 Celsius abaixo de zero.
Dois pesquisadores, Ralph A. Alpher e Robert Herman, calcularam em 1956 que a
temperatura atual dessa radiação corresponderia a aproximadamente 5 Kelvin. Embora essa
radiação seja extremamente fraca, deveria ser possível medi-la com instrumentos muito sensíveis,
capazes de captar microondas. Eles tentaram, mas não conseguiram observar essa radiação.
Em 1965, sem saber que existia essa previsão teórica, dois engenheiros de
telecomunicações, Arno A. Penzias e Robert W. Wilson, descobriram essa radiação. Estavam
utilizando uma antena para recepção de sinais de satélites, e captaram sinais de uma radiação de
microondas que parecia preencher todo o espaço, vindo de todas as direções igualmente.
Medindo essa radiação, determinaram que ela correspondia a uma temperatura de
aproximadamente 3 Kelvin – próximo à previsão teórica. Logo depois, Penzias e Wilson tomaram
conhecimento dos trabalhos que previam a existência da radiação, e ela foi considerada, assim,
como uma importante confirmação da teoria do “Big Bang”. Essa radiação, extremamente fria, é
considerada como o que sobrou da radiação de 3.000 Kelvin, que existia quando a matéria e a luz
se separaram.
É quase impossível explicar essa radiação de microondas do ponto de vista da teoria do
estado estacionário. Nessa teoria, o universo sempre foi igual ao que é agora, ou seja: a matéria
sempre esteve concentrada em estrelas e galáxias. Esses corpos emitem luz e outros tipos de
radiação, e podem produzir também microondas. Mas se a radiação de microondas fosse
produzida pelas estrelas e galáxias, ela não chegaria à Terra vindo de todas as direções do
espaço: ela seria mais forte em algumas direções e mais fraca em outras. Ocorre que essa
radiação descoberta por Penzias e Wilson tem sempre a mesma intensidade: ela vem igualmente
da região da Via Láctea como de qualquer outra direção. Se não são as estrelas que produzem
essa radiação, de onde ela está vindo?
Essa descoberta de 1965 foi, assim, um duro golpe contra a teoria do estado estacionário
e é considerada uma confirmação da teoria do “Big Bang”. Isso não quer dizer que a teoria do “Big
Bang” esteja provada e que não existam dúvidas sobre ela. Pelo contrário: ela tem problemas
bastante graves. O principal problema é que ela prevê um valor errado para o tamanho das
galáxias.
Como já foi indicado, é após o resfriamento do universo a cerca de 3.000 Kelvin que a
matéria pode começar a se aglomerar em grandes nuvens, para depois formar as galáxias. A
teoria permite calcular qual era a densidade média do universo, nesse instante. Utilizando a teoria
de James Jeans, pode-se calcular o tamanho e a massa das nuvens que podem ser formadas, já
que a temperatura e a densidade da matéria são conhecidas. Infelizmente, fazendo-se o cálculo,
os valores obtidos são sempre muito menores do que os das galáxias. Poderiam se formar nuvens
relativamente grandes, com massas quase 100.000 vezes maiores do que a massa do Sol. Mas
isso é muito pouco para formar uma galáxia, que deve ter uma massa 100 bilhões de vezes maior
do que a do Sol.
É difícil explicar como as galáxias se formaram, a partir do “Big Bang”. Mas isso não é
impossível. Com um pouco de esforço, sempre se dá um jeito. Assim, para não ter que abandonar
a teoria, ela foi modificada, introduzindo-se certas irregularidades na matéria primordial, antes do
período de formação das galáxias. Essas modificações são um pouco “forçadas”; podem não ser
corretas. Mas quase todos os cientistas acham que é melhor continuar com a teoria do “Big Bang”
do que abandoná-la e ficar sem nada.

Você também pode gostar