Escolar Documentos
Profissional Documentos
Cultura Documentos
INTRODUÇÃO
Aristóteles não era um astrônomo. Seu interesse era explicar o universo, mas sem entrar
em detalhes e sem fazer cálculos. Os astrônomos, que estudavam os movimentos das estrelas,
adotaram em geral uma concepção parecida com a de Aristóteles. Praticamente todos aceitavam
que a Terra estava parada no centro do universo, embora alguns (como Aristarco, de Samos – 310
a 230 antes de Cristo) afirmassem que a Terra girava em torno do Sol. O argumento de Aristarco
se baseou nas suas avaliações de tamanho dos astros. O tamanho da Terra já era conhecido na
época de Aristóteles; mas discutia-se muito se o Sol e a Lua eram muito menores, ou de tamanho
semelhante, ou muito maiores do que a Terra. Aristarco fez as primeiras medidas das distâncias
da Terra até a Lua e o Sol, e verificou que a Lua era menor do que a Terra, mas o Sol era muito
maior. Concluiu, por isso, que o Sol era mais importante, e que não poderia ficar girando em torno
da Terra. No entanto, as idéias de Aristarco não foram aceitas, na sua época.
Sabia-se, há muito tempo, que a Lua estava mais próxima de nós do que o Sol. De fato, a
Lua pode passar entre a Terra e o Sol, produzindo eclipses solares; isso só pode acontecer se ela
está mais perto de nós do que o Sol. Nada se sabia sobre as distâncias dos planetas. Conhecia-
se, na Antigüidade, a existência de Mercúrio, Vênus, Marte, Júpiter e Saturno. Sabia-se que
Mercúrio e Vênus tinham alguma ligação com o Sol, pois nunca são vistos muito longe dele. Por
isso, pensava-se que eles deviam estar mais ou menos à mesma distância que o Sol – um pouco
mais próximos ou um pouco mais distantes. Quanto aos outros planetas, há alguns que se movem
muito lentamente, em relação às estrelas, e outros que se movem mais rapidamente. Pensava-se
que os que se moviam mais lentamente eram os mais distantes da Terra. Nesse caso, Marte, que
demora quase dois anos para percorrer os signos do zodíaco, estaria mais próximo. Depois viria
Júpiter, que demora quase 12 anos para dar uma volta em relação às estrelas, depois Saturno,
cujo período é de quase 30 anos. Mas tudo o que se acreditava sobre suas distâncias eram
suposições. Não havia nenhum modo de medir essas distâncias, na época.
O mais famoso astrônomo da Antigüidade foi Claudio Ptolomeu, que viveu no século II
depois de Cristo. Ele aceitou as idéias de Aristóteles, e elaborou uma detalhada teoria matemática
dos movimentos dos planetas. Sua teoria permitia prever, com grande precisão, a posição de
qualquer planeta, em qualquer época. Durante muitos séculos, seu trabalho não foi ultrapassado
por outros astrônomos.
Na época em que as grandes navegações levaram os europeus à América, à Ásia e ao sul
da África, ainda se acreditava que a Terra estava parada no centro do universo, imóvel. Em torno
dela, existiria uma camada de ar, de altura desconhecida; e, depois, a série de cascas esféricas
ou “orbes”, com os astros. O orbe mais distante da Terra seria a esfera das estrelas fixas, onde
estariam todas as constelações. Esse orbe não seria muito distante: apenas uma distância
algumas vezes maior do que a que existe entre o Sol e a Terra. As estrelas, presas a essa esfera
mais distante, eram imaginadas como coisas muito menores do que o Sol e semelhantes aos
planetas. O universo seria relativamente pequeno, indo apenas até onde nosso olhar alcança.
Depois disso, não existiria mais nada, ou talvez um espaço vazio, ou ainda um caos impossível de
ser conhecido, ou o Céu divino. No centro de tudo, estaria a Terra e o homem, para quem tudo foi
criado, de acordo com a tradição bíblica.
Como vimos, os atomistas defenderam a idéia de um universo infinito, cheio de mundos de
muitos tipos. Mas essa idéia não foi aceita, durante o período medieval.
Nos séculos XVI e XVII, a Europa passa por uma fase de grande ebulição intelectual e de
renovação científica. Ao contrário do período do Renascimento, no qual a Antigüidade era
valorizada acima de qualquer outra coisa, agora, no início da Idade Moderna, os pensadores
europeus adquirem uma grande independência e ousam aventurar-se, como navegantes
intelectuais, em novos mundos.
É no século XVI que surge Nicolau Copérnico (1473-1543) e uma nova teoria astronômica.
Como todos sabem, Copérnico propõe uma teoria heliocêntrica, na qual o Sol é o centro em torno
do qual se movem todos os planetas; e a própria Terra é tirada do centro do universo e
considerada apenas como um dos planetas, girando em volta do Sol. Mas a visão geral de
Copérnico não era totalmente diferente da antiga. Ele ainda acreditava em orbes transparentes,
encaixados e girando uns dentro dos outros. A diferença é que eles estariam girando em torno do
Sol e não da Terra.
Foi Copérnico quem conseguiu, pela primeira vez, estabelecer as distâncias dos vários
planetas. Em linhas gerais, a estrutura do sistema solar proposta por ele ainda é aceita. Na sua
teoria, Mercúrio era o mais próximo ao Sol, seguido de Vênus, da Terra, Marte, Júpiter e, por fim,
Saturno. Ele foi capaz de comparar essas distâncias, e mostrar, por exemplo, que a distância de
Saturno ao Sol é cerca de 10 vezes maior do que a distância entre a Terra e o Sol; e que a
distância de Mercúrio ao Sol é pouco mais de um terço da distância da Terra ao Sol. As distâncias
das estrelas não podiam ser determinadas: mas Copérnico supôs que eram muito mais distantes
do que Saturno.
A teoria de Copérnico não foi aceita, logo que foi proposta, por muitos motivos. Ela colidia
com toda a ciência de sua época e parecia em contradição com os fatos conhecidos. Não
sentimos nenhum efeito do movimento da Terra. Se ela se movesse, não deveria surgir algum
efeito disso? Além de ser estranha, ela entrava também em conflito com toda a tradição cultural e
religiosa. Foi, por isso, considerada como uma hipótese curiosa e engenhosa, que permitia fazer
cálculos astronômicos, mas que não descrevia a realidade.
No entanto, algumas pessoas começam a se convencer de que a teoria de Copérnico era
verdadeira. Um deles foi o italiano Giordano Bruno. Ele aceitou e levou a teoria heliocêntrica de
Copérnico às suas conseqüências mais extremas, do ponto de vista filosófico. Admitiu que as
estrelas estão muito mais distantes de nós do que qualquer planeta ou do que o Sol, e que são
outros tantos sóis, com planetas à sua volta. O nosso mundo, com a Terra, o Sol, a Lua e os
planetas, seria apenas um dos infinitos mundos em um universo infinito. Todos ou muitos desses
mundos poderiam ser habitados. A humanidade não teria importância nenhuma para o universo
como um todo, sendo ridículo pensar que tudo pudesse ter sido criado para o homem.
Em uma de suas obras, “A ceia dos penitentes”, Bruno considera que Copérnico libertou a
humanidade de uma prisão intelectual, expandindo o universo até o infinito:
Quem poderia louvar dignamente a grandeza desse Alemão que, com pouca
consideração pela multidão tola, voltou-se contra a torrente da opinião vulgar... ; que libertou o
espírito humano e o conhecimento, que estavam limitados na prisão estreita do ar turbulento
onde, como por certos furos, as estrelas distantes podiam nos olhar... Ele que atravessou o ar,
penetrou o céu, espalhou as estrelas pelo infinito, rompeu as fronteiras do mundo, dissipou as
fantásticas muralhas da primeira esfera, da oitava, da décima e de quantas outras quiserem
adicionar.
Embora se baseie em Copérnico, Giordano Bruno vai muito mais longe do que ele.
Copérnico ainda mantinha uma idéia de esferas que produziam o movimento dos astros. Ele não
chega a defender a idéia de um universo infinito, embora tenha afirmado que as estrelas estariam
muito mais distantes de nós do que se pensava. O que levou Bruno às suas concepções não foi o
conhecimento astronômico da época, nem a observação. Ele próprio afirma que não temos
nenhum sentido capaz de perceber o infinito e que, portanto, jamais poderíamos constatar, pela
observação, que o universo não tem limites. No entanto, ele defende a idéia de que um universo
finito é incompatível com o poder de Deus. Se Deus pudesse criar um universo infinito, por que
motivo não o criaria? Só há duas respostas possíveis: ou porque não pode ou porque não quer.
Mas um Deus que não pode criar um universo infinito não é Deus, pois não é onipotente. E um
Deus que pode mas não cria um universo infinito seria preguiçoso.
Percebe-se em Bruno todo um desejo de liberdade, em todos os sentidos, que se
manifesta tanto em sua concepção do universo sem limites como em todo o seu pensamento.
Romper as fronteiras do mundo é, simbolicamente, libertar a humanidade de qualquer limitação
para poder pensar e agir livremente. Pois Bruno também acredita na antiga concepção de
identidade entre o homem e o universo: ele afirma que pela contemplação do macrocosmo pode-
se facilmente chegar ao conhecimento do microcosmo (o homem), cujas partículas correspondem
às partes do macrocosmo. Mudando-se a concepção do universo muda-se também a concepção
sobre o homem.
Giordano Bruno foi queimado pela Inquisição, em 1600, pelas suas idéias. Mas outras
pessoas continuaram a aceitar e a defender o pensamento de Copérnico. Galileo Galilei (1564-
1642) foi um dos mais famosos defensores do heliocentrismo, tendo proposto uma nova física,
diferente da de Aristóteles, para tornar aceitável que a Terra se move em torno do Sol. Por sua
defesa da teoria de Copérnico, Galileo foi perseguido pela Inquisição, mas não recebeu nenhuma
penalidade mais grave.
Entre outras coisas, Galileo descobriu, por meio de um telescópio, a existência de “luas”
(satélites) que se moviam em torno de Júpiter e observou a existência de montanhas na Lua.
Esses estudos ajudaram a romper com a visão que se tinha anteriormente de que o mundo
celeste era algo totalmente diferente do mundo terrestre. No entanto, como Galileo não
desenvolve nenhuma proposta cosmogônica, não iremos discutir aqui suas idéias.
6.4 A ORIGEM DO UNIVERSO SEGUNDO DESCARTES
Um dos grandes pensadores da primeira metade do século XVII foi o francês René
Descartes (1596-1650). Afastando-se da tradição bíblica, Descartes tentou imaginar como o
universo todo poderia ter se originado e produzido tudo o que conhecemos, sem a intervenção
divina. No entanto, sua proposta não foi um ataque aberto à religião. Ele admitiu a existência de
Deus e afirmou que o início absoluto do universo é devido à ação de Deus. Mas supôs que Deus
apenas precisou criar a matéria e o movimento e que as leis naturais determinaram tudo o que
ocorreu depois.
Descartes estava concluindo em 1633 um tratado chamado “O Mundo”, sobre esse
assunto, quando soube da condenação de Galileo pela Inquisição. Desistiu então de publicar esse
livro (que só foi conhecido depois de sua morte). Mas divulgou suas idéias, de um modo
cauteloso, em outros livros. No “Discurso do Método”, ele diz:
Com a finalidade de deixar todos esses tópicos na penumbra, e ser capaz de me exprimir
livremente sobre eles, sem ser obrigado a aceitar nem a refutar as opiniões que são aceitas pelos
eruditos, resolvi deixar todo este mundo para que eles o disputassem, e falar apenas sobre o que
aconteceria, se Deus criasse agora, em algum lugar em um espaço imaginário, matéria suficiente
para formar um novo mundo, e se Ele agitasse as diferentes porções dessa matéria de diversos
modos, e sem qualquer ordem, de modo que resultasse um caos tão confuso quanto o que os
poetas imaginaram; e concluísse o Seu trabalho simplesmente prestando seu auxílio à Natureza
do modo usual, deixando que ela agisse de acordo com as leis que Ele estabeleceu.
A versão mais elaborada dessas idéias é apresentada por Descartes em sua obra
“Princípios da Filosofia”.
Descartes imagina o universo, inicialmente, como um espaço totalmente preenchido por
uma matéria homogênea: igual em todos os lugares. Não existiria nem luz, nem estrelas, nem
planetas, nem nada que conhecemos. Essa matéria inicial seria sólida – como um imenso bloco
de cristal. Deus, no entanto, teria dado dois movimentos iniciais a essa matéria, quebrando-a em
pequenos blocos: um movimento interno, de rotação de cada pedaço em torno de si próprio, que
faria com que a matéria inicialmente sólida fosse se fragmentando em pedaços cada vez
menores, produzindo uma espécie de “pó” que preencheria todos os espaços entre as partícula
maiores; e um movimento de rotação de diferentes grupos de partículas em torno de um centro
comum. As partículas iniciais não tinham nenhuma forma arredondada, senão não poderiam
preencher todo o espaço. Mas, pela sua rotação, em contato com outras partículas, iriam
perdendo suas pontas e se tornando arredondadas.
Através do movimento e sucessiva quebra das partes da matéria, teriam se originado
diferentes tipos de partículas – todas constituídas a partir da mesma matéria primitiva. Descartes
distingue três tipos de “elementos” produzidos dessa forma: partículas sólidas maiores, tais como
as que constituem o solo; uma matéria mais sutil (“segundo elemento”), resultante do
arredondamento das partículas sólidas, e que seria constituída por partículas esféricas muito
pequenas; e algo ainda menor (“primeiro elemento”), que preencheria todo espaço não ocupado
por esses outros tipos de matéria.
Descartes imagina que a matéria primordial foi agitada por Deus, de modo desordenado,
em todas as direções. Esse movimento inicial produziria movimentos circulares: imensos
turbilhões e redemoinhos distribuídos pelo espaço.
Nessa teoria, a rotação da matéria nesses redemoinhos produz uma separação das
partículas de diferentes tamanhos: as menores se concentram no centro dos turbilhões. Assim, no
centro de cada gigantesco redemoinho, forma-se um espaço redondo, ocupado apenas pelo
“primeiro elemento” – a matéria com as menores partículas. Todas as partículas estão sempre se
movendo, e as menores são as que têm um movimento mais rápido. Descartes compara esse
primeiro elemento a um fogo, cujas partículas estão permanentemente se movendo com grande
velocidade.
Esse seria o processo de formação das estrelas. Cada grande turbilhão vai ocupar uma
região semelhante ao nosso sistema solar, e no centro de cada um deles vai aparecer uma
estrela, formada pelas menores partículas, as do primeiro elemento.
O segundo elemento, que ocupa quase todo o volume do turbilhão, é descrito por
Descartes como um tipo de líquido, pois suas partículas redondas escorregam com facilidade
umas sobre as outras, sem resistência. O segundo elemento não é constituído por partículas
todas iguais entre si. Existiriam esferas menores e outras maiores, em uma gradação contínua. As
esferas menores ficariam mais próximas ao centro (ou seja, mais próximas da estrela central do
turbilhão). Cada parte do turbilhão teria uma velocidade de rotação diferente. Descartes imagina
que a região mais próxima do centro deve girar mais depressa, e que os círculos sucessivamente
mais afastados do centro devem gastar um tempo maior para completar uma volta.
Cada estrela estaria recebendo continuamente matéria do primeiro elemento através dos
seus pólos, e espalhando essa matéria à sua volta. No meio dessa matéria recebida pelos pólos,
haveria partículas maiores e irregulares. Elas poderiam se enganchar e prender-se umas às
outras e formar partículas maiores, mais lentas. Ao invés de sair da estrela e espalhar-se pelo
segundo elemento, elas ficariam presas à superfície da estrela, formando uma espécie de nata ou
espuma.
O lugar da superfície da estrela onde se formasse essa camada do terceiro elemento
ficaria escuro e essa seria a causa das manchas solares. Essas manchas poderiam crescer ou
diminuir, pela agitação contínua do primeiro elemento, que estaria o tempo todo colidindo contra
essa camada do terceiro elemento, mas, ao mesmo tempo, estaria trazendo mais partículas
irregulares para a superfície. Como as manchas estão na superfície do sol ou estrela, elas giram
juntamente com a estrela – como se observa no caso das manchas solares.
Descartes acreditava que poderiam se formar manchas em torno de uma estrela que
crescessem até cobrir toda a sua superfície, formando uma casca opaca. Isso faria com que a
estrela diminuisse muito seu brilho ou até mesmo desaparecesse. Por outro lado, uma estrela
totalmente encoberta por uma casca desse tipo poderia romper essa camada opaca, e tornar-se
brilhante novamente. Isso, segundo Descartes, explicaria as chamadas “estrelas novas”, que se
tornam visíveis repentinamente e que, depois, podem permanecer visíveis ou enfraquecer seu
brilho e acabar desaparecendo novamente.
Quando uma estrela fica totalmente recoberta por uma casca opaca, todos os seus
processos se enfraquecem. O redemoinho em seu redor diminui gradualmente de rotação. A
estrela recoberta pela casca acabará sendo capturada por um outro turbilhão vizinho, no centro do
qual existe outra estrela. Ela poderá virar um planeta ou um cometa.
Ao ser capturada por um turbilhão vizinho, a estrela recoberta pela casca opaca irá se
mover em direção ao centro do turbilhão, mas, conforme sua consistência e o movimento que
adquirir, acabará por se estabelecer a uma certa distância do centro, girando juntamente com a
matéria do segundo elemento em torno da estrela central. Nesse caso, ela se transforma em um
planeta. Pode também ocorrer que a estrela encoberta não fique presa a um turbilhão, mas vá
passando de um para outro, sem nunca adquirir um movimento igual ao do segundo elemento.
Isso aconteceria se a estrela fosse bastante sólida, sendo mais dificilmente arrastada pelo
movimento do segundo elemento. Nesse caso, ela se transforma em um cometa.
Cada planeta gira em torno da estrela central (ou do Sol) em uma região na qual as
partículas do segundo elemento possuem o mesmo grau de “força” que o planeta. Se o planeta se
aproxima um pouco mais do centro, ele entra em contato com partículas menores e que possuem
uma agitação mais forte. Adquire, então, um movimento maior, e se afasta do centro. Mas, ao se
afastar do centro, entra em uma região na qual entra em contato com partículas maiores, e mais
lentas, que também tornam o seu movimento menor. Então, ele perde movimento e se aproxima
novamente do centro. Assim, além de girar em torno do centro, o planeta pode se aproximar e
afastar do centro, oscilando em torno de uma distância média. Este seria um dos modos de
explicar por que motivo a órbita dos planetas em torno do Sol não é exatamente circular, mas
elíptica.
Para explicar a formação de todo o sistema solar, Descartes imagina que poderiam existir,
inicialmente, mais de dez turbilhões próximos uns dos outros, de diferentes tamanhos. Nos
menores de todos, as estrelas centrais se recobririam primeiro com uma casca opaca, e seriam
então capturados pelos turbilhões próximos, que aumentariam de tamanho. Depois, as estrelas
dos turbilhões médios poderiam também ir se recobrindo por manchas e “morrerem”, sendo todas
gradualmente capturadas pelo turbilhão maior, central.
Nesse livro, Newton lança as bases de toda a física posterior. Ele propõe a lei de atração
gravitacional, e mostra como ela permite explicar exatamente todos os movimentos dos planetas,
dos cometas e dos satélites conhecidos. Mas sua visão de universo é incompatível com a de
Descartes. Newton adota uma visão semelhante à dos atomistas antigos, aceitando a existência
do vácuo (que Descartes não admite como possível). Para Newton, os planetas se movem no
espaço vazio e não no meio de um líquido transparente (o “segundo elemento” de Descartes).
Eles se movem por inércia, e ficam “presos” ao Sol pela força gravitacional – e não por serem
arrastados por um turbilhão.
Newton ataca cuidadosamente e de modo arrasador diversos pontos fundamentais da
teoria de Descartes. Ele desenvolve, pela primeira vez, um estudo matemático dos turbilhões
gerados pela rotação de um líquido. Ele mostra que, se uma esfera gira no meio de um líquido
infinito, essa rotação da esfera vai produzir uma rotação no líquido próximo a ela, e que quanto
mais distante da esfera, menor é a velocidade do líquido; mas calcula matematicamente qual é
essa velocidade, e verifica que é incompatível com as velocidades dos planetas. Pois, como já se
sabia desde Kepler – muito antes de Descartes – há uma relação matemática (chamada “terceira
lei de Kepler”) entre a distância dos planetas e o tempo que eles demoram para dar uma volta em
torno do Sol. A relação pode ser representada por:
T² = k.R³
Ou seja: o quadrado do tempo T é proporcional ao cubo da distância R ao Sol. Se um
planeta está a uma distância quatro vezes maior do que um outro, a sua volta em torno do Sol
demora oito vezes mais do que a do outro. No entanto, para o caso da esfera girando dentro do
líquido, Newton deduz que deveria valer a seguinte relação:
T = k.R²
Newton provou também que, mesmo se fossem feitas modificações nas suposições a
respeito do “segundo elemento”, para permitir explicar a terceira lei de Kepler, surgiriam outros
problemas: não seria possível explicar a forma exata das órbitas dos planetas (que é uma elipse)
nem calcular corretamente as variações de velocidade dos planetas, quando eles se aproximam
ou afastam do Sol.
No caso dos cometas, Newton apresenta uma crítica ainda mais pesada. Graças aos
estudos que foram realizados, na época, sobre o cometa de Halley, verificou-se que este mesmo
cometa aparecia repetidamente, de tempos em tempos iguais, e que tinha uma órbita em forma de
elipse muito alongada, em torno do Sol. A teoria da gravitação de Newton permitia calcular
corretamente o movimento desse cometa. Mas, na teoria de Descartes, os cometas não deveriam
retornar nunca: eles deveriam ficar passando de um turbilhão para outro, e seu movimento seria
totalmente irregular.
Newton estuda também os satélites que se movem em torno dos planetas, e mostra que o
turbilhão que Descartes imagina em torno de cada planeta deveria sofrer influência do turbilhão do
Sol, e que eles não poderiam existir ao mesmo tempo.
Haveria outras dificuldades mais gerais, ainda. A estrela, no centro do turbilhão, está
constantemente girando, e transmitindo sua rotação ao segundo elemento que a cerca. Para que
o movimento da estrela não acabasse, seria necessário que houvesse algum fenômeno, alguma
força, que mantivesse a sua rotação. Descartes não menciona nenhum mecanismo para isso.
Nesse caso, a tendência natural seria que a estrela fosse diminuindo sua rotação, e acabasse
parando.
Através dessas e de outras críticas, em que utiliza cálculos matemáticos para determinar
exatamente o que deveria acontecer, Newton mostra que a teoria de Descartes não é aceitável.
Como a teoria da gravitação, sem nenhum turbilhão, permite explicar todos os movimentos
celestes, Newton conclui que a teoria de Descartes deve ser rejeitada totalmente.
Não se pode dizer, no entanto, que Newton pudesse explicar tudo o que Descartes
explicava. Newton não tem uma teoria sobre a origem das estrelas, dos planetas ou do sistema
solar. Ele reconhece que a sua teoria não permite explicar o motivo pelo qual todos os planetas
giram no mesmo sentido, quase no mesmo plano, em torno do Sol. A teoria da gravitação
permitiria que cada planeta girasse em um sentido diferente. A única explicação que havia sido
proposta era a de Descartes. Qual a alternativa, agora? Newton desiste de uma explicação
científica e retorna à religião:
Embora estes corpos [planetas e cometas] possam realmente continuar em suas órbitas
meramente pelas leis da gravidade, no entanto eles não poderiam de modo algum ter obtido a
posição regular de suas órbitas a partir dessas mesmas leis.
Não se pode conceber que meras causas mecânicas pudessem produzir tantos
movimentos regulares ... Este maravilhoso sistema do Sol, planetas e cometas, só pode vir do
poder e da sabedoria de um Ser inteligente e poderoso. E se as estrelas fixas forem os centros de
outros sistemas semelhantes, eles, sendo também formados por uma decisão sábia semelhante,
devem todos estar sujeitos ao domínio desse Um ... E para que os sistemas das estrelas fixas,
por suas gravidades, não caíssem uns sobre os outros, Ele os colocou a imensas distâncias uns
dos outros.
Ou seja: Newton não tem e nem pretende ter uma explicação para a origem do universo ou
do sistema solar. Ele abandona toda tentativa de explicação puramente natural e afirma que a
ordem que se observa no sistema solar vem da inteligência divina.
Newton não faz nenhum estudo propriamente cosmológico, isto é, sobre o universo como
um todo. Ao utilizar a teoria da gravitação, ele assume, sem discussão, que as estrelas estão
muito afastadas do sistema solar e que, por isso, não é preciso levar em conta sua influência
sobre os planetas de nosso sistema. Também assume que as estrelas estão muito distantes umas
das outras, e que a sua atração gravitacional é mínima; por isso, elas não se aproximam umas
das outras. No entanto, é difícil aceitar esse ponto. Afinal de contas, embora a força diminua com
a distância, ela nunca se torna zero. Se houver um número infinito de estrelas, em um espaço
infinito, a força total que elas exercem é zero ou não? Não poderia haver uma tendência
significativa de todas as estrelas se aproximarem umas das outras, colidindo e aniquilando o
universo? Essa questão de extrema importância, sobre a estabilidade gravitacional do universo,
não foi discutida por Newton.
Em algumas das teorias e propostas estudadas até agora, vários autores tentaram explicar
alguns aspectos da energia do universo. Por exemplo: como a matéria do universo começou a se
mover? Segundo Descartes, foi por um empurrão de Deus. Segundo Kant, foi pela força de
atração gravitacional. Como o Sol ficou quente e luminoso? Segundo Descartes, foi pela
pulverização da matéria inicial do universo: isso produziu a matéria mais fina (primeiro elemento)
cujas partículas se movem muito rapidamente, ou, como diríamos hoje, com grande energia, e
que constituiram as estrelas e o Sol. Segundo Kant, o Sol é simplesmente um aglomerado de
matéria que pegou fogo e está queimando.
Todas essas questões envolvem noções sobre energia. Mas o próprio conceito de energia
e a ciência que a estuda (termodinâmica) só surgiram na metade do século XIX. Antes disso,
ninguém tinha uma idéia clara sobre o assunto.
Na década de 1840, através dos trabalhos de vários pesquisadores, tornou-se claro que a
energia pode ser convertida de uma forma para outra, mas nunca pode ser criada nem destruída.
Como o Sol está continuamente irradiando energia para o espaço, e como a energia contida em
qualquer corpo deve ser finita, não é possível que o Sol tenha estado quente desde um tempo
infinito no passado. Também não é possível que ele continue a emitir energia, no futuro, por um
tempo ilimitado. Em algum tempo no futuro, a Terra estará fria – se ela não for destruída antes.
O desenvolvimento da termodinâmica levou imediatamente a estudos sobre a energia
solar. Poderia o calor e a luz do Sol vir da queima de matéria em sua superfície ou em seu
interior? Ou poderia ele ser apenas uma grande bola quente, que vai esfriando muito lentamente a
emitindo essa luz que vemos? Enquanto não se faz nenhum cálculo, tudo parece possível. Mas,
como já foi indicado no capítulo anterior, quando se começa a aplicar o conhecimento físico e a
matemática às hipóteses, a coisa fica muito mais difícil.
Para se poder fazer qualquer cálculo, foi preciso, em primeiro lugar, medir o calor que é
emitido pelo Sol. Isso foi feito em 1837 por de William Herschel filho e por outro cientista, Claude
Pouillet (1790-1868). O método básico que eles utilizaram foi medir o calor recebido, aqui na
Terra, por uma superfície negra, que seja atingida perpendicularmente pela luz do Sol. Obteve-se
o valor de cerca de 1,76 calorias recebidas por cada centímetro quadrado, em cada minutos. Essa
é a energia recebida à distância em que estamos.
Agora, basta imaginar uma superfície negra gigantesca, envolvendo o Sol completamente
por todos os lados, com um raio igual à distância da Terra ao Sol. por minuto, do Sol. É fácil
calcular a área dessa superfície e determinar, assim, a energia total que sai do Sol, para todos os
lados. Pouillet calculou que, em um ano, o Sol irradia um total de:
2.600.000.000.000.000.000.000.000.000.000.000 de calorias,
(ou seja, 2,6x1033 cal ou 2,6 decilhões de calorias). Esse valor obtido por Pouillet é muito próximo
ao valor aceito atualmente. Como a massa total do Sol é conhecida e vale cerca de:
1.900.000.000.000.000.000.000.000.000.000.000 de gramas,
(ou seja, 1,9x1033 g) pode-se calcular que cada grama de matéria do Sol emite, em média, 1,3
calorias por ano.
O que isso significa? Comparemos com um caso conhecido. Quando 1 grama de água
perde 1,3 calorias, sua temperatura diminui 1,3 Celsius. Portanto, se o material do Sol tiver
propriedades térmicas semelhantes à da água, e se ele estiver apenas esfriando, sua temperatura
média deveria diminuir 1,3 graus por ano.
É claro que o Sol é muito quente (a temperatura de sua superfície é de cerca de 5.500
graus), e que uma redução de alguns graus não faz diferença nenhuma. Mas vamos continuar.
Suponhamos que a redução de temperatura do Sol, por ano, fosse de um grau. Em 4.000 anos,
ele teria esfriado 4.000 graus, ou seja, há 4.000 anos ele teria uma temperatura 4.000 graus
acima da atual. Isso significa que ele seria muito mais quente do que agora, o que poderia ser
perfeitamente sentido, na Terra. Ora, 4.500 anos é a idade das pirâmides mais antigas do Egito.
Se, nessa época, o Sol fosse muito mais quente do que hoje em dia, os egípcios não teriam
sobrevivido para construir as pirâmides. Certamente a temperatura do Sol não pode ter variado
muito nesse tempo.
Mesmo levando em conta apenas os poucos milhares de anos da história humana, uma
variação de 100 graus na temperatura do Sol seria o máximo admissível. Logo, o Sol não pode
estar esfriando nem um décimo de grau por ano. Não se pode explicar o seu calor e sua luz
supondo que ele é uma bola incandescente que está esfriando.
Poderíamos então supor que o Sol está queimando, como Kant propôs? Também não. Os
cálculos foram feitos em meados do século XIX, por William Thomson – mais conhecido como
Lord Kelvin (1824-1907). Lord Kelvin, em 1854, fez a suposição de que o Sol fosse todo ele
constituído por um material que liberta muita energia, como o algodão-pólvora. Se o Sol fosse
todo feito de algodão-pólvora e pudesse queimar sem explodir, a energia total produzida só
poderia manter o Sol aquecido durante 8.000 anos.
Os 20 milhões de anos são mais do que suficientes para se explicar a história conhecida
da humanidade. Mas serão suficiente para explicar toda a história da Terra? No século XIX, não
havia nenhum método conhecido para se medir a idade de uma rocha. Mas já havia uma
estimativa da idade da Terra, estudando-se os processos de formação gradativa das camadas
terrestres.
Os estudos geológicos mostraram que, desde o período denominado Cambriano,
formaram-se camadas de até 30 km de espessura, com sedimentos. Os geólogos estimaram que
a formação de um metro de sedimento exigia entre 3.000 e 20.000 anos. Concluiu-se, assim, que
desde o Cambriano haviam decorrido entre 90 milhões e 600 milhões de anos.
Outra evidência vinha do estudo da água do mar: o oceano é salgado, embora só receba
água doce, dos rios. A água dos rios contém uma quantidade muito pequena de sais dissolvidos;
mas como essa quantidade se acumulou nos mares durante tempos enormes, o oceano acabou
ficando salgado. Calculando o tempo necessário para isso, chegou-se a uma estimativa de 100
milhões de anos.
A teoria de evolução das espécies de Charles Darwin, que se desenvolveu na época em
que foram feitos esses cálculos sobre a duração do calor solar, exigia enormes tempos para que a
vida terrestre pudesse ter atingido o estado atual. Darwin fundamentava sua teoria em estudos
geológicos, que indicavam, por exemplo, que o Weald, uma região da Inglaterra, deveria ter uma
idade de 300 milhões de anos. Lord Kelvin atacou essa estimativa, pois, por qualquer hipótese
física que se pudesse imaginar na época, o Sol não poderia ter irradiado seu calor por um tempo
tão grande.
Estariam os geólogos e naturalistas errados? Ou seriam os físicos que estavam
enganados? Alguma coisa estava errada. Mas só muito tempo depois, com o estudo da
radioatividade e das reações nucleares, é que se descobriu a fonte de energia do Sol.
9.4 A DISSIPAÇÃO DA ENERGIA
Além desse tipo de questões, o estudo da termodinâmica assumiu uma importância mais
ampla, sob o ponto de vista cosmológico. Lord Kelvin mostrou que a tendência da energia é
dispersar-se. A energia que surge nas estrelas é espalhada por todo o espaço, sob forma de luz e
outras radiações. Se olharmos para trás no tempo, todas as estrelas que atualmente brilham no
espaço devem ter começado a emitir sua luz há bastante tempo, mas um tempo finito. Além disso,
por maior que seja a energia que pode ser desprendida das estrelas, ela deve ser finita e deverá
acabar. Então, o universo irá esfriando, terminará toda vida, e por fim deve apenas restar uma
matéria escura, com uma mesma temperatura em todo o universo.
Essa conclusão de Kelvin pareceu chocante a muitos cientistas. Um deles, William
Rankine, propôs em 1852 um modelo de reconcentração da energia do universo, para que todos
os processos celestes pudessem recomeçar. Ele imaginou que o universo fosse finito, e que toda
luz e calor que chegasse ao fim do universo fossem refletidos de volta, concentrando-se em certos
pontos ou focos. As estrelas estariam continuamente irradiando luz e acabariam por se tornar
frias. Mas, quando alguma estrela apagada passasse por um dos focos do universo, ela receberia
uma enorme quantidade de energia, concentrada de todo o universo, e seria vaporisada, podendo
essa matéria servir, depois, para formar novas estrelas e recomeçar o ciclo. Pouco tempo depois,
Rudolf Clausius (1822-1888) estudou em detalhe os fenômenos de dispersão e concentração das
radiações e mostrou que essa reconcentração de energia era impossível, mesmo com um
universo finito.
É preciso notar que a termodinâmica introduziu algo totalmente novo, no estudo do
universo. Até o século XIX, se as concepções religiosas fossem deixadas de lado, parecia
possível imaginar um universo com uma duração infinita no passado e no futuro. Aceitando a
visão religiosa, podia-se pensar que o universo havia surgido um certo tempo atrás, mas que
poderia durar para sempre, a menos que Deus resolvesse destruir seu trabalho. Agora, no
entanto, a própria Física dizia que o universo não poderia ter luz e vida durante um tempo muito
longo, nem para o passado, nem para o futuro. Ele acabaria tendo o que foi chamado de “morte
térmica”.
Esse tipo de concepção foi rejeitada por muitos pensadores, por motivos filosóficos. Um
importante filósofo que se recusou a aceitar um fim absoluto para o universo foi Friedrich
Nietzsche. Em uma famosa obra, “O Eterno Retorno”, ele defende a idéia de um universo que se
repete sempre.
Nietzsche imagina que o universo é enorme mas finito. Se fosse infinito, seria possível
imaginar que toda sua energia se dispersaria e que ele morreria. Mas, se ele é finito, Nietzsche
considera que isso não vai acontecer. Ele admite que as quantidades de matéria e energia total do
universo são também finitas. A matéria e a energia se conservam; podem transformar-se, mas há
limites para o que pode surgir dentro do universo, pois a matéria e a energia são limitadas. Assim,
se pensarmos que o tempo é infinito, já se passou em tempo imensurável, no qual já devem ter
ocorrido todas as transformações que se possa imaginar.
Nietzsche conclui que aquilo que está acontecendo agora já deve ter ocorrido antes, e que
tudo o que vai acontecer também já aconteceu. Quando um estado do universo se repete, todos
os estados seguintes, que são conseqüências desse estado inicial, devem também se repetir.
“Tudo já existiu um número infinito de vezes, enquanto o conjunto de todas as forças repete suas
voltas”. Não há um estado de equilíbrio final: se isso fosse possível, já teria acontecido.
O mundo das forças não sofre desgaste nenhum, pois do contrário, em um tempo infinito
essas forças teriam ido diminuído até acabar totalmente. O mundo das forças não tem repouso
nenhum, pois do contrário esse já teria acontecido e o relógio da existência teria parado. Portanto,
o mundo das forças nunca está em equilíbrio; não tem um momento de descanso; a quantidade
de força e de movimento são sempre iguais em todo tempo.
Esse “eterno retorno” seria um ciclo sem início e sem fim, que se repete sempre e que não
leva a nada. Não há, portanto, nenhuma finalidade, nenhuma tendência, nenhum objetivo e
nenhuma origem para o universo. Ele não se torna melhor, nem mais belo, nem pelo contrário
mais imperfeito. Ele se origina de si mesmo, em cada instante, sempre.
Qualquer estado que este mundo possa alcançar, ele já o alcançou, e não uma vez, mas
um número infinito de vezes. Da mesma forma, este instante já ocorreu em um outro tempo, e
voltará a ocorrer, e todas as forças se distribuirão novamente como agora.
Tudo é repetição: a estrela Sirius, e a aranha, e as tuas idéias neste instante, e este pensamento
que agora tu formulas, de que ‘tudo se repete’.
Essa repetição contínua de tudo – de todos os detalhes de nossa vida, de cada dor ou
prazer, de cada pensamento, de cada sensação ou emoção – pode parecer um grande pesadelo
filosófico e uma teoria desesperadora, já que não há liberdade: tudo irá acontecer porque já
aconteceu antes. No entanto, Nietzsche não sente assim. Ele considera que há um aspecto muito
positivo nessa concepção filosófica, pois leva a uma nova atitude. Ao resolver-se a fazer ou não
alguma coisa, a pessoa deverá pensar: “Será que eu gostaria de repetir isso por toda a
eternidade?”. Mas haverá a possibilidade de escolher fazer ou não alguma coisa? Nietzsche
considera que essa própria filosofia é uma força, um poder, que ressurgiu em sua época mais uma
vez porque era o tempo em que devia surgir, e que ela própria deverá produzir resultados em
outras pessoas. E que esse resultado será exatamente transformar a vida dessas pessoas, para
que tenham um novo tipo de vida – como já ocorreu em todas as vezes anteriores em que esse
mundo se repetiu.
A concepção de Nietzsche, é claro, não tenta ser uma teoria científica. Ele era um filósofo,
e não físico. Mas não se pode dizer que sua idéia seja absurda. Imagine um espaço fechado,
finito, cheio de partículas; e suponha que não pode entrar nem sair nada (nem matéria, nem
energia) desse espaço. Nessas condições, pode-se provar que, seja qual for a disposição e os
movimentos iniciais das partículas, essa situação inicial vai acabar se repetindo – ou exatamente
a mesma situação, ou outra situação muito próxima dela. No entanto, se o universo for
considerado como infinito, não se pode aplicar esse raciocínio; e, no século XIX, quando
Nietzsche escreve sua proposta de eterno retorno, quase todos consideravam o universo como
infinito.
A proposta de Nietzsche é bastante interessante sob outro aspecto: mostra a recusa em
aceitar um universo com início e fim. É uma reação à visão de universo que parecia inevitável,
diante da Física do século XIX.
Outras pessoas propuseram, no início do século XX, hipóteses físicas para tentar salvar o
universo da “morte térmica”. O químico sueco Svante Arrhenius (1859-1927) propôs uma
concepção bastante interessante. Ele supôs que as estrelas, ao mesmo tempo que emitem luz e
calor, estariam também emitindo pequenas partículas para fora. Essas partículas seriam
empurradas para longe das estrelas pela própria pressão exercida pela luz da estrela. No espaço
interestelar, essas partículas poderiam ser reunir, por atração mútua, formar partículas maiores e
cair sobre a mesma ou sobre outras estrelas. Ao se chocarem contra a estrela, haveria libertação
de energia e pulverização das partículas maiores, podendo haver novamente emissão de
partículas, e assim por diante, indefinidamente.
Por outro lado, mesmo se uma estrela acabasse por se apagar, ela poderia, depois de
muito tempo, acabar se chocando contra uma outra estrela (luminosa ou apagada), pois as
estrelas não estão paradas no espaço. Essa colisão, violentíssima, produziria a libertação de
grande quantidade de energia e poderia reativar a estrela, ou pulverizá-la, produzindo uma grande
nuvem que depois poderia se contrair e virar uma nova estrela.
Embora os mecanismos propostos por Arrhenius sejam interessantes, eles não podem
impedir a morte térmica do universo. Nenhum desses processos pode recuperar toda a energia
perdida pelas estrelas. Esses e outros processos poderiam reativar parcialmente as estrelas,
retardando a morte do universo; mas aos poucos a energia iria se perdendo pelo espaço, sob
forma de luz e radiação, sem retorno.
Em 1931, a idéia de um “eterno retorno” foi revivida pelo cientista inglês Arthur Eddington
(1882-1944). Em uma conferência muito famosa, apresentada em uma reunião da Sociedade de
Matemática de Londres, ele discutiu a questão da “morte térmica” do universo, tomando como
ponto de partida as leis da termodinâmica.
De acordo com o segundo princípio da termodinâmica, em todo sistema isolado a
desordem (entropia) tende a aumentar, sempre, tendendo a um máximo. Se aplicarmos essa idéia
ao universo como um todo, ele deveria ter inicialmente uma entropia mínima (um estado
altamente organizado, estruturado) e depois sua entropia deve ter aumentado sempre e
continuará a aumentar no futuro. À medida que a entropia aumente, a tendência será que a
energia se distribua por todo o espaço, ao invés de ficar concentrada nas estrelas; e toda vida,
toda estruturação da matéria, deveria desaparecer.
Essa tendência à desordem e à dispersão de energia pode ser entendida com um exemplo
simples. Suponhamos que houvesse uma sala totalmente fechada, onde fosse colocado, em um
canto, um pedaço de metal aquecido e, em outro canto, um fraco de perfume aberto. Se
esperarmos bastante tempo, o que deve acontecer? O metal deve ir esfriando, e sua energia deve
se distribuir pela sala toda. O perfume irá se evaporando, e espalhando-se pelo ar da sala, até
ficar uniformemente distribuído. Esse seria o estado de desordem máxima, ou seja, de entropia
máxima.
Mas suponhamos que o universo já tivesse chegado ao estado de entropia máxima,
estivesse “morto”, mas houvesse ainda um tempo infinito pela frente. O que aconteceria? Nada
mais? Isso é impossível. A matéria não estará totalmente parada (ainda haverá energia e
movimento); ela poderá adotar novas formas, mais ou menos ao acaso. Essas novas formas
estarão próximas ao estado de entropia máxima; será difícil o surgimento de qualquer estrutura
que se afaste muito desse estado.
No exemplo da sala fechada, dissemos que o calor e o perfume ficarão distribuídos de
modo uniforme. Isso é verdade – aproximadamente. O ar da sala e o perfume são constituídos por
moléculas, que estão em movimento constante. Essas moléculas não possuem todas velocidades
exatamente iguais, mas colidem umas com as outras e podem aumentar ou diminuir de
velocidade (desde que a energia total seja constante). Ao longo do tempo, formam-se na sala
pequenas concentrações de energia e de perfume, ao acaso, em diferentes lugares – e depois
elas se dissolvem. Está sempre acontecendo alguma coisa.
Há uma probabilidade minúscula (mas que não é zero) de que todas as moléculas do
perfume estejam concentradas, em certo instante, em uma só metade da sala. É igual à
probabilidade de se atirar uma moeda comum para o alto, tantas vezes quantas são as moléculas
da sala, e todas as vezes a moeda cair com a mesma face para cima. A probabilidade disso é de
1/2 elevado ao número de moléculas de perfume que existem na sala. Por exemplo: se o vidro
continua 2 gramas de uma substância aromática de peso molecular 200, existirão
aproximadamente 6x1021 moléculas espalhadas pela sala, e a probabilidade de que todas se
concentrem em uma só metade da sala é de 1/2 elevado à potência 6x1021 que é um número
muito, MUITO pequeno: 0,000.000.000.000. ... seguido de quase dois sextilhões de zeros, e
depois alguns algarismos diferentes de zero. É claro que isso é “quase zero”, mas não é zero.
Pode-se também calcular a probabilidade de que todas as moléculas do perfume voltem, por
acaso, ao mesmo tempo, ao vidro de onde saíram. A probabilidade é ainda menor, mas também
não é zero.
Há também uma chance mínima de que algumas moléculas do ar adquirissem uma
velocidade muito maior do que as outras, e fosse acumulando energia em cada colisão, até que
elas absorvessem praticamente toda a energia do ar da sala e, depois, por acaso, colidissem
contra o pedaço de metal e o fizessem ficar tão quente quanto no início. É claro que a
probabilidade disso é MUITO pequena. Mas, se o tempo disponível for infinito, qualquer estado,
por menos provável que seja, acabará por ocorrer. Ou seja: se observamos a sala durante um
tempo infinito, o perfume retornará ao vidro e o calor voltará a se concentrar no pedaço de metal.
Essa é a idéia que Eddington aplica ao universo como um todo. Em sua conferência, que deve ter
impressionado muito aos que o ouviam, ele afirmou:
Se esperarmos bastante tempo, um certo número de átomos se arranjará, apenas por
acaso, como estão presentemente arrumados nesta sala; e, apenas por acaso, as mesmas ondas
sonoras surgirão de um sistema de átomos como as que estão agora brotando de meus lábios;
elas atingirão os ouvidos de outros sistemas de átomos, arranjados pelo acaso de modo a
assemelhar-se a vocês, e nos mesmos estados de atenção e de sonolência. Essa imitação da
reunião da Associação Matemática se repetirá muitas vezes – de fato, um número infinito de
vezes – antes que t adquira um valor infinito. Não me perguntem se eu espero que vocês
acreditem que isso realmente ocorrerá. “Lógica é lógica. Isso é tudo o que eu digo.”
Os cientistas não têm certeza sobre até que ponto a idéia de Eddington pode ser aplicada
ao universo. Se a aceitarmos, o universo se repetiria sempre, ao acaso – mas nem sempre do
mesmo modo, pois devem surgir todas as variações possíveis, todas as possibilidades.
Poderia haver uma seqüência do universo em que Eddington chegasse à reunião da
Associação Matemática e ficasse sem voz, sendo incapaz de apresentar sua conferência; outra
seqüência em que ele apresentasse sua conferência e ela fosse aceita por todos, e lhe dessem o
Prêmio Nobel; outra em que ele fosse assassinado logo depois da conferência; e assim por
diante. E cada uma delas ocorreria e se repetiria, um número infinito de vezes, no tempo infinito.
Boa sorte, professor Eddington.
Existem duas teorias da relatividade, como será visto. A primeira delas surgiu no início do
século XX. Não se deve pensar que a teoria da relatividade tenha sido criada por Einstein. Ele foi
uma das pessoas que colaborou no desenvolvimento dessa teoria, e acabou se tornando o mais
famoso. No entanto, essa teoria foi o resultado de estudos desenvolvidos por diversos cientistas,
sendo os mais importantes deles Hendrik Lorentz (1853-1928), Henri Poincaré (1854-1912) e
Albert Einstein (1879-1955).
Provavelmente Einstein não conseguiria fazer o que fez se antes dele não existisse o
trabalho de Lorentz e de Poincaré; e provavelmente as suas contribuições à teoria da relatividade
teriam sido feitas por outras pessoas, se ele nunca tivesse nascido. A ciência não é a obra isolada
de indivíduos, mas um trabalho coletivo, em que muitos contribuem para o resultado final.
A primeira teoria da relatividade (usualmente chamada “teoria da relatividade especial”)
não tinha nenhuma relação direta com o estudo da gravitação. Ela surgiu por estudos sobre a luz,
sobre a eletricidade e o magnetismo. Esses estudos mostraram, através de uma série de
experimentos, que não era possível medir a velocidade com a qual a Terra se desloca pelo
espaço, por nenhum aparelho que esteja na própria Terra. Ou seja: para qualquer experiência feita
na própria Terra, tudo se passa como se ela estivesse parada. Essa é a idéia básica do “princípio
da relatividade”.
Esse resultado não era esperado. Quando foram feitas as tentativas de se medir a
velocidade de translação da Terra pelo espaço, havia várias teorias físicas que indicavam que isso
devia ser possível. Foi necessário, por isso, modificar essas teorias, para explicar os resultados
das experiências.
Surgiram várias conseqüências estranhas, como a descoberta de que um corpo que se
move deve se contrair na direção do movimento; e que um relógio que se move deve se atrasar
em relação a um relógio parado . No entanto, esses efeitos só são notados e medidos por um
observador que não esteja se movendo junto com o objeto ou com o relógio: um observador que
se desloque juntamente com o objeto ou o relógio não vai notar nenhuma mudança neles. Ou
seja: esses efeitos dependem do observador, não são absolutos e sim relativos.
A teoria da relatividade não tem nada a ver com o relativismo, que afirma que “tudo é
relativo”. Ela estabelece que algumas coisas são relativas, isso é, dependem do observador (ou,
mais exatamente, do referencial de medida), e determina as equações que permitem calcular
essas diferenças. Mas a teoria também estabelece que muitas coisas não são relativas: a carga
elétrica de um objeto, o número de partículas dentro de uma caixa e a velocidade da luz, por
exemplo, são grandezas absolutas: não dependem do observador.
As mudanças que a teoria da relatividade introduziu nos conceitos de espaço e de tempo
são as mais importantes. O movimento influencia tanto o tamanho dos objetos como a duração
dos fenômenos. No entanto, nem tudo é relativo: a teoria indica que há uma outra grandeza, que
depende tanto do espaço como do tempo, que não se altera pelo movimento. Essa grandeza é o
“intervalo relativístico” s, que é uma combinação de distância L e de intervalo de tempo t:
,
onde c é a velocidade da luz no vácuo.
Criou-se assim, na teoria da relatividade, o conceito de um “espaço-tempo”: uma conexão
íntima entre o espaço e o tempo, do qual eles são aspectos parciais. O espaço-tempo é algo de
absoluto, que não depende do observador. Mas diferentes observadores podem estudar esse
espaço-tempo de diferentes perspectivas, que o decompõem de modos diferentes em espaço e
tempo.
Pode-se dar uma comparação para facilitar o entendimento dessa idéia. Um círculo,
dependendo do ângulo de que é observado, pode parecer uma elipse, ou um círculo, ou uma reta.
Essas aparências (ou projeções) dependem do observador, mas o círculo em si mesmo é uma
realidade que é sempre a mesma, independentemente do ângulo do qual ele é observado. Da
mesma forma, o espaço-tempo seria uma realidade, mas o espaço e o tempo seriam apenas
projeções dessa realidade e, por isso, dependem do observador.
Embora esses primeiros estudos não tivessem nenhuma relação com o estudo da
gravitação, os pesquisadores chegaram à conclusão de que todos os fenômenos (não só os
relacionados com eletromagnetismo e óptica) deviam obedecer ao princípio da relatividade e que,
portanto, também as forças gravitacionais deviam se comportar de um modo que não fosse
influenciado pelo movimento da Terra (ou de qualquer outro corpo) pelo espaço. Isso exigia uma
mudança na teoria da gravitação.
Várias pessoas tentaram, então, fazer alterações na teoria gravitacional de Newton para
que ela se tornasse aceitável de acordo com o princípio da relatividade. Os primeiros a fazer esse
tipo de tentativa foram Poincaré e Lorentz. Os resultados não foram muito satisfatórios, mas
mostraram que talvez a teoria modificada pudesse explicar uma das irregularidades dos
movimentos planetários que haviam sido notadas por Simon Newcomb (1835-1909) no final do
século XIX. Depois, Einstein, Abraham e Hilbert prosseguiram o trabalho. Aos poucos, foi se
tornando claro que não bastavam pequenos ajustes. Era preciso elaborar uma teoria
completamente nova, com uma estrutura matemática diferente, e que apenas em casos simples
levasse aos resultados já conhecidos e explicados pela teoria de Newton.
A passagem da antiga teoria da relatividade para a nova utilizou o chamado “princípio de
equivalência”. A idéia desse princípio é muito antiga: já se encontrava nas obras de Newton. O
princípio de equivalência afirma que, se vários corpos estiverem caindo livremente, juntos, pela
força da gravidade, aquilo que acontece entre eles não é influenciado por essa força nem pela
aceleração que os corpos têm: tudo se passa, entre esses corpos, como se eles estivessem em
um local sem gravidade, sem aceleração. Por exemplo: se um avião, a grande altitude, perdesse
de repente suas asas e começasse a cair livremente, os passageiros dentre dele sentiriam como
se não existisse gravidade: poderiam flutuar dentro do avião.
Se, nessa situação, um passageiro jogar um objeto para outra pessoa, esse objeto
parecerá se mover em linha reta, ou seja, não vai se desviar para baixo. Assim, para os
passageiros, os objetos possuem um movimento de acordo com a lei da inércia: retilíneo e
uniforme, como se não estivessem sendo atraídos pela Terra. Mas, para alguém que não esteja
caindo junto com o avião, a descrição é muito diferente: o avião, todos os passageiros e todos os
objetos estão caindo e estão, por isso, igualmente acelerados para baixo. Quando um objeto é
jogado de um passageiro para outro, ele adquire uma certa velocidade para o lado, mas continua
caindo como antes, e, visto por esse observador, tem uma trajetória curva (em forma de parábola).
Assim, aquilo que é um movimento retilíneo e uniforme para os passageiros, torna-se um
movimento curvo e acelerado para o outro observador que não está caindo. Em um certo
sentido, qualquer corpo se movendo em um campo gravitacional tem um movimento retilíneo e
uniforme. Mas a forma observada desse movimento depende do observador.
O mesmo raciocínio indicado acima vale tanto para o movimento de um corpo como para o
movimento da luz. No vácuo, quando não há nenhum campo gravitacional, a luz se move em linha
reta, com velocidade constante. Se um feixe de luz estiver em um local onde existe campo
gravitacional, mas estiver sendo estudado por um observador que está caindo nessa região, tudo
se passa como se não houvesse campo nenhum: o observador vai ver o feixe luminoso como uma
reta. Mas para um outro observador, que não esteja caindo, a luz não estará se movendo em linha
reta: o feixe luminoso será curvo. Ou seja: a luz deve se encurvar, no campo gravitacional, quando
vista por um observador que não está caindo.
O princípio de equivalência permite comparar uma região sem gravidade com outra em
que existe gravidade. Nessa comparação, é preciso considerar objetos que estão caindo, com
uma certa aceleração. Mas a teoria da relatividade especial só estudava sistemas de referência
sem aceleração. Por isso, os próprios métodos da primeira teoria da relatividade não eram
suficientes. Foi preciso utilizar um formalismo matemático chamado “cálculo tensorial”, com o qual
é possível estudar qualquer tipo de movimento. Nesse formalismo, torna-se fácil trabalhar com o
movimento retilíneo uniforme que se torna curvo e acelerado, por exemplo, dependendo do
observador. Mas as leis físicas adquirem uma aparência muito diferente do usual. Um movimento
inercial, ou seja, retilíneo e uniforme, por exemplo, passa a ser descrito assim:
Como já vimos, Kant havia proposto, na metade do século XVIII, que o universo seria
constituído por um grande número de galáxias, cada uma delas sendo um imenso conjunto de
estrelas, como nossa Via Láctea. No entanto, no início do século XIX, as observações de Herschel
levaram a acreditar que as nebulosas em espiral e elípticas eram apenas nuvens de gases
relativamente “pequenas”, que estavam se condensando para formar uma estrela.
Mas Herschel estava enganado. No início do século XX, quando foram construídos os
primeiros grandes telescópios modernos, nos Estados Unidos, foi possível observar essas
nebulosas com uma ampliação muito maior, e perceber que elas eram conjuntos de estrelas, e
não nuvens de gás. Logo depois, graças principalmente ao trabalho do astrônomo Edwin Hubble,
foi possível medir as distâncias de algumas galáxias e perceber que elas estão muito mais
distantes do que as estrelas da Via Láctea, sendo, portanto, “outros universos”, por assim dizer.
Não é possível medir-se diretamente a distância ou a velocidade das estrelas e das
galáxias. Os astrônomos avaliam essas distâncias e velocidades indiretamente. Para as estrelas
mais próximas da Terra, mede-se a distância por “paralaxe”, isto é, observando-se as mudanças
aparentes de posição das estrelas à medida que a Terra vai e volta em sua órbita. Uma vez que
se mediu a paralaxe de algumas estrelas e elas foram bem estudadas, foi possível determinar a
distância de outras estrelas semelhantes a essas comparando suas grandezas aparentes, ou seja,
a intensidade da luz que recebemos dessas estrelas: o brilho aparente da estrela é inversamente
proporcional ao quadrado da sua distância até nós. Suponhamos que duas estrelas são do
mesmo tipo, mas que uma delas parece ser cem vezes menos brilhante do que a outra. Ela deve
estar a uma distância dez vezes maior do que a outra. Se soubermos a distância da primeira,
determinaremos a distância da outra.
Mas como podemos saber se uma estrela é, de fato, do mesmo tipo que uma outra? Nem
sempre isso é possível. Há, no entanto, estrelas especiais que são utilizadas para isso. Um dos
tipos mais importantes são as “cefeidas”. Elas são estrelas pulsantes, que possuem um brilho
variável: sua luminosidade aumenta e diminui periodicamente, oscilando. Descobriu-se que as
cefeidas que possuem o mesmo tempo de oscilação possuem também o mesmo tamanho, massa
e luminosidade. Por isso, se forem observadas duas cefeidas de mesmo tempo de pulsação, mas
brilhos diferentes, isso permite comparar as suas distâncias até nós.
Utilizando-se esse e outros “truques”, os astrônomos conseguem determinar,
indiretamente, a distância das estrelas até nós, e também a distância das galáxias.
A medida das velocidades dos astros é também indireta. Ela se baseia na medida de um
efeito chamado “desvio para o vermelho”, observado no espectro luminoso das estrelas. Vamos
explicar esse efeito através de uma comparação com o som.
Os sons mais “finos” ou agudos possuem uma freqüência maior do que os sons “grossos”,
“baixos” ou graves. A freqüência do som que ouvimos não é sempre igual à freqüência do som
que está sendo produzido e emitido. Ela depende também da velocidade com a qual o objeto
sonoro se afasta ou aproxima de nós. Suponhamos, por exemplo, que uma ambulância vem
correndo a alta velocidade por uma rua, com sua sirene ligada. Quando ela está se aproximando
de nós, seu som fica mais agudo e, quando ela está se afastando, o som fica mais grave . Isso é
chamado de “efeito Doppler-Fizeau” para as ondas sonoras. Ocorre uma coisa parecida, com
qualquer outra onda.
A luz também muda sua freqüência, quando um objeto luminoso se aproxima ou se afasta
de nós. Quando ele se aproxima, a luz que chega até nós tem uma freqüência mais alta e, quando
ele se afasta, a luz tem uma freqüência mais baixa. No espectro luminoso, as freqüências mais
altas são as correspondentes às cores azul e violeta; e as freqüências mais baixas são as
correspondentes ao vermelho. Assim, se um objeto luminoso se aproximar de nós com altíssima
velocidade, sua cor tenderá a ficar mais azulada; e, se ele se afastar de nós a uma velocidade
muito alta, sua cor tenderá a ficar avermelhada (esse é o “desvio para o vermelho”). Com
velocidades relativamente pequenas (de um automóvel, avião ou mesmo foguete), não se nota
nenhum efeito significativo para a luz; esse efeito só pode ser notado com velocidades muito
grandes, comparáveis à velocidade da própria luz (300.000 km/s).
Só podemos saber que uma luz ficou mais avermelhada ou azulada se soubermos como
ela é quando está parada. Assim, se observamos uma estrela avermelhada ou azulada, isso não
quer dizer que ela está se afastando ou aproximando de nós a uma grande velocidade. Pois ela
pode não ser branca, e sim exatamente da cor observada, e estar parada. A cor das estrelas
depende de vários fatores, e principalmente de sua temperatura: normalmente, as estrelas de
maior temperatura são azuladas e as estrelas de menor temperatura são avermelhadas, em sua
superfície.
As mudanças de cor associadas à velocidade são, na verdade, medidas através de mais
um “truque” utilizado pelos astrônomos. Eles utilizam certos riscos ou linhas que aparecem no
espectro luminoso das estrelas, como pontos de referência, para medir esse desvio da luz para o
azul ou para o vermelho.
Foi em torno de 1917 que foram realizadas as primeiras medidas de velocidade e distância
das galáxias mais próximas de nós. Essas primeiras medidas mostraram que algumas galáxias
estavam se aproximando de nós, enquanto que outras estavam se afastando. Em 1922, já tinham
sido medidas as velocidades de 40 galáxias, e verificou-se que 36 delas se afastavam de nosso
sistema. Estudos posteriores, feitos por Edwin Hubble e outros astrônomos, mostraram que as
únicas galáxias que parecem estar se aproximando de nós são as mais próximas. As mais
distantes estão sempre se afastando, e as mais distantes estão se afastando mais depressa do
que as mais próximas. Depois de uma grande série de medidas, Hubble concluiu que a velocidade
de afastamento das galáxias era aproximadamente proporcional às suas distâncias de nós.
Isso não quer dizer que estejamos no centro do universo e que nossa região do
universo tenha algo de especial. Nós só podemos observar e medir as estrelas e galáxias a partir
de nossa posição, de nosso ponto de vista; e parece que quase todas as galáxias estão fugindo
de nós. Mas se estivéssemos em qualquer outro ponto do universo, em outra galáxia, também
observaríamos que todas as galáxias parecem se afastar desse ponto.
Suponhamos que a Terra estivesse aumentando de raio, e se expandindo. Se em um certo
tempo ela dobrasse de tamanho, todas as distâncias sobre a Terra ficariam também o dobro. Se
fizesse medidas das distâncias entre Salvador e cada uma das outras capitais brasileiras, seria
possível notar que todas as capitais estão se afastando de Salvador, e que as mais distantes
estão se afastando mais rapidamente do que as mais próximas (é claro que todas as distâncias
dobram ao mesmo tempo, mas dobrar a distância entre Salvador e Porto Alegre é um aumento
muito maior do que dobrar a distância entre Salvador e Belo Horizonte). Se tivessem apenas essa
informação, os habitantes de Salvador poderiam imaginar que estão no centro de um estranho
processo, em que todos estão fugindo de Salvador. Mas não é nada disso. Todas as cidades terão
exatamente a mesma impressão. Está ocorrendo uma expansão geral, para todos os lados, e não
existe um centro dessa expansão.
Deve estar ocorrendo a mesma coisa no universo: todas as galáxias estão se afastando
umas das outras, e qualquer uma delas que seja habitada deve observar o mesmo fenômeno que
nós observamos.
A equação que relaciona a velocidade V das galáxias com sua distância D é muito simples:
uma é proporcional à outra.
V = H.D
A constante H (constante de Hubble) é obtida dividindo-se a velocidade de afastamento
das galáxias por suas distâncias. Se a velocidade for dada em km/s e a distância em km, o valor
da constante de Hubble será dado em 1/s (ou seja, as unidades de distância se cancelam). Em
1931, Hubble havia realizado muitas medidas, obtendo, em média, o valor:
H = 0,000.000.000.000.000.018/s, ou seja, 1,8x10–17 /s
Esse número indica que galáxias que estejam a uma distância de um milhão de anos-luz
(cerca de 9,46x1018 km de distância) devem ter, em média, uma velocidade de 170 km/s de
afastamento de nosso sistema. A regra não vale para galáxias próximas (com distância de
“apenas” alguns milhares de anos-luz), que podem estar até se aproximando, ao invés de se
afastarem. Também não se sabe se a proporcionalidade entre velocidade e distância vale sempre,
mesmo para galáxias que estejam a enormes distâncias de nós.
É importante fazer um alerta, aqui: a mudança de freqüência da luz é o único efeito que
nos permite medir as velocidades das galáxias. Acreditamos que esse efeito é, realmente,
produzido pelo movimento das galáxias. Mas poderia existir uma outra causa, que produzisse
essa mudança da luz.
Na verdade, já foram publicados muitos trabalhos científicos propondo outras explicações
para o “desvio para o vermelho”. Mas, até hoje, a maior parte dos cientistas prefere aceitar a
explicação mais simples: que aquilo que Hubble mediu é, realmente, a velocidade das galáxias.
Quando esses dados astronômicos foram comparados aos resultados da teoria da
relatividade geral, chegou-se à conclusão de que nosso universo, ao invés de ser estático como
Einstein pensava, está na verdade se expandindo. Todas as distâncias do universo estão
aumentando simultaneamente, numa mesma proporção. A partir de então, tornou-se
extremamente importante voltar a estudar os modelos relativísticos em que o universo, ao invés
de estar sempre parado, pode estar se expandindo.
Foi em 1925 que os dados astronômicos foram conectados à teoria da relatividade geral,
por Georges Lemaître. Ele se interessou pelo tema depois de tomar conhecimento das medidas
realizadas por Hubble. Sem conhecer os trabalhos de Friedmann, Lemaître deduziu de novo
vários dos seus resultados, estudando no entanto apenas modelos de universo em expansão. Os
resultados de Lemaître foram publicados em 1927. Pouco depois, outro cientista, H. R. Robertson,
sem conhecer esses trabalhos, descobriu de novo as mesmas soluções e as publicou. Foram
esses três cientistas – Friedmann, Lemaître e Robertson – que propuseram os modelos de um
universo em expansão, e não Einstein, a quem muitas vezes se atribui essa idéia.
Lemaître propôs o seguinte modelo para o universo: ele supôs que, inicialmente, o
universo seria do tipo proposto por Einstein: um espaço cheio de um gás, com densidade
praticamente igual em todos os pontos, e em equilíbrio. Mas em todo gás existem partículas que
se movem e que podem se aproximar ou afastar, ao acaso. Assim, podiam surgir e desaparecer
pequenas concentrações de matéria, no espaço. Se elas fossem muito pequenas, acabariam por
se desfazer logo depois. Mas por acaso, depois de um tempo muito longo, poderiam surgir
concentrações maiores de matéria. Quando isso acontecesse, essas grandes nuvens de gás
começariam a se contrair, aumentando de densidade e se separando do restante do gás que
constitui o universo inicial.
Lemaître supõe o surgimento de grande número dessas condensações, por todo o espaço.
Isso vai diminuir a pressão do gás, nos espaços intermediários. Com essas modificações do
universo, o equilíbrio inicial se rompe, e pode-se mostrar, teoricamente, que ele deve começar a
se expandir.
Lemaître supôs que dentro das grandes nuvens em contração iriam se formar as galáxias
isoladas ou certos pequenos grupos de galáxias; e que esses grupos se afastariam uns dos outros
por causa dessa expansão geral do universo.
As equações desenvolvidas por Lemaître mostraram que essa expansão, no início, seria
muito lenta, mas que ela iria aumentando sempre – pois a repulsão cósmica vai aumentando com
a distância, e a atração gravitacional vai diminuindo. Assim, depois que a expansão começasse, o
raio do universo iria aumentar exponencialmente com o tempo, ou seja, seria multiplicado por um
mesmo fator de tempos em tempos iguais. A velocidade de afastamento das porções de matéria
também iria crescendo de forma exponencial; e essa velocidade seria proporcional à distância –
como foi verificado por Hubble, através de suas medidas de velocidades de galáxias. No entanto,
essas velocidades não seriam constantes, e sim variáveis.
Se fosse possível observar o universo um bilhão de anos atrás, por exemplo, as galáxias
estariam se movendo a uma velocidade bem menor do que a atual. Não temos uma máquina do
tempo para voltar atrás. Mas, de certo modo, podemos ver como era o universo muito tempo
atrás: observando as galáxias mais afastadas. As galáxias mais distantes que se podia observar
em torno de 1930 estavam a distâncias de 100 ou 200 milhões de anos-luz. Isso significa que a
luz demora 100 ou 200 milhões de anos para vir delas até nós, e que a imagem que estamos
captando agora delas não mostra como elas são, mas sim como eram há 100 ou 200 milhões de
anos.
Se o universo está se acelerando, essas galáxias mais distantes, no passado, deveriam ter
uma velocidade menor do que a prevista pelas medidas realizadas a partir de galáxias próximas,
que mostram a velocidade atual. Ou seja: elas deveriam se afastar da lei de proporcionalidade de
Hubble. Mas as medidas realizadas naquela época não mostraram nenhuma diferença clara de
velocidade para essas galáxias mais distantes. Elas pareciam obedecer à lei de proporcionalidade
entre distância e velocidade, como as outras. Como as medidas eram muito difíceis e imprecisas,
não foi possível chegar a nenhuma conclusão clara.
O modelo de Lemaître foi também desenvolvido e apoiado por Arthur Eddington. Dentro
das várias opções disponíveis de modelos relativísticos, esse tipo de universo era apenas um dos
possíveis. Por que escolher este e não algum outro universo em expansão? A escolha não se
baseava nem em cálculos, nem em observações. A grande vantagem desse modelo sobre os
outros (pelo menos de acordo com Eddington) seria um aspecto filosófico: ele elimina o problema
do “início do universo”, já que pode assumir um passado infinito. Em uma conferência, em 1931,
Eddington comenta:
Filosoficamente, a noção de um início da ordem atual da natureza me parece repugnante.
Em um livro publicado posteriormente, pode-se notar de modo ainda mais claro que
Eddington tem um motivo não-científico para essa escolha:
As opiniões relativas ao princípio das coisas caem quase fora do terreno do argumento
científico. Não podemos dar razões científicas para explicar por que o mundo foi criado de um
modo de preferência a um outro. Mas suponho que todos temos um sentimento estético na
questão.
Já que não posso evitar tocar nesta questão do começo, pareceu-me que a teoria mais
satisfatória seria aquela que fizesse que esse começo não fosse demasiado repentino do ponto
de vista estético. Esta condição só pode ser satisfeita por um universo de Einstein com todas as
forças principais em equilíbrio. Segundo isto, o estado primordial de coisas que imagino é uma
distribuição uniforme de prótons e elétrons, extremamente diluída e enchendo todo o espaço
(esférico), que permaneça quase em equilíbrio por um tempo muito grande, até que prevaleça sua
inerente instabilidade.
É curioso que Lemaître não gostou da justificativa que Eddington deu para o estado inicial
do universo. Lemaître era um religioso, e deve ter percebido, através do trabalho de Eddington,
que esse modelo tornava desnecessária a existência de Deus. Como resultado imediato do artigo
de Eddington, Lemaître mudou suas idéias. Apenas 6 semanas após a publicação do trabalho de
Eddington, ele publicou, na mesma revista, o primeiro esboço de uma nova teoria.
Nessa teoria, ele rejeita totalmente o modelo de Einstein como sendo o estado inicial do
universo, e propõe, pelo contrário, que o universo teve um início brusco. Ele propõe, nessa nova
teoria, que à medida que recuarmos para o passado encontraremos o universo em um estado
mais concentrado, tanto sob o ponto de vista de energia como de matéria. Ele supõe que o
universo pode ter surgido, inicialmente, sob a forma de poucas ou mesmo de uma única partícula,
completamente diferente das conhecidas, e que foi depois se dividindo, fragmentando e criando
um universo em expansão. Ele sugere que essa partícula inicial poderia ser um super-átomo, com
peso atômico igual à soma dos pesos atômicos de todas as partículas do universo. Como esse
início do universo é brusco, e diferente de qualquer coisa que conhecemos, abre-se nessa teoria a
possibilidade de introduzir a necessidade de Deus, para criar o átomo primitivo do qual surgiu
tudo.
Esse átomo seria instável, ou seja, radioativo, e iria se quebrando, emitindo radiações e
partículas de muitos tipos. Esses pedaços constituiriam toda a matéria atualmente conhecida.
Lemaître chega a sugerir que dentro das estrelas poderiam existir grandes porções radioativas
desse átomo primitivo, o que proporcionaria a energia que elas desprendem. Assim, as estrelas
seriam corpos que teriam se originado de uma fragmentação e não de uma condensação. As
galáxias teriam se formado depois, pela reunião de uma “nuvem” de estrelas já formadas – o
contrário do que se supunha antes.
À medida que o super-átomo inicial fosse se quebrando, começaria a expansão do
universo. Lemaître supôs que essa expansão obedeceria às leis da relatividade geral.
Vários autores propuseram teorias para explicar a formação inicial dos elementos
químicos, antes da criação das estrelas. Uma das teorias mais famosas foi a do “Big Bang”
(grande explosão), proposta em 1947 por George Gamow. Ele admitiu um modelo relativístico do
universo em expansão, utilizando os cálculos que haviam sido feitos vinte anos antes por
Lemaître, Friedmann, Walker, Tolman e Robertson. Supôs o início do universo com uma
densidade enorme, a uma altíssima temperatura. Esse material inicial conteria partículas como
nêutrons ou prótons, e radiação gama de alta energia.
Pode-se supor que o estágio inicial do universo correspondia a uma densidade
praticamente infinita de matéria e de radiação. À medida que o universo se expande, a densidade
da matéria Dm diminui (porque ela vai se espalhando) e a densidade de radiação Dr diminui ainda
mais rapidamente, porque, além dela se espalhar, a temperatura T do universo vai diminuindo.
Gamow utilizou as seguintes equações, desenvolvidas na década de 1930 por Richard Tolman:
Na verdade, apesar de seu sucesso inicial, a explicação que a teoria do “Big Bang” dava
para a formação dos elementos teve que ser abandonada. Atualmente, apenas se admite que a
explosão inicial pode ter formado os núcleos mais simples, e a teoria só consegue explicar a
proporção entre as quantidades de hidrogênio e hélio existentes no universo. Embora, como foi
indicado, as reações nucleares das estrelas possam formar hélio, é provável que a proporção de
cerca de 27% de hélio, encontrada mesmo em estrelas de pequena massa, indique que esse hélio
se formou antes do que as estrelas.
Havia outro problema, relacionado com os cálculos de duração do universo. Quando
Gamow fez sua proposta, as medidas de velocidade de expansão do universo indicavam que a
“explosão” inicial deveria ter ocorrido há cerca de 2 bilhões de anos. No entanto, as estimativas de
idade da Terra e de vários grupos de estrelas indicavam idades de cerca de 5 bilhões de anos.
Como isso seria possível? Repetiu-se aqui, de certa forma, a velha contradição entre o modelo de
origem do universo e a avaliação da idade geológica.
Imediatamente após a proposta do modelo do “Big Bang”, surgiu uma outra teoria
cosmológica completamente diferente. Ela foi elaborada em 1948 por Hermann Bondi, Thomas
Gold e Fred Hoyle. Ela supõe que o universo nunca foi e nunca será diferente do que é agora:
nunca houve um estado passado de concentração e explosão, nem haverá um estado futuro de
dispersão e morte do universo.
Essa proposta radical, chamada “teoria do estado estacionário”, admite que as galáxias
estão se afastando umas das outras; mas interpreta de um modo diferente esse distanciamento.
Se o número de galáxias for constante, é claro que esse aumento de distância indica que no
futuro a densidade média do universo será menor e que, no passado, a densidade era maior. Mas
a teoria do estado estacionário supõe justamente que o número de galáxias do universo não é
constante. À medida que elas se afastam umas das outras, ocorre a criação de matéria no espaço
entre as galáxias. Essa criação de matéria é muito lenta, mas contínua, e vai aos poucos
acumulando uma massa de gás no espaço. Depois que esse gás aumenta, ocorre a formação de
novas galáxias e estrelas; e assim por diante.
De acordo com a teoria do estado estacionário, a densidade do universo D e a constante
de Hubble H possuem valores constantes, que estão relacionados entre si pela equação:
O valor dessa criação de matéria seria de alguns poucos átomos de hidrogênio em cada
milhão de anos, em um volume de 100 metros cúbicos.
Essa teoria do estado estacionário viola as leis de conservação da energia e da massa.
Nesse sentido, ela se afasta dos conhecimentos físicos existentes, e só poderia ser aceita se
houvesse algum motivo muito forte para isso. Um dos motivos pelos quais ela foi proposta foi a
discrepância entre a idade da Terra e a idade do universo nos modelos do tipo “Big Bang”. Na
teoria do estado estacionário, o universo tem uma idade infinita; a matéria que nos cerca é uma
mistura de matérias de muitas idades diferentes: tanto átomos que acabaram de surgir do nada,
no espaço, como átomos muito antigos, que já podem ter sofrido muitas transformações. Podem
existir, assim, tanto estrelas de enorme idade, como outras muito recentes. Essa teoria nos dá
todo o tempo que quisermos para a idade da Terra e das estrelas.
Os defensores da teoria do estado estacionário tiveram um importante papel no estudo da
formação dos elementos químicos no interior das estrelas, e mostraram que todos eles podem ter
sido formados sem a ocorrência de um “Big Bang”.