Você está na página 1de 338

Partículas para todos

O mundo microscópico ao alcance da mão.

Dedico este livro à memória do meu pai, Eriberto, que me deu


tanto; à Valéria, amor da minha vida, e à Fernanda e Francisco,
eternas fontes de inspiração.

Agradecimentos

Sou imensamente grato à Lylian Corrêa dos Reis, minha irmã e


mais fiel leitora, pela paciência apoio e incentivo constantes.
Quero agradecer também aos meus amigos Sérgio Pinheiro e
Sylvio Oliveira pelos comentários valiosos. Finalmente, um
agradecimento à minha jovem leitora Rafaela Portugal.

Arte de capa:
Marcelo Damm
instagram.com/marcelodamm

2
Sumário

Introdução ................................................. 4
1. Luz ........................................................... 9
2. Quantum: Planck e Einstein .................... 27
3. Quantum: Rutherford e Bohr .................. 51
4. Mecânica Quântica ................................. 75
5. Relatividade Especial ............................. 105
6. Relatividade Geral ................................. 140
7. Dirac e Lattes ......................................... 166
8. Quarks e léptons ..................................... 190
9. Modelo Padrão ........................................ 216
10. A conexão cósmica ............................. 231
11. Detecção .............................................. 258
12. Enigmas ............................................... 293
13. O lado escuro da força .......................... 316
Epílogo .................................................. 334
Bibliografia comentada ......................... 336

3
Introdução

O Pão de Açúcar é um dos símbolos da cidade do Rio de Janeiro.


É um bloco único e compacto de pura rocha impenetrável, com
quase 400 metros de altura, emergindo diretamente do mar e
guardando a entrada da Baía de Guanabara. Foi formado há cerca
de 600 milhões de anos.

Além dos turistas, montanhistas de todo o mundo são atraídos pelas


escarpas desafiadoras do Pão de Açúcar. No contato próximo com
a rocha, os montanhistas percebem a sua textura e granularidade.
O Pão de Açúcar é feito de gnaisse, um tipo de rocha constituída a
partir da deformação de sedimentos de granito (palavra derivada
do latim granun, grão, referindo-se à sua textura). A deformação
foi causada por transformações químicas e físicas quando as rochas
foram submetidas a temperaturas e pressão muito elevadas. O Pão
e Açúcar é composto por vários tipos de minerais, embora cerca de
70% seja sílica (dióxido de silício, SiO2).

Os grãos que formam a rocha são pequenos, medindo alguns


milímetros. Examinados ao microscópio, revelam magníficos
mosaicos formados pelos minúsculos grãos dos diversos minerais.
Observando cada minúsculo grão ainda mais de perto (para isso, é
necessário um “microscópio” especial, como o acelerador Sirius,
em São Paulo, que produz a chamada luz síncroton), vemos os
átomos que formam os diversos minerais dispostos em redes
cristalinas (arranjos geométricos tridimensionais, formando um
padrão que se repete em todas as direções), características dos
minerais. A distância típica entre os átomos nas redes cristalinas é

4
da ordem de 0,000.000.000.2 m, cerca de duas vezes o tamanho
dos átomos. Entre os átomos da rede cristalina, há o espaço vazio.

Sabemos, há 110 anos, que os átomos são formados por um


minúsculo núcleo composto por prótons e nêutrons, cercado por
uma nuvem de elétrons. Praticamente toda a massa do átomo está
concentrada nesse minúsculo núcleo. Para se ter uma ideia mais
precisa, se um átomo de hidrogênio (o menor e mais simples de
todos) fosse do tamanho do estádio do Maracanã, o núcleo seria do
tamanho de uma ervilha, localizada no centro do gramado. O átomo
é praticamente espaço vazio.

As distâncias típicas entre os núcleos atômicos nas redes cristalinas


são dezenas de milhares de vezes maiores que as suas dimensões.
Assim, o Pão de Açúcar, visto de uma escala suficientemente
pequena, tem seu volume basicamente constituído por espaço
vazio, apesar de toda a sua solidez e imponência.

O mundo moderno se desenvolveu a partir da revolução


científica ocorrida no início do século XX. Essa revolução se deveu
ao surgimento de duas teorias que afetaram profundamente muitas
áreas do conhecimento, mudando definitivamente a nossa visão
sobre a Natureza: a Mecânica Quântica e a Teoria da Relatividade.
As duas teorias marcaram uma ruptura radical com as ideias que
dominaram a Física por mais de dois séculos.

O aspecto do mundo muda radicalmente dependendo da escala


quem que o observamos. Essa talvez seja uma ideia um pouco
óbvia, mas aceitá-la na sua plenitude é a chave para assimilar os
novos conceitos introduzidos pela Teoria Quântica da matéria e
pela Teoria da Relatividade. Não há por que supor que as mesmas
leis que descrevem a colisão de duas bolas de bilhar valham
também para o movimento dos elétrons no interior dos átomos. Ou
que as leis de Newton, que descrevem com precisão o movimento
da Lua em torno da Terra, também sejam capazes de descrever a
dinâmica do Universo em sua mais larga escala.O objetivo deste

5
pequeno livro é contar um pouco da aventura vivida pela Ciência
nos últimos 120 anos, partindo dos fatos que geraram uma crise
sem precedentes na Física, e que culminaram na revolução
científica do início do século XX. É muito importante saber como
o conhecimento é adquirido, como é a dinâmica entre experimentos
e teorias, muitas vezes temperada pelo acaso.

Nos primeiros capítulos vamos acompanhar a evolução das


descobertas e das ideias geniais que ao longo dos últimos 120 anos
nos levaram ao que sabemos hoje sobre a estrutura da matéria. Mas,
ironicamente, o muito que aprendemos nesse período nos mostrou
também o tamanho da nossa ignorância. Temos hoje muito mais
perguntas, muito mais enigmas do que na transição entre os séculos
XIX e XX. Sobre essas perguntas, falaremos nos capítulos finais.

Nunca é demais enfatizar o papel da Ciência no desenvolvimento


da Humanidade. Este livro foi escrito durante a pandemia do
coronavírus, uma crise sanitária global com efeitos devastadores.
Nesse período tão dramático, uma das palavras mais veiculadas
pela imprensa, nas mídias sociais e pelo mundo político foi
“Ciência”. Diante da crise, os olhares se voltaram para a Ciência, e
os cientistas assumiram o protagonismo. Laboratórios ao redor do
mundo iniciaram imediatamente pesquisas por vacinas. E o que
normalmente levaria anos, foi feito meses: várias vacinas surgiram
em tempo recorde. Sem dúvida alguma, um imenso triunfo da
Ciência.

Essa conquista só foi possível graças ao conhecimento sobre o


funcionamento dos organismos vivos em nível molecular,
adquirido a partir da descoberta da estrutura do DNA. A descoberta
da estrutura em dupla hélice foi, sem dúvida, uma das mais
importantes do século passado, mas ela seria impossível sem o
conhecimento sobre a estrutura atômica da matéria, proporcionado
pela Mecânica Quântica, e da tecnologia desenvolvida a partir dela.

A Ciência é movida pela curiosidade. A pesquisa em Ciência


básica é feita sem visar aplicações práticas, embora, cedo ou tarde,

6
o conhecimento se transforme em inovação tecnológica e no
aumento do bem-estar coletivo. Em países com tantos problemas
estruturais e com imensas desigualdades como o Brasil, muitos
consideram o gasto com Ciência um luxo desnecessário. Segundo
essa visão, o Estado deveria, no máximo, financiar pesquisas sobre
os problemas práticos que afligem a nossa sociedade.

Essa é uma visão equivocada, que desconsidera o fato de que o


desenvolvimento do mundo ocidental nos últimos cinco séculos
teve como base a pesquisa científica desprovida de outro propósito
que não fosse a curiosidade. Que aplicação prática teria a Física
Quântica, quando surgiu no início do século passado? Que
importância haveria em conhecer a estrutura interna dos átomos?
De que serviria saber que a matéria deforma o espaço e o tempo?

Hoje vivemos na era digital. A base tecnológica da nova era é a


eletrônica, que nada mais é do que a arte de conduzir elétrons da
forma que quisermos. Não haveria a eletrônica sem a Mecânica
Quântica. Difícil imaginar um mundo sem o GPS, que não existiria
se não houvesse a Teoria da Relatividade Geral.

Praticamente tudo à nossa volta resulta de alguma descoberta


científica feita anos ou mesmo décadas atrás. Há uma relação
estreita entre pesquisa em Ciência básica e desenvolvimento
tecnológico. Os exemplos estão por toda parte. Para realizar suas
pesquisas, os cientistas dependem da tecnologia. Frequentemente a
tecnologia não existe, então trabalham para criá-la. Cedo ou tarde,
as inovações tecnológicas passam a fazer parte do nosso dia a dia.

O olhar da Ciência sobre a realidade é objetivo, visa encontrar as


leis que regem os fenômenos naturais através da observação e
experimentação sistemáticas. Ao se basear na razão, A Ciência
oferece uma alternativa ao misticismo, ao sobrenatural, à visão do
mundo em que os fenômenos da Natureza são atribuídos a forças
ocultas (até poucos séculos atrás, mulheres eram queimadas vivas
por serem consideradas bruxas).

7
Por isso, podemos afirmar que a massificação do ensino da Ciência
é revolucionária. Diante de tantas manifestações de negacionismo
a que assistimos durante a pandemia do coronavírus, em especial
no Brasil, fica claro que ainda há um longo caminho a percorrer.

Diversos autores consideram que estamos no limiar de uma nova


revolução industrial, impulsionada pelas novas tecnologias –
inteligência artificial, computação quântica, bio e nanotecnologia.
Meu filho tem hoje 12 anos. Quando chegar à maturidade, verá um
mundo muito diferente do atual, tão diferente que é difícil até
imaginá-lo. Muitas profissões tradicionais irão desaparecer aos
poucos. Os trabalhadores do futuro deverão ter a capacidade de se
adaptar rapidamente às transformações tecnológicas, e essa é mais
uma razão pela qual o ensino de Ciências é estratégico para
qualquer nação, e imprescindível para os indivíduos.

O ritmo com que o conhecimento científico é acumulado é cada


vez mais rápido. As instituições de ensino e os governos não têm a
agilidade necessária para adequar os conteúdos e manter os
professores continuamente atualizados. O resultado é um hiato
crescente entre o que se sabe sobre a Natureza e o que é ensinado
nas escolas. Na Física, em particular, um aluno do ensino médio de
uma boa escola tem, em geral, contato com a Física dos séculos
XVIII e XIX, mas quase nenhum contato com a Física dos séculos
XX e XXI. Os alunos de hoje aprendem as mesmas coisas que eram
ensinadas há 50 anos atrás.

Este pequeno livro é uma tentativa de preencher uma parte desse


hiato. Meu objetivo é apresentar não só o que sabemos hoje sobre
a estrutura da matéria, mas também como esse conhecimento foi
adquirido. Apesar dos saltos proporcionados por gênios como
Newton, Maxwell e Einstein, a Ciência é uma construção coletiva,
com a contribuição anônima de milhares de pesquisadores. É antes
de mais nada uma criação humana. A história dessa construção
envolve drama, crises e momentos épicos, e percorrê-la é uma
aventura a que todos deveriam ter direito.

8
1

Luz
Elementar
A natureza ama esconder-se. A frase é atribuída ao filósofo grego
Heráclito, nascido na cidade de Éfeso, na Jônia (atual Turquia), em
540 antes da nossa era. Heráclito foi um dos filósofos pré-
Socráticos. A frase a ele atribuída mostra que a curiosidade sobre
leis que regem os fenômenos naturais tem pelo menos 2500 anos.

Os filósofos pré-Socráticos indagavam-se sobre qual seria o


elemento primordial, o princípio que estaria por trás de todos os
fenômenos naturais. Dentre esses filósofos, destacam-se Leucipo e
Demócrito, os fundadores da escola atomista. Ambos sustentavam
que a natureza consiste em átomos e vazio. A realidade e os
movimentos decorreriam da atração e repulsão entre os átomos.
Para esses filósofos, os átomos seriam imperceptíveis e existiriam
em número infinito. A atração e a repulsão se deveriam às suas
formas geométricas. Formas semelhantes se atrairiam, formas
distintas se repeliriam.

Dos gregos herdamos o termo átomo, derivado de atomon, o que


não pode ser cortado, indivisível. É comum atribuir ao Ocidente a
origem do atomismo, mas é possível que o conceito de átomo tenha
surgido também na China e na Índia, de forma independente.

9
A ideia de os átomos serem as partículas elementares, constituintes
fundamentais de toda a matéria, que não podem ser divididos,
percorreu um longo caminho até ser aceita pela maioria dos físicos,
no crepúsculo do século XIX. Em 1873, o grande físico escocês
James Clerk Maxwell escreveu: “Um átomo é um corpo que não
pode ser cortado em dois. [...] Átomos existem, ou a matéria é
infinitamente divisível? Discussões sobre questões desse tipo
ocorrem desde que o homem começou a pensar.”

Podemos dizer que a Física moderna surgiu no apagar das luzes do


século XIX. Num curto intervalo de tempo, os físicos se viram
diante de descobertas desconcertantes: os raios-X, a radiatividade
e o elétron. Descobertas que foram interpretadas como emanações
originadas no interior dos átomos. Foram as primeiras indicações
de que os átomos são mais complexos do que o imaginado por
Maxwell: tinham uma estrutura interna.

Nessa época já se sabia que cada tipo de átomo tem uma massa
diferente, e que todos contêm cargas elétricas positivas e negativas
em iguais proporções. Mas não havia ainda nenhuma indicação de
como as cargas são distribuídas no interior dos átomos, nem dos
mecanismos garantem a sua estabilidade. Entender a estrutura
interna dos átomos foi o grande desafio da Física no início do
século XX. Desse desafio nasceu a Mecânica Quântica (daqui em
diante, vou me referir à Mecânica Quântica pelas iniciais MQ).

Os adolescentes dos dias atuais aprendem na escola que os átomos


contêm um núcleo, composto por prótons e nêutrons, cercado por
uma nuvem de elétrons. Esse é um modelo relativamente recente.
Meu pai já era vivo quando a composição do átomo foi finalmente
estabelecida, em 1932, o ano em que o nêutron foi descoberto.
Apesar de os componentes terem sido identificados, faltava
descobrir que forças mantém o núcleo atômico coeso, formando
uma estrutura estável. Esse problema foi resolvido em 1947,
quando bombas atômicas já haviam sido lançadas sobre cidades.

10
No imaginário popular, os átomos são uma espécie de sistema
Solar em miniatura, com elétrons orbitando em torno do núcleo
atômico. Essa é uma imagem que aparece com muita frequência.
Está presente até mesmo no logotipo do Centro Brasileiro de
Pesquisas Físicas. Mas os átomos, na verdade, são bem mais
complexos.

A principal dificuldade no estudo da estrutura da matéria está no


fato de as escalas de tamanho serem muito pequenas, difíceis de
imaginar. Para termos uma comparação: um grão de areia muito
fina mede, em média, 0,000.1 m (10-4 m); os glóbulos vermelhos
medem aproximadamente 0,000.01 m (10-5 m); o coronavírus mede
0,000.000.1 m (10-7 m). Os átomos são incrivelmente pequenos,
com dimensões da ordem de 0,000.000.000.1 m (10-10 m). Os
núcleos atômicos, por sua vez, são estruturas 10 mil vezes menores,
tipicamente da ordem de 0,000.000.000.000.001 m (10-15 m).

Os núcleos atômicos, no entanto, são gigantescos comparados com


os elétrons, que medem menos de 0,000.000.000.000.000.001 m
(10-18m). Essa é a menor distância que é possível observar com a
tecnologia disponível hoje. O que encontraremos quando
conseguirmos atingir escalas ainda menores, de 10-25 ou 10-30 m?
Não sabemos a resposta, mas podemos afirmar que não há razão
para supormos que atingimos o limite, nem mesmo sabemos se há
um limite.

As potências de 10 são uma forma econômica e elegante de


escrever números muito grandes ou muito pequenos.

11
É importante fazer uma ressalva: no mundo microscópico,
“dimensão” é um conceito que não tem uma definição muito
precisa, é antes uma ordem de grandeza, uma aproximação.
Prótons, nêutrons e elétrons não são minúsculas esferas com uma
superfície bem definida que delimita o seu interior.

Nossa jornada pelo universo microscópico começa nos últimos


anos do século XIX, quando os raios-X, a radioatividade e o elétron
foram descobertos. Vamos percorrer os caminhos que nos levaram
ao que sabemos hoje sobre a estrutura da matéria. Neste passeio
pela história de Física, veremos as descobertas fundamentais,
frequentemente acidentais, que revelaram sucessivas camadas da
Natureza.

Elétrons, prótons e nêutrons foram considerados partículas


elementares (sem estrutura interna, indivisíveis) durante décadas.
Toda a matéria do Universo seria feita a partir desses três
constituintes fundamentais. A ordem estabelecida pela Física de
Newton e Maxwell, e destruída pela teoria quântica, parecia ter
sido finalmente restabelecida.

Mas os anos se passaram, e revelaram a existência de novas


partículas. No início dos anos 1960, o número de partículas
conhecidas chegava à casa das centenas. Que papel exerciam na
estrutura da matéria? Como entender o mosaico que formavam?
Seriam todas elas elementares?

No final dos anos 1960 o mundo ocidental foi sacudido por uma
onda de rebeldia. A Física não passou incólume. Experimentos
realizados na Califórnia, em 1968, revelaram uma nova camada na
estrutura da matéria: prótons e nêutrons não são elementares, e sim
formados por partículas ainda menores, os quarks, elementares
como o elétron, até onde sabemos, mas com propriedades muito
diferentes. A descoberta dos quarks foi um dos eventos que
marcaram o início da Física de Partículas contemporânea.

12
Pelo que sabemos hoje, os quarks e os elétrons são os constituintes
mais elementares de toda a matéria. Olhamos para o Cosmo, em
qualquer direção e em qualquer profundidade, e vemos sempre a
mesma coisa: galáxias, nebulosas, estrelas e planetas, todos feitos
dos mesmos elementos químicos que encontramos aqui na Terra.
Todos os elementos químicos são compostos por elétrons, prótons
e nêutrons, e estes, por sua vez, são compostos por quarks.
Podemos então dizer que toda a matéria que vemos no Universo,
em toda a sua diversidade, é feita de quarks e elétrons.

Radiação eletromagnética
A luz é uma forma de radiação eletromagnética, uma onda que
pode se propagar no vácuo e que transporta energia. Há vários
conceitos importantes nessa frase. Por isso, antes de seguirmos é
preciso definir o significado de “radiação” e “eletromagnetismo”,
bem como o que é uma onda.

Na minha infância não havia tantos automóveis. As crianças


brincavam na rua, soltas. Pular corda era uma grande diversão. Às
vezes, uma criança segurava firmemente uma das pontas da corda
enquanto outra criança, na outra ponta, movia os braços com vigor
e rapidamente, para cima e para baixo. Era divertido ver as
ondulações produzidas na corda, uma sucessão de “picos” e
“vales”. Um movimento brusco, feito apenas uma vez, produzia
uma única ondulação - um pulso – que se propagava pela corda,
refletia na outra extremidade e voltava à mão da criança.

As cordas vibram de maneira um pouco diferente quando são fixas


nas duas extremidades, como em um violão. Ao serem tocadas, as
cordas formam ondas estacionárias. Cada ponto da corda oscila
em torno de uma posição de equilíbrio. Se filmássemos a corda
vibrando, teríamos a impressão de que a ondulação não se propaga.
Como cada ponto da corda a amplitude da oscilação é diferente,
temos a sensação de uma onda que se move sem sair do lugar.

13
Quando um músico toca, o número de nós (pontos na corda em que
não há oscilação) depende da posição em que os dedos fixam cada
corda ao longo do braço do violão. As possíveis ondas
estacionárias formadas são os harmônicos. Uma onda em que todos
os pontos vibram, é o harmônico fundamental. Se a onda tem um
nó na metade do comprimento da corda, temos o segundo
harmônico, com dois nós, o terceiro harmônico, e assim por diante.

Uma pedra lançada nas águas calmas de num lago em um dia sem
vento provoca a formação de ondas circulares, que se propagam
radialmente. Uma antena de telecomunicações, por sua vez, produz
ondas esféricas, que se propagam em todas as direções. Na
Natureza há muitos tipos de ondas, mas com um aspecto
fascinante: todos os fenômenos ondulatórios são regidos pelas
mesmas leis, obedecem a equações de um mesmo tipo.

Representação de ondas estacionárias. Cada ponto da corda


oscila verticalmente. Todos os pontos oscilam com a mesma
frequência (número de oscilações por segundo), mas com
diferentes amplitudes. Os nós são posições em que a corda
permanece em repouso (amplitude de oscilação nula). Os
harmônicos pares (N = 2, 4, etc.) têm um número ímpar de nós, o
que equivale a um número inteiro de comprimentos de onda.
https://www.proenem.com.br/enem/fisica/ondas-estacionarias/

14
As ondas são caracterizadas pela frequência – quantas vezes o
mesmo padrão se repete por unidade de tempo. Quando a unidade
de tempo é o segundo, a unidade de frequência é o Hertz, em
homenagem ao físico alemão Heinrich Hertz, que demonstrou pela
primeira vez a existência das ondas eletromagnéticas, em 1888.

Uma onda também pode ser caracterizada pelo comprimento de


onda, que é a distância entre dois picos, ou dois vales. O
comprimento de onda é inversamente proporcional à frequência.
Ondas com alta frequência têm comprimento de onda pequeno, e
vice-versa. A velocidade de propagação de uma onda é a frequência
multiplicada pelo comprimento de onda.

Os fenômenos ondulatórios são universais. A foto mostra a


difração das ondas do Oceano Atlântico que entram no Mar
Mediterrâneo pelo Estreito de Gibraltar. Quando as ondas do
oceano têm comprimento de onda comparável ou maior que a
abertura do estreito, surgem ondas circulares no Mediterrâneo.

Outra característica importante de uma onda é a amplitude – a


altura dos picos, ou a profundidade dos vales. Essa é a característica

15
que distingue uma marola de um vagalhão. A energia transportada
pela onda depende da sua amplitude. Ondas com alta intensidade
têm grandes amplitudes e transportam muita energia.

A radioatividade é o fenômeno em que alguns tipos de núcleos


atômicos se desintegram espontaneamente, resultando em núcleos
menores e na emissão de partículas energéticas ou de ondas
eletromagnéticas de curtíssima frequência, como os raios-X ou os
raios gama (g). No final do século XIX, quando a radioatividade
foi descoberta, as emissões eram chamadas “raios”, daí a origem
do termo radiação, que é usado indistintamente tanto para a luz
como para as partículas materiais.

Há várias formas de radiação: elétrons, partículas a (núcleos do


elemento hélio), prótons, nêutrons ou fótons (“partículas” de luz).
Em todos os casos, a radiação sempre carrega energia, e pode se
propagar tanto no vácuo como através de qualquer meio material.

Representação artística da emissão de uma partícula alfa, que é o


núcleo do elemento hélio, despojado de seus elétrons. Após a
emissão, o núcleo resultante torna-se um outro elemento químico.
https://en.wikipedia.org/wiki/Alpha_decay#/media/

O Eletromagnetismo é um dos pilares da Física. A relação estreita


entre os fenômenos elétricos e magnéticos é conhecida desde o
início do século XIX. Campos magnéticos podem ser gerados por
correntes elétricas, assim como correntes elétricas podem ser
geradas por ímãs em movimento.

16
O conceito de campo é um dos mais fundamentais da Física.
Apesar de serem um tanto abstratos, os campos têm uma realidade
física concreta. O exemplo mais familiar é o do campo magnético.
Aproximando dois ímãs, podemos sentir com as mãos a força que
um exerce sobre o outro sem que haja contato entre eles. Nas
experiências demonstrativas comuns nas escolas, limalhas
(pedaços muito pequenos) de ferro são espalhadas sobre uma folha
de papel. Um ímã colocado sob a folha faz com que as limalhas se
alinhem com a direção do campo magnético do ímã. Da mesma
maneira, uma carga elétrica exerce – e também sofre – uma força
sobre uma outra carga elétrica em sua vizinhança.

https://commons.wikimedia.org/w/index.php?curid=88524982

O campo magnético é o exemplo mais palpável do conceito de


campo. As linhas de campo indicam a força magnética em cada
posição.

Os campos são necessários para descrever como as forças atuam à


distância, sem que haja contato entre os corpos. No entorno de uma
carga elétrica qualquer existe um campo de forças – o campo
elétrico - que tem uma intensidade diferente em cada ponto do
espaço. Se uma segunda carga elétrica for colocada a uma
determinada distância da primeira, ela sofrerá uma força de atração
ou repulsão elétrica cuja intensidade é o produto da sua carga pelo
valor do campo naquela posição. O campo indica também a direção
em que a força elétrica atua.

17
O significado mais profundo da ideia de campo torna-se aparente
quando as fontes estão em movimento. No exemplo acima, se a
primeira carga sofre uma mudança brusca de posição, o campo
elétrico na posição da segunda carga se altera. Mas a segunda carga
não sente a alteração instantaneamente, não percebe imediatamente
a variação na posição da primeira. Nenhuma informação se
propaga com velocidade infinita.

James Clerk Maxwell foi um físico genial, que deu contribuições


fundamentais em vários ramos da Física, como a Termodinâmica e
a teoria cinética dos gases. Em 1861, Maxwell chegou a um
conjunto de equações que relacionam a eletricidade e o
magnetismo, como duas faces de uma mesma moeda. Fenômenos
elétricos e magnéticos são manifestações distintas de uma mesma
entidade, o campo eletromagnético.

Em uma situação estática, quando cargas elétricas e ímãs estão em


repouso, a eletricidade e o magnetismo se manifestam como
fenômenos distintos. Mas quando as cargas e ímãs se movem,
eletricidade e magnetismo se entrelaçam. Campos elétricos que
variam com o tempo são fonte de campos magnéticos, e vice-versa.
As equações de Maxwell estabelecem a relação matemática entre
os campos.

A existência das ondas eletromagnéticas – a luz - é uma


consequência natural das equações de Maxwell. A identificação da
luz como onda eletromagnética foi um passo gigantesco,
comparável ao insight de Newton ao associar a queda livre dos
corpos com o movimento planetário. A comprovação da natureza
da luz trouxe dias gloriosos para a Física ao ligar os fenômenos da
ótica com os do eletromagnetismo.

Ondas eletromagnéticas podem ser geradas de diferentes maneiras.


Uma antena, por exemplo, é um dispositivo que faz uma carga
elétrica oscilar com determinada frequência. O movimento
oscilatório gera uma oscilação de mesma frequência no campo
elétrico no entorno da antena. A oscilação do campo elétrico dá

18
origem a um campo magnético, que também oscila com a mesma
frequência.

Os campos elétrico e magnético oscilam em planos perpendiculares


entre si. Essas oscilações ocorrem de forma sincronizada: a
variação do campo elétrico provoca a variação do campo
magnético, e vice-versa. Um se torna fonte do outro, em um
processo que é autossustentado. A onda eletromagnética é a
combinação das oscilações sincronizadas dos dois campos, que
pode se propagar indefinidamente pelo espaço transportando
energia. Eletricidade gera magnetismo, e vice-versa.

Representação de uma onda eletromagnética. O campo elétrico


oscila no plano vertical, e o magnético no plano vertical. Os
campos elétrico e magnético estão em fase: ambos atingem o valor
máximo no mesmo momento, passam pelo e atingem o valor
mínimo também no mesmo instante. O sincronismo entre as
oscilações dos campos sustenta a onda, que se propaga da
esquerda para a direita.
Fonte: https://commons.wikimedia.org/w/index.php?curid=2107870

As ondas eletromagnéticas podem ter uma infinidade de


frequências. As ondas mais energéticas são as de frequências mais
altas: os raios gama (g). Em ordem decrescente de frequência – e
energia - vêm os raios-X, a radiação ultravioleta, a luz visível, que
ocupa apenas uma pequena região do espectro, seguida pelas ondas
na faixa do infravermelho e, por fim, as ondas de rádio. A luz
branca é uma combinação de ondas eletromagnéticas no intervalo
de frequências da luz visível, que vão do vermelho (frequência
mais baixa) ao violeta (frequência mais alta).

19
O espectro eletromagnético. O termo espectro designa uma
distribuição de alguma grandeza, como massa, frequência,
intensidade luminosa, etc. A ilustração mostra a distribuição de
comprimentos de onda. O espectro visível – a luz – é uma pequena
parte do espectro eletromagnético. A luz, os raios g, as micro-
ondas e as ondas de rádio têm a mesma natureza.
Fonte: https://www.ictp-saifr.org/

A natureza da luz exerce um fascínio desde a Antiguidade.


Euclides, em 300 a.C., foi o primeiro a identificar as leis da
reflexão. O astrônomo e matemático árabe Ibn al-Haytam foi um
dos fundadores da ótica moderna. Em 1015, al-Haytam publicou
uma obra magnífica, o “Livro de Ótica”, um tratado sobre a luz em
sete volumes.

O período entre os séculos VIII e XI foi a “era de ouro” do mundo


islâmico. Bagdá, Damasco, Alepo, entre tantas outras, eram
grandes cidades, esplêndidas, dotadas de sofisticados sistemas de
iluminação pública e de fornecimento de água e esgoto. Nesse
período surgiram as primeiras bibliotecas públicas. Foi uma era
marcada pela tolerância religiosa e pelo convívio razoavelmente
pacífico de culturas diferentes.

20
Durante a era de ouro, o mundo islâmico foi o centro intelectual.
Muitas inovações tecnológicas foram introduzidas nessa época, em
que havia intensa atividade criativa na filosofia, literatura,
astronomia, matemática, física, medicina, entre outras áreas. Esse
florescimento cultural foi iniciado pela tradução para o árabe de
muitos livros da Antiguidade, que de outra forma talvez fossem
perdidos.

Ibn al-Haytam nasceu em 965 na cidade de Basra, no atual Iraque,


mas viveu a maior parte de sua vida no Cairo. Ele foi a primeira
pessoa a afirmar que a luz consiste em um feixe de pequenas
partículas de energia que se propagam em linha reta e com uma
velocidade muito grande, mas finita, antecipando-se em 900 anos
a Einstein. Usando uma câmera escura (o princípio de
funcionamento das máquinas fotográficas), foi também o primeiro
a propor a ideia de que a visão se localiza no cérebro, e não nos
olhos, e que vemos os objetos porque a luz chega aos olhos após
ser refletida neles.

Ibn al-Haytam pode ser considerado um dos pais do método


científico, pois propunha que qualquer ideia ou teoria somente
deveria ser aceita depois de ser testada experimentalmente. Em
2015 a Unesco celebrou o “Ano Internacional da Luz”, em
comemoração ao milésimo aniversário de sua monumental obra.

A teoria corpuscular da luz de Ibn al-Haytam foi adotada por Isaac


Newton, no século XVII. Em oposição, havia a teoria ondulatória,
formulada por Christian Huygens em seu “Tratado sobre a Luz”,
de 1690. Por mais de um século houve um intenso debate sobre a
natureza da luz. A descoberta do fenômeno da difração, em 1660
(Francesco Grimaldi), fez a balança pender a favor da teoria
ondulatória. Mas o triunfo “definitivo” ocorreu em 1801, quando o
físico estadunidense Thomas Young descobriu o fenômeno da
interferência, que só pode ocorrer com ondas. Essa descoberta
encerrou o debate, eliminando todas as dúvidas: a luz era,
indiscutivelmente, um fenômeno ondulatório.

21
O experimento de Thomas Young, em 1801. Um feixe luminoso
incide sobre uma placa com dois orifícios. A luz incidente tem
comprimento de onda maior que o diâmetro dos orifícios. As linhas
representam os picos das ondas. Ao passar pelos orifícios as ondas
incidentes sofrem difração. As ondas circulares resultantes
interferem ao se cruzar: suas amplitudes se somam ou subtraem,
gerando áreas claras e escuras na placa fotográfica P. Nos
laboratórios dos cursos de Física esse experimento é repetido
usando tanques de água em vez de luz.
Fonte: https://www.elmundo.es/ciencia/2015/09/16/55f678c3ca4741ce708b4570.html

É provável que você já tenha visto a capa do álbum Dark side of


the moon (um dos meus favoritos), da banda inglesa Pink Floyd.
Sobre um fundo preto, um feixe de luz branca incide sobre um
prisma. Do outro lado, surgem as cores do arco-íris. A separação
dos diversos componentes da luz branca ao atravessar um prisma é
o fenômeno conhecido como dispersão.

No vácuo, a velocidade de propagação de qualquer forma de


radiação eletromagnética - raios g, raios-X, luz visível ou ondas de
rádio - é a mesma, independente da frequência. Na verdade, a
velocidade da luz no vácuo é um limite absoluto. Nenhum sinal
pode se propagar mais rapidamente.

22
No vácuo a luz se propaga sempre com a mesma velocidade, mas
isso não acontece quando a luz atravessa um meio transparente
qualquer. Nesse caso, a velocidade da luz varia de acordo com a
frequência (ou com o comprimento de onda).

A luz “branca” é uma composição de todas as cores, de ondas de


diferentes frequências. Ao penetrar no prisma, cada componente da
luz branca sofre um desvio diferente. Assim, os prismas funcionam
como analisadores da luz. Foram muito utilizados tanto na
exploração do interior dos átomos como também para determinar a
composição química de objetos astronômicos.

A luz branca é uma mistura de ondas de diferentes frequências.


Quando há uma mudança no meio em que a luz se propaga, ela
sofre refração, que é um desvio na direção de propagação, que
varia de acordo com a frequência. A decomposição da luz do Sol
resulta numa distribuição contínua de cores.

Joseph Fraunhofer foi um ótico alemão que dominava com


maestria a arte de manipular o vidro. Graças às suas habilidades,
construiu instrumentos óticos da mais fina qualidade. Em 1815,
Fraunhofer fez uma descoberta notável. Analisando a luz do Sol,
Fraunhofer descobriu uma série de linhas escuras entremeando o
espectro contínuo de cores. O seu espectrógrafo era tão sensível
que permitiu a Fraunhofer analisar a luz das estrelas mais brilhantes
e determinar seus espectros. As mesmas linhas foram encontradas!

23
Pela primeira vez foi feita a conexão entre o mundo microscópico
e o Cosmo.

Fraunhofer interpretou o fenômeno corretamente: a luz originada


no Sol, assim como a de qualquer estrela, atravessa a atmosfera
estrelar antes de chegar aos nossos telescópios. Nessa travessia,
alguns comprimentos de onda específicos são absorvidos pelos
átomos da atmosfera solar, gerando as linhas escuras. Essas linhas
estão na mesma posição do espectro de elementos químicos
medidos em laboratório. São como os espectros do sódio, do
magnésio, cálcio e ferro. Assim ficamos sabendo que as estrelas
são feitas dos mesmos elementos químicos encontrados aqui na
Terra.

Espectros

A espectroscopia é uma técnica empregada há mais de dois


séculos. Era muito comum na segunda metade do século XIX. Os
espectrógrafos eram simples e são usados ainda hoje nos cursos
básicos de Física. No interior de uma ampola de vidro transparente,
preenchida com um gás, uma placa metálica (eletrodo) é colocada
em cada extremidade. Quando os eletrodos são conectados a uma
bateria, há uma descarga elétrica entre as placas. O gás, aquecido
pela descarga, emite uma luz cuja cor depende da sua composição
química.

A luz emitida pelo gás é uma composição ondas eletromagnéticas


com frequências distintas. As ondas se sobrepõem, assim como
ocorre com a luz do Sol, formando um feixe luminoso de uma única
cor. Assim é possível separar os diversos componentes da luz e
registrar o espectro em filmes fotográficos.

No caso da luz emitida pelo gás aquecido, a imagem resultante é o


espectro de emissão, que é muito diferente do espectro da luz
branca. Em vez de uma distribuição contínua de cores, como no

24
arco-íris, o espectro de emissão é discreto: uma coleção de linhas
bem definidas e separadas, sobre um fundo preto. A cada linha
corresponde uma onda eletromagnética com uma frequência
específica. Isso significa que os átomos só emitem radiação em um
conjunto discreto de frequências. Cada elemento químico tem
possui um espectro de emissão diferente, que funciona como uma
espécie de “impressão digital” do elemento.

O espectro de emissão do hidrogênio e do ferro. Ambos consistem


em um conjunto discreto de linhas. A cada linha está associada
radiação de frequência bem definida. O átomo de hidrogênio é o
mais simples de todos os elementos, com apenas um elétron. Seu
espectro possui poucas linhas. O átomo de ferro possui 26 elétrons,
o que torna o seu espectro de emissão (na parte inferior da figura)
bem mais complexo. Cada elemento tem seu próprio espectro de
emissão.

Um outro tipo de espectro é observado quando o gás no interior da


ampola, em vez de ser aquecido, é iluminado por uma luz branca.
O espectro resultante é chamado espectro de absorção. Esse tipo
de espectro é parecido com o da luz do Sol. Consiste em uma
distribuição contínua de cores, entremeadas por linhas escuras em
determinadas posições. Cada linha escura ao longo do espectro de
absorção corresponde a um comprimento de onda bem definido, ou
seja, uma componente da luz incidente que é absorvida pelos
átomos do gás. O espectro de absorção também é uma impressão
digital de cada elemento químico.

25
Espectro de absorção do hidrogênio (esquerda), comparado com
o espectro de emissão (direita). As linhas escuras no primeiro
correspondem aos mesmos comprimentos de onda das linhas
coloridas no segundo. As frequências que faltam no espectro de
absorção são as mesmas que aparecem no espectro de emissão.
Fonte: http://www.if.ufrgs.br/fis02001/aulas/aula_espec.htm

O fato mais notável é que as linhas escuras do espectro de absorção


coincidem exatamente com as linhas claras do espectro de emissão.
Correspondem exatamente aos mesmos comprimentos de onda. A
coincidência das linhas espectrais era muito intrigante, mas a sua
causa era um mistério. Como veremos em breve, a interpretação
das linhas espectrais está intimamente ligada ao surgimento da
teoria quântica da matéria.

26
2

Quantum: Planck e Einstein

Corpo Negro

Calor e temperatura são frequentemente confundidos, mas são


coisas muito diferentes. Calor é energia em trânsito, propagada sob
a forma de radiação eletromagnética (daqui em diante, abreviada
por radiação EM), fluindo sempre de um corpo de maior para um
de menor temperatura, como estabelecem as leis da
Termodinâmica. A temperatura, por sua vez, é uma grandeza que
mede a energia interna de um sistema físico. Não é correto dizer “o
calor de um corpo...”, pois o calor não é um atributo dos corpos. É
a temperatura que define o estado físico de um sistema.

Em qualquer material, átomos e moléculas estão em permanente


estado de agitação. Mesmo nos sólidos, os átomos vibram em torno
de posições fixas. A temperatura de um corpo é uma medida da sua
energia interna, ou seja, do grau de agitação de seus átomos e
moléculas. A temperatura é um conceito que se aplica a sistemas
físicos contendo muitos corpos. Não faz sentido falar sobre a
temperatura de um único átomo. Quanto maior for agitação
atômica ou molecular, maior será a temperatura do corpo.

27
A menor temperatura que pode ser atingida é -273,15 0C, o zero
absoluto, o menor nível de energia possível. Mas mesmo no estado
de menor energia, os átomos têm um movimento vibracional
residual. Nunca ficam completamente imóveis, e isso é uma
consequência de os átomos serem sistemas quânticos.

Qualquer objeto cuja temperatura esteja acima do zero absoluto


emite radiação térmica, mais conhecida como calor. É um
processo em que a energia mecânica de átomos e moléculas se
transforma em energia eletromagnética. Esse é um dos mecanismos
que permitem que corpos com temperaturas diferentes atinjam um
equilíbrio térmico quando postos em contato.

Os átomos de uma barra de ferro oscilam sem cessar em torno de


uma posição de equilíbrio, absorvendo e emitindo radiação EM.
Quando a barra de ferro é aquecida, a radiação térmica emitida é
inicialmente invisível (ondas EM com frequência na faixa do
rádio). A radiação se torna visível à medida que a temperatura da
barra aumenta, adquirindo o tom avermelhado do ferro em brasa.
Se a temperatura da barra segue aumentando, a luz emitida vai se
tornando cada vez mais branca.

A radiação térmica não é monocromática, isto é, não é composta


por ondas de uma única frequência, mas sim por uma combinação
de ondas com frequências distintas. A luz vermelha é apenas a
componente dominante, aquela que possui maior intensidade.

O termo espectro é empregado também para descrever como a


intensidade (amplitude da onda) da radiação térmica varia de
acordo com a frequência em função da temperatura. O valor da
frequência em que a intensidade da radiação térmica é máxima
depende da temperatura do corpo (como no ferro em brasa).

Quando a luz incide sobre um corpo, parte da energia é refletida, e


parte é absorvida. Energia absorvida implica um aumento na
temperatura do corpo. Em geral, a energia absorvida é reemitida

28
após um pequeno intervalo de tempo, e os corpos voltam à
temperatura inicial.

14
5000 K
12
Intensidade (Unidades Arbitrárias)

Teoria Clássica (5000 K)


10

4000 K
4

2
3000 K

0
0 0.5 1 1.5 2 2.5 3
Comprimento de Onda (μm)

O espectro da radiação térmica de um corpo depende da sua


temperatura. A figura mostra como a intensidade da radiação
varia com o seu comprimento de onda. A temperatura é medida
na escala Kelvin, mais usada na Física. A curva em azul
corresponde a um corpo muito quente (5.500 K, aproximadamente
5.500 oC). As demais curvas correspondem a temperaturas
menores. O comprimento de onda que corresponde à intensidade
máxima aumenta à medida que o corpo se resfria, sendo cerca de
550 nm para a temperatura maior, e de 900 nm para a temperatura
menor. Um nanômetro (nm) equivale a 10-9 m, ou 0,000.000.001m.
Fonte: https://commons.wikimedia.org/w/index.php?curid=21767142

A Terra reflete boa parte da luz do Sol, por isso podemos vê-la do
espaço (uma visão maravilhosa). Mas uma grande quantidade de
energia é absorvida pela superfície da Terra. Essa energia é
reemitida principalmente como ondas EM com frequências na
faixa do infravermelho. O carbono presente na atmosfera impede

29
que a maior parte da radiação reemitida pela superfície da Terra
escape para o espaço sideral. É o chamado efeito estufa. Graças a
ele a vida é possível, mas está demonstrado que o excesso de
carbono na atmosfera causa o aumento da temperatura na
superfície da Terra.

Imagine agora um objeto que seja capaz de absorver toda radiação


EM incidente, sem refletir nenhuma componente. Na sequência,
esse objeto idealizado, chamado corpo negro, reemite toda a
energia absorvida na forma de radiação térmica. No exemplo da
barra de ferro em brasa, a luz de cor vermelha não é refletida, e sim
emitida pelo ferro.

O espectro da radiação térmica de corpo negro foi bastante


estudado no século XIX. O “corpo negro” utilizado, assim como
nos laboratórios didáticos dos cursos de Física atuais, consiste em
uma cavidade cujas paredes internas têm grande capacidade de
absorção de radiação. Um forno é um bom exemplo de corpo negro.

No interior da cavidade, a radiação térmica é absorvida e reemitida


incessantemente pelas paredes internas. Do ponto de vista
microscópico, o processo é bastante complicado, mas pode ser
resumido da seguinte maneira. As moléculas absorvem energia e
seus átomos passam a vibrar com mais intensidade. Mas esse
estado não é estável, e logo as moléculas se desexcitam emitindo
radiação EM com a mesma frequência da radiação que absorveram.

A troca constante de energia entre matéria e radiação faz com que


a cavidade atinja um regime de equilíbrio (termodinâmico) em que
a temperatura no interior é a mesma em todos os pontos, e seu valor
permanece o mesmo ao longo do tempo. Um pequeno orifício na
cavidade permite que uma amostra da radiação térmica escape e
que seu espectro seja registrado. Um fato notável é que o espectro
depende apenas da temperatura no interior da cavidade,
independente do material de que ela é feita.

30
O espectro de frequências da radiação térmica do corpo negro era
um mistério. Ninguém conseguia explicá-lo usando a Física
Clássica do século XIX. Todas as tentativas fracassaram.

Até então, a Física era baseada no princípio da continuidade:


qualquer sistema físico sempre pode evoluir entre um estado inicial
e final de forma contínua, passando suavemente por um número
infinito de estados intermediários. A Natureza não daria saltos.
Desde Newton, gerações e mais gerações de cientistas foram
formadas tendo a continuidade da Natureza como uma lei óbvia.
Assim foi até alguém dar um passo de muita ousadia.

Ilustração de uma cavidade utilizada para estudar a radiação de


corpo negro. Se a cavidade é mantida a uma temperatura
constante, a radiação que escapa pelo orifício tem um espectro que
depende apenas da temperatura no interior. Fonte:
https://phys.libretexts.org/Bookshelves/University_Physics/Book%3A_University_Physi
cs_(OpenStax)/Book%3A_University_Physics_III_Optics_and_Modern_Physics_(Open
Stax)/06%3A_Photons_and_Matter_Waves/6.02%3A_Blackbody_Radiation

31
Max Karl Ernst Ludwig Planck foi um dos maiores cientistas
alemães. Seus trabalhos abriram as portas do mundo quântico. Nos
dias de hoje, há na Alemanha uma rede de 84 instituições de
pesquisa em várias áreas do conhecimento, os Max Planck
Institutes, nomeados em sua homenagem.

Planck nasceu em 1858, na pequena cidade de Kiel, em uma família


bastante tradicional, religiosa e conservadora, e com uma invejável
tradição acadêmica. Quando completou o ensino médio, aos 16
anos, Planck mudou-se para Munique. Na universidade, seu
orientador acadêmico o desencorajou a seguir a carreira científica.
Sugeriu-lhe que tentasse outra área, pois na Física não havia nada
mais de importante a ser descoberto, só restavam algumas lacunas
a serem preenchidas. Essa, aliás, era uma visão muito difundida
entre os físicos na época.

Felizmente, Planck não lhe deu ouvidos. Sempre foi um excelente


aluno. Completou seu doutorado em 1879, com apenas 21 anos.
Poucos anos depois, foi admitido na prestigiosa Academia
Prussiana de Ciências. Planck se dedicou ao estudo da teoria do
calor desde o início de sua carreira. Em particular, ele se
interessava pelo enigma do corpo negro. Seu objetivo era
determinar a lei que relaciona a temperatura de um corpo com a
radiação que ele emite.

32
Planck, como seus antecessores, utilizou uma cavidade. Segundo o
princípio da continuidade, as moléculas da cavidade poderiam
vibrar com qualquer frequência. Isso significa que qualquer
quantidade de energia, por menor que fosse, poderia ser absorvida
pelas paredes e reemitida em seguida. No entanto, todos os cálculos
baseados nessa premissa estavam em evidente desacordo com os
dados.

Planck era um homem religioso, e talvez por isso tenha sido tão
atraído pela ideia do absoluto. Havia no enigma do corpo negro um
aspecto universal que lhe interessava particularmente: o espectro
de frequências da radiação térmica é o mesmo para todos os corpos,
independente de sua composição, forma ou volume. Em sua
autobiografia científica, Planck afirma:” O mundo externo é algo
independente do homem, algo absoluto, e a procura pelas leis que
se aplicam a esse absoluto parece-me o mais sublime objetivo
científico da vida.”

Planck se empenhou a fundo no estudo da radiação de corpo negro.


Depois de alguns anos de tentativas, seus esforços foram
amplamente recompensados: da tentativa de resolver esse enigma
nasceu a ideia do quantum, a menor quantidade de energia. A
fórmula para o espectro da radiação de corpo negro foi o seu
trabalho mais famoso, e por ele recebeu o Prêmio Nobel de Física
em 1918.

Antes de falar sobre o trabalho de Planck é preciso definir mais um


conceito. Imagine duas pequenas esferas apoiadas sobre uma mesa
muito lisa, onde podem deslizar sem atrito. As esferas estão presas
às extremidades de uma mola, e inicialmente estão em repouso. As
esferas são afastadas, distendendo a mola. Quando são soltas, a
mola se comprime e as esferas se aproximam novamente, num
movimento acelerado. As esferas ganham energia suficiente para
ultrapassar a posição de equilíbrio da mola e comprimi-la. A mola
resiste à compressão, freando gradativamente as esferas até
pararem. Nesse momento, as esferas se afastam novamente até o
ponto de distenção máxima da mola.

33
Os osciladores harmônicos são muito importantes, e aparecem em
muitas áreas da Física. Sem atrito, ou outra força externa, as
esferas executam indefinidamente um movimento de vai-e-vem, que
pode ser caracterizado pela frequência (número de oscilações
complexa por segundo).

Se o atrito pudesse ser eliminado totalmente, uma vez afastadas, as


esferas executariam esse movimento oscilatório indefinidamente,
sempre com a mesma frequência (número de oscilações por
segundo), que depende apenas da elasticidade da mola. Sistemas
como esse são osciladores harmônicos. São extremamente
importantes na Física. Um pêndulo é outro exemplo de oscilador
harmônico.

Planck imaginou um modelo simples para representar as paredes


internas da cavidade: uma imensa coleção de moléculas que vibram
como se fossem minúsculos osciladores harmônicos. O problema é
que o número de átomos ou moléculas em qualquer porção de
matéria é imensamente grande. Impossível analisar o estado de
cada uma. Mas justamente aqui está a chave do sucesso de Planck:
tratar o problema do ponto de vista estatístico.

Na sua análise, Planck usou a Mecânica Estatística, ramo da Física


que trata de sistemas com um número muito grande de
componentes, como, por exemplo, um gás em um recipiente, ou o

34
as paredes internas da cavidade. Naquele tempo, a Mecânica
Estatística era uma disciplina relativamente nova e ainda em
desenvolvimento. Planck e Einstein, entre outros, deram
contribuições importantes.

Imagine um recipiente contendo um gás qualquer. Mesmo que o


volume seja pequeno, o número de moléculas é gigantesco. No
Sistema Internacional de Unidades, o mol é a unidade utilizada para
quantidade de matéria. A unidade é baseada no carbono-12. Um
mol corresponde à quantidade de átomos existente em 12 g de 12C.
O número de átomos (ou de moléculas, no caso de substâncias
compostas) em um mol é o número de Avogadro: 6,022 x 1023!

Obviamente, é impossível descrever o estado do gás seguindo a


trajetória e medindo a energia de cada molécula. A alternativa é
utilizar propriedades macroscópicas como a temperatura, que é
proporcional à energia média das moléculas, ou a pressão, que é a
força média que as moléculas exercem sobre as paredes do
recipiente. Se a interação entre duas moléculas é conhecida, os
métodos da Mecânica Estatística possibilitam obter informações
sobre o estado do gás como um todo. Planck usou o mesmo
argumento para os osciladores.

Depois de alguns anos de muito trabalho, Planck finalmente


chegou à fórmula que reproduz com perfeição o espectro do corpo
negro. Para chegar à fórmula correta, no entanto, Planck foi
forçado a dar um passo de muita coragem intelectual, indo contra
um dos princípios que lhe eram mais caros. A conclusão dos seus
estudos era inescapável: as moléculas das paredes da cavidade
simplesmente não poderiam absorver qualquer quantidade de
energia, não poderiam vibrar com qualquer frequência.

Abandonar a ideia de continuidade da Natureza foi o obstáculo que


os antecessores de Planck não conseguiram superar. A hipótese da
continuidade foi substituída por outra, bastante desconcertante: os
átomos só podem vibrar com frequências que sejam múltiplos
inteiros de uma frequência mínima, fundamental, o que implica os

35
átomos poderem absorver e emitir apenas quantidades de energia
que sejam múltiplos inteiros de um valor mínimo, um quantum de
energia.

A teoria de Planck revelou um mundo inteiramente novo,


descontínuo, com espectros de energia discretos. Os átomos da
cavidade, ao absorver e emitir apenas múltiplos inteiros do
quantum de energia, passam de um estado de vibração a outro
saltando os degraus de uma escada em vez de subir ou descer uma
rampa. Foi o primeiro fenômeno quântico identificado.

n=4
Energia

n=3
h⌫
n=2

n=1

Espectro contínuo Espectro discreto

Na Física Clássica, o espectro de energia é contínuo. Uma


molécula poderia vibrar com qualquer valor de energia. Na teoria
quântica, a energia de vibração pode ter apenas alguns valores,
múltiplos inteiros de uma quantidade mínima, ou quantum. Essa
quantidade elementar de energia é proporcional à frequência.

As moléculas, especialmente as que são feitas de muitos átomos,


podem vibrar de várias maneiras, mas não há liberdade total nesse
movimento. Qualquer que seja o modo de vibração, há sempre um
número finito de frequências possíveis, múltiplos inteiros de uma
frequência mínima.

36
A cada modo de vibração corresponde um valor bem determinado
de energia da molécula. A molécula pode passar de um modo de
vibração a outro absorvendo energia e dando um “salto quântico”.
Para que isso ocorra, no entanto, é necessário que a quantidade de
energia fornecida à molécula tenha um valor muito preciso: a exata
diferença entre os valores das energias do estado inicial e final. Se
a radiação incidente sobre a molécula tiver energia diferente,
mesmo que por uma pequena quantidade, ela simplesmente não
será absorvida.

O movimento vibratório pode ser bastante complexo,


especialmente em moléculas compostas por muitos átomos. Mas
em cada modo de vibração, as frequências só podem ter um
conjunto discreto de valores, que correspondem a múltiplos
inteiros de uma quantidade mínima de energia, múltiplos de um
quantum.

Planck comunicou seus resultados em uma sessão da Sociedade


Alemã de Física, em 14 de dezembro de 1900. Sua apresentação
foi recebida com fria cordialidade. A princípio, seu trabalho
despertou pouco interesse da comunidade acadêmica. As atenções
estavam voltadas para outro lado. A Física, na aurora do século
XX, vivia em estado de ebulição, com descobertas excitantes como
a do elétron, da radiatividade, dos raios-X, entre outras.

37
Para muitos, o trabalho de Planck poderia ser considerado mais um
estudo para “preencher algumas lacunas”, como classificaria o seu
orientador acadêmico. O próprio Planck não se deu conta
imediatamente de que sua descoberta marcava o fim do longo
reinado da Física de Newton e Maxwell, e o início de uma nova
era. Como ele mesmo confessou anos depois, “a quantização da
energia foi uma hipótese puramente formal, e eu não lhe dei muita
importância”.

Planck tinha uma formação bastante conservadora, com convicções


profundamente enraizadas sobre os princípios fundamentais da
Física, que lhes eram tão caros. Por isso, mesmo diante da realidade
inegável dos fatos, Planck relutou até o final da vida em aceitar a
descontinuidade da Física que ele havia descoberto. Tentou, por
anos e sem sucesso, incorporar o quantum à Física Clássica.
Mesmo assim, muitos consideram o dia 14 de dezembro de 1900
como a data de nascimento da Física Quântica.

A hipótese de Planck estabelece a relação entre a energia e a


frequência de oscilação das moléculas. É uma fórmula simples e
universal, com um significado profundo: E = hn. A energia
absorvida ou emitida pela molécula é proporcional à frequência
com que oscila. O símbolo h é a constante de Planck, a constante
fundamental da Teoria Quântica. Seu valor é muito pequeno e
define a escala a partir da qual os fenômenos quânticos se
manifestam.

O impacto da descoberta de Planck só foi plenamente percebido a


em 1905, quando um jovem e desconhecido físico publicou uma
teoria sobre o efeito fotoelétrico Nessa teoria, a constante h
apareceu novamente, mas agora em um contexto muito diferente.

38
Berlim era a capital científica do mundo nas primeiras décadas
do século XX. Era também a capital do jovem Império Alemão, o
estado-nação formado em 1871 pela unificação dos Estados
Germânicos, sob a liderança do kaiser Wilhelm Hohenzollern. A
Alemanha era um país novo, mas que trazia consigo a monumental
tradição científica e cultural germânica. Ali nasceram Mozart,
Bach e Beethoven, Gauss, Riemman e Leibnitz, Kant, Hegel, Marx
e Nietzsche, Röntigen, Planck e, posteriormente, Einstein e
Heisenberg, além de muitos outros brilhantes cientistas da
Química, Física e da Matemática. Os Prêmios Nobel em Física e
em Química começaram a ser concedidos em 1901. Nos primeiros
20 anos, 16 químicos e físicos alemães foram laureados.

Um novo país em busca do seu espaço entre as potências europeias


da época. Assim era a Alemanha no início do século passado. Não
bastava ter poderio militar, ou colônias na África e na Ásia, como
as outras potências. Era necessário também consolidar o prestígio
científico, e esse era um objetivo estratégico que unia a elite
intelectual, o governo e boa parte do empresariado alemães. Essa
estratégia integrava um projeto de nação, no qual Berlim, a capital,
significava o progresso, a inovação tecnológica, o símbolo de um
povo industrioso e moderno. A Universidade de Berlim e a
Academia Prussiana de Ciências figuravam entre as instituições

39
mais prestigiosas da Europa. E havia também os Kaiser Wilhelm
Institutes, na periferia de Berlim, institutos de pesquisa custeados
pela elite econômica alemã.

Em 1913, dois viajantes ilustres embarcaram em Berlim, rumo à


Zurique: Max Planck, o mais admirado e prestigioso físico alemão,
e Walther Nernst, um dos mais brilhantes químicos do século XX.
A viagem era uma missão oficial, representando o Estado alemão,
os empresários e o mundo acadêmico. O objetivo: trazer Einstein
de volta a Berlim, ele que, anos antes, havia renunciado à cidadania
alemã e se tornado cidadão suíço. Para realizar a tarefa, Planck e
Nernst traziam na bagagem uma proposta irrecusável.

Quando recebeu a visita de Planck e Nernst, Einstein já era um


físico com grande prestígio internacional. Mas sua fama era
relativamente recente. Einstein formou-se em Física e Matemática
pela Escola Politécnica de Zurique, a ETH, em 1900. Tinha 21
anos. Durante o seu curso, Einstein teve uma relação conflituosa
com seus professores, que o consideravam um aluno petulante.
Einstein sempre se opôs a qualquer forma de autoritarismo, e isso
lhe custou caro. Após a sua formatura, não conseguiu um cargo de
assistente em nenhuma universidade, apesar de várias tentativas.

Durante mais de um ano Einstein viveu o drama do desemprego,


sobrevivendo às custas de aulas particulares e da ajuda de seus pais.
Graças ao pai de seu grande amigo Marcel Grossmann, Einstein
finalmente conseguiu um emprego, não como físico, mas como
especialista de terceira classe no escritório de patentes da cidade de
Berna, na Suíça, em 1902.

Em Berna, Einstein, como os suíços em geral, levava uma vida sem


sobressaltos. Já era casado com sua primeira mulher, a física sérvia
Mileva Maric, com quem teve três filhos. Mesmo com um trabalho
burocrático, Einstein jamais desistiu da Física. Na verdade, a rotina
tranquila do escritório de patentes de Berna dava-lhe todo o tempo
necessário para pensar nas grandes questões.

40
E então, em 1905, sua vida mudou radicalmente. Nesse ano,
Einstein publicou uma série de trabalhos que fundaram a Física
moderna. O ano de 1905 é considerado o seu “annus mirabilis”, o
ano milagroso, cujo centenário foi celebrado recentemente em todo
o mundo.

Em um desses trabalhos, Einstein tratou de um fenômeno com que


hoje lidamos rotineiramente: o efeito fotoelétrico. O fechamento
automático das portas de elevadores, por exemplo, é controlado por
dispositivos que convertem a luz em corrente elétrica. Einstein
tornou-se mundialmente conhecido pela Teoria da Relatividade, da
qual falarei mais adiante. Mas foi o estudo sobre o efeito
fotoelétrico que rendeu a Einstein o Prêmio Nobel de Física de
1921, apesar de não ter sido o seu trabalho mais famoso.

O efeito fotoelétrico é conhecido desde 1887. Quando a superfície


de um metal é iluminada por radiação EM, elétrons são ejetados
dos seus átomos. Esse fenômeno foi estudado com bastante detalhe
pelo físico alemão Phillipp Lenard, que posteriormente viria a se
tornar um entusiasta do nazismo.

O aparato experimental usado por Lenard consistia em duas placas


metálicas paralelas ligadas a uma bateria, colocadas dentro de uma
ampola evacuada. Elétrons eram ejetados de uma das placas
quando esta era iluminada, e eram atraídos para a outra placa
devido ao campo elétrico existente entre elas, gerando uma
corrente.

Lenard mostrou que a energia dos elétrons ejetados depende apenas


da frequência da luz incidente, e não de sua intensidade. Quando
usava feixes luminosos mais intensos, observava apenas um
número maior de elétrons. Mas quando usava luz de frequência
mais alta, os elétrons ejetados tinham mais energia.

Essa observação erai bastante surpreendente. Para entender o


porquê da surpresa, basta olharmos para as ondas do mar. Compare
uma sequência de marolas que tenha a mesma frequência de uma

41
sequência de vagalhões. Não há dúvidas que a sequência de
vagalhões transporta mais energia. Assim, por que razão uma
maior intensidade da luz não implica elétrons com mais energia?
Até 1905, não havia resposta para essa pergunta.

Ilustração do aparato utilizado por Lenard para estudar o efeito


fotoelétrico. O interior da ampola deve ser evacuado para que os
elétrons ejetados de um dos eletrodos possam ser coletados no
outro, gerando uma corrente elétrica.

A frequência da onda luminosa determina apenas a sua cor. Uma


lanterna e um farol de automóvel podem emitir luz de mesma
frequência, mas com intensidades muito diferentes. Um feixe de
luz intenso transporta mais energia (ondas de maior amplitude, os
vagalhões) que um feixe de pequena intensidade (as marolas),
mesmo que ambos tenham a mesma frequência. De acordo com a
Física Clássica, feixes luminosos mais intensos deveriam transferir
mais energia aos elétrons, que seriam ejetados com uma velocidade
maior.

As teorias de Newton e Maxwell explicam uma enorme variedade


de fenômenos físicos, desde o comportamento de gases nobres ao
movimento de corpos celestes relativamente próximos. No século
XIX, o sucesso da Física Clássica era tão espetacular que muitos

42
físicos acreditavam que não houvesse mais nada a ser descoberto,
como o orientador acadêmico de Max Planck. As leis da Natureza
estavam estabelecidas, e a Física oferecia a visão de um mundo
perfeito e ordenado.

Mas as descobertas do elétron, da radiatividade e dos raios-X eram


novidades que não se encaixavam nesse mundo ordenado. Uma
tempestade se formava. A Natureza, pouco a pouco, começava a
revelar alguns dos seus segredos mais profundos, e isso colocava a
Física Clássica contra a parede. Depois da radiação de corpo negro,
o efeito fotoelétrico era mais um fenômeno que não podia ser
explicado pelas teorias de Newton e Maxwell.

Ao ver os resultados dos estudos de Lenard, Einstein logo se deu


conta de que havia ali uma rachadura no sólido edifício da Física
Clássica. Lenard havia demonstrado claramente que o efeito
fotoelétrico não poderia ser explicado supondo que a luz fosse uma
onda. O problema da natureza da luz, que parecia definitivamente
solucionado com a observação das ondas EM, previstas por
Maxwell, não estava de fato resolvido.

A radiação de corpo negro e o efeito fotoelétrico têm em comum


dois aspectos fundamentais: ambos envolvem a interação da
radiação com a matéria, e ambos revelam a granularidade da
Natureza quando observada em escala microscópica. Planck
desenvolveu sua teoria com foco na matéria – a quantização da
frequência dos osciladores. Não havia restrições para as
frequências da radiação, mas apenas algumas poderiam ser
absorvidas pelos osciladores. Einstein, ao contrário, desenvolveu
uma teoria centrada na quantização da radiação.

Na teoria de Einstein do efeito fotoelétrico, a luz se comporta como


um feixe de pequenos “pacotes” individuais de energia, tal como
afirmara Ibn al-Haytam, e não como uma onda que se propaga no
espaço. Hoje chamamos os pacotes individuais de energia
propostos por Einstein de fótons: partículas de luz, sem massa,
quanta de pura energia, que viajam sempre com a mesma

43
velocidade e nunca podem ser observados em repouso. O efeito
fotoelétrico ocorre pela colisão dos fótons com os elétrons da
superfície do metal. A luz se comportando como corpúsculos.

Einstein descobriu a conexão entre a energia dos fótons e a


frequência da luz. Um feixe luminoso monocromático (luz de uma
única frequência) é constituído por um número muito grande de
fótons, cada um com energia E = hn, onde n é a frequência da luz
e h é a constante de Planck. A onda EM pode ser vista como o efeito
coletivo de um número muito grande de partículas de luz, assim
como a água, cuja fluidez é o efeito coletivo de zilhões de
moléculas.

As fórmulas de Einstein e de Planck são iguais, mas com


significados diferentes. Planck associou a energia dos osciladores,
E, com a frequência da radiação incidente, n. A teoria da radiação
do corpo negro restringe as frequências de vibração, mas não
impões limites para a radiação. Átomos e radiação são entidades
diferentes, evidentemente. E eis por que a fórmula de Einstein é
mais radical: ela conecta duas grandezas, energia e frequência, de
uma mesma entidade, a luz!

Os fótons de um feixe de luz violeta têm, individualmente, mais


energia que os de um feixe de luz vermelha, porque a frequência
do violeta é maior que a do vermelho. A intensidade da luz está
associada ao número de fótons do feixe. Quanto mais fótons, mais
intenso é o feixe, e quanto maior a intensidade, mais energia é
transportada. Assim, uma mesma quantidade de energia pode ser
transportada combinando intensidade e frequência de formas
diferentes.

A teoria de Einstein explica o eleito fotoelétrico da seguinte forma:


quando a luz incide sobre a superfície do metal, os fótons colidem
individualmente com os elétrons dos átomos das camadas mais
superficiais. Na colisão, os fótons se comportam como partículas,
transferindo aos elétrons energia suficiente para vencer a atração
dos núcleos atômicos e serem ejetados.

44
Feixes de alta intensidade contêm muitos fótons, e assim muitos
elétrons são ejetados, mas todos têm a mesma energia. Em feixes
com frequências mais altas, os fótons são mais energéticos, e por
isso transferem mais energia aos elétrons, mesmo que a intensidade
do feixe seja baixa. A teoria de Einstein explicou perfeitamente os
resultados experimentais de Lenard.

Einstein foi o primeiro a formular a ideia da ambiguidade do


comportamento da luz. Essa ambiguidade está no coração da teoria
Quântica, mas é um conceito muito estranho, difícil de assimilar.
Em uma carta ao seu grande amigo Michel Besso, Einstein disse:
“Todos esses anos de intensa reflexão não me aproximaram da
resposta à pergunta: o que são os quanta de luz? Claro, hoje
qualquer idiota acha que sabe a resposta, mas está apenas se
enganando”.

O que é a luz, afinal, uma onda ou uma partícula? A resposta é:


nem um nem outro. Não sabemos ao certo o que a luz é. A
Mecânica Quântica não responde à pergunta “qual é a natureza da
luz?”, e sim à pergunta “como a luz se comporta?”. Sabemos que
em certas circunstâncias, como na difração e na interferência, a luz
se comporta como uma onda (energia dispersa em uma região
extensa). Já no efeito fotoelétrico, a luz interage com a matéria
como se fosse um feixe de partículas (energia concentrada em
regiões muito pequenas).

Talvez seja mais fácil lidar com a ambiguidade do comportamento


da luz invertendo a equação de Einstein: em vez de dizer que a
energia é igual à constante de Planck vezes a frequência, E = hn ,
podemos dizer que a frequência da onda formada pelos fótons é
igual a energia de cada um dividida pela constante de Planck, n =
E/h. Assim, relacionamos a energia dos quanta, partículas
individuais microscópicas, ao seu efeito coletivo, macroscópico,
uma onda de frequência n.

45
A Mecânica Quântica transformou praticamente todas as áreas da
Física. A teoria envolve conceitos muito diferentes de tudo o que
havia na Física. Ainda hoje, quase cem anos depois da sua criação,
ainda se discute a interpretação da Mecânica Quântica. O mais
importante, no entanto, é que, independente de interpretações,
sabemos operar muito bem com ela, e com isso podemos construir
coisas maravilhosas.

A Ciência é um discurso sobre a Natureza que é baseado na


experimentação sistemática e no raciocínio lógico. Sua linguagem
é a matemática. Mas é, antes de tudo, uma criação humana, feita
por indivíduos que vivem imersos na cultura de seu tempo, e que
carregam consigo suas convicções e preconceitos. Com Planck e
Einstein não foi diferente. Ambos também tiveram muita
dificuldade em aceitar certas implicações da teoria quântica.

Se a princípio a teoria do efeito fotoelétrico foi considerada uma


excentricidade, para Einstein ela foi apenas o ponto de partida. Ele
seguiu adiante em suas investigações, analisando outros fenômenos
em que a quantização da energia seria o elemento crucial. Em um
desses trabalhos, Einstein abordou o problema do calor específico
de sólidos cristalinos.

A capacidade térmica de um corpo é relação entre a quantidade de


energia térmica fornecida ou retirada desse corpo e variação
decorrente na sua temperatura. Depende, claro, da quantidade de
matéria: mais energia é necessária para aquecer uma piscina do que
uma chaleira.

O calor específico é uma propriedade física de cada substância,


assim como a densidade, a condutibilidade elétrica, o ponto de
ebulição etc. É definido como a quantidade de energia que deve ser
fornecida (ou retirada) para que a temperatura de um grama de uma
substância varie em 1 oC. Quanto maior o calor específico de uma
substância, maior será a quantidade de calor necessária para
aquecê-la ou resfriá-la.

46
Uma propriedade fundamental do calor específico dos sólidos,
segundo a Termodinâmica Clássica, é que seu valor não depende
da temperatura do corpo. A quantidade de energia necessária para
aumentar a temperatura de um corpo em 1 oC é sempre a mesma,
esteja ele inicialmente a uma temperatura de -100, 0 ou 100 oC.

Nos sólidos cristalinos, as moléculas formam arranjos geométricos


regulares, as redes cristalinas. As moléculas não se deslocam ao
longo da rede, mas podem vibrar de várias formas em torno das
suas posições de equilíbrio. Se o sólido está em equilíbrio térmico
(a mesma temperatura em todas as partes), sua energia interna é
dividida igualmente entre todos os possíveis movimentos
vibratórios das moléculas.

A energia média de cada modo de vibração molecular é


proporcional à temperatura do corpo. Admitindo que as moléculas
possam vibrar com qualquer frequência, seria possível fornecer ao
corpo uma quantidade infinitamente pequena de energia, o que
provocaria uma variação infinitamente pequena na temperatura, de
acordo com o princípio de continuidade. Assim, a razão entre a
energia transferida, Q, e a variação da temperatura DT – o calor
específico - permaneceria constante, mesmo quando a temperatura
do corpo fosse muito baixa (moléculas vibrando com frequências
muito pequenas).

E eis aqui mais uma dificuldade da Física Clássica, mais um


conflito entre teoria e observação: em temperaturas muito baixas,
o calor específico (a razão Q/DT) deixa de ser constante. Em vez
disso, diminui acentuadamente, aproximando-se de zero quando a
temperatura se aproxima do zero absoluto.

Einstein elaborou uma teoria para o calor específico que usava as


ideias de Planck. Em um artigo publicado em 1907 ele diz: “Se a
teoria de Planck da radiação atinge o coração da matéria, devemos
então esperar contradições entre teoria e resultados experimentais

47
em outras áreas da teoria do calor, contradições que podem ser
resolvidas seguindo o mesmo caminho”.

Por esse raciocínio, como a teoria de Planck vale para o corpo


negro, deve valer também para o calor específico dos sólidos. De
maneira análoga à Planck, Einstein propôs um modelo simplificado
para os sólidos, mas que contém os elementos cruciais: uma rede
de osciladores harmônicos independentes, todos oscilando com a
mesma frequência. Seriam possíveis apenas vibrações cujas
frequências fossem múltiplos inteiros de uma frequência mínima,
n0. Essa seria a frequência de vibração do estado de menor energia.
Nesse estado, a energia de cada oscilador seria igual a hn0.

No modelo de Einstein, no segundo estado de menor energia (o


primeiro estado excitado) as moléculas vibrariam com frequência
2hn0, no terceiro estado, 3hn0, e assim por diante. Como a
constante de Planck é um número muito pequeno, a diferença entre
dois níveis consecutivos de energia, hn0, é uma quantidade muito
pequena. Em temperaturas ambientes as energias de vibração são
imensamente maiores que o quantum de energia hn0, o que torna
os efeitos quânticos imperceptíveis. Nessas condições, a variação
de temperatura é proporcional ao calor cedido ao corpo.

Mas em temperaturas próximas ao zero absoluto os efeitos


quânticos não podem ser ignorados. O fato de os osciladores só
poderem vibrar com frequências que sejam múltiplos de um valor
fundamental significa que as moléculas do sólido só podem
absorver calor se este vier na dose certa, n vezes hn0, onde n é um
número inteiro. Qualquer quantidade de energia fornecida ao
sólido que seja diferente desses valores não será absorvida pelas
moléculas. Nesse caso, a energia fornecida não acarreta um
aumento de temperatura. Assim Einstein explicou a diminuição do
calor específico que ocorre em temperaturas muito baixas.

Einstein apresentou a teoria quântica do calor específico em um


evento que entrou para a história: a primeira conferência de Solvay,
um encontro dos físicos mais proeminentes patrocinada por Ernest

48
Solvay, um milionário belga que fez grande fortuna na indústria
química. Solvay era um filantropo e tinha grande interesse pela
Física. Promoveu uma série de encontros, sempre reunindo os
físicos de maior prestígio. A primeira conferência foi realizada em
Bruxelas, em junho de 1911. O tema da conferência, como não
poderia deixar de ser, foi a crise da Física teórica provocada pela
nova teoria quântica.

A conferência foi organizada por Walther Nernst, que fez os


convites em nome de Solvay. Cada participante recebeu a
incumbência de escrever um trabalho sobre um tema previamente
designado. Os trabalhos deveriam ser distribuídos aos participantes
com antecedência, de forma a facilitar as discussões. A Einstein
coube o tema do calor específico.

Ernest Solvay patrocinou outros encontros. O terceiro foi realizado


em 1921, poucos anos após a I Guerra Mundial. Os cientistas
alemães, dessa vez, não foram convidados, com uma exceção feita
à Einstein. Em protesto, ele se recusou o convite. Em vez de ir ao
encontro, Einstein fez sua primeira visita aos EUA, levado por
Chaim Weizmann, um dos fundadores do Estado de Israel e seu
primeiro presidente. De todas as conferências de Solvay, a mais
famosa foi a quinta, realizada em 1927, cujo tema foi “Elétrons e
fótons”, abordando a recém-criada Mecânica Quântica. Dos 29
participantes, 17 haviam sido ou seriam laureados com o Prêmio
Nobel.

Teorias físicas têm como objetivo descrever as leis que regem os


fenômenos naturais. As teorias devem também ser capazes de fazer
previsões, e estas devem sempre ser testadas. Se confirmadas, a
teoria se torna mais sólida. Se falham, a teoria é incompleta, mas
as falhas não eliminam os acertos. A Mecânica de Newton e o
Eletromagnetismo de Maxwell são exemplos de teorias
incompletas. São os dois pilares da Física Clássica, teorias precisas
no limite em que os efeitos quânticos são tão pequenos que não
podem ser observados. Elas foram incorporadas à Mecânica
Quântica e à Eletrodinâmica Quântica (a teoria quântica da

49
radiação). Ambas descrevem o funcionamento do mundo
microscópico, mas se tornam as teorias de Newton e Maxwell a
escala aumenta e se torna macroscópica.

A primeira conferência de Solvay, em 1911, reuniu os grandes


nomes da Física. Foi organizada por Walther Nernst (1). Entre os
participantes estavam Planck (3), Lorentz (8), de Broglie (10),
Rutherford (19), Marie Curie (20), Poincaré (21), Einstein (23) e,
naturalmente, Solvay (6). Outras conferências foram organizadas
em anos posteriores. A participação feminina se resumia à Marie
Curie. Apesar de grandes mudanças desde então, as mulheres
ainda são minoria no meio científico, infelizmente. Fonte: Benjamin
Couprie, Public Domain, https://commons.wikimedia.org/w/index.php?curid=227787

50
3

Quantum: Rutherford e Bohr

Revolução

Há cerca de dois milhões e meio de anos, no coração do


continente africano, nossos ancestrais longínquos desceram das
árvores e começaram a caminhar eretos. Desde então, nossa árvore
genealógica teve várias ramificações, mas só uma prevaleceu: a
nossa espécie, o Homo Sapiens, surgida entre 500 e 600 mil anos
atrás. Nós, os Sapiens anatomicamente modernos, habitamos o
planeta há cerca de 200 mil anos. Humanos dessa época passariam
despercebidos no metrô.

Existem muitos registros arqueológicos que mostram que, apesar


de não ter havido mudanças anatômicas, a nossa espécie continuou
evoluindo. Uma transformação significativa do cérebro humano
teria ocorrido entre 50 e 60 mil anos atrás, causando o que é
chamado “o grande salto adiante”. Uma revolução da qual teriam
surgido, entre outras inovações, a sofisticação da linguagem, a arte
e, talvez, a visão mística sobre a Natureza.

Durante a maior parte da nossa existência, nós, humanos, fomos


caçadores-coletores nômades. Vivíamos em pequenos bandos

51
formados por umas poucas dezenas de pessoas, espalhados pela
vastidão do mundo.

Até que uma outra grande revolução ocorreu, há cerca de 10 mil


anos atrás. Foi quando surgiram as primeiras aldeias, a agricultura
e a domesticação de animais. Alguns milênios se passaram até o
surgimento da civilização, da escrita e da metalurgia, há cerca de
seis mil anos. Há 2500 anos os filósofos gregos faziam perguntas
que ainda hoje fazemos, e para as quais ainda não temos respostas
definitivas. Há apenas 500 anos ficou estabelecido que a Terra é
redonda (embora hoje ainda haja quem duvide disso), que tem sete
continentes (ou oito, dependendo do ponto de vista), e que ela gira
em torno do Sol.

Na História da Humanidade houve períodos muito turbulentos,


momentos de “destruição criativa”, com mudanças bruscas de
paradigmas. Seguramente, as primeiras três décadas do século XX
foram um desses períodos de ruptura radical com o passado.

Nesse período, o mundo testemunhou transformações de todos os


tipos, em todas as áreas. Avanços tecnológicos, como a invenção
do avião e do automóvel, o uso disseminado da telefonia, entre
outras inovações, transformaram o dia a dia e tornaram o mundo
menor. Armas de destruição em massa foram introduzidas pela
primeira vez na Primeira Guerra Mundial, um conflito numa escala
nunca vista. A Revolução Russa, em 1917, polarizou o mundo até
quase o final do século passado. Houve também profundas
mudanças sociais e econômicas, como a conquista do voto
feminino, o declínio da nobreza aristocrática, o surgimento da
sociedade industrial moderna, a introdução dos direitos sociais, da
educação em massa e de um novo conceito de cidadania.

A Física não ficou imune. Também viveu uma revolução nos


primeiros 30 anos do século passado, com a criação da Mecânica
Quântica (MQ), da Teoria da Relatividade (TE) e do Modelo
Atômico da matéria. As novas teorias introduziram ideias
radicalmente diferentes de tudo o que havia antes, reformulando

52
totalmente os conceitos de espaço, tempo, matéria e energia. Uma
nova linguagem substituiu as da Mecânica Newtoniana e do
Eletromagnetismo de Maxwell, os dois pilares da Física Clássica.

A partir de então, nossas vidas mudaram completamente. A era


digital contemporânea, que tem meros 40 anos, está baseada
inteiramente nessas teorias. É provável que estejamos no limiar da
uma nova “revolução industrial”. A inteligência artificial, a
engenharia genética, a ciência dos materiais e a computação
quântica se desenvolvem muito rapidamente, e vão revolucionar
nosso modo de vida em um futuro não muito distante. Meu filho,
hoje com 12 anos, encontrará um mundo muito diferente quando
chegar à maturidade, tão diferente que é difícil até de imaginar.

A linha do tempo (datas aproximadas) mostra como as


transformações na cultura e o conhecimento sobre a Natureza
evoluem cada vez mais rápido.

Nossa visão do mundo foi alterada não só pela descoberta do


mundo quântico e pelo domínio do átomo. Houve também

53
descobertas fundamentais na astronomia. O personagem principal
foi o astrônomo estadunidense Edwin Hubble.

As nebulosas eram conhecidas desde meados do século XVIII, mas


o que de fato elas eram permanecia um mistério. A maioria dos
astrônomos acreditava que fossem nuvens de gás pertencentes à
nossa própria galáxia, e que o Universo se resumia à Via Láctea.
Quando telescópios mais potentes foram desenvolvidos, em
meados do século XIX foi possível identificar pontos individuais
de luz nas nebulosas, levantando a hipótese de elas fossem outras
galáxias.

A controvérsia sobre a natureza das nebulosas teve momentos


épicos: em 1920, no Smithsonian Museum, na cidade de
Washington, houve um evento que ficou conhecido como o Grande
Debate, protagonizado pelos astrônomos Harlow Shapley e Heber
Curtis. Seriam as nebulosas objetos da nossa galáxia ou outras
galáxias, além da Via Láctea? O debate foi inconclusivo, pois
dependia da solução de um problema fundamental: como medir a
distância de objetos celestes longínquos?

A solução surgiu graças ao trabalho da astrônoma estadunidense


Henrietta Leavitt. Em 1893, Leavitt apresentou-se ao observatório
da Universidade de Harvard como voluntária. Inicialmente sem
salário, e depois com um salário irrisório, Leavitt foi contratada
para uma tarefa repetitiva: medir e catalogar a luminosidade de
estrelas nas chapas fotográficas da coleção do observatório.

No catálogo do observatório havia fotografias de um tipo especial


de estrelas: as cefeidas, estrelas gigantes, muito maiores e muito
mais brilhantes que o Sol. São estrelas que pulsam num ritmo
constante, ora diminuindo o seu diâmetro, ora se expandindo, de
forma que seu brilho varia com o tempo de forma bastante regular.
Observando 25 cefeidas na Pequena Nuvem de Magalhães (uma
pequena galáxia próxima à Via-Láctea), Leavitt descobriu que o
brilho dessas estrelas varia com o tempo segundo uma lei
matemática simples.

54
Leavitt estabeleceu um método que ainda hoje é utilizado para
medição de distâncias em astronomia. A ideia é simples: pegue
uma vela e meça o seu brilho quando ela está próxima a você. Em
seguida, afaste a vela até uma certa distância e meça novamente o
brilho, que, obviamente, será menor. Conhecendo o brilho
intrínseco (vela próxima) e o brilho aparente (vela distante), é
possível determinar a distância.

A distância da Pequena Nuvem de Magalhães era conhecida, de


forma que medindo o brilho aparente das cefeidas, foi possível
determinar seu brilho intrínseco, e isso serviu como uma calibração
para o método. Assim, medindo o período de variação do brilho de
uma cefeida, é possível determinar seu brilho intrínseco. Tendo o
brilho intrínseco e o aparente, é possível determinar a que distância
a estrela se encontra.

Usando o método de Leavitt, Hubble resolveu o Grande Debate,


em 1924: as nebulosas são, de fato, galáxias distantes. Pela
primeira vez, ficou demonstrado que vivemos num Universo muito
mais vasto do que era imaginado. Pode-se comparar o impacto
dessa descoberta com o que representou para os europeus do século
XV a “descoberta” do continente americano.

55
Alguns anos depois, em 1929, Hubble fez outra descoberta ainda
mais espetacular: o Universo está em expansão. As galáxias estão
em movimento, se afastando constantemente umas das outras. Se
afastam com uma velocidade que é tão maior quanto maior for a
distância entre elas. Mas esse é um assunto ao qual voltaremos mais
à frente.

Modelo atômico

O Modelo Atômico da matéria é, sem dúvida, um dos grandes


triunfos da Ciência, uma das maiores conquistas da Humanidade.
Podemos resumi-lo assim:

o toda matéria do Universo observável é feita de átomos;

o os átomos são eletricamente neutros, formados por um


minúsculo núcleo, de carga elétrica positiva, cercado por
uma nuvem de elétrons, com carga elétrica negativa;

o o núcleo é composto por prótons e nêutrons, e é cerca de


10.000 vezes menor que a do átomo. Concentra 99,99% da
massa do átomo.

o um átomo de massa atômica A é composto por Z prótons, Z


elétrons e A-Z nêutrons;

o as propriedades químicas dos elementos são determinadas


pelo número de elétrons.

Entender a estrutura atômica foi o ponto de partida do mundo


moderno. Praticamente tudo o que faz parte do nosso cotidiano
está, de alguma forma, ligado ao átomo.

56
O Modelo Atômico começou a tomar forma em 1911, quando a
estrutura interna dos átomos foi revelada. O personagem principal
dessa descoberta foi o físico neozelandês Ernest Rutherford.

Rutherford

Ernest Rutherford é um herói nacional da Nova Zelândia. É


reconfortante saber que há países em que cientistas são
considerados heróis. Rutherford nasceu em uma família simples,
na pequena comunidade rural de Spring Grove, atual Brigthwater,
no ano de 1871 (oito anos antes de Einstein). Seu pai, James
Rutherford, era um homem com pouca instrução, um mecânico
escocês que havia emigrado ainda jovem para a Nova Zelândia.

James casou-se com Martha Thompson, que era professora de uma


escola local. Martha tinha consciência do valor do conhecimento,
e por isso empenhou-se na educação de seus 12 filhos. Graças aos
seus esforços, Ernest Rutherford pôde estudar em boas escolas
privadas, sempre ganhando bolsas de estudo.

Rutherford sempre foi um aluno brilhante. Graduou-se ao mesmo


tempo em Física e Matemática, em 1894, sendo o primeiro aluno
em ambos os cursos. Estava pronto para voos mais altos: ganhou
uma bolsa de estudos no Trinity College, em Cambridge,

57
Inglaterra, onde fez seu doutorado, terminando também como o
primeiro aluno. Em 1898, logo após concluir o doutorado, mudou-
se para o Canadá, assumindo um cargo de professor na
universidade McGill, em Montreal.

A radioatividade havia sido descoberta anos antes pelo físico


francês Henry Becquerel, e esse foi o tema ao qual Rutherford se
dedicou no Canadá. Trabalhando em colaboração com Frederick
Soddy, Rutherford estudou a atividade radioativa do urânio.
Descobriram que o urânio emitia dois tipos de radiação, a que
chamaram “raios” alfa (a), e beta (b), que se diferenciavam pelo
poder de penetração na matéria. As partículas a são mais
facilmente absorvidas pela matéria, alcançando apenas as camadas
mais superficiais. As partículas b têm um poder de penetração
maior, alcançando camadas mais profundas.

Poucos meses depois, Becquerel demonstrou que os raios b são


elétrons. A radioatividade era o tema mais empolgante da Física.
Logo outras substâncias radioativas foram descobertas, assim
como um terceiro tipo de radiação, os “raios gama” (g),
identificados pelo físico francês Paul Villard, em 1900. Vários
experimentos foram realizados e logo se acumularam evidências
sobre o que são as partículas a: átomos ionizados do elemento
químico hélio. A ionização é um processo em que átomos perdem
um ou mais elétrons, tornando-se eletricamente carregados (íons).

A origem da radioatividade, no entanto, continuava sendo um


enigma, e isso motivou Rutherford a analisar as outras substâncias
radioativas conhecidas, os elementos tório e rádio. Rutherford
concluiu que a radioatividade tem origem na desintegração de
alguns tipos de átomos, que se transformam em átomos de outros
elementos.

Alguns tipos de átomos se desintegram espontaneamente emitindo


apenas partículas a, outros apenas partículas b, e outros apenas os
raios g. Rutherford interpretou (corretamente) o fato de as
partículas a e b serem expelidas de átomos mais pesados como

58
uma indicação clara de que os átomos tinham uma estrutura interna
complexa, ao contrário do que se imaginava.

Por seus estudos sobre a radiatividade e a transmutação dos


elementos, Rutherford recebeu o Prêmio Nobel de Química de
1908. Um ano antes, Rutherford havia retornado à Inglaterra, onde
assumiu uma cátedra na Victoria University of Manchester. Foi em
Manchester que Rutherford faria sua descoberta mais importante,
talvez um caso único na história de um cientista cujo trabalho mais
relevante tenha sido realizado após receber o Nobel.

Rutherford tinha a intuição de que as partículas a seriam a chave


para entender o que se passa no interior do átomo. Mas seria
necessário conhecer com mais precisão as propriedades das
partículas a. Com esse objetivo, Rutherford elaborou um
experimento para medir a razão entre a carga elétrica e a massa
dessas partículas. A sua equipe era pequena: o jovem físico alemão
Hans Geiger, que havia completado seu doutorado em 1906, Ernest
Marsden, na época ainda um aluno de graduação, orientado por
Geiger, e William Kay, o técnico do laboratório que montava os
equipamentos.

A medida da razão carga/massa envolvia uma etapa inicial:


determinar o fluxo (número de partículas emitidas por segundo) de
partículas a emitidas por uma fonte do elemento químico rádio
(que deu origem ao termo radioatividade). Para isso, Geiger
montou um experimento simples e engenhoso. Uma amostra de
rádio foi colocada no interior de uma ampola de vidro cilíndrica,
preenchida com um gás inerte. As partículas a emitidas colidiam
com os átomos do gás, causando a formação de íons. Os íons eram
atraídos para um fio eletrificado, disposto ao longo da ampola. O
movimento das partículas a e dos íons produzia um sinal elétrico,
e assim era possível contar o número de partículas alfa emitidas
pela fonte. Essa foi a primeira versão do que viria a ser conhecido
como contador Geiger, e um protótipo dos detectores a gás
modernos.

59
A ideia de Geiger, no entanto, não deu muito certo. Havia colisões
inesperadas, em que as partículas a sofriam grandes desvios nas
suas trajetórias sem provocar ionização. Esse era um efeito muito
intrigante, e motivou Rutherford e sua pequena equipe a elaborar o
experimento que viria a ser o protótipo de quase todos os
experimentos modernos em Física de Partículas.

A ideia de Rutherford foi bombardear uma folha de ouro muito fina


com partículas a. A espessura da folha deveria ser fina o suficiente
para que, ao atravessá-la, a partícula a colidisse apenas com um
único átomo de ouro, no máximo. As partículas espalhadas eram
detectadas por um painel feito de um material fosforescente,
circundando a folha de ouro. O painel se iluminava na posição em
que uma partícula incidia. Em uma sala escura e com auxílio de
uma luneta, Geiger e Marsden contavam número de partículas a
desviadas em função do ângulo de desvio.

O experimento de Rutherford, como ficou conhecido, foi um dos


mais importantes da história da Física. Como em todos os
experimentos da época, o experimento foi conduzido de forma
bastante artesanal, pois a eletrônica só seria inventada muitos anos
depois. Geiger e Marsden passavam incontáveis horas em uma
câmara escura, anotando o número de partículas alfa espalhadas em
função do ângulo de espalhamento, medido em relação à direção
do feixe incidente na folha de ouro. De tempos em tempos, moviam
a luneta, fixando-a em um novo ângulo de observação.

Antes do experimento de Rutherford já se sabia que os átomos são


eletricamente neutros, que contêm elétrons em seu interior, e que
devem ter uma dimensão da ordem de 10-10 m. Qualquer modelo
que descrevesse a estrutura interior dos átomos deveria partir
dessas propriedades.

O modelo atômico mais conhecido havia sido proposto por J. J.


Thomson, em 1904. Thomson era um físico respeitadíssimo, havia
sido o descobridor do elétron e também o orientador acadêmico de
Rutherford. No modelo de Thomson, o átomo seria uma esfera com

60
uma carga elétrica positiva homogeneamente distribuída, salpicada
de elétrons. Esse arranjo só poderia ser mecanicamente estável se
os elétrons permanecessem em repouso. O modelo de Thomson se
tornou conhecido como “pudim de ameixas”.

Ilustração do aparato utilizado no “experimento da folha de


ouro”, como ficou conhecido. Na parte superior da figura, uma
amostra do elemento rádio é a fonte de partículas a que
bombardeiam uma folha muito fina de ouro. As partículas são
espalhadas em várias direções e produzem um sinal luminoso ao
atingir a placa fosforescente, usada como detector. Na parte
inferior, vemos um esquema do equipamento de fato utilizado. O
cilindro em cinza claro pode girar. Numa extremidade há uma
placa fosforescente, e na outra uma luneta que permite observar o
sinal luminoso sutil provocado pelo impacto de uma partícula a.

61
No modelo de Thomson, a massa do átomo se devia aos elétrons,
exclusivamente. A substância de que a carga positiva seria feita não
contribuiria para a massa. Como os elétrons são muito leves, cada
átomo deveria conter milhares deles. Alguns anos depois, dispondo
de novos dados experimentais, Thomson refinou seu modelo,
admitindo que o número de elétrons deveria ser da mesma ordem
que o número atômico, o que deixava sem resposta a questão da
origem da massa do átomo.

Se o modelo de Thomson fosse correto, as partículas a seriam


desviadas nas colisões com os elétrons. As partículas a são cerca
de 8.000 vezes mais pesada que o elétron, e são emitidas pela fonte
radiativa com uma velocidade de aproximadamente 16.000 km/s.
É uma velocidade pequena se comparada às velocidades das
partículas nos aceleradores modernos, mas muito maior do que
tudo o que se conhecia na época. As partículas a, tão mais pesadas
e velozes, só poderiam sofrer desvios mínimos ao colidir com
elétrons em repouso.

O resultado do experimento foi muito diferente do previsto. A


imensa maioria das partículas do feixe sofria, de fato, apenas um
leve – ou mesmo nenhum - desvio nas suas trajetórias, como era
esperado. Algumas partículas, no entanto, eram espalhadas a
grandes ângulos, maiores mesmo que 90o! Mesmo sendo raros,
esses eventos não poderiam ser explicados por colisões das
partículas a com os elétrons. Seria como se um caminhão tanque,
carregado e a 200 km/h, colidisse com uma bicicleta estacionada e
fosse arremessado violentamente para trás. Rutherford foi ainda
mais enfático: “Foi, sem dúvida, o acontecimento mais
extraordinário da minha vida. Era como disparar um obus de 15
mm sobre uma folha de papel e o obus ricochetear”.

O experimento foi repetido muitas vezes usando outros materiais


como alvo. O resultado era sempre o mesmo, invariavelmente, mas
uma característica fundamental foi revelada: quanto maior a massa

62
atômica do alvo, mais partículas a sofriam grandes desvios. O
modelo de Thomson estava definitivamente descartado.

Rutherford chegou à única explicação possível: a massa dos


átomos está concentrada numa pequena região no seu interior – o
núcleo atômico. Nesse núcleo também está concentrada toda a
carga elétrica positiva. Os elétrons ocupam a região no entorno do
núcleo, e não desempenham nenhum papel relevante nas colisões
com as partículas a.

Por terem carga elétrica positiva, as partículas a são desviadas pela


força de repulsão elétrica quando se aproximam dos núcleos, que
também têm carga elétrica positiva. São as colisões com os
núcleos, muito mais pesados que as partículas a, que causam os
grandes desvios observados.

O número reduzido de colisões em que as partículas a sofriam


grandes desvios foi interpretado corretamente: o núcleo atômico é
minúsculo. Se o núcleo é muito pequeno, poucas partículas a se
aproximam o suficiente para sofrerem uma repulsão muito forte.
Mas nas poucas vezes em que isso acontece, elas sofrem um grande
desvio. Os núcleos de elementos mais pesados, além de serem
maiores, contêm mais prótons, o que aumenta a força de repulsão
e, portanto, a probabilidade de espalhamento, em perfeito acordo
como a observação.

Tendo o número de partículas a observadas em função do ângulo


de desvio, Rutherford pode calcular o diâmetro do núcleo atômico.
Rutherford utilizou a Física Clássica nesse cálculo, pois ainda não
havia a teoria quântica (curiosamente, nesse caso particular as
teorias clássica e quântica levam ao mesmo resultado). Rutherford
encontrou um valor para o diâmetro do núcleo: aproximadamente
10-14 m (0,000.000.000.000.01 m), cerca de 10.000 vezes menor
que o tamanho estimado dos átomos. O núcleo atômico, onde
praticamente toda a massa do átomo se encontra, é uma estrutura
incrivelmente pequena, o que implica o átomo (e, portanto, a
matéria) ser, na maior parte, espaço vazio.

63
Em resumo, o átomo que Rutherford revelou ao mundo consiste em
um núcleo com carga elétrica positiva onde praticamente toda a
matéria está concentrada (prótons são cerca de 2.000 mais pesados
que elétrons). Envolvendo esse minúsculo núcleo, de carga elétrica
positiva, há uma nuvem de elétrons, com carga negativa em igual
quantidade, formando um sistema neutro.

No modelo atômico de Thomson, as partículas a colidiriam com os


elétrons. Como esses são muito mais leves, a trajetória das
partículas a sofreriam desvios muito pequenos. Mas no
experimento de Rutherford algumas partículas a sofriam grandes
desvios, indicando que haveria um centro espalhador que
concentraria a massa e a carga elétrica positiva do átomo.

Até o final do século XIX acreditava-se que átomos fossem


indivisíveis. A descoberta da radiatividade mostrou que esse não
era o caso. Além disso, como há um tipo diferente de átomo para
cada elemento químico, existiriam várias dezenas de “partículas
elementares”, uma situação que os físicos consideravam bastante
incômoda.

64
A descoberta de Rutherford, Geiger e Marsden, reduziu
drasticamente o número de constituintes elementares: em vez de
várias dezenas de átomos “elementares”, haveria apenas prótons,
elétrons e, claro, as partículas a. Essa descoberta revolucionou a
Física. O esforço para entender como os elétrons se distribuem ao
redor do núcleo passou a ser o principal problema da Física, e
culminou à criação da Mecânica Quântica.

A Física mudou bastante nos últimos 100 anos. Os “tempos


heroicos”, quando cientistas voavam em balões para realizar seus
experimentos, manipulavam substâncias radioativas sem a devida
proteção, ignorando o risco que corriam, tudo isso ficou para trás.
Os experimentos que cabiam em cima de uma mesa e eram, em
geral, conduzidos por uma única pessoa ou, no máximo, por um
número reduzido de colaboradores, deram lugar aos grandes
experimentos como os do CERN, na Suíça, que envolvem o
trabalho anônimo de milhares de físicos, engenheiros e técnicos.

As grandes descobertas sempre trazem novas perguntas, novos


enigmas e desafios. Pode parecer um paradoxo, mas quanto mais
aprendemos sobre a Natureza, mais nos damos conta do quanto
ainda não sabemos. A MQ e a TR abriram as portas de um mundo
novo. Explorar esse mundo desconhecido era uma aventura que
estava apenas começando.

A imagem mais comum que se tem dos átomos é o de uma


miniatura do Sistema Solar, com os elétrons orbitando em torno do
núcleo em trajetórias bem definidas. Na visão da Física Clássica, a
força de atração elétrica dos núcleos causaria a aceleração nos
elétrons que os mantêm em órbita. Mas sabemos que qualquer
partícula carregada emite radiação EM quando sofre uma
aceleração, perdendo parte da sua energia. Sendo acelerados pela
atração elétrica dos núcleos, os elétrons perderiam energia
continuamente ao longo das suas órbitas. Seguiriam uma trajetória
em espiral, até serem absorvidos pelo núcleo. Segundo a Física
Clássica, os átomos simplesmente não poderiam existir!

65
Além do problema da estabilidade do átomo, havia também o
problema dos isótopos, cuja natureza era um mistério. Os
elementos químicos se distinguem pelo número de prótons no
núcleo (Z), que é igual ao número de elétrons. Em 1911, já eram
conhecidas variantes de um mesmo elemento: átomos com o
mesmo número de prótons, mas com massas diferentes. A
existência de isótopos intrigava os físicos e químicos, sugerindo
que haveria algo a mais no núcleo além das cargas positivas.

Hoje sabemos que os isótopos são variantes de átomos com o


mesmo número de prótons, mas com um número diferente de
nêutrons. O núcleo do carbono-14 (14C) tem seis prótons e 8
nêutrons, e é um isótopo radioativo do carbono-12 (12C). O núcleo
de 14C se desintegra espontaneamente, tornando-se um núcleo de
nitrogênio e emitindo uma partícula b (um elétron) e uma partícula
neutra ultraleve, o neutrino. O 14C tem as mesmas propriedades
químicas do 12C, a forma mais abundante encontrado na natureza e
em toda a matéria orgânica. Suas propriedades físicas, como a
densidade, por exemplo – são distintas.

A taxa de desintegração do 14C é conhecida com precisão. A


proporção entre 14C e 12C na atmosfera também é bem conhecida.
Tanto o 12C como o 14C presentes na atmosfera são absorvidos pelos
vegetais, e isso permite que a proporção relativa entre o 12C e seu
isótopo seja usada como um “relógio”.

O 14C está presente nos seres vivos graças ao consumo de vegetais.


O 12C é estável, mas o 14C se desintegra com uma taxa conhecida
com precisão. Isso significa que a proporção entre 14C e 12C diminui
com o tempo. Assim, pode-se inferir a idade de um fóssil
analisando a proporção entre 14C e 12C em sua composição. Essa
técnica é muito utilizada em datação arqueológica.

66
Vale a pena fazer uma última observação a respeito da perda de
energia de partículas carregadas quando sofrem aceleração. O
princípio de funcionamento dos laboratórios de luz síncroton,
como o Sirius, em São Paulo, está baseado nesse fenômeno. Os
laboratórios de luz síncroton são aceleradores circulares de
elétrons. Os elétrons se movem dentro de um tubo circular, onde
há um alto vácuo, e são mantidos na órbita por campos magnéticos
poderosos gerados por diferentes tipos de ímãs.

Com uma órbita circular, os elétrons emitem radiação EM


continuamente, o que faz com que percam energia à medida que
circulam no acelerador. A radiação emitida é a luz síncroton. A
energia que os elétrons perdem é reposta por dispositivos
instalados ao longo do acelerador. A frequência da radiação EM
emitida depende da energia do feixe e do diâmetro do acelerador.

No Sirius, a energia do feixe e o diâmetro do acelerador foram


definidos de forma a produzir feixes intensos e muito focalizados
de raios-X, com diversas aplicações, sobretudo em Ciência dos
Materiais. O Sirius é uma joia rara, o melhor e mais moderno
laboratório do mundo em sua categoria. Foi projetado e construído
inteiramente no Brasil por físicos, engenheiros e técnicos
brasileiros, e a maior parte dos equipamentos foi produzida aqui.

67
Fotografia aérea do Laboratório Nacional de Luz Síncroton –
LNLS. No interior encontra-se o acelerador Sirius, onde um feixe
de elétrons é mantido em uma órbita circular. A radiação
síncroton é emitida na direção tangente à trajetória dos elétrons e
tem comprimento de onda na faixa dos raios-X. À direita vemos
seis “linhas de luz”, onde feixes de raios-X são focalizados nos
materiais em estudo.

Bohr

A descoberta do núcleo atômico não teve um grande impacto, a


princípio. Na verdade, os resultados dos experimentos de

68
Manchester não foram levados muito a sério inicialmente. O
próprio Rutherford permaneceu cauteloso e discreto. Na primeira
conferência de Solvay, realizada poucos meses depois que
publicou seus resultados, Rutherford não se pronunciou sobre o
assunto, que, de resto, não entrou na pauta das discussões. Um ano
depois, quando Rutherford recebeu a visita de um jovem físico
dinamarquês, essa situação mudou radicalmente.

Niels Bohr nasceu em 1885 (seis anos após Einstein), em


Copenhagen. Aos dezoito anos, ingressou na Universidade de
Copenhagen, onde obteve o grau de doutor, em 1911. O tema da
sua tese foi a aplicação da recente teoria do elétron à descrição das
propriedades dos metais. Bohr demonstrou que certas propriedades
magnéticas dos sólidos não poderiam ser explicadas pela Física
tradicional. Como a legislação dinamarquesa exigia que as teses
fossem redigidas na língua do país, o trabalho de Bohr teve alcance
muito limitado.

Logo após completar seu doutorado, Bohr recebeu uma bolsa de


estudos da Fundação Carlsberg (a maior cervejaria dinamarquesa)
para um pós-doutorado com duração de um ano. Seu destino foi o
laboratório Cavendish, em Cambridge, onde trabalharia sob a
supervisão de J.J. Thomson. O laboratório Cavendish e o Instituto
Físico-Técnico de Berlim eram então os principais centros de
pesquisa em Física na Europa. A maior parte do trabalho teórico
sobre a estrutura dos átomos e moléculas era feita em Cambridge.
Trabalhar com Thomson era o sonho de consumo da maioria dos
jovens físicos.

A experiência em Cambridge, entretanto, não foi como Bohr


esperava. Os últimos três meses de sua estadia na Inglaterra, já no
começo de 1912, foram passados em Manchester. E foi ali que
Bohr teve o primeiro contato com a Física Atômica. Foram três
meses que mudaram a sua vida. De volta à sua amada Dinamarca,
em 1913, Bohr desenvolveu um modelo para o átomo, publicado
na revista inglesa Philosophical Magazine. Foi uma série de três

69
artigos que entraram para a história e o tornaram mundialmente
famoso, aos 28 anos.

Na sua curta estadia em Manchester, Bohr se deu conta de que a


Eletrodinâmica de Maxwell não poderia explicar os fenômenos em
escala atômica. Abandonando a teoria clássica, Bohr deu o passo
decisivo: reuniu os resultados de Rutherford com as teorias de
Planck e Einstein, trazendo o quantum para o interior do átomo.
Bohr tratou, inicialmente, do átomo de hidrogênio, o mais simples
de todos, com apenas um elétron (átomos com mais de um elétron
são extremamente complicados).

Para ilustrar o seu raciocínio, imagine um disco com um pontinho


preto pintado na borda e uma linha reta horizontal passando pelo
seu centro (ilustração na página seguinte). À medida que o disco
gira com velocidade constante, observamos a projeção do ponto na
borda sobre a reta horizontal. O disco dá meia volta e o ponto na
borda, inicialmente em A, vai até B. Mais meia volta e o ponto vai
de B para A. À medida que o disco gira, a projeção oscila em torno
do seu centro, indo do ponto A ao ponto B, retornando a A e
novamente a B, como um oscilador harmônico.

Bohr imaginou um modelo em que os elétrons se movem com


velocidade constante ao longo de órbitas circulares em torno do
núcleo. O movimento circular é periódico e pode ser comparado
com um oscilador harmônico: a sua frequência é número de voltas
completas por unidade de tempo. As órbitas têm características
básicas: a frequência de oscilação e a distância ao núcleo atômico.

E agora, o passo audacioso de Bohr: em analogia com a teoria de


Planck, os elétrons poderiam ter apenas um certo número de órbitas
possíveis, em vez das infinitas órbitas previstas pela Física
Clássica. O que vale para a radiação de corpo negro e para o calor
específico dos sólidos deveria valer também para os elétrons no
interior dos átomos. As órbitas possíveis seriam os estados
estacionários dos elétrons atômicos.

70
Um disco gira no sentido horário com um ponto marcado na sua
borda. As sucessivas posições do ponto são ilustradas com
bolinhas cheias. Em cada posição, projeta-se a sombra do ponto
sobre a linha que passa pelo centro do círculo (bolinhas vazias). À
medida que o disco gira, a projeção do ponto na linha horizontal
oscila em um movimento harmônico entre os pontos A e B, cuja
frequência é a mesma com que o disco gira.

A frequência de oscilação está diretamente associada à energia.


Uma frequência alta significa que o elétron dá muitas voltas por
unidade de tempo, o que equivale a dizer que o elétron se move
com alta velocidade e que, portanto, possui muita energia. Assim,
quanto maior a frequência de oscilação, maior a energia.

Bohr tinha um caráter e uma coragem intelectual extraordinários,


que nunca abandonou ao longo da sua vida. Seu modelo atômico
era muito ousado, supunha que ao longo da órbita o elétron não
emitiria radiação, contrariando a Eletrodinâmica de Maxwell.
Haveria uma frequência fundamental, correspondendo à órbita
mais próxima do núcleo e de menor energia. As frequências das
demais órbitas, mais afastadas, seriam múltiplos inteiros da
frequência fundamental.

A energia da órbita fundamental seria dada por uma fórmula


parecida com a dos osciladores de Planck e dos quanta de luz

71
Einstein: E1 = 1/2 hn1. Novamente, a constante h de Planck aparece
multiplicando uma frequência fundamental, n1. A energia das
demais órbitas seriam En = n/2 hn1, com n = 2, 3, 4, ....

A única órbita estável no átomo de hidrogênio seria a primeira, a


órbita fundamental. Todas as demais seriam instáveis. Os elétrons
poderiam passar da órbita fundamental a outra, de maior energia,
absorvendo um fóton. Seria um “salto quântico”, que só ocorreria
se a energia do fóton fosse exatamente igual à diferença de energia
entre as órbitas.

Mas na nova órbita, os elétrons ficariam instáveis e logo


retornariam ao estado fundamental, em um outro salto quântico. Na
transição para a órbita fundamental, um fóton seria emitido. A
energia desse fóton seria igual à diferença de energia entre as duas
órbitas, Eg = En – E1.

E aqui voltamos ao problema dos espectros de emissão, cuja


origem não tinha uma explicação. Recordando: os espectros de
emissão são registros da radiação emitida pelos átomos de um gás
quando este é aquecido. Cada elemento possui seu próprio
espectro. Os espectros de emissão consistem em linhas bem
definidas, as linhas espectrais, sobre um fundo preto.

O modelo de Bohr resolveu o enigma do espectro de emissão do


hidrogênio. Se houvesse um número infinito de órbitas, de forma
que os elétrons pudessem passar de uma à outra de forma contínua,
o espectro de emissão seria parecido com o arco-íris. Mas como há
apenas um número finito de órbitas possíveis, há um número finito
de frequências dos fótons emitidos pelos átomos na transição entre
as órbitas. Essa é a origem das linhas espectrais.

No mesmo ano em que Bohr nasceu, em 1885, o matemático suíço


Johann Balmer descobriu uma fórmula empírica que reproduz com
precisão o espectro de emissão do hidrogênio. Balmer era professor
do ensino médio na Basiléia, onde dava aulas em uma escola para
meninas. Durante toda a sua vida, Balmer publicou apenas três

72
artigos científicos, e o primeiro deles foi aos 60 anos de idade.
Nesse artigo, que o imortalizou, Balmer apresentou a fórmula
empírica para as linhas espectrais do hidrogênio, que se tornou
conhecida com a fórmula de Balmer.

Ilustração simplificada do modelo de Bohr para o átomo de


hidrogênio. Os níveis de energia são definidos pelo número
quântico n. A transição entre dois níveis é só possível se o elétron
absorve ou emite um fóton cuja energia seja igual à diferença de
energia entre os dois níveis.

Com seu modelo atômico, Bohr conseguiu deduzir a fórmula de


Balmer, oferecendo, pela primeira vez, uma explicação física para
o espectro de emissão do hidrogênio. Um feito extraordinário,
imediatamente reconhecido por grande parte da comunidade
científica. As ideias revolucionárias de Bohr foram rejeitadas por
parte da “velha guarda”, físicos cuja formação e carreira se
desenvolveram na era pré-quântica. Mas para muitos, sobretudo
para os mais jovens, o trabalho de Bohr foi inspirador e teve uma
aceitação entusiasmada.

O modelo atômico proposto por Bohr era ainda incompleto e, em


certo sentido, contraditório, pois combinava o conceito clássico de
trajetória com a teoria quântica de Planck e Einstein.
Posteriormente, o “salto quântico” se tornou o centro de uma
polêmica envolvendo Bohr e Einstein. De toda forma, Bohr deu um

73
passo decisivo em direção ao modelo atômico definitivo, baseado
na MQ. Pelos seus trabalhos de 1913, Bohr foi laureado com o
Prêmio Nobel em 1922.

Bohr foi um grande personagem, um cidadão do mundo. Em 1920,


ele fundou o Instituto de Física Teórica da Universidade de
Copenhagen. Seu instituto se logo se tornou um ponto de
referência, para onde convergiam muitos dos principais físicos,
especialmente os criadores da MQ. Como veremos a seguir, dali
surgiu uma interpretação do que os conceitos introduzidos pela MQ
significam: chamada interpretação de Copenhagen.

Nuvens carregadas, vindas da vizinha Alemanha nazista,


chegavam à Dinamarca anunciando os tempos difíceis que estavam
por vir. Durante a década de 1930, Bohr abrigou muitos refugiados
do nazismo. Até que em 1943 chegou a sua vez de se refugiar.
Avisado de que o Instituto seria tomado por militares e que seria
preso, Bohr conseguiu escapar com sua família, refugiando-se na
Suécia. Dali seguiu até a Inglaterra, mas seu destino final foram os
Estados Unidos, onde atuou com consultor do projeto Manhattan,
que construiu a primeira bomba atômica. Pelo resto de sua vida,
Bohr foi um árduo defensor do uso pacífico da energia nuclear.

74
4

Mecânica Quântica

A Mecânica Quântica (MQ) e a Teoria da Relatividade (TR)


formam a base da Física contemporânea. A MQ se estendeu por
praticamente todas as áreas da Física, introduzindo um novo olhar
sobre a Natureza, e um novo conceito de “realidade”. A MQ está
por toda parte, mesmo que não demos conta.

Os conceitos da teoria quântica são difíceis de assimilar, mesmo


para os físicos. Durante décadas, Bohr e Einstein protagonizaram
um intenso debate sobre como interpretá-los. A discussão sobre a
interpretação da MQ se prolonga até os dias de hoje. Mas operam
muito bem com a MQ, uma teoria bem estabelecida, testada
diariamente em todos os laboratórios ao redor do mundo, há um
século. Não é exagero dizer que a MQ está na raiz do mundo
contemporâneo e digital.

A origem da estranheza das ideias da MQ está no fato de os


fenômenos quânticos serem muito diferentes do que estamos
acostumados no nosso dia a dia. Eles só se manifestam no mundo
microscópico e não podem ser percebidos na escala humana.
Veremos, ao longo desse capítulo, que não há razão para supor que
as mesmas leis que regem o nosso mundo macroscópico sejam
válidas também para descrever os fenômenos em escala atômica.

75
A TR foi obra de um único gênio, Einstein. Partindo de um fato
que era conhecido há mais de 200 anos e usando apenas o
raciocínio lógico, Einstein revolucionou o conceito de espaço e
tempo. Mas com a MQ foi diferente. Ela foi uma criação coletiva,
gestada durante 25 anos. A MQ nasceu de uma crise aguda na
Física, causada pela a descoberta de fenômenos que não podiam
ser explicados pelas teorias de Newton e Maxwell.

Planck, Einstein e Bohr criaram teorias específicas para alguns


fenômenos, mas faltava uma teoria mais geral, que sintetizasse as
novas ideias, uma única teoria que explicasse do corpo negro à
estrutura atômica. Essa síntese foi feita independentemente por
Werner Heisenberg, Erwin Schrödinger e Paul Dirac, entre 1925 e
1926.

“Ondas de matéria”

Um dos conceitos mais estranhos da MQ é a dualidade onda-


corpúsculo: quando interagem, todas as partículas subatômicas,
incluindo o fóton, podem se comportar como ondas ou como
corpúsculos. Todas possuem uma “personalidade dupla”, mas
sempre uma de cada vez. A forma como a partícula interage
depende tanto da sua energia como do tamanho da outra parte da
interação (elétrons, prótons, núcleos atômicos etc.).

76
O 7º duque de de Broglie, Louis-Victor-Pierre-Raymond, físico
francês mais conhecido como Louis de Broglie, obteve o título de
doutor, em 1924, defendendo uma tese para lá de audaciosa: as
partículas subatômicas massivas também poderiam se comportar
como ondas. Era uma tese tão exótica, que o seu orientador, Paul
Langevin, enviou uma cópia a Einstein, solicitando um parecer.
Einstein ficou entusiasmado com as conclusões do trabalho,
conclusões a que ele mesmo havia chegado alguns meses antes.

No dia da defesa da tese, de Broglie fez a sua exposição. Em


seguida, como de praxe, houve a arguição por parte da banca. Um
dos examinadores perguntou a de Broglie se as supostas “ondas de
matéria” poderiam ser observadas experimentalmente. de Broglie
respondeu que sim, e sugeriu um experimento em que cristais são
expostos a um feixe de elétrons, em tudo semelhante os dos
britânicos Willian Henry Bragg e Willian Lawrence Bragg, pai e
filho, respectivamente.

Os Bragg, em 1913, iluminaram uma folha de níquel com um feixe


de raios-X. Dependendo do ângulo de incidência, o feixe pode ser
refletido como a luz em um espelho. Os raios-X penetram algumas
camadas da rede cristalina. Em cada camada, uma parte do feixe é
refletida. A imagem do feixe refletido é registrada em uma película
fotográfica.

Os átomos de uma rede cristalina se organizam formando padrões


geométricos regulares. Numa imagem simplificada, formam uma
sequência de planos paralelos e igualmente espaçados. Quando o
feixe incide, cada plano atua como um espelho, onde cada átomo é
um centro espalhador independente.

A difração de Bragg, como o fenômeno ficou conhecido, ocorre


quando o comprimento de onda da radiação incidente é comparável
ao espaçamento entre os planos da rede cristalina. As ondas
refletidas em diferentes profundidades no cristal se sobrepõem e
interferem. Na interferência, as ondas podem tanto se somar como

77
se anular, se estiverem defasadas por um comprimento de onda. O
resultado é um padrão de claros e escuros: a difração de Bragg.

Ilustração da difração de Bragg. Acima, uma imagem simplificada


de uma rede cristalina, em que os átomos formam planos
paralelos. Cada plano atua como se fosse um espelho
independente. A radiação incidente é espalhada pelos diversos
planos e o resultado são ondas que se superpõem. Pode-se
observar uma interferência construtiva, quando as amplitudes se
somam, ou destrutiva, quando as amplitudes se subtraem.
Fonte:https://physics.stackexchange.com/questions/297554/braggs-diffraction-huygens-
principle

Com a difração dos raios-X, os Bragg demonstraram pela primeira


vez que os átomos de um cristal são dispostos em arranjos
geométricos regulares que se repetem em todas as direções. É
assim que os átomos se organizam nos metais no estado sólido.

78
Essa demonstração permitiu que os resultados dos experimentos
com feixes de elétrons fossem interpretados corretamente.

Os experimentos sugeridos por de Broglie foram realizados pouco


depois da defesa da sua tese. Foram realizados dois experimentos
independentes, e ambos comprovaram a hipótese de que também
os elétrons podem se comportar como ondas. Os experimentos
foram realizados pelos estadunidenses Clinton Davisson e Lester
Germer, e pelo britânico George Thomson. Eles expuseram um
alvo de níquel a um feixe de elétrons, em vez de raios-X.

Davisson, Germer e Thomson observaram que os elétrons se


refletiam nos diversos planos do cristal, resultando em uma figura
de interferência semelhante à dos raios-X. Foi uma confirmação
espetacular a hipótese de de Broglie. Elétrons, assim como a luz,
também podem ser comportar ora como corpúsculos, como ondas!
Louis de Broglie, Davisson, Germer, Thomson, todos receberam o
Prêmio Nobel de Física (em anos distintos), assim como Bragg pai
e Bragg filho.

Uma “onda de matéria” é um conceito bastante estranho.


Intuitivamente, a noção que temos de “partícula” é a de um
corpúsculo: uma quantidade de matéria concentrada numa região
espacial muito pequena e bem delimitada, cuja posição e
velocidade podem ser determinadas em qualquer momento. Como
uma bola de bilhar em miniatura.

As ondas, ao contrário, se estendem pelo espaço. Não há sentido


em falar sobre a “posição” de uma onda. Ao contrário das
partículas, as ondas não transportam matéria, só energia. Enquanto
a energia transportada pela partícula é bem localizada e acompanha
o seu movimento, a energia transportada pelas ondas é dividida
pela região do espaço onde a ondulação ocorre. As duas formas –
ondas e partículas – são contraditórias e mutuamente excludentes.
Não é possível ser as duas ao mesmo tempo. Mas então, o que são
as ondas de matéria? Como é possível o elétron, sempre tido como
um corpúsculo, ser também uma onda?

79
A difração é um fenômeno típico de ondas. A imagem à direita
registra a difração de Bragg, produzida por um feixe de raios-X
incidindo sobre uma folha de alumínio. À esquerda, vemos o que
ocorre quando o feixe de raios-X é substituído por um feixe de
elétrons.
Fonte: http://courses.washington.edu/phys431/electron_diffraction/

As ondas, ao contrário, se estendem pelo espaço. Não há sentido


em falar sobre a “posição” de uma onda. Ao contrário das
partículas, as ondas não transportam matéria, só energia. Enquanto
a energia transportada pela partícula é bem localizada e acompanha
o seu movimento, a energia transportada pelas ondas é dividida
pela região do espaço onde a ondulação ocorre. As duas formas –
ondas e partículas – são contraditórias e mutuamente excludentes.
Não é possível ser as duas ao mesmo tempo. Mas então, o que são
as ondas de matéria? Como é possível o elétron, sempre tido como
um corpúsculo, ser também uma onda?

A resposta a ambas as perguntas começa por corrigir o verbo: o


elétron não é uma onda, ele se comporta como uma onda. As
partículas elementares não são nem ondas nem corpúsculos. Na
verdade, não sabemos o que elas são, mas sabemos com bastante
precisão como elas se propagam e como interagem umas com as
outras. A MQ responde à pergunta “como funciona?”.

80
Para descrever o mundo microscópico é necessário um novo
conceito de localização. É impossível determinar a trajetória exata
de uma partícula, ou seja, determinar sua posição e sua velocidade
com precisão ilimitada. Não se trata de uma questão tecnológica: é
uma limitação intrínseca e insuperável.

Para saber alguma coisa sobre qualquer sistema físico é preciso


realizar algum tipo de medida sobre ele. Esse é um princípio
universal, válido em qualquer escala de tamanho. Realizar medidas
significa interagir de alguma forma com o sistema em estudo. Não
alteramos apreciavelmente a temperatura de um corpo quando
usamos um termômetro para medi-la, mas em sistemas
microscópicos, como um elétron, qualquer forma de medida causa
uma perturbação incontornável. Essa é a mensagem contida no
Princípio de Incerteza de Heisenberg, sobre o qual falarei mais
adiante.

Na MQ, uma onda é associada à propagação de cada partícula.


São ondas de um tipo especial: ondas de probabilidade. Essas
ondas são a forma como a propagação das partículas é
representada na MQ, substituindo o conceito de trajetória. Como
os outros tipos de ondas, também sofrem difração e interferência,
mas diferem em um aspecto fundamental. As ondas (EM, sonoras
ou mecânicas) transportam energia. Sentimos na pele o calor da luz
do Sol. A quantidade de energia que elas transportam está
associada à amplitude dessas ondas.

As ondas de probabilidade transportam informação. Elas não são


as partículas reais, mas representam a sua propagação no espaço e
no tempo. A amplitude, nesse caso, está relacionada com a
probabilidade de encontrar a partícula em determinada região e em
certo momento. Na verdade, toda a informação disponível sobre
um sistema físico microscópico está contida nas ondas de
probabilidade.

81
Thomas Young, em 1801 (capítulo 1), demonstrou a interferência
entre raios luminosos que passam por um anteparo com duas
fendas. O experimento da dupla fenda, como ficou conhecido, pode
ser repetido substituindo o feixe de luz por um feixe de elétrons. É
bastante útil para ilustrar a ideia da dualidade onda-corpúsculo,
assim como a natureza das ondas de probabilidade.

Imagine que a fonte de elétrons seja um dispositivo capaz de enviar


um elétron de cada vez, sempre com a mesma energia. Os elétrons
são lançados sobre um anteparo onde há duas fendas. Depois do
anteparo, há um detector de elétrons. Assim, podemos registrar a
posição onde cada elétron atinge o detector, após ter passado por
uma das duas fendas do anteparo.

Partículas “clássicas” são muito maiores que a escala atômica.


Passariam pelas aberturas A ou B sem serem desviadas, e
sensibilizariam o detector na direção das suas linhas de voo
originais. Com elétrons, no entanto, a situação é bem diferente. Os
elétrons são lançados um a um e só podem chegar ao detector
passando ou pela fenda A ou pela B. Após um tempo
suficientemente longo para acumular muitos elétrons no detector,
observamos a mesma figura de interferência produzida pela luz:
uma sequência de regiões claras intercaladas com regiões escuras.

O detector, obviamente, sempre registra o impacto de um número


inteiro de partículas, nunca uma fração de um elétron. Imagine que
a passagem B esteja inicialmente fechada (supondo que fendas
sejam suficientemente estreitas). No detector observa-se uma
figura de difração. Em um determinado ponto x do detector, a
probabilidade de observar um elétron que necessariamente passou
pela fenda A seria PA(x). Fechando agora a passagem A, vemos
novamente a difração, e a probabilidade de observar um elétron no
mesmo ponto x do detector, tendo agora passado necessariamente
pela fenda B, seria PB(x). Ao final do experimento, em que apenas
uma das fendas é aberta de cada vez, a probabilidade de observar
elétrons no ponto x do detector será P(x) = PA(x) + PB(x).

82
No mundo microscópico, a forma como uma medida é realizada
afeta diretamente o seu resultado. Em escalas macroscópicas
(esquerda), as partículas passam pelas fendas A e B sem serem
desviadas. Assim como as “partículas clássicas”, os elétrons
(direita) atingirão o detector passando por uma das fendas.
Quando não é possível determinar por qual fenda o elétron passou,
no detector veremos um padrão de interferência semelhante ao que
é observado com a luz. Mas se detectores adicionais forem
instalados em cada fenda, determinando o percurso do elétron, a
interferência desaparece.

Com as duas fendas abertas ao mesmo tempo, não teríamos como


saber por qual delas o elétron passou. O fato de haver mais de uma
forma de o elétron atingir o ponto x causa interferência entre duas
ondas de probabilidade. A consequência é que probabilidade total
P(x) é diferente da soma PA(x) + PB(x). No detector de elétrons
observaríamos a mesma figura de interferência que vemos com a
luz! No entanto, se imediatamente após o anteparo houvesse um
dispositivo que detectasse a fenda pela qual o elétron passou, a
interferência desapareceria, e teríamos o mesmo resultado anterior.

Há diferentes interpretações para esse fato, mas o que está por trás
é um novo conceito de “realidade” no mundo microscópico. Não
sabemos ao certo o que acontece com os elétrons entre o momento
em que são emitidos pela fonte e o momento em que são detectados

83
após o anteparo. Na MQ, só podemos dizer algo sobre um sistema
realizando algum tipo de medida sobre ele. E “medida” significa a
interação entre o sistema (um elétron ou um fóton, por exemplo)
com algo que sirva como detector. As partículas têm uma realidade
concreta no momento em que interagem.

Não sabemos por que as constantes fundamentais da Física –


velocidade da luz, constante de Planck, carga elétrica do elétron,
etc. – têm o valor que têm. Da mesma forma, não sabemos por que
a informação sobre o estado quântico de uma partícula se propaga
como uma onda. São fatos para os quais não temos uma explicação.
Felizmente, sabemos trabalhar bem com eles. Na Ciência, é
fundamental fazer as perguntas certas.

“Ondas de probabilidade”

Erwin Schrödinger foi um físico austríaco, nascido em Viena, em


1887. Após a Primeira Guerra, quando serviu como oficial de
artilharia em uma fortaleza austríaca, Schrödinger foi contratado
pela Universidade de Zurique. Logo no início de sua carreira,
Schrödinger teve contato com as novas ideias da Física quântica ao
ler os trabalhos de Planck, Einstein, Bohr e de Broglie. Em
particular, Schrödinger ficou bastante impressionado com a tese de
doutorado de Louis de Broglie, que lera por indicação de Einstein.

84
Schrödinger foi uma figura singular muito pouco convencional,
mesmo para os padrões atuais. Sua vida foi bastante atribulada. Nos
anos 1920, foi acometido por tuberculose. Por conta da doença,
passou algumas temporadas em um sanatório nas montanhas da
Suíça. Em uma dessas temporadas, Schrödinger escreveu seu
trabalho mais importante, pelo qual recebeu o Prêmio Nobel de
1933: a teoria ondulatória da MQ.

Schrödinger publicou uma série de quatro artigos na prestigiosa


revista Annalen der Physik. Foram quatro trabalhos históricos, em
que ele apresentou a equação básica da MQ, que ficou conhecida
como a equação de Schrödinger. É uma equação de onda, ou seja,
uma equação cuja solução é uma onda se propagando no espaço e
no tempo. Com ela, Schrödinger conseguiu reproduzir não só a
frequência como também a intensidade das linhas espectrais do
átomo de hidrogênio.

A equação de Schrödinger representa para a dinâmica dos átomos


o mesmo que as leis de Newton representam para o movimento
planetário. Ela apareceu logo no primeiro trabalho, publicado em
janeiro de 1926 e considerado um dos artigos científicos mais
importantes do século XX.

As soluções da equação de Schrödinger são as ondas de


probabilidade, também chamadas funções de onda da partícula. A
equação é alimentada com as interações a que um sistema quântico
está sujeito, em como resultado, e tem como solução a onda que
transporta toda a informação possível sobre o sistema quântico
representado. Sabemos que não é possível seguir a trajetória de um
elétron no interior de um átomo. A equação de Schrödinger permite
determinar as regiões onde os elétrons podem ser encontrados.
Essas regiões são os orbitais atômicos, as funções de onda dos
elétrons atômicos.

85
As ondas de probabilidade descrevem como todas as partículas
se propagam, sejam prótons elétrons, ou fótons. A amplitude das
ondas está associada à probabilidade de encontrar a partícula em
determinada região do espaço e em determinado intervalo de
tempo, e a frequência está associada à energia da partícula.

As ondas de probabilidade, em geral, são combinações de várias


ondas mais simples, chamadas ondas planas (imagine uma praia
muito extensa, onde as ondas arrebentam ao mesmo tempo e
sempre à mesma distância da areia. Vista do alto, as cristas das
ondas formam linhas retas se deslocando em direção à areia). Cada
onda plana tem uma frequência bem definida, ou seja, representa a
propagação de uma partícula com um valor bem determinado de
energia. O resultado da superposição dessas ondas é o que
chamamos pacote de onda.

É possível combinar muitas ondas planas e formar pacotes de onda


com uma extensão espacial bem pequena, o que significa
determinar a posição da partícula com maior precisão. Mas à
medida que adicionamos mais ondas, perdemos informação sobre
a energia da partícula. Da mesma forma, se representamos o
deslocamento da partícula por uma única onda, sabemos com
precisão a sua energia e velocidade, mas ela pode estar em qualquer
lugar, pois essa única onda se estende indefinidamente pelo espaço.

Fótons (ou elétrons) com comprimentos de onda Dx relativamente


grandes têm energia relativamente pequena, e vão interagir com os
átomos da superfície de um metal como se estes fossem
corpúsculos de matéria sem estrutura interna. A incerteza na
localização dos fótons (ou elétrons) é grande comparada com o
tamanho dos átomos, e isso faz com que os fótons interajam como
ondas EM macroscópicas. É um efeito coletivo que se observa, por
exemplo, na difração de Bragg.

86
Mas se o comprimento de onda for suficientemente pequeno, os
fótons terão mais energia, penetrarão no átomo e “enxergarão” os
elétrons em seu interior. Interagirão com eles individualmente,
comportando-se como se fossem corpúsculos. Nesse caso, teremos
o efeito fotoelétrico.

Ilustração da superposição de várias ondas, resultando num


pacote de ondas localizado numa região Dx. Na superposição de
ondas as amplitudes se somam ou se subtraem.

A relação entre a energia de uma partícula material e a frequência


da sua função de onda correspondente é conhecida como relação
de de Broglie. É uma fórmula idêntica à dos fótons na teoria de
Einstein sobre o efeito fotoelétrico: E = hn, onde n é a frequência
da onda e h a constante de Planck.

Esse é um ponto fundamental para a Física de Partículas. Quanto


maior for a energia da partícula, maior será a frequência da sua
onda de probabilidade. Frequências altas correspondem a pequenos
comprimentos de onda. O poder de resolução – a menor distância
entre dois pontos que pode ser observada – depende do
comprimento de onda. Partículas energéticas são, portanto, pontas
de prova com alto poder de resolução e de grande penetração na
matéria. Por essa razão são construídos aceleradores de partículas
cada vez mais potentes, capazes de produzir feixes muito
energéticos, como se fossem microscópios gigantescos.

87
O comportamento dos fótons e das partículas subatômicas com
massa quando interagem com outros sistemas depende da
frequência dos seus “pacotes de onda”. Ondas com alta frequência
têm maior poder de resolução: são capazes de interagir com
objetos menores.

Os raios-X podem atravessar a pele e os músculos até serem


absorvidos pelos ossos, o que é impossível para a luz. A
microscopia com raios-X permite observar a matéria com muito
mais detalhe, numa escala muito menor que a dos microscópios que
usam a luz. Os microscópios eletrônicos usam feixes energéticos
de elétrons, que têm comprimentos de onda ainda menores que os
dos raios-X. Por isso permitem observar estruturas em uma escala
ainda menor. As fotografias das organelas celulares ou de
cromossomos, nos livros de Biologia, são feitas com microscópios
eletrônicos.

88
Incerteza

A teoria ondulatória de Schrödinger não é a única formulação da


MQ. Uma teoria alternativa havia sido proposta meses antes por
Werner Heisenberg, um físico alemão nascido em 1901.

Heisenberg fez parte de uma geração de físicos geniais que


nasceram na aurora do século XX junto com o quantum. Quando
Heisenberg iniciou sua formação universitária, a Física já havia
ingressado na era quântica. Talvez por isso sua imaginação não
tenha sido limitada pelas amarras da Física Clássica. Podemos
fazer um paralelo com a das crianças de hoje, que nascem no
mundo digital, mas convivem com seus avós, nascidos no mundo
analógico. A “geração quântica” – Heisenberg, Dirac, Pauli, de
Broglie, Max Born, entre outros -, e a “velha guarda” – Planck,
Rutherford, Einstein e Bohr – refundaram a Física em bases
completamente diferentes.

Com a precocidade comum aos gênios, Heisenberg publicou sua


versão da MQ, a mecânica matricial, em 1925, apenas um ano após
a conclusão do seu doutorado. Coube ao inglês Paul Dirac, sobre o
qual falarei bastante ainda, demonstrar que as versões da teoria
quântica de Heisenberg e Schrödinger são completamente
equivalentes, produzem os mesmos resultados seguindo caminhos

89
diferentes. Dirac, que havia desenvolvido sua própria versão da
mecânica matricial, deu os contornos finais à MQ.

A teoria quântica introduziu questões filosóficas sobre o que é


realidade e sobre o que significa uma observação científica. Ainda
hoje, passados 100 anos, debate-se a interpretação dos seus
conceitos. Embora não houvesse dúvidas sobre os aspectos
matemáticos da teoria, acalorados debates opondo grandes nomes
da Física ocorreram nos anos que se seguiram à criação da MQ.

Einstein e de Broglie, por exemplo, acreditavam que as partículas


tinham uma posição e momento linear (produto da massa pela
velocidade da partícula) definidos em todos os instantes, mesmo
que não pudéssemos determiná-los através de uma medida.
Heisenberg, ao contrário, afirmava que essa noção de “real” está
fora do escopo da Ciência. A “realidade” estaria restrita apenas
àquilo que pode ser observado de alguma forma, e observação
significa medição. A MQ fornece apenas informação sobre como
as partículas interagem, mas não podemos dizer o que elas são.
Heisenberg também é conhecido por formular outro princípio
fundamental da teoria quântica: o Princípio de Incerteza. Esse
princípio estabelece a impossibilidade de se determinar, ao mesmo
tempo e com precisão infinita, certos pares de quantidades, como,
por exemplo, a posição de um elétron e o seu momento linear.

A Física, como toda Ciência, é baseada na experimentação, na


observação sistemática. Observar significa realizar algum tipo de
medida, o que implica inevitavelmente interagir de alguma forma
com o sistema a ser observado. Por mais delicado que seja o
processo de medida, ele sempre interferirá com o sistema estudado.
Os efeitos da ação do observador são irrelevantes em sistemas
macroscópicos, mas no caso de partículas subatômicas, qualquer
forma de medida causa uma perturbação inevitável, e esse fato
impõe limitações incontornáveis à capacidade de observação,
independente da tecnologia utilizada.

90
Um radar envia sinais (ondas EM na frequência do radio) cobrindo
uma região do céu. Em um dado momento, o radar detecta o eco
dos sinais que foram emitidos em uma determinada direção, o que
indica a presença de um avião. O tempo transcorrido entre a
emissão do sinal e recepção do seu eco determina a distância do
objeto. A distância e a direção especificam de forma precisa a
posição do avião. O impacto do sinal do radar não altera em nada
a trajetória dos aviões, que são objetos muito pesados, de forma
que os aviões podem ser continuamente monitorados pelos radares.

Mas como poderíamos determinar a posição de um elétron em um


átomo? E como poderíamos medir sua velocidade? Medir a
velocidade requer determinar a posição em dois instantes de tempo
diferentes. Requer também que a trajetória não se altere com o
processo de medida. Podemos imaginar uma espécie de micro
radar, um dispositivo capaz de emitir um único fóton de cada vez.
Mas ao contrário dos aviões, a trajetória do elétron seria alterada
drasticamente pela colisão com o fóton, de forma que seria
impossível determinar sua velocidade.

A luz, o som, as ondas do mar ou as ondas de probabilidade da MQ,


todas sofrem refração, difração e interferência. Todos os
fenômenos ondulatórios são governados pelas mesmas leis e
descritos por equações do mesmo tipo. O Princípio de Incerteza
também é uma propriedade de todos os fenômenos ondulatórios,
independente de sua natureza, mas só é relevante para sistemas
microscópicos.

Na Mecânica Newtoniana, o conceito de trajetória é central:


sabendo a posição e a velocidade de um corpo num dado momento,
bem como as forças que atuam sobre ele, é possível determinar
exatamente sua posição e velocidade em qualquer instante futuro.
Os astrônomos conseguem dessa forma determinar com precisão
as órbitas dos objetos celestes no Sistema Solar. Mas o mundo
quântico é muito diferente, nele não há sentido em falar sobre
trajetórias. Se soubéssemos exatamente a posição de um elétron,

91
nada saberíamos sobre sua velocidade, nem poderíamos prever em
que direção e com que rapidez ele se desloca.

spin

Durante as décadas de 1910 e 1920, os físicos exploraram o novo


mundo quântico através da Física Atômica. Uma das principais
ferramentas usadas pelos físicos nessa exploração foi a
espectroscopia. Os espectros revelam o que se passa no interior dos
átomos.

À medida que a espectrometria se tornava mais precisa, novos


detalhes apareciam. Um efeito peculiar chamou a atenção. Quando
a amostra analisada era colocada em um campo magnético, em vez
de linhas bem definidas e separadas, nos espectros de emissão
surgiam pares de linhas muito próximas. O efeito Zeeman, como
esse fenômeno se tornou conhecido, foi a primeira evidência de
uma nova propriedade que todas as partículas elementares
possuem, cuja origem é puramente quântica: o spin.

É difícil fazer analogias com alguma coisa que não existe no mundo
macroscópico, mas algumas ideias, ainda que imprecisas, ajudam
a compreender o que é o spin. O momento linear, ou quantidade
de movimento, é o produto da massa pela velocidade de um corpo.
Um caminhão carregado de areia descendo uma ladeira tem
momento linear muito maior do que uma bicicleta, e por isso é
muito mais difícil freá-lo. O momento linear é uma grandeza física
associada aos movimentos de translação.

O momento angular está associado aos movimentos de rotação.


Seu valor depende da massa e da velocidade de rotação do corpo.

92
O momento angular é um pouco mais complicado que o linear. A
Terra possui um momento angular devido ao movimento de
rotação em torno do Sol. Mas possui também um momento angular
intrínseco, originado do movimento de rotação em torno do próprio
eixo. O momento angular total da Terra é a soma desses dois
efeitos. Se a Terra fosse mais pesada, ou se girasse mais
rapidamente em torno do Sol ou de si mesma, seu momento angular
seria maior.

Uma esfera carregada eletricamente que gira em torno de si mesma


funciona como um ímã: possui um momento magnético. Quando a
a esfera é colocada em campo magnético, vai se alinhar com o
campo como a agulha de uma bússola. Podemos pensar no
momento magnético como uma seta: não basta determinar a
intensidade (o tamanho da seta), é necessário também especificar a
direção para onde a seta aponta. O momento magnético está
diretamente ligado o momento angular intrínseco. São exemplos
do que chamamos de grandezas vetoriais, que são definidas pela
intensidade e direção.

Se um elétron fosse uma esfera minúscula girando em torno de si,


o movimento de rotação daria origem a um momento angular
intrínseco, ou spin. Sendo uma esfera carregada eletricamente, o
movimento de rotação também resultaria num momento
magnético, o que faria com que o elétron se comportasse como a
agulha de uma bússola.

Houve muitas tentativas de formular teorias em que do elétron


fosse uma esfera girando sobre o próprio eixo. Todas fracassaram.
Para gerar o spin e o momento magnético do elétron, a velocidade
de rotação deveria ser muitas vezes maior que a velocidade da luz.
A Física Clássica não pode explicar o spin.

93
Elétrons são minúsculos ímãs, e como qualquer ímã, sofrem e
exercem forças magnéticas sobre outras partículas com spin e
carga elétrica. A seta indica a orientação dos polos norte e sul do
ímã.
Fonte: https://commons.wikimedia.org/w/index.php?curid=37984749

Elétrons são partículas elementares com carga elétrica e não têm


uma dimensão observável. Eles se comportam como minúsculos
ímãs quando são colocados em um campo magnético. O spin é uma
propriedade puramente quântica. Hoje sabemos que o spin dos
elétrons é a origem do magnetismo.

Os ímãs são feitos de substâncias que possuem uma magnetização


espontânea e permanente (é possível provocar uma magnetização
provisória em alguns materiais). Os ímãs são ferromagnetos. São
conhecidos desde a Antiguidade, mas sua origem só foi
compreendida no século passado. O ferromagnetismo é um
fenômeno puramente quântico, causado pelo spin dos elétrons.
Falarei mais sobre isso no capítulo 8.

O spin do elétron é uma propriedade muito peculiar: só existem


dois estados possíveis, usualmente chamados de up e down. É
como se os elétrons girassem em sentido horário (seta apontando
para baixo) ou anti-horário (seta apontando para cima). Esse fato
foi revelado em 1922, em um experimento realizado em Frankfurt,
na Alemanha, pelos físicos alemães Otto Stern e Walther Gerlach.

94
Stern e Gerlach usaram um feixe de átomos de prata emitidos por
um forno especial. A prata foi utilizada por ser um material
ferromagnético. Cada átomo de prata pode ser visto como um
minúsculo ímã. O forno foi utilizado para fazer com que a
orientação espacial dos spins dos átomos do feixe fosse aleatória,
ou seja, ao sair do forno, suas “setas” poderiam estar apontadas
para qualquer direção.

O feixe era emitido na direção horizontal, e atravessava uma região


onde havia um campo magnético. Ao atravessarem o campo
magnético, os átomos de prata sofriam uma força que desviava suas
trajetórias na direção vertical. Ao final, havia um painel que
registrava a posição de impacto dos átomos de prata. Como as
“setas” dos átomos de prata saíam do forno sem nenhuma direção
privilegiada, os desvios que suas trajetórias sofreriam ao passarem
pelo campo magnético produziriam uma faixa contínua no painel.

Esse era o resultado esperado. No entanto, Stern e Gerlach


observaram algo bem diferente. Os desvios se concentravam em
apenas duas posições, bem nítidas.

Stern e Gerlach encontraram as primeiras evidências de que o spin


do elétron também é quantizado, com apenas duas orientações
espaciais possíveis. Antes de entrarem na região com o campo
magnético, a orientação dos spins dos átomos de prata é uma
mistura desses dois estados possíveis. A ação do campo magnético
separa os dois estados. Mas o resultado do experimento de Stern e
Gerlach só seria totalmente entendido alguns anos depois.

95
Esquema do experimento de Stern e Gerlach. À direita, o forno
produz feixes de átomos de prata, que são colimados e entram na
região onde há um campo magnético com uma velocidade na
direção horizontal. A força magnética desvia os átomos de acordo
com a orientação espacial dos seus momentos magnéticos. O
experimento mostrou que essa orientação não pode ser qualquer.
O spin dos átomos de prata só pode existir em dois estados
quânticos.
Adaptado de https://pt.wikipedia.org/wiki/experimento_de_Stern-Gerlach#/media

A Mecânica Clássica é uma teoria determinista. É uma visão de


mundo baseada na ideia da continuidade: a Natureza não dá saltos.
Mas no seu dicionário, faltam palavras para descrever os
fenômenos do mundo quântico, onde a continuidade dá lugar à
granularidade. No microcosmo, o determinismo é substituído pela
incerteza das probabilidades. É uma mudança muito radical e
perturbadora na forma de descrever o mundo. Apesar de todo o seu
sucesso, não surpreende que a MQ tenha sofrido resistência
inicialmente, e que só aos poucos tenha sido bem assimilada.

Niels Bohr disse certa vez que “Quem nunca se chocou com a
teoria quântica, nunca entendeu uma palavra sobre ela”.
Schrödinger disse, a respeito da teoria quântica, que “Eu não gosto
dela, e lamento ter tido alguma coisa a ver com ela”. E Einstein,
em uma carta a Bohr, disse que “se tudo isso for verdade, será o

96
fim da Física”. Assim, cara leitora, caro leitor, se os conceitos da
MQ lhe causaram muita estranheza e algum desconforto, não
desanime, você está em ótima companhia.

Pauli

Em 1922, Bohr participava de uma série de palestras na


universidade de Göttingen, onde conheceu um jovem pesquisador,
austríaco, Wolfgang Pauli. Bohr ficou vivamente impressionado
com Pauli, e naquele mesmo ano, levou-o a Copenhagen. Ali, Pauli
começou a desenvolver a ideia que viria explicar como os elétrons
se distribuem nos átomos. Mais um passo fundamental para a
criação da MQ.

No início dos anos 1920, já se sabia que, no interior dos átomos, os


elétrons se distribuem em camadas, em torno do núcleo. Os
elétrons de cada camada têm a mesma energia e estão a certa
distância do núcleo. Sabia-se também que as camadas completas
são formadas por certos números de elétrons: 2, 8, 18 e 32. Esse
era o modelo que Bohr havia desenvolvido em 1913. Sabia-se
como os elétrons se distribuíam, mas faltava uma explicação do
porquê desses números.

97
Nas camadas mais externas dos átomos, os elétrons estão mais
longe do núcleo e têm mais energia. Nas camadas mais internas, os
elétrons estão mais fortemente ligados ao núcleo e têm menos
energia. Uma pergunta para a qual não havia ainda uma resposta:
por que todos os elétrons não se agrupam numa mesma camada, a
mais próxima do núcleo, onde têm menor energia? E qual seria o
papel do spin na organização interna dos átomos?

Pauli nasceu em Viena, em 1900, meses antes de Heisenberg, e


pouco mais de um ano antes de Dirac. Três físicos geniais da
mesma geração, que deram contribuições fundamentais à teoria
quântica da matéria quando ainda eram muito jovens.

Pauli graduou-se em 1918, ainda em Viena. Três anos depois, em


Munique, completou seu doutorado aos 21 anos de idade, orientado
por Arnold Sommerfeld. Sommerfeld logo se deu conta do
extraordinário talento do seu aluno. Propôs a ele escrever um
capítulo sobre a Teoria da Relatividade, a ser publicado em uma
enciclopédia de Ciências Matemáticas, uma espécie de precursor
da Wikpedia. No último ano do seu doutorado, Pauli entregou o
trabalho: 237 páginas e mais de 400 referências, que se tornou um
texto clássico sobre a Relatividade.

Pauli deu muitas contribuições importantes, mas duas se destacam:


em 1925, descobriu uma nova lei da Natureza, conhecida como o
Princípio de Exclusão, que lhe rendeu o Prêmio Nobel de Física
em 1945; em 1930, foi o primeiro a propor a existência dos
neutrinos para explicar a distribuição de energia dos elétrons no
decaimento b.

Pauli e Heisenberg foram colegas na Universidade de Munique,


ambos alunos de Arnold Sommerfeld. Ironicamente, Pauli e
Heisenberg foram agraciados com o Prêmio Nobel, enquanto
Sommerfeld, apesar de ter acumulado mais de 50 indicações, nunca
recebeu essa honraria.

98
No início dos anos 1930, depois do seu trabalho sobre o decaimento
b, Pauli viveu uma profunda crise pessoal. Divorciou-se de sua
primeira mulher e, logo em seguida, houve o suicídio da sua mãe.
Muito abalado, Pauli foi tratado pelo famoso psicanalista Carl
Jung. Mais dificuldades o aguardavam. Por sua origem judaica,
Pauli enfrentou sérios problemas após 1938, quando a Alemanha
nazista anexou a Áustria. Isso o obrigou a emigrar para os EUA em
1940.

O princípio de exclusão estabelece que dois elétrons não podem


ocupar simultaneamente um mesmo estado quântico. Na MQ, o
estado de um sistema – um elétron, um átomo, ou uma molécula –
é caracterizado por certas propriedades, como a energia ou o
momento angular, por exemplo. Certas grandezas que definem o
estado quântico são discretas, isto é, só podem ter determinados
valores, múltiplos inteiros de um valor mínimo, ou quantum.

Pauli descobriu o princípio de exclusão analisando algumas


regularidades observadas nos espectros de emissão de átomos com
muitos elétrons. Pauli afirmou que a distribuição dos elétrons
atômicos dependia de quatro números inteiros: o número quântico
principal, n, associado à camada em que o elétron se encontra; o
número quântico azimutal, l, associado ao momento angular orbital
do elétron; o número quântico magnético, ml, que especifica a
orientação espacial do momento angular orbital; e um novo número
quântico, que poderia ter apenas dois valores possíveis. Pauli, no
entanto, não especificou o esse novo número quântico significaria.

Poucos meses depois, o significado do novo número quântico


postulado por Pauli foi esclarecido, graças ao trabalho de dois
estudantes holandeses, Samuel Goudsmit e George Uhlenbeck.
Goudsmit e Uhlenbeck deduziram que os elétrons possuem um
momento angular intrínseco: o spin. O trabalho que os dois
estudantes publicaram explicava não só o experimento de Stern e
Gerlach como também o efeito Zeeman. Assim, a distribuição de
elétrons é governada por quatro números quânticos: n, l, ml, e o
número quântico de spin, ms.

99
Em átomos com muitos elétrons, as camadas mais internas são
preenchidas em primeiro lugar. Só há elétrons em uma determinada
camada quando todos os orbitais da camada inferior foram
preenchidos. A combinação dos quatro números quânticos e o
princípio de exclusão explicam a distribuição dos elétrons nas
diversas camadas. O número de elétrons na última camada
determina as propriedades químicas dos elementos.

O hidrogênio é o átomo mais simples, com apenas um próton e um


elétron. No primeiro nível de energia, o estado fundamental, o
elétron possui uma energia de ligação de 13,6 eV (eV = elétron-
Volt, unidade de energia empregada na Física de Partículas). Isso
significa que ele precisaria receber pelo menos essa quantidade de
energia para se libertar da atração do núcleo. No segundo nível a
energia de ligação é menor, 3,4 eV, no terceiro, 1,5 eV, e assim por
diante.

Um elétron pode “pular” de um nível de energia a outro quando o


átomo absorve um fóton. Esse salto é chamado excitação atômica,
e ocorre apenas se o fóton incidente tem a energia correta. No caso
do hidrogênio, por exemplo, o salto do primeiro para o segundo
nível só será possível se o fóton incidente tiver energia exatamente
igual à diferença entre os dois níveis, 13,6 – 3,4 = 10,2 eV. Se o
fóton tiver energia inferior, ele não será absorvido: o átomo seria
transparente. Se o fóton tiver energia de 13,6 eV ou maior, o elétron
será ejetado do átomo, processo chamado ionização.

Os átomos dos demais elementos são muito mais complexos, pois


além da atração elétrica do núcleo, os elétrons exercem repulsão
elétrica entre si. Nesses átomos, os elétrons podem transitar entre
as diversas camadas. Átomos excitados, no entanto, são instáveis e
rapidamente decaem. Os elétrons retornam à órbita inicial emitindo
um fóton com a mesma energia do que foi absorvido. Esse é o
princípio de funcionamento de um grande número de detectores de
partículas.

100
Os saltos quânticos dos elétrons entre as diferentes camadas são a
origem das linhas espectrais. No espectro de absorção, as linhas
pretas correspondem às frequências dos fótons que podem ser
absorvidos pelos átomos. Da mesma forma, nos espectros de
emissão, as linhas claras sobre o fundo preto correspondem às
frequências dos fótons que podem ser emitidos pela desexcitação
dos átomos.

Orbitais atômicos

As camadas são compostas por orbitais atômicos, que nada mais


são que as funções de onda dos elétrons. Os orbitais são uma
espécie de “nuvens de probabilidade”, que delimitam as regiões no
interior do átomo onde eles podem ser encontrados. Dentro das
regiões definidas pelos orbitais, os elétrons podem estar em
qualquer lugar, pois é impossível segui-los.

Voltemos ao exemplo da corda de um violão. Quando tocada, a


perturbação se propaga pela corda, reflete nas extremidades e
forma uma onda estacionária. Se não houvesse nenhum efeito que
dissipasse a energia, a corda seguiria vibrando indefinidamente.

A onda estacionária é o resultado da superposição das ondas


incidente e refletida. Cada ponto da corda oscila com uma
amplitude diferente. Nos nós a corda permanece imóvel. Os picos
da onda incidente coincidem com os vales da onda refletida. Essas
são as posições em que a corda oscila com amplitude máxima. O
ponto crucial é que superposição de ondas idênticas se propagando
em direções opostas significa que no regime estacionário não há
transporte de energia.

As cordas do violão servem como analogia a uma partícula


confinada em uma região do espaço. A função de onda dessa
partícula é refletida nas extremidades da região formando ondas

101
estacionárias. Assim como nas cordas do violão, os modos de
vibração (número de nós) possíveis são discretos. No estado
fundamental da partícula, em que ela tem a menor energia, a sua
função de onda corresponde ao harmônico fundamental (nenhum
nó), o primeiro estado excitado corresponde ao segundo harmônico
(um nó), e assim sucessivamente.

Ilustração de uma onda estacionária formada em uma corda fixa


nas extremidades. A linha cheia mostra uma onda se propagando
da esquerda para a direita. A linha pontilhada é a onda refletida.
Em qualquer ponto e em qualquer instante há uma superposição
de duas ondas idênticas se propagando em sentidos opostos.

Os orbitais atômicos são ondas estacionárias, e por essa razão, têm


energia constante. Dito de outra maneira, os elétrons estão
confinados nos orbitais, e como estão em um regime estacionário,
não perdem energia. Essa é uma consequência direta do fato de o
núcleo exercer uma força de atração elétrica que não muda com o
tempo (afinal, o núcleo também é um sistema estável).

Entender a estrutura e o funcionamento dos átomos foi um


gigantesco avanço, uma das maiores conquistas científicas da
Humanidade. Revolucionou a química e a biologia, abriu imensas
avenidas para inovações tecnológicas que, por sua vez,
revolucionaram várias áreas do conhecimento, da medicina à

102
arqueologia. Conhecer o átomo tornou possível a eletrônica, base
do mundo digital moderno.

Para concluirmos esse capítulo, vale a pena observar o que ocorreu


com a Ciência na Alemanha após a ascensão de Hitler. O nazismo
é uma visão do mundo e da cultura centrada na ideia de uma
pretensa supremacia racial. As novas teorias que revolucionaram a
Física - a Mecânica Quântica e a Relatividade – haviam sido, em
grande parte, geradas na Alemanha, sobretudo por físicos alemães.

Para o nazismo, entretanto, as novas teorias eram tidas como


“impuras”, pois muitos dos físicos que as criaram, como Einstein,
eram judeus. A superioridade da “raça” alemã requeria uma
Ciência “ariana”. Décadas de experimentação e trabalho teórico
realizado por mentes geniais, bem como o trabalho árduo de muitos
físicos anônimos, construíram um patrimônio científico sem par na
História. O nazismo o dissipou em poucos anos.

A supressão dramática da pesquisa e do desenvolvimento científico


foi combinada com a perseguição sistemática aos cientistas judeus,
o que causou uma diáspora sem precedentes. Muitos dos maiores
talentos científicos fugiram da Alemanha, sendo recebidos de
braços abertos por países como os Estados Unidos. Políticas
baseadas no conceito de “raça”, levam invariavelmente a desastres.
A Biologia moderna demonstrou de forma cabal que há apenas uma
raça, a raça humana.

Além da imensa tragédia humana causada pela guerra, a noção de


superioridade ariana determinou o final da era de ouro da Ciência
alemã, dando início à era de ouro da Ciência nos Estados Unidos.

103
Representação artística de alguns orbitais atômicos do átomo de
hidrogênio, delimitando as regiões onde o elétron pode ser
encontrado. Dentro do orbital, o elétron pode estar em qualquer
posição. É impossível acompanhar seu movimento. Nas figuras, o
núcleo atômico encontra-se na origem do sistema de coordenadas
(a interseção dos três eixos).
Adaptado de:
https://chem.libretexts.org/Courses/Howard_University/General_Chemistry%3A_An_A
toms_First_Approach/Unit_1%3A__Atomic_Structure/Chapter_2%3A_Atomic_Structu
re/Chapter_2.5%3A_Atomic_Orbitals_and_Their_Energies

104
5

Relatividade Especial

Prelúdio

A necessidade do absoluto parece ser própria da nossa condição


humana. Desde os primórdios, nós humanos estamos sempre
buscando referências imutáveis, eternas, que funcionem como
princípios organizadores da nossa existência, referências que
transmitam estabilidade e segurança. Um traço cultural que
provavelmente é comum a todas as sociedades, e que também se
observa na Ciência, que é, antes de tudo, uma criação humana.

Na Física, absoluto significa algo que é visto da mesma forma por


quaisquer observadores, independente do seu movimento. Imagine
um conjunto de laboratórios idênticos onde se encontram vários
tipos de equipamentos de medida. Todos os laboratórios estão em
movimento em relação uns aos outros. Se todos observam um
mesmo corpo em queda livre, medirão todos o mesmo tempo de
queda?

Como observadores diferentes laboratórios veem um mesmo


fenômeno? A Teoria da Relatividade (TR) responde à essa
pergunta, e por isso ela não é exatamente uma teoria da Física
como, por exemplo, o eletromagnetismo. Ela estabelece um

105
princípio fundamental que deve ser seguido por toda e qualquer
teoria física.

Até Einstein, espaço e o tempo eram absolutos. Haveria um


único tempo, universal, o mesmo para qualquer observador.
Relógios sempre marcariam o tempo com o mesmo andamento,
qualquer que seja o movimento dos observadores. Todos mediriam
o mesmo tempo de queda.

O espaço também seria absoluto. Observadores diferentes sempre


mediriam o mesmo comprimento de uma régua, independente do
movimento relativo entre eles. E haveria um sistema de referência
absoluto, imóvel, um observador privilegiado, em relação ao qual
tudo se moveria.

Na Mecânica Clássica (MC), o espaço é o palco onde os fenômenos


naturais acontecem. Existe a priori, independente de todo o resto.
Tempo e espaço absolutos fazem parte da nossa percepção
intuitiva, e a razão para isso é o fato de a velocidade da luz ser
muito grande. Mas quando os observadores se movem com
velocidades muito altas, próximas à da luz, eles veem as coisas
acontecerem de forma diferente. Foi o que Einstein revelou em
1905.

Comprovar a existência de um sistema de referência absoluto


desafiou os físicos durante boa parte do século XIX. Afinal, era
uma ideia tão “natural”, tão evidente, que só poderia ser verdadeira.
Todas as tentativas fracassaram pelo simples fato de que tal
referencial não existe. Essa é uma das consequências da Teoria da
Relatividade: todos os referenciais são equivalentes.

Para definir bem o que é “sistema de referência”, ou “referencial”,


considere dois observadores, um passageiro em um trem que se
move em alta velocidade, e um outro sentado em uma estação. Em
um certo momento, os dois observadores veem um avião. Cada
observador verá, claro, o avião percorrer trajetórias diferentes.

106
Medirão o mesmo tempo de vôo entre dois pontos quaisquer no
céu?

O trem e a plataforma são dois sistemas de referência diferentes.


Se o movimento relativo entre eles é sem aceleração, dizemos que
são referenciais inerciais. A aceleração muda tudo, como veremos
no próximo capítulo. A Terra gira em torno do Sol, e por isso é um
referencial não inercial. Mas para todos os efeitos práticos, em
uma região pequena, é uma ótima aproximação de referencial
inercial. Até o final desse capítulo, todo referencial é inercial. A
Relatividade Especial (RE) é a parte da TR que trata apenas dos
referenciais inerciais. A Relatividade Geral, de que tratarei no
próximo capítulo, abrange todos os tipos de referenciais.

Para que cada observador descreva a trajetória do avião, precisam


antes definir um sistema de coordenadas. Só assim é possível
determinar as posições sucessivas de um corpo em movimento.
Portanto, um observador inercial, ou simplesmente observador, se
desloca sem aceleração e realiza medidas de posição e tempo
usando um sistema de coordenadas e relógios sincronizados.

Um observador tem a liberdade de escolher como vai determinar


a posição de objetos. À esquerda, os sistemas de coordenadas O e
O’ têm origem comum, mas seus eixos têm orientação diferente. Já
no gráfico à direita, os eixos são paralelos, mas as origens estão
deslocadas. Em ambos os casos, a posição do ponto P é
determinada por conjuntos diferentes de números, nesse exemplo,
pelas coordenadas Cartesianas (x,y) e (x’, y’).

107
Voltando ao exemplo do trem, imagine que o observador no vagão
deixa cair uma pedrinha da janela no exato momento em que o trem
passa pela plataforma. Ignorando a resistência do ar, o movimento
da pedrinha é uma queda livre. O observador do trem vê a pedrinha
percorrer uma trajetória retilínea, na vertical, pois em relação a ele
a pedrinha estava inicialmente em repouso.

O observador na plataforma vê a pedrinha descrever uma parábola.


Para ele, a pedrinha tinha inicialmente a mesma velocidade do
trem. Visto da plataforma, seu movimento combina a queda livre
com o deslocamento do trem.

Os dois observadores, no entanto, concordarão em um aspecto


essencial: o tempo de queda é o mesmo, pois as leis da Mecânica
são as mesmas para todos os observadores inerciais. Esse é o
princípio de relatividade de Newton.

Dois observadores em movimento relativo com sistemas de


coordenadas cujos eixos são paralelos. Se a velocidade relativa
entre O e O’ é constante, os dois sistemas de referência são
inerciais.

É preciso também definir também o que significa um “evento”.


Quando vamos encontrar alguém, combinamos o local e a hora do
encontro. Na TR, “evento” significa um conjunto de quatro
números: as três coordenadas espaciais e o tempo, (x, y, z ; t).

Continuando a explorar as consequências do princípio de


relatividade de Newton, considere dois eventos quaisquer que
sejam simultâneos para um certo observador. Segundo a MC, esses

108
eventos também são simultâneos em qualquer outro referencial. O
tempo é universal, um único para todos.

As coordenadas espaciais de dois eventos dependem do sistema de


referência e de coordenadas em que são medidas. A distância
espacial entre esses dois eventos, no entanto, é a mesma em todos
os referenciais, qualquer que seja o sistema de coordenadas.

A distância espacial e o intervalo de tempo entre dois eventos


quaisquer são quantidades invariantes, isto é, têm o mesmo valor
em todos os referenciais. Esse é o sentido de dizer que na Mecânica
Newtoniana, tempo e espaço são absolutos.

Velocidades são diferentes quando medidas por observadores que


estejam em movimento relativo, mas seus valores são relacionados
de forma simples e intuitiva. Se a velocidade relativa entre dois
observadores é conhecida, as coordenadas (x, y, z) e (x’, y’, z’) nos
dois sistemas de referência são relacionadas pelas transformações
de Galileu.

Imagine um aeroporto onde uma pessoa caminha apressada sobre


uma esteira rolante. Se a velocidade da esteira em relação ao piso
do aeroporto é V, e se a pessoa caminha sobre a esteira com
velocidade V’, ela se desloca em relação ao piso do aeroporto com
velocidade v = V + V’. Essa é a regra de adição de velocidades de
Galileu, com que estamos acostumados no nosso dia a dia.

Uma consequência muito importante do princípio de relatividade é


a invariância da forma, ou covariância: para que as leis da MC
sejam as mesmas para todos os observadores, a forma matemática
das equações de movimento tem que ser exatamente a mesma em
qualquer referencial. As coordenadas mudam ao passar de um
referencial a outro, mas a forma das equações permanece
inalterada.

Outra consequência importante do princípio de relatividade: se dois


observadores distintos realizam um mesmo experimento e obtêm

109
sempre o mesmo resultado, é impossível, usando apenas as leis de
Newton, determinar o movimento de cada observador em relação
ao suposto referencial absoluto.

Tudo funciona muito bem com a MC, mas quando o princípio de


relatividade é aplicado ao Eletromagnetismo, surgem problemas
sérios. Vimos no capítulo 1 que a teoria do Eletromagnetismo de
Maxwell está resumida em um conjunto de quatro equações que
relacionam os campos elétricos e magnéticos com as suas fontes
(cargas elétricas e correntes).

Com um pouco de álgebra, Maxwell partiu das suas equações e


chegou a uma equação de onda. A teoria de Maxwell previa a
existência de ondas eletromagnéticas: a luz. Aqui surge o primeiro
problema. Ao contrário do que ocorre com a MC, as equações de
Maxwell não têm a mesma expressão matemática em dois
referenciais distintos. Esse fato criava um dilema: ou o princípio
de relatividade só seria válido para a Mecânica, ou então as
transformações de Galileu não seriam corretas.

As equações de Maxwell estabelecem que a luz é uma onda que se


propaga, no vácuo, com velocidade constante c = 299.792.458 m/s.
Imagine um foguete que se desloca no espaço interplanetário com
velocidade V em relação à Terra. Da cabine de comando, um feixe
luminoso é emitido na direção em que o foguete se desloca.
Segundo Galileu, a velocidade da luz emitida pelo foguete, medida
por um observador na Terra, seria c’= V + c, o que está em
contradição com as equações de Maxwell. Haveria algo errado com
a transformação de Galileu?

As ondas, em geral, envolvem algum meio material que sustenta a


sua propagação. O ar, por exemplo, é o suporte para a propagação
das ondas acústicas (não há som no vácuo). Assim, era natural
supor que a luz também precisasse de um meio para se propagar.
Esse meio hipotético era conhecido como éter luminífero, e seria o
suporte para a propagação das ondas eletromagnéticas.

110
O éter luminífero seria uma substância com propriedades quase
mágicas: um meio imaterial, intangível, transparente, ao mesmo
tempo elástico e não detectável quimicamente. Essa substância
preencheria todo o Universo. Os corpos celestes se moveriam
através dessa espécie de fluido perfeito sem que ele oferecesse
qualquer resistência, sem nenhuma viscosidade.

Maxwell, assim como seus contemporâneos, estava convencido de


que o espaço interestelar não era vazio. Em suas próprias palavras,
em artigo para a Encyclopedia Britannica, o espaço interplanetário
e interestelar seria preenchido por “uma substância ou corpo
material, que é certamente o maior e, provavelmente, o corpo mais
uniforme de que tivemos notícia”.

Para que a regra de adição de velocidades de Galileu valesse


também para a luz, as equações de Maxwell deveriam ser
verdadeiras em apenas um único referencial privilegiado: o
referencial de repouso do éter luminífero. Nesse referencial
absoluto, e apenas nele, a luz teria a mesma velocidade, c, em
qualquer direção, propagando-se como vibrações do éter, assim
como o som se propaga como vibrações do ar.

Michelson e Morley

O éter era uma hipótese bastante sedutora, mas sua existência


precisava ser comprovada experimentalmente. A forma mais direta

111
de comprovação seria medir algum efeito causado pelo movimento
da Terra em relação ao éter. O princípio de relatividade da MC, no
entanto, estabelece que é impossível determinar o estado de
movimento de um sistema inercial usando apenas as leis de
Newton. A MC, portanto, não serviria para a detecção do éter.

Os físicos estavam certos de que deveria haver alguma forma,


ainda que indireta, de determinar a existência dessa substância tão
elusiva. A MC não poderia ser usada, mas talvez fosse possível
determinar o movimento da Terra em relação ao éter fazendo
experimentos com a luz. Se a velocidade da luz fosse c apenas no
referencial de repouso do éter, deveria seria possível observar
variações na velocidade da luz causada pelo movimento da Terra.

A Terra gira ao redor do Sol com uma velocidade de


aproximadamente 30 km/s. Como a distância entre o Sol e a Terra
é muito grande (150.000.000 km), a curvatura da órbita é muito
suave. Podemos, numa boa aproximação, pensar na Terra como um
referencial inercial.

Vista do Sol, a Terra se desloca em direções opostas em relação ao


suposto éter em intervalos de seis meses. Isso corresponde a uma
variação da velocidade de deslocamento da Terra de 60 km/s, o que
causaria desvios pequenos, mas mensuráveis na velocidade da luz.
A variação da velocidade da luz seria, portanto, a prova da
existência do éter.

Albert Abraham Michelson nasceu na atual Polônia, em 1853. Sua


família mudou-se para os EUA quando ele tinha apenas dois anos.
Aos 20 anos, quando já era oficial da Marinha dos EUA, Michelson
graduou-se em Física. Desde criança Michelson era fascinado pela
luz. Ele era extremamente engenhoso, e, movido pela sua paixão,
desenvolveu uma grande habilidade na construção de aparelhos
óticos. Em 1879, usando um equipamento feito por ele mesmo,
Michelson mediu a velocidade da luz com incrível precisão.

112
A cada seis meses, a Terra se move em direções opostas ao longo
da sua órbita em torno do Sol.

Quando Michelson deixou a Marinha, em 1881, começou uma


colaboração com Edward Morley. Juntos, realizaram uma série de
experimentos com a luz, cujos resultados causariam uma revolução
do conceito de espaço e tempo. A série culminou com o que se
tornou conhecido como o experimento de Michelson-Morley,
realizado em 1887, e que rendeu a Michelson o Prêmio Nobel de
1907.

Michelson construiu um aparelho bastante preciso, hoje conhecido


como interferômetro de Michelson. Esse foi o equipamento usado
por ele e Morley para detectar a existência do éter luminífero. A
ideia é relativamente simples. Em vez de medir a velocidade da luz
diretamente, a estratégia de Michelson e Morley era tentar observar
uma diferença na velocidade quando a luz se propaga em duas
direções perpendiculares. O movimento da Terra afetaria a
velocidade da luz de forma diferente nos dois casos.

No dispositivo de Michelson, um feixe de luz incide sobre uma


placa semi-espelhada, inclinada de 45º em relação à direção do
feixe. A placa divide o feixe em duas partes ortogonais, refletindo
metade e deixando passar a outra metade.

Se o interferômetro estivesse em repouso em relação ao éter, a luz


se propagaria com a mesma velocidade em qualquer direção. O
feixe inicial se dividiria em duas partes iguais, os espelhos

113
refletiriam cada componente e estas chegariam ao detector
exatamente no mesmo momento, depois de terem percorrido a
mesma distância.

Esquema do experimento de Michelson-Morley: ao atingir a placa


semi-espelhada, a luz emitida pela fonte é dividida em dois feixes
perpendiculares entre. Cada feixe é refletido por espelhos, ambos
à mesma distância da placa semi-espelhada (L1 = L2).

O movimento da Terra afetaria a velocidade de propagação de cada


componente do feixe luminoso de forma diferente, fazendo com
que as duas componentes chegassem ao detector em momentos
diferentes. A defasagem causaria uma interferência entre as duas
componentes do feixe, e esse seria o sinal da existência do éter.

O experimento foi repetido inúmeras vezes, sempre mudando a


orientação do equipamento. Foi repetido também em diferentes
períodos do ano, mantendo os intervalos de seis meses entre cada
medida. Em todas as repetições, Michelson e Morley obtiveram o
mesmo e inesperado resultado: as duas componentes sempre
chegavam ao detector ao mesmo tempo! O movimento da Terra
não afeta a velocidade de propagação da luz!

114
Esse resultado mostrou claramente que a regra de adição de
velocidades de Galileu estava errada. As equações de Maxwell são
válidas em qualquer sistema inercial, e o princípio de relatividade
de Newton deveria ser substituído por outro mais geral, que
incluísse tanto a Mecânica como o Eletromagnetismo. A regra que
traduz as coordenadas de dois sistemas de referência distintos
precisava ser modificada.

A existência do éter não pôde ser confirmada. Em vez disso,


Michelson e Morley demonstraram de maneira irrefutável que a
velocidade de propagação da luz é a mesma em todos os
referenciais. Não depende do movimento da fonte ou do
observador. Essa foi uma das descobertas mais importantes da
história da Física, e suas implicações são profundas.

Simultaneidade

Quando novos fenômenos são descobertos e não podem ser


explicados pelas teorias existentes, novas teorias são formuladas.
As teorias existentes não são necessariamente erradas, podem ser
apenas incompletas, aplicáveis apenas a um conjunto limitado de
fenômenos, ou apenas em determinadas circunstâncias.

Além dos novos fenômenos, as novas teorias devem também


explicar os que já eram bem descritos pelas teorias existentes. As
novas teorias têm que englobar as antigas, que passam a ser um
caso particular, uma aproximação válida em um determinado
regime. Assim foi com a MC, que é um caso particular da Mecânica
Quântica (MQ) quando a escala do fenômeno se torna
macroscópica.

Com a TR acontece a mesma coisa. A velocidade da luz é


espantosamente alta: durante um piscar de olhos, a luz daria sete

115
voltas e meia ao redor da Terra. O tempo de propagação da luz é
tão pequeno que se torna irrelevante em praticamente todas as
situações do cotidiano. No nosso dia a dia, lidamos com
velocidades muito pequenas comparadas à da luz, e por isso não
percebemos os efeitos relativísticos, assim como na escala humana
macroscópica não percebemos os efeitos quânticos. No regime de
velocidades em que estamos acostumados, a Relatividade de
Einstein se torna idêntica à de Newton.

Na Mecânica Newtoniana, espaço e tempo são entidades


independentes. Distâncias e intervalos de tempo são os mesmos
em qualquer sistema referencial, seus valores independem do
movimento de observador. Mas isso não é exatamente verdadeiro,
é apenas uma aproximação.

A TR eliminou a ideia de espaço e tempo absolutos. O tempo flui


num ritmo diferente para observadores diferentes. Réguas idênticas
têm comprimentos diferentes para diferentes observadores. Essa é
a essência da descoberta de Einstein em 1905, que, como veremos,
tem desdobramentos fundamentais.

Embora tenham naturezas diferentes, na TR espaço e tempo são


tratados em pé de igualdade. Ambos estão intimamente
entrelaçados, formando uma única entidade que chamamos espaço-
tempo. Observadores em movimento relativo medem a mesma
velocidade da luz. Isso acontece porque a mudança de um
referencial a outro afeta não só as coordenadas espaciais, como no
caso das transformações de Galileu, mas modifica também o
tempo. Todo movimento é relativo, e não existe um referencial que
seja privilegiado. Todos são equivalentes, e cada um tem o seu
próprio tempo.

Para entender o conceito relativístico de espaço-tempo, talvez a


melhor estratégia seja “desconstruir” nossos conceitos intuitivos de
espaço e tempo que são baseados nos fenômenos cotidianos. A
chave para isso está na noção de simultaneidade.

116
Simultaneidade é, aparentemente, uma ideia trivial: dois eventos
são simultâneos quando acontecem no mesmo momento. Mas se
examinarmos com um pouquinho mais de detalhes, veremos que a
noção de simultaneidade não é assim tão simples. Na verdade,
quando levamos em consideração o fato de a velocidade de
propagação da luz ser finita, é necessário sermos bastante precisos
quanto ao que significa “medir”.

Fazemos certas coisas tão naturalmente, de forma tão corriqueira,


que não pensamos muito sobre elas. Como medir a distância entre
dois pontos, A e B, sobre uma mesa? A resposta óbvia: use uma
régua! Temos aqui dois eventos simultâneos, uma extremidade da
régua coincide com o ponto A no mesmo instante em que a outra
extremidade coincide com o ponto B.

A definição de simultaneidade, nesse caso, é muito simples porque


os dois pontos estão muito próximos. Mas a situação fica um pouco
mais complicada se os pontos A e B estiverem separados por
milhões de quilômetros. Como saber se dois eventos tão distantes
espacialmente são simultâneos?

Einstein usava “experimentos imaginários” para ilustrar suas


conclusões. Eis aqui um exemplo: imagine uma ferrovia que tenha
um longo trecho em linha reta, sobre a qual passa um trem com
velocidade constante. O trem chega à estação A às 17 horas. Temos
aqui dois eventos simultâneos: a parte dianteira do trem chegando
à extremidade da plataforma da estação e os ponteiros do relógio
indicando 17:00. É um caso simples, pois a chegada do trem e a
passagem dos ponteiros marcando 17:00 são eventos que ocorrem
no mesmo lugar.

Einstein propôs o seguinte exercício: dois raios atingem a ferrovia


em dois pontos distantes, A e B, provocando clarões. Da
plataforma, um meteorologista afirma que os raios caíram no
mesmo instante. Como poderíamos comprovar a afirmação do
meteorologista? Poderíamos instalar um detector de luz em um
ponto M exatamente na metade da distância entre A e B. Se a luz

117
proveniente do clarão vindo de A chegar ao detector no mesmo
instante que a do clarão vindo de B, poderíamos assegurar que a
queda dos raios foi, de fato, simultânea.

A situação é diferente quando examinada por um observador que


está dentro do trem, e a razão da diferença é o fato de a velocidade
da luz ser finita. Imagine que o trem se move no sentido de A para
B. Suponha também que os raios atingem a ferrovia no momento
em que o trem passa pelo ponto M. O que dirá o observador do
trem, que está munido de um detector idêntico ao do ponto M?

Como o trem se move em direção ao ponto B, enquanto a luz de A


se propaga, o detector se afasta. A luz proveniente de A terá que
percorrer um caminho mais longo até o detector. Por outro lado,
enquanto a luz emitida no ponto B se propaga, o detector se
aproxima. Tendo que percorrer um caminho menor, a luz de B
chegará ao detector antes da luz de A.

É claro que em situações normais, com trens reais, essa diferença é


imperceptível. A velocidade da luz é tão grande que o intervalo de
tempo de propagação de um sinal luminoso é irrelevante no dia a
dia. Mas no experimento mental, A e B podem estar distantes o
quanto quisermos, e a velocidade do trem por ser próxima à da luz,
sem que isso altere o argumento e a conclusão: para o observador
do trem, a queda dos raios em A e B não foram eventos simultâneos.
Esse exemplo ilustra a relatividade do tempo.

A simultaneidade, portanto, é relativa e nos mostra que não é


verdadeira a afirmação de Newton nos Principia, “O tempo
absoluto, verdadeiro e matemático, por sua própria natureza, sem
relação a nada externo, permanece sempre semelhante e imutável”.
Se o tempo tivesse esse caráter absoluto, universal, dois eventos
simultâneos em um referencial inercial seriam simultâneos em
qualquer outro sistema inercial. Isso só seria verdade se a
velocidade da luz fosse infinita!

118
Lorentz

O experimento de Michelson e Morley foi repetido muitas vezes


nos anos que se seguiram, tanto pelos próprios como por outros
cientistas. Em todas as repetições, sempre o mesmo resultado: a
velocidade da luz é a mesma em qualquer referencial, independente
do movimento da fonte luminosa ou do observador. Para a imensa
maioria dos físicos, esse fato era desconcertante. Como interpretar
tal resultado? Por que as transformações de Galileu não valem para
o caso da luz?

A resposta a essas perguntas veio em etapas, começando com os


trabalhos do físico holandês Hendrik Lorentz. Em um artigo de
1892, Lorentz propôs uma explicação inusitada: “Este experimento
me intriga há muito tempo. Só consegui pensar em uma maneira de
reconciliá-lo com a teoria de Fresnel (sobre a existência do éter),
que consiste na suposição de que a linha que une dois pontos de um
corpo sólido, se inicialmente é paralela à direção de movimento da
Terra, não conserva o mesmo comprimento quando é
subsequentemente girada de 90º ”. Ou seja, quando um corpo está
em movimento, o seu comprimento “encolhe” na direção em que
ele se move!

A mesma ideia havia sido proposta independentemente pelo físico


irlandês George FitzGerald. A ousadia de ambos foi amplamente
recompensada: eles acertaram em cheio. A distância entre dois
pontos não é um absoluto, seu valor depende do referencial em que

119
é medida. Trata-se de um efeito relativístico, hoje conhecido como
a contração de Lorentz-FitzGerald, comprovado rotineiramente
nos laboratórios ao redor do mundo.

Os físicos, mesmos mais brilhantes, também têm as suas


convicções e preconceitos. Lorentz chegou à fórmula correta que
determina como o comprimento de um mesmo objeto varia quando
é medido por observadores em movimento relativo. Ainda hoje a
usamos em nossos trabalhos. Mas Lorentz, como quase todos os
seus contemporâneos, era muito apegado à ideia do éter. Por isso
procurou insistentemente – e inutilmente - uma forma de
compatibilizar o resultado de Michelson e Morley com a existência
do éter.

Apesar de ter chegado à fórmula correta, Lorentz interpretou


erradamente o seu significado. Para ele, a contração dos
comprimentos se devia à ação do éter sobre as forças entre as entre
as moléculas. O movimento em relação ao éter fazia com que as
moléculas ficassem mais próximas, o que explicaria a redução no
comprimento dos objetos. Atribuiu, assim, um sentido absoluto à
variação do comprimento, como uma propriedade física dos
objetos, e não como um efeito relativístico.

Lorentz se interessava bastante pela Eletrodinâmica, que é o


eletromagnetismo dos corpos em movimento. Em particular,
Lorentz estudava o problema de como o campo eletromagnético
gerado por uma coleção de cargas em movimento seria visto por
diferentes observadores.

Um conjunto de partículas com carga elétrica distribuídas em uma


determinada região do espaço gera um campo eletromagnético
complexo em seu entorno. Em um dado ponto no espaço em volta,
a intensidade e a direção do campo eletromagnético gerado pelas
cargas dependem da posição de cada uma. Quando elas estão em
movimento, o campo varia também com o tempo.

120
Ao analisar esse problema, Lorentz se deu conta de que apenas a
contração do comprimento seria insuficiente para garantir que as
equações de Maxwell tivessem a mesma forma em qualquer
referencial. Seria necessário definir também um “tempo local”,
ligado a cada referencial particular. Ou seja, não apenas as
coordenadas das cargas se transformam na passagem de um
referencial a outro, mas também o próprio tempo deve se
transformar!

A princípio, Lorentz via esse “tempo local” apenas como um mero


artifício matemático. Para ele, como para Newton, havia apenas um
único e verdadeiro tempo. Visto de qualquer referencial, o
andamento dos relógios seria sempre o mesmo. Lorentz foi um
físico conceituadíssimo, premiado com o Nobel de 1902. Einstein
tinha profunda admiração por ele. No entanto, sua obstinação em
conciliar a existência do éter com a constância da velocidade da luz
levou-o a interpretar de forma errada os seus resultados brilhantes,
que ainda assim o notabilizaram.

Lorentz deduziu corretamente as relações entre coordenadas


espaciais medidas em dois sistemas inerciais distintos. Também
deduziu a relação entre intervalos de tempo medidos em diferentes
referenciais. Essas relações são hoje conhecidas como as
transformações de Lorentz, que substituem as transformações de
Galileu. No limite em que as velocidades envolvidas são muito
pequenas comparadas à da luz, as duas transformações coincidem.

Dilatação do tempo

A ideia de que cada observador tem seu tempo próprio conflita


com a experiência cotidiana. É difícil abandonar a noção de um
“tempo absoluto”. Afinal, como é possível relógios idênticos

121
marcarem o tempo de forma diferente, apenas por estarem em
movimento relativo?

Imagine uma nave espacial super-rápida, em uma missão rumo a


Marte. A nave é lançada numa direção oposta a Marte, dá uma
longa volta em torno da Terra e, tendo atingido a velocidade de
0,9c (90% da velocidade da luz), parte em linha reta em direção ao
seu destino. A nave é tão rápida que o percurso entre a Terra e
Marte é feito em poucos minutos. Numa ótima aproximação,
podemos simplesmente ignorar o movimento da Terra e de Marte
durante o voo da nave. Consideramos, portanto, que o planeta
vermelho está em repouso em relação à Terra.

O voo é monitorado de um laboratório na Terra onde há uma


amostra radioativa de carbono-14 (14C). O núcleo de carbono-14
tem dois nêutrons a mais que o carbono-12, e por isso é um isótopo
instável. O núcleo de 14C se desintegra espontaneamente, formando
um núcleo de nitrogênio e emitindo um elétron e um neutrino. A
vida-média do 14C é um pouco inferior a seis anos (a vida-média é
o intervalo de tempo necessário para uma amostra se reduzir a 1/37
do seu tamanho inicial).

O decaimento radioativo é um processo estatístico. É impossível


dizer quando um único núcleo vai decair, mas se observarmos uma
amostra com muitos deles por um período de tempo
suficientemente longo, veremos que a taxa de decaimento segue
uma lei matemática bem definida. Conhecendo a vida-média do
material radioativo e seu tamanho em determinado momento,
podemos prever o tamanho da amostra em um instante futuro, ou
que tamanho teria no passado.

No laboratório terrestre, a medida da vida-média é feita usando um


cronômetro acoplado a um detector de elétrons. A detecção de um
elétron indica o decaimento de um núcleo de 14C. A lei matemática
que governa o tamanho de amostras radioativas em função do
tempo é bem conhecida (uma lei exponencial), e assim pode-se

122
determinar a vida-média contando o número de decaimentos que
ocorrem por segundo.

A desintegração, ou decaimento, é um processo de natureza


estatística, que segue uma lei matemática bem definida. Não é
possível prever quando um núcleo atômico vai decair, mas em uma
amostra contendo um número muito grande de núcleos, é possível
prever o seu tamanho num instante futuro.

Dentro da nave, um astronauta repete o mesmo experimento feito


na Terra: ele mede a vida-média de uma outra amostra de 14C,
munido de um aparato idêntico ao do laboratório terrestre. Ele
obtém o mesmo valor medido na Terra, pois a vida-média é uma
propriedade física do material (seu valor é sempre medido no
referencial em que a amostra está repouso).

Não poderia haver outro resultado. O laboratório e a nave são dois


sistemas inerciais, as amostras estão em repouso em relação aos
seus respectivos referenciais e os relógios idênticos funcionam
exatamente da mesma forma na nave e no laboratório. O
andamento do tempo será o mesmo para cada um dos observadores
se olharem apenas para seus próprios relógios.

No momento em que a nave passa pela Terra os relógios laboratório


e do astronauta são sincronizados. Permanecerão sincronizados

123
durante o restante do voo? A resposta é não! O observador da Terra
vê o tempo no referencial da nave fluir mais lentamente, tão mais
lentamente quanto maior for a velocidade da nave.

Como não existem referenciais privilegiados, a situação inversa


também ocorre: para o astronauta, os ponteiros do relógio do
laboratório na Terra se movem mais lentamente que os do seu
próprio relógio. Esse efeito é chamado dilatação do tempo.

O andamento do tempo varia dependendo do observador, mas esse


fato não é independente da variação do comprimento. Esse é o
ponto crucial: o movimento relativo afeta tanto a medida de
intervalos de tempo como de distâncias. Tempo e espaço estão
entrelaçados na TR, formam o tecido do espaço-tempo.

Na Relatividade Especial (RE), o entrelaçamento entre tempo e


espaço está relacionado ao fato de a velocidade da luz ser
constante. O espaço e o tempo de um observador é uma mistura do
espaço e do tempo de outro observador em outro referencial. A
contração do comprimento vem sempre acompanhada da dilatação
do tempo.

Um feixe luminoso emitido em um referencial inercial vai se


propagar com a mesma velocidade em qualquer outro porque o
fator que altera o andamento do tempo é o mesmo que altera os
comprimentos, de forma que um compensa o outro.

Voltemos à nave. Na vida real, a distância entre a Terra e Marte é


variável. Os dois planetas estão a uma distância média de
aproximadamente 60 milhões de quilômetros. Tomando essa
distância, e supondo que ela não muda durante o percurso da nave,
o tempo de viagem medido pelo relógio da Terra será de 200
segundos (t = 60.000.000 km / 300.000 km/s).

A duração da viagem medida pelo relógio da nave será menor. O


astronauta vê a Terra se afastar e Marte se aproximar da nave com
velocidade v = 0,9c. A contração de Lorentz-FitzGerald faz com

124
que a distância entre a Terra e Marte, medida no referencial da
nave, seja menor do que quando é medida no referencial da Terra.
Assim, em vez dos 200 segundos marcados no relógio da Terra, o
relógio da nave marcará um pouco mais de 130 segundos.

Note, cara leitora, caro leitor, que não usei a expressão “distância
real” para me referir à distância entre a Terra e Marte medida no
referencial da Terra. Não existem referenciais privilegiados. Se são
todos equivalentes, cada um com seu tempo e espaço, não tem
sentido falar em distância “real”.

Podemos resumir a relatividade do espaço e do tempo da seguinte


forma. Cada observador tem seu próprio tempo e espaço. Munidos
de réguas e relógios idênticos, todos os observadores obterão os
mesmos resultados ao realizarem os mesmos experimentos em seus
respectivos referenciais. Mas para qualquer observador, o tempo de
um outro observador em um referencial diferente será sempre uma
mistura do seu próprio tempo e espaço.

A radiação que vem do espaço sideral nos dá um outro exemplo


de dilatação do tempo. Os raios cósmicos são compostos
basicamente por prótons (cerca de 90%) com energia muito alta,
muito maior que a atingida pelo LHC, o maior acelerador
construído pelo homem. São originados sobretudo em explosões de
supernovas. Somos bombardeados constantemente (uma partícula
por m2 a cada segundo). Apesar de a massa dos prótons ser
ridiculamente pequena, 10-27 kg, alguns alcançam a energia de uma
bola de tênis em um saque de um tenista profissional.

Quando chegam à Terra, os raios cósmicos colidem violentamente


com os núcleos atômicos nas camadas superiores da atmosfera.
Essas colisões produzem centenas, ou mesmo milhares de
partículas secundárias. A maioria das partículas são píons, que são
instáveis e logo se desintegram espontaneamente, quase sempre em
múons e neutrinos. Os múons também são partículas instáveis, mas
têm uma vida-média maior, aproximadamente 0,000002 s.

125
Os múons são o sinal de que houve uma colisão. Em Mendoza, no
sul da Argentina (terra de ótimos vinhos) foi construído o
observatório Pierre Auger, um arranjo de detectores ocupando uma
área de 3.000 km2. O observatório foi construído por uma
colaboração internacional, com grande participação do Brasil, e
tem como objetivo estudar os raios cósmicos.

Os múons originados dos raios cósmicos têm velocidades muito


próximas à da luz. Mesmo que tivessem a velocidade da luz, os
múons deveriam percorrer apenas algumas centenas de metros
antes de decair (quase sempre em elétrons e neutrinos). Como são
produzidos em grandes altitudes, a 10 km ou mais, pouquíssimos
múons chegariam até o nível do mar.

Mas não é isso o que ocorre. O fluxo de múons no nível do mar é


alto: cerca de uma partícula por cm2 por segundo. Não há razão
para temê-los, pois uma das principais características dos múons é
a capacidade de atravessar enormes placas de ferro ou concreto sem
interagir, como se o material fosse transparente. Não nos causam
danos.

O fluxo intenso de múons observado no nível do mar é uma


manifestação da dilatação do tempo. Imagine uma colisão em que
um número muito grande de múons são produzidos, todos à mesma
altitude e com a mesma energia. Os múons atingem um detector
fixo na superfície da Terra, que mede o seu fluxo.

Dois observadores munidos de cronômetros idênticos e


inicialmente sincronizados observam o evento. O primeiro
observador está em repouso em relação à superfície da Terra,
enquanto o segundo se desloca junto com os múons.

Para o segundo observador, os múons estão em repouso e vão


decair de acordo com uma lei exponencial bem definida, com uma
vida-média de 0,000002 s. A mesma lei exponencial, com a mesma
vida-média, seria verificada em um laboratório com uma amostra

126
de múons em repouso (esse é um dos experimentos feitos nas
Escolas de Física Experimental do CBPF).

O observador na superfície da Terra, no entanto, vê os ponteiros do


cronômetro do segundo observador se moverem em câmera lenta,
muito mais devagar que os seus. Visto da Terra, o tempo no
referencial dos múons flui mais lentamente, e isso permite que
muitos múons consigam chegar ao nível do mar antes de decair.

O observador que se move com os múons tem uma perspectiva


diferente. Ele vê a Terra se aproximar. Para ele, é a atmosfera que
“encolhe” devido à contração de Lorentz-FitzGerald, da mesma
forma que o astronauta mede uma distância menor entre a Terra e
Marte. Com uma distância menor a ser percorrida, muitos múons
conseguirão atingir o detector na superfície. Os dois pontos de vista
são completamente equivalentes e produzem o mesmo efeito.

Annus Mirabilis

O ano de1905 é conhecido como o annus mirabilis, o ano


milagroso. Foi durante esse ano que Einstein, um jovem e ainda
desconhecido físico, funcionário do escritório de patentes em
Berna, publicou uma série de cinco artigos na prestigiosa revista
alemã Annalen der Physik que puseram em marcha a revolução
científica que transformou nosso mundo: a Teoria da Relatividade
e a Teoria Quântica.

127
Estamos tão habituados à internet, à propagação quase instantânea
da informação, que é difícil imaginar o mundo sem ela. Em Berna,
Einstein vivia à margem do mundo acadêmico, e por isso
desconhecia os trabalhos que Lorentz havia publicado alguns anos
antes. Nesses trabalhos, Lorentz apresentou as fórmulas que
relacionam as coordenadas (x, y, z, t) de um evento às coordenadas
(x’,y’,z’,t’) do mesmo evento descrito em outro sistema de
referência.

Einstein chegou às mesmas fórmulas de Lorentz sem saber que elas


já haviam sido deduzidas. Mas há uma diferença fundamental: a
interpretação da contração do comprimento e da dilatação do
tempo. Lorentz tinha uma explicação dinâmica para a contração do
comprimento. A ação do éter sobre as forças moleculares faria com
que as moléculas fossem pressionadas umas contra as outras. O
comprimento dos objetos diminuiria de forma real, absoluta. Os
objetos se tornariam mais compactos pela ação do movimento em
relação ao éter.

Einstein, ao contrário, atribuiu a contração do comprimento e a


dilatação do tempo apenas ao efeito do movimento relativo dos
observadores, sem qualquer alteração das características físicas dos
objetos. O movimento não altera as propriedades intrínsecas dos
corpos. Um corpo tem o mesmo número de átomos em qualquer
referencial, por exemplo. O movimento altera apenas a forma
como distâncias e intervalos de tempo de um mesmo conjunto de
eventos são medidas por observadores em referenciais distintos.
Einstein deu uma explicação cinemática para um efeito cuja
origem é o fato de a velocidade da luz ser constante.

Einstein desenvolveu a RE a partir da eletrodinâmica e da ótica. A


teoria foi inteiramente construída a partir de dois princípios:

1) As leis da Física são as mesmas em todos os referenciais


inerciais.
2) A velocidade da luz no vácuo, c, tem o mesmo valor em
qualquer referencial (299.792.458 m/s).

128
O primeiro princípio é conhecido como Princípio de Relatividade
Especial de Einstein. O adjetivo “especial”, como vimos, se deve
ao fato de o princípio se aplicar apenas a referenciais inerciais. O
novo princípio de relatividade estende a todas as leis físicas a
invariância que o princípio de Galileu assegurava apenas à
Mecânica: as leis que governam os fenômenos naturais são
independentes do observador. Esse princípio seria generalizado a
todos os referenciais, inerciais ou não, pela Teoria da Relatividade
Geral, em 1915.

A RG é a teoria moderna da gravitação. É a base da Cosmologia, o


ramo da Física que descreve o Universo em larga escala. A
gravidade, no entanto, é irrelevante no microcosmo. Não afeta em
nada as interações entre as partículas elementares. Mas se a
gravidade fosse relevante, teríamos um problema: a RG é uma
teoria clássica, ou seja, o espaço-tempo forma um tecido contínuo,
e não granular. Uma teoria quântica da gravitação ainda não existe.

Se as distâncias e intervalos de tempo são diferentes para


observadores distintos, a velocidade e a aceleração também são
diferentes quando medidas em dois sistemas em movimento
relativo. No entanto, as relações entre essas grandezas – leis físicas
expressas por equações matemáticas - são as mesmas em qualquer
referencial.

O princípio de relatividade expressa o fato de que todo e qualquer


movimento é relativo. Não existem referenciais “vips”, são todos
equivalentes. Tempo e espaço absolutos não fazem sentido, e a
hipótese do éter torna-se desnecessária, pois jamais poderia ser
comprovada experimentalmente.

129
E = mc2

Após a publicação do seu primeiro trabalho sobre a RE, Einstein


continuou a explorar as consequências das suas descobertas. Além
da mudança radical do conceito de espaço e de tempo, a RE
introduziu uma nova relação entre massa e energia. Foi uma
mudança igualmente radical, e está resumida na equação mais
famosa da Física, E = mc2. Essa equação nos diz que massa e
energia são equivalentes. Uma pode se transformar na outra e vice-
versa. A fama da equação não veio à toa: o próprio Einstein disse
que a equivalência entre massa e energia “é o resultado mais
importante da Teoria da Relatividade Especial”.

A equivalência entre massa e energia é um fato verificado


rotineiramente nos laboratórios e nas usinas nucleares. Ocorre
também em toda parte no Universo. A ela devemos a nossa própria
existência.

No interior das estrelas ocorrem cadeias de reações termonucleares


bastante complexas. No Sol, o elemento mais abundante é o
hidrogênio (cerca de 91%), seguido do hélio (um pouco menos de
9%) e de uma porcentagem ínfima de elementos mais pesados.
Essa composição varia de estrela para estrela, mas as proporções
dos elementos não são muito diferentes.

A cadeia de reações mais frequente se inicia com a fusão de dois


prótons (núcleos do hidrogênio). Nesse processo, um composto
chamado dêuteron (um núcleo feito de um próton e um nêutron) é
formado, entre outras coisas. O dêuteron se funde com um terceiro
próton, formando um núcleo de um isótopo do elemento hélio
(3He). A soma das massas do dêuteron e do próton, no entanto, é
maior que a massa do núcleo resultante de 3He. A conservação da
energia é uma lei exata, o que significa que a diferença entre as
massas dos estados inicial e final não simplesmente desaparece: ela
é convertida em energia, que é carregada pelos fótons – a luz.

130
Imagine um jogo de bilhar. Cada bola possuiu, entre as suas
propriedades, uma a que chamamos massa. Não podemos
confundir massa com quantidade de matéria. A massa é uma
medida da inércia, a resistência que os corpos opõem à ação de
alguma força. Forças de mesma intensidade aplicadas a corpos com
massas diferentes causarão acelerações diferentes. O corpo de
menor massa tem inércia menor, e assim ganhará mais velocidade.
Na MC, a massa do corpo é sempre a mesma, estando parado ou
em movimento.

Na RE, a massa de um corpo também é uma medida da sua inércia.


Mas ao contrário da MC, a inércia de um corpo não é uma
propriedade intrínseca. Quando um corpo está em movimento, por
exemplo, sua inércia aumenta, é mais difícil acelerá-lo. Ao valor
da massa que é medido quando o corpo está em repouso é acrescida
uma quantidade que depende da velocidade. O acréscimo na massa,
no entanto, só é significativo se a velocidade do corpo for próxima
da velocidade da luz.

Nos seus trabalhos de 1905, Einstein combinou o princípio de


relatividade, a eletrodinâmica de Maxwell e as transformações de
Lorentz para demonstrar que a energia também tem inércia. Em
um artigo de apenas três páginas, com o título “A inércia de um
corpo depende do seu conteúdo energético?”, Einstein mostrou
que, mesmo estando em repouso, a massa de um corpo aumenta
quando ele absorve uma certa quantidade de energia.

Pense em uma bateria descarregada que está em repouso em algum


referencial. Quando a bateria é carregada, ela armazena energia.
Ao armazenar mais energia internamente, a massa da bateria
aumenta. Sua inércia aumenta, e é mais difícil deslocá-la, tirá-la do
repouso. O acréscimo na massa é a quantidade de energia absorvida
dividida pela velocidade da luz ao quadrado. Como a velocidade
da luz é muito grande, somente a absorção de uma imensa
quantidade de energia provocaria um aumento perceptível na
massa.

131
Na MC, a massa é uma propriedade intrínseca dos corpos, e seu
valor é o mesmo em qualquer referencial. Na RE, essa propriedade
intrínseca é uma medida da energia armazenada no corpo quando
ele está em repouso. Por isso, frequentemente adicionamos um
complemento ao termo: massa de repouso.

Einstein visitou os EUA em 1921. Foi em uma série de palestras na


Universidade de Princeton que ele usou pela primeira a notação que
ficou famosa: E0 = m0c2. O símbolo “m0” significa a massa de
repouso. Novamente, como a velocidade da luz é muito grande,
essa equação mostra que a quantidade de energia armazenada em
um corpo é gigantesca. No Sol, a pequena diferença entre soma das
massas do dêuteron e próton e a massa do núcleo de hélio se
converte em uma colossal quantidade de energia.

A fórmula mais conhecida, E = mc2, sem o “0”, é mais geral, pois


aplica-se a corpos em qualquer estado de movimento. Mas agora o
significado do símbolo “m” é a massa que o corpo tem em função
da sua velocidade, ou seja, a massa de repouso, m0, somada a uma
quantidade que depende da velocidade. O símbolo E representa a
energia total do corpo.

A equação E = mc2 resume uma diferença marcante entre a MC e


a RE: a conservação da energia e conservação da massa são leis
distintas na MC, mas se fundem em uma só lei de conservação na
RE. No que diz respeito à Física de Partículas, a implicação mais
importante da RE, nas palavras do próprio Einstein, é a
equivalência entre massa e energia.

Os efeitos relativísticos podem ser quantificados pelo chamado


fator g de Lorentz, cujo valor depende da razão entre a velocidade
do corpo e a da luz, v/c. Usando o fator g, equação de Einstein pode
então ser escrita como E = mc2 = gm0c2, ou seja, a massa de um
corpo em movimento, m, é g vezes a sua massa de repouso m0.

Quando a velocidade v é muito pequena comprada com c, o fator g


tende ao valor 1. Nesse caso, os efeitos relativísticos podem ser

132
ignorados. Mas quando v se aproxima de c, o fator g passa a ter
valores muito altos. No limite, quando v = c, o fator g torna-se
infinito. Isso significa que se um corpo pudesse ser acelerado até
atingir uma velocidade igual à da luz, sua massa seria infinita. Dito
de outra forma, seria necessária uma quantidade de energia
infinitamente grande para acelerar um corpo até ele atingir a
velocidade da luz. Viajar à velocidade da luz é fisicamente
impossível.

Minkowski

Hermann Minkowski foi um importante matemático polonês.


Foi professor de Einstein no ETH, o Instituto Politécnico de
Zurique. Os dois não se deram muito bem. Minkowski, como
outros professores, não tinham Einstein em boa conta. Às vezes, se
referia a ele como um “cachorro preguiçoso”. Por isso, Minkowski
ficou muito surpreso quando Einstein publicou seus trabalhos.

Em 1908, Minkowski escreveu um artigo sobre a RE, que veio a


ser o seu trabalho mais conhecido. Na verdade, devemos a ele o
conceito de espaço-tempo. Minkowski reescreveu a RE usando um
formalismo matemático mais sofisticado e elegante, e que

133
posteriormente possibilitou a Einstein lidar com a complexidade
matemática da RG.

Já vimos que tempo e espaço são coisas distintas, embora


intimamente entrelaçados. O tempo é medido em segundos, as
distâncias são medidas em metros. Minkowski propôs uma nova
forma de medir o tempo, usando unidades de comprimento. Pode
parecer estranho, mas a ideia é bem simples. Medir o tempo em
metros é simplesmente computar quanto tempo a luz leva para
percorrer uma determinada distância. Em um intervalo de tempo t,
a luz percorre uma distância d = ct. Um “metro de tempo” equivale
a 0,000.000.003.335 s.

Os países de língua inglesa usam unidades diferentes para


comprimento. Em vez do metro, adotam a jarda. Em vez de
quilômetro, usam a milha. É simples traduzir uma unidade na outra,
basta usar o fator de conversão apropriado. Por exemplo, uma
milha corresponde a 1,60934 km (fator de conversão = 1,60934).
Quando medimos o tempo em metros, o fator de conversão é a
velocidade da luz, c.

Mas, afinal, qual é a vantagem de medir o tempo em metros?


Vimos anteriormente que um evento é definido por quatro
números, as três coordenadas espaciais e o tempo, (x, y, z, t).
Minkowski substituiu a variável t pelo produto ct, fazendo com que
todos os quatro números tenham a dimensão de comprimento.

Na geometria Euclidiana, a distância entre dois pontos não muda


se o sistema de coordenadas é girado ou deslocado (invariância por
rotação e translação). Os valores das coordenadas de cada ponto,
claro, mudam quando giramos ou deslocamos o sistema de
coordenadas, mas a distância entre os pontos é sempre a mesma.
Haveria alguma coisa parecida na RE? Cada observador tem o seu
espaço e tempo próprios, mas ainda assim, haveria alguma
quantidade que permanece inalterada, que tem o mesmo valor em
qualquer sistema de referência?

134
Imagine dois eventos que ocorram tanto em dois pontos distintos
do espaço como em momentos diferentes. Um observador mede as
diferenças entre as coordenadas espaciais de cada evento, assim
como o intervalo de tempo transcorrido entre eles. Obtém os
valores Dx, Dy, Dz e Dt. Os mesmos dois eventos são analisados por
um segundo observador que se move em ralação ao primeiro. Este
segundo observador mede valores diferentes, Dx’, Dy’, Dz’ e Dt’.
Minkowski descobriu que a quantidade Ds2 = Dx2 + Dy2 + Dz2 – c2Dt2
tem o mesmo valor que Ds’2 = Dx’2 + Dy’2 + Dz’2 – c2Dt’2.

Aqui está a motivação para medir o tempo em metros: a quantidade


Ds2 (ou Ds’2) só pode ser computada se o tempo é medido em
unidades de comprimento. Essa quantidade é chamada intervalo
espaço-temporal, uma forma de medir a separação entre dois
eventos. O intervalo espaço-temporal tem o mesmo valor para
todos os observadores, independente dos seus movimentos
relativos. A quantidade definida por Minkowski é uma
generalização da ideia de separação espacial entre dois pontos, que
geometria Euclidiana é facilmente obtida usando o teorema de
Pitágoras.

O teorema de Pitágoras é facilmente estendido a três dimensões.

O espaço-tempo de Minkowski é um contínuo em quatro


dimensões. Isso significa que é possível ir de um ponto a outro no
espaço e no tempo sem dar saltos, movendo-se através de uma

135
sequência de passos infinitamente pequenos, passos que são dados
em intervalos de tempo tão pequenos quanto queiramos.

Podemos então imaginar um sistema de referência inercial A como


um arranjo de réguas e relógios idênticos, como se fosse um corpo
rígido. No desenho abaixo, o reticulado pode se estender
indefinidamente para cima, para baixo e para os lados. Se
inicialmente os relógios são sincronizados, todos permanecerão
sincronizados. E as réguas podem ser tão pequenas quanto
quisermos.

O reticulado de Minkowski: todos os relógios, uma vez


sincronizados, assim permanecerão. O comprimento das réguas
(menor distância entre dois relógios) pode ser tão pequeno quanto
queiramos. O espaço-tempo de Minkowski é plano, ou seja, a
geometria é Euclidiana.

Um observador B, que está em movimento relativo a A, pode


construir seu sistema de coordenadas exatamente da mesma forma,
usando régua e relógios idênticos aos de A. No referencial de B,
todos os relógios também permanecerão sincronizados.

Vistas pelo observador B, as réguas de A serão menores. O


observador B verá também os ponteiros dos relógios de A se
moverem mais lentamente. O observador A tem uma perspectiva
semelhante. Ele verá os relógios de B marcando o tempo num ritmo
mais lento que os seus. Além disso, para o observador A, o
comprimento das réguas de B serão menores.

136
Lembremo-nos que todos os referenciais são absolutamente
equivalentes. Com as transformações de Lorentz, podemos
relacionar o andamento do tempo e o comprimento das réguas
vistos por observadores diferentes.

Minkowski “repaginou” a teoria de Einstein, reescrevendo-a com


uma formulação matemática mais elegante e que se revelaria
fundamental para que Einstein desse o passo final rumo à RG. A
formulação de Minkowski está baseada no conceito de
quadrivetores, uma extensão da ideia de vetores no espaço
tridimensional para o espaço-tempo quadridimensional.

A distância entre dois pontos independe da orientação espacial do


sistema de coordenadas. Qualquer rotação do sistema de
coordenadas afeta igualmente as coordenadas do ponto inicial e
final. Por isso a diferença na posição de dois pontos quaisquer é
representada por vetores, objetos matemáticos cujo módulo
(Pitágoras) é invariante por rotação.

De forma análoga, o intervalo espaço-temporal Ds2 independe do


referencial. Podemos interpretar a mudança de um referencial a
outro como uma rotação no espaço-tempo quadridimensional. Por
isso Minkowski usou os quadrivetores, objetos matemáticos que
cujo “módulo” (o intervalo espaço-temporal) permanece inalterado
por rotações no espaço-tempo (as transformações de Lorentz).

Para enfatizar a analogia entre o intervalo espaço-temporal de


Minkowski e a distância entre dois pontos no espaço Euclidiano,
vamos renomear as coordenadas: em vez de x, y e z, usemos x1, x2
e x3. A distância espacial entre dois pontos é D2 = x12 + x22 + x32. Se
em vez do símbolo -c2Dt2 usarmos x42, podemos escrever a fórmula
do intervalo de Minkowski como ds2 = dx12 + dx22 + dx32+ dx42 (o
símbolo “d” representa um intervalo D muito pequeno). É como se
fosse a extensão do teorema de Pitágoras em três dimensões para o
espaço-tempo relativístico. Note que a natureza distinta do tempo
e do espaço está preservada pelo sinal negativo em x4 = -c2Dt2.

137
A interpretação das transformações de Lorentz como uma rotação
no espaço-tempo ajuda a entender o significado do entrelaçamento
entre tempo e espaço. Isso pode ser ilustrado pelo seguinte
exemplo. O norte magnético da Terra está deslocado em relação ao
norte geográfico. A diferença é de cerca de 23º. Se pensarmos nos
pontos cardeais e na orientação do campo magnético como dois
sistemas de coordenadas distintos, o norte magnético seria uma
combinação do norte e do oeste geográficos, Nmag = aNgeo + bOgeo
(a e b são números que dependem do ângulo de inclinação do norte
magnético).

Em um mundo cujo espaço fosse unidimensional, poderíamos


aplicar o mesmo raciocínio ao tempo t’ e ao comprimento x’, que
seriam combinações do tempo t e do comprimento x. Para um
observador em um referencial O com coordenadas (x, t), um evento
em um referencial O’ terá coordenadas (x’, t’) que serão
combinações de seu tempo próprio t e comprimento x. A rotação
no espaço-tempo mistura espaço e tempo. O espaço
unidimensional é apenas uma simplificação, pois não é possível
visualizar uma rotação em quatro dimensões.

138
O espaço-tempo de Minkowski é plano. A geometria é a de
Euclides: duas retas paralelas jamais se encontram, a menor
distância entre dois pontos é uma linha reta e a soma dos ângulos
internos de um triângulo é 180º.

Pense na superfície de uma mesa de um laboratório, perfeitamente


lisa e plana, onde duas retas paralelas são desenhadas. Agora
esqueça a mesa e pense apenas no plano formado pela sua
superfície. Podemos estender esse plano indefinidamente para os
lados, e as duas retas permanecerão paralelas. Podemos “empilhar”
entre o chão e o teto tantos planos idênticos quanto queiramos. Os
planos não precisam ser horizontais, eles podem ter qualquer
orientação. Em todos eles duas retas paralelas permanecerão
sempre paralelas. Esse é o sentido do termo “espaço plano”, o
espaço ao qual estamos habituados.

139
6

Relatividade Geral

A Teoria da Relatividade Especial (RE) se baseia em dois


postulados: a velocidade da luz é constante, independente do
movimento da fonte ou do observador; as leis da natureza são as
mesmas para todos os observadores (o princípio de relatividade).
Os dois postulados, no entanto, se restringem a uma classe especial
de observadores: aqueles que se movimentam sem aceleração. Essa
é a razão do adjetivo “especial” na RE.

O próprio Einstein considerava bastante insatisfatório o fato de o


princípio de relatividade se restringir apenas aos referenciais
inerciais. Além disso, havia um outro problema que incomodava
Einstein: a teoria da gravitação de Newton, usada havia mais de
200 anos, era incompatível com o princípio de relatividade
especial.

Na teoria da gravitação de Newton, a atração entre os corpos é uma


ação à distância, que ocorre sem intermediários. Não há uma
explicação sobre como essa ação se dá. A intensidade da atração
não depende da natureza dos corpos, mas apenas do valor das suas
massas e da distância entre eles. A variável tempo não aparece na
gravitação Newtoniana. Isso significa que a força da gravidade é

140
sentida e exercida por todos os corpos celestes instantaneamente,
independente de quão longe eles estejam.

Sabemos, no entanto, que nada se propaga com velocidade maior


que a da luz no vácuo. Imagine um cataclismo nos céus que
desviasse o Sol da sua posição. No instante cataclismo, aqui na
Terra ainda veríamos o Sol na mesma posição de sempre. A luz do
Sol leva oito minutos para chegar à Terra, e por isso só sentiríamos
o efeito do cataclismo oito minutos depois. Mas na teoria de
Newton, saberíamos instantaneamente que o Sol havia sido
deslocado.

Logo após os trabalhos de 1905, Einstein dedicou-se à tarefa de


generalizar o princípio de relatividade, estendendo-o a todos os
sistemas de referência e a todas as leis físicas, incluindo a
gravitação. É muito provável que Einstein tenha percebido que
tornar a gravitação compatível com a RE seria o caminho para a
generalização do princípio de relatividade.

Anos depois da publicação da Relatividade Geral (RG), Einstein


participou de uma conferência no Japão. Já era, então, uma
celebridade mundial. Recordando o início da sua longa jornada
desde a RE até a formulação final da RG, em 1915, Einstein relatou
à audiência um episódio decisivo, quando ainda era funcionário do
escritório de patentes em Berna (Einstein só obteve uma posição
em uma universidade em 1908).

Certo dia, sentado à sua mesa de trabalho, Einstein viu um


trabalhador consertando um telhado, bem em frente à sua janela.
Ocorreu-lhe então o que ele classificou como “o pensamento mais
feliz da minha vida”. Nas suas palavras: “Eu estava sentado numa
cadeira na repartição em Berna quando subitamente me ocorreu
um pensamento: ‘Se uma pessoa cai livremente, não sente o
próprio peso.’ Fiquei abismado. Esse pensamento simples me
causou uma impressão profunda. Impeliu-me para a teoria da
gravitação.”

141
Voltemos a 1907. Einstein escreveu um longo artigo de revisão
sobre a RE, onde discutia novos desdobramentos da teoria. Foi
nesse artigo que Einstein tratou pela primeira vez do problema da
gravitação. O ponto de partida de Einstein foi explorar a relação
entre massa inercial e massa gravitacional. A massa inercial mede
a resistência de um corpo à aceleração causada pela ação de uma
força. A massa gravitacional é uma propriedade dos corpos quando
estão sujeitos à ação da gravidade.

No vácuo, a gravidade provoca a mesma aceleração em todos os


corpos, independente de suas massas ou composição. Eliminada a
resistência do ar, uma pluma e uma bola de ferro terão a mesma
velocidade na queda livre. Esse fato era conhecido há mais de 200
anos, e por isso fica clara aqui a marca do gênio, explorando os
fatos até as suas últimas consequências. Einstein concluiu que as
massas inerciais e gravitacionais são numericamente idênticas.
Essa igualdade levou-o a postular o princípio de equivalência: “...
supomos a completa equivalência física entre um campo
gravitacional e a aceleração de um sistema de referência”,
escreveu em 1907.

Em 1968, o genial cineasta Stanley Kubrick lançou o maravilhoso


filme “2001: Uma Odisseia no Espaço”, que devo ter visto pelo
menos umas dez vezes. Considero o melhor filme de ficção
científica jamais feito. Nessa verdadeira obra prima, uma missão
tripulada é enviada a Júpiter para desvendar o mistério de um
monólito encontrado na Lua. A nave possuía um mecanismo
giratório, como uma imensa roda gigante. A rotação fazia com que
os astronautas fossem pressionados contra o piso da nave (força
centrífuga), simulando um campo gravitacional.

No interior da nave os astronautas estavam em um referencial


acelerado e, portanto, não inercial. O diâmetro da parte giratória e
a velocidade de rotação poderiam ser ajustados de forma a produzir
sobre os astronautas uma aceleração de 9,8 m/s2, exatamente como
a aceleração da gravidade na superfície da Terra. Sem olhar pela
janela, os astronautas não poderiam dizer se estariam na Terra ou

142
no espaço sideral. Poderiam fazer experimentos sobre a queda
livre, por exemplo, e encontrariam os mesmos resultados que
seriam obtidos na Terra.

Na vida real, a situação dos astronautas em órbita da Terra na


Estação Espacial Internacional é um pouco diferente. Ali não há
mecanismos giratórios e os astronautas flutuam. É um engano
bastante comum dizer que eles flutuam porque não há gravidade.
Se de fato não houvesse gravidade, por que então a Estação
permaneceria em órbita? E o que dizer da Lua, que está muito mais
longe e orbita em torno da Terra devido à gravidade do planeta?

Cartaz do filme “2001: uma odisseia no espaço”, de 1968.

Os astronautas flutuam porque, assim como a Lua, estão em


permanente queda livre. A Lua e os astronautas não desabam sobre
nossas cabeças porque possuem também uma velocidade
tangencial. A combinação da queda livre com a velocidade
tangencial resulta na trajetória circular. Se a força da gravidade
fosse transmitida por uma corda invisível, e se esta se rompesse
subitamente, a Lua e a Estação se afastariam, livres da atração

143
exercida pela Terra. Seguiriam em linha reta, numa trajetória que
seria tangente às suas órbitas.

Dentro da Estação, um astronauta pede uma ferramenta a um


colega. Este arremessa a ferramenta, que segue um movimento
retilíneo com velocidade constante. O mesmo efeito ocorreria se,
em vez da órbita da Terra, a Estação estivesse em uma região
longínqua do espaço interestelar, afastada o suficiente de qualquer
influência da gravidade. Sem olhar pela janela, os astronautas não
teriam como saber onde a Estação estaria.

O fato de todos os corpos caírem da mesma maneira sob a ação da


gravidade (eliminando, claro, a resistência do ar) era conhecido
desde Galileu. Mas Einstein captou o significado mais profundo
desse fato, que o levou a formular o princípio de equivalência: a
completa equivalência entre referenciais acelerados e campos
gravitacionais. Qualquer campo gravitacional pode ser substituído
por um referencial não inercial e vice-versa. A aceleração produz a
percepção de peso.

No trabalho de 1907, Einstein, que já havia descoberto a relação


entre inércia e energia, contida na equação E = mc2, delineou a
relação entre inércia e peso que possibilitaria a inclusão da
gravidade na RE. Isso abriu o caminho para a construção da RG,
que é a teoria relativística da gravidade. O peso nada mais é do que
a percepção de uma mudança do movimento inercial (velocidade
constante), que pode ser causada tanto pela gravidade como por
uma aceleração.

No seu artigo de 1907, Einstein destacou três desdobramentos


dramáticos da relação entre massa, energia e gravidade. A
equivalência entre massa e energia significa que tanto a uma como
a outra são fontes de campos gravitacionais. Fótons são “pacotes”
de energia, e por isso podem gerar campos gravitacionais. Se um
corpo absorve uma quantidade de energia, sua massa inercial sofre
um aumento. Como massa inercial e gravitacional são idênticas, a

144
energia absorvida produz também um efeito gravitacional. A luz
tem peso!

A energia, portanto, possui inércia, e por isso ela não só é fonte de


campos gravitacionais como também deve ser afetada por eles. A
luz vinda do Sol deve ser afetada pela sua gravidade. Einstein
previu que as linhas espectrais da luz solar deveriam estar
levemente deslocadas para o vermelho em relação às mesmas
linhas produzidas nos laboratórios. Para escapar da gravidade do
Sol, a luz perde um pouco da sua energia.

Imagine uma pedrinha sendo lançada verticalmente para cima. Sob


a ação da gravidade, ela gradativamente perde velocidade e,
portanto, energia de movimento. Se o impulso inicial for
suficientemente forte, a pedrinha consegue se livrar da atração
gravitacional da Terra e escapa para o espaço, mas com uma
energia menor que a que tinha no momento do lançamento.

Um fóton que fosse emitido verticalmente de uma fonte na


superfície da Terra deveria sofrer o mesmo efeito que sente um
corpo com massa. A atração gravitacional iria causar uma perda de
energia do fóton, que sofreria um alongamento do comprimento de
onda. Se a massa da Terra fosse maior, o fóton perderia ainda mais
energia. No limite em que a atração gravitacional fosse muito
intensa, o fóton ficaria aprisionado. Teríamos um buraco negro!

As sondas gêmeas Voyager, da NASA, exploraram os confins do


Sistema Solar. As naves utilizaram os campos gravitacionais dos
gigantescos planetas gasosos como um estilingue. Quando
passaram perto desses planetas, além do ganho em velocidade, as
sondas mudaram suas trajetórias.

Com os fótons deve ocorrer algo semelhante, pois possuem inércia


e por isso também são afetados pelos campos gravitacionais. Isso
significa que ao passar perto de um objeto muito massivo, como
uma estrela, a trajetória da luz deve sofrer um desvio, assim como
ocorreria com qualquer outro corpo com massa.

145
Podemos adaptar mais um dos experimentos mentais de Einstein
para ilustrar o efeito da gravidade sobre a luz. Imagine uma nave
espacial em uma região remota do espaço, afastada de qualquer
campo gravitacional, viajando sem aceleração. Um dispositivo fixo
do lado externo da nave emite um feixe luminoso que passa pela
janela da cabine e segue paralelo ao chão. Na parede oposta da
cabine há um detector de fótons. A janela e o detector estão
localizados exatamente à mesma altura em relação ao piso da
cabine. Nessas condições, o feixe emitido atinge o detector e o
astronauta vê a luz se propagar em linha reta.

Agora imagine que no momento em que o feixe é emitido a nave


esteja acelerada. A luz leva um tempo finito para percorrer a
extensão da cabine. Durante esse tempo, a nave se desloca cada vez
mais rápido, o que faz com que o feixe atinja a parede oposta da
cabine um pouquinho abaixo do detector de fótons. O astronauta
vê a luz se propagando em uma trajetória curvilínea. Como
qualquer referencial acelerado é equivalente a um campo
gravitacional, o astronauta conclui que a gravidade altera a
trajetória da luz.

Esse efeito foi mencionado por Einstein como uma possibilidade


de verificação experimental da Teoria da Relatividade. Sobre isso
falarei daqui a pouquinho. A ação da gravidade sobre a luz tem uma
implicação perturbadora. Segundo a RE, a luz se propaga em linha
reta com velocidade constante. Esse é um dos dois pilares sobre os
quais a RE está apoiada. Mas se a luz sofre desvios na presença de
campos gravitacionais, sua trajetória não é mais retilínea, e assim
não mais podemos dizer que sua velocidade é constante!

A tentativa de compatibilizar a gravitação com a relatividade fez


com que Einstein percebesse que havia algo errado com a RE. A
Mecânica Clássica é um caso particular da Mecânica Quântica, é
uma aproximação válida para tratar de problemas em escalas
macroscópicas. Como veremos mais adiante, Einstein concluiu que
a RE é um caso particular de uma teoria mais geral, uma

146
aproximação válida quando os efeitos da gravidade são
insignificantes. Isso significa que as transformações de Lorentz só
são corretas localmente, ou seja, em pequenas regiões do espaço e
pequenos intervalos de tempo, onde a gravidade não tenha
nenhuma influência perceptível. Apenas nesse referencial local a
luz se propaga em linha reta e com velocidade constante.

Havia ainda outra questão. Na sua forma inicial, o princípio de


equivalência de Einstein se restringia a campos gravitacionais
constantes, ou a sistemas de referência com aceleração constante.
Só valeria para essa classe particular de campos gravitacionais. A
extensão do princípio de relatividade para todos e quaisquer tipos
de referenciais acelerados ainda estava incompleta. Era preciso
estender o princípio de equivalência a todo e qualquer tipo de
campo gravitacional.

A generalização do princípio de equivalência causaria mais uma


revisão radical nos conceitos de espaço e tempo. Essa tarefa se
revelaria bastante complicada. Para realizá-la, seria necessário usar

147
uma ferramenta matemática que Einstein não dominava: a
geometria diferencial Riemanniana. Apesar do desafio, Einstein
estava diante de um caminho sem volta. Depois de uma temporada
em Praga, Einstein voltou a Zurique em 1912, onde então contou
com o valioso auxílio de seu grande amigo e matemático Marcel
Grossman.

Gravidade, espaço e tempo

Escondido em um canto escuro da RE havia um paradoxo, uma


inconsistência um tanto inquietante. Para entendê-lo, vamos
novamente seguir o raciocínio de Einstein, em que ele discute o
efeito da gravidade sobre réguas e relógios.

Pense em um disco plano de raio muito grande. O disco está em


repouso em relação a um observador externo A. No centro do disco
está um observador B. Sentado no disco, a uma certa distância do
centro, está um observador C. Os três estão munidos de relógios
idênticos. Com o disco inicialmente parado, os três observadores
estão em repouso relativo e seus relógios são sincronizados.

O disco começa a girar velozmente. Como o observador externo A


vê a marcação dos relógios de B e C? Enquanto o disco gira, seu
centro permanece imóvel, de forma que o relógio do observador B
continua sincronizado com o de A, pois ambos seguem em repouso
relativo. O observador C, no entanto, se movimenta em relação a
A e B, de forma que para ambos o andamento do relógio de C é
mais lento que o dos seus (dilatação do tempo).

Devido à rotação do disco, o observador C sente uma força


centrífuga. Quanto mais afastado do centro ele estiver, maior será
a força centrífuga, mais velozmente o observador C se moverá em

148
relação a A e B, e assim, mais lento será o andamento do seu
relógio quando visto por esses observadores.

Se o observador C estivesse dentro de uma cápsula fixa ao disco,


ele não poderia distinguir entre a sua situação atual e outra em que
ele estivesse em repouso, mas sob a ação de um campo
gravitacional. De acordo como o princípio de equivalência, a
aceleração centrífuga que ele sente seria idêntica à aceleração
devida a um campo gravitacional. Ou seja, substituindo a disco
acelerado por um campo gravitacional equivalente, seu “peso”
seria idêntico à força centrífuga que ele sofre. Quanto maior for a
força centrífuga, maior será o campo gravitacional. Então,
concluímos que a gravidade torna o andamento do tempo mais
lento. Quanto mais intenso for o campo gravitacional, mas lento
será o andamento do tempo.

Aqui temos uma diferença marcante entre os referenciais inerciais


e os acelerados. Nos referenciais inerciais, se relógios que estão em
repouso relativo são sincronizados em determinado momento,
permanecerão sincronizados indefinidamente, como no reticulado
de Minkowski (capítulo anterior).

Considere agora três relógios fixos no disco, a distâncias diferentes


em relação ao centro. Com o disco parado, os relógios são
sincronizados. Quando o disco gira, os relógios giram juntos, mas
a força centrífuga sobre cada um é diferente (quanto mais afastado
do centro, maior é a força centrífuga). O disco é um corpo rígido,
e, embora os relógios estejam fixos no disco, e, portanto, em
repouso relativo entre si, cada um sofre uma aceleração diferente.

Usando o princípio de equivalência, podemos dizer que os relógios


estão sujeitos a campos gravitacionais diferentes. A intensidade do
campo gravitacional é igual à aceleração centrífuga, que aumenta
com a distância ao centro, e isso faz com que os relógios percam a
sincronia. Em resumo, a gravidade afeta o andamento do tempo, e
o fato de ela variar em uma região do espaço torna impossível
sincronizar relógios, mesmo que estejam em repouso relativo.

149
Analisemos agora o paradoxo da RE mencionado acima, usando o
mesmo “experimento mental”. Com o disco em repouso, vamos
medir a circunferência usando um número muito grande de
pequenas réguas idênticas, dispostas uma após a outra ao longo da
borda. As réguas têm um tamanho muito pequeno comparado com
o raio do disco, de forma que o comprimento da circunferência
pode ser medido pelo número de réguas alinhadas na borda do
disco.

Réguas idênticas são alinhadas também na direção radial (do centro


para a borda), e, assim como a circunferência, o raio do disco é
medido pelo número de réguas alinhadas. Euclides, há mais de
2000 anos, estabeleceu a relação entre o a circunferência de um
círculo, C, e seu diâmetro, d: C/d = p. A razão entre o comprimento
da circunferência e o diâmetro é a mesma para todo e qualquer
círculo: o número p.

Os relógios I, II e III estão em repouso em relação ao disco. Mas


estão sujeitos a forças centrífugas diferentes e por isso terão
andamentos diferentes, mesmo estando no mesmo referencial.

Quando o disco gira, surge o paradoxo. Vistas do centro do disco,


as réguas dispostas na direção radial não se alteram, mas as da

150
borda sim. Elas ficam menores devido à contração de Lorentz. No
referencial em rotação, a relação de Euclides entre circunferência
e diâmetro não mais se aplica: em vez de C/d = p, teríamos C/d <
p! Esse aparente paradoxo mostra que o espaço em um referencial
não inercial não é Euclidiano. A gravidade distorce não apenas o
tempo, mas também o espaço!

Esse é o ponto crucial, o “pulo do gato”. Para melhor entendê-lo,


pense na superfície da Terra, nos meridianos e na linha do equador.
Os meridianos são linhas curvas (segmentos de circunferência), e
vamos imaginar que sejam linhas flexíveis, mas não elásticas.
Podem se dobrar, mas o comprimento é fixo. Imagine também que
a linha do equador seja igualmente flexível, mas que seja também
elástica. As extremidades dos meridianos estão fixas no polo e na
linha do equador.

Agora, mantendo os meridianos fixos no polo, vamos “esticá-los”,


isto é, fazer com que se tornem linhas retas em vez de arcos de
circunferência. Como os meridianos não são elásticos, eles mantêm
o mesmo comprimento, apenas mudam de forma. A linha do
equador, no entanto, é elástica e se distende quando os meridianos
são retificados, e o conjunto passa a ter o aspecto de uma roda de
bicicleta centrada no polo.

Quando os meridianos são linhas retas, a circunferência da linha do


equador é, obviamente, maior que a circunferência da Terra,
embora o diâmetro da circunferência continue sendo o mesmo, ou
seja, duas vezes o comprimento do meridiano (a distância do polo
ao equador). Na forma “roda de bicicleta”, os meridianos e o
equador formam um plano, e nessa condição vale a geometria de
Euclides: C / d = p.

Mas na vida real estamos limitados a nos mover sobre a superfície


esférica da Terra. Nesse espaço curvo bidimensional, o diâmetro
da circunferência do equador continua sendo igual a duas vezes o
comprimento do meridiano (a distância de um ponto a outro do
equador, passando obrigatoriamente pelo polo), como na roda de

151
bicicleta, mas a circunferência é menor. Teremos C/d < p, pois na
superfície curva da Terra a geometria Euclidiana não é válida.

A genialidade de Einstein se revela por inteiro na Teoria da


Relatividade. Usando um único resultado experimental, o de que a
aceleração da gravidade é a mesma para todos os corpos, fato que
era já conhecido havia mais de 200 anos, e usando apenas o
raciocínio lógico e “experimentos mentais”, Einstein deduziu o
princípio de equivalência. Essa foi a sua grande descoberta: a
gravidade deforma o espaço-tempo!

Vivemos em um espaço-tempo curvo, não Euclidiano, em que a


curvatura é determinada pela matéria e pela energia. É simples
imaginar uma superfície bidimensional curva, como a superfície da
Terra, pois está imersa no espaço tridimensional em que vivemos.
Mas é muito difícil imaginar o que é a curvatura do espaço-tempo
quadridimensional. Por isso, usamos superfícies bidimensionais
para ilustrar os conceitos básicos.

Imagine uma grande bancada de laboratório com uma superfície


absolutamente plana. Se vivêssemos em um espaço bidimensional,

152
poderíamos nos mover apenas sobre a superfície da bancada. Se
desenhássemos duas retas paralelas em uma pequena parte da
bancada, poderíamos estendê-las indefinidamente e elas
continuariam sendo retas paralelas. A menor distância entre dois
pontos seria uma linha reta, a soma dos ângulos internos de
qualquer triângulo seria 180º, e a razão entre o diâmetro e a
circunferência de um círculo qualquer seria sempre p. O espaço
seria plano, e a geometria, Euclidiana.

O globo terrestre é o exemplo mais simples de superfície curva.


Como somos limitados a nos deslocar sobre uma superfície do
globo, a menor distância entre dois pontos não é mais uma linha
reta. O raio da Terra, no entanto, é muito grande, de forma que não
percebemos o efeito da curvatura. Numa excelente aproximação,
podemos dizer que apenas localmente o espaço é Euclidiano. Se
não fosse assim, a engenharia e a arquitetura seriam extremamente
complexas.

No globo terrestre, os meridianos fazem um ângulo de 90º com a


linha do equador. Embora sejam paralelos entre si na vizinhança
imediata da linha do equador, não permanecem paralelos e se
cruzam nos polos. Pense nos círculos polares, os últimos paralelos.
Eles formam triângulos com os meridianos, cujos lados são arcos
de circunferência e formam vértices com os polos. Diferentemente
dos triângulos planos, a soma dos seus ângulos internos é maior
que 180º.

No reticulado Euclidiano de Minkowski, a distância entre duas


linhas (o comprimento das réguas) pode ser tão pequena quanto
podemos imaginar. Mas são sempre segmentos de reta. Da mesma
forma, a distância entre dois meridianos, ou entre dois paralelos,
também pode ser tão pequena quanto queiramos. Nesse caso, as
linhas são apenas aproximadamente retas. Vivemos em um
contínuo espaço-temporal que não é plano, ele é deformado pela
presença da matéria e da energia. Através desse contínuo, somos
limitados a nos mover em trajetórias curvilíneas.

153
Em superfícies curvas, como uma esfera, a geometria de Euclides
não é válida. A soma dos ângulos internos de um triângulo não é
180º, e linhas paralelas só existem localmente.

A generalização do princípio de relatividade para todos os


referenciais, inerciais ou não, levou à teoria moderna da gravitação.
Mas podemos, também, inverter a ordem e dizer que a inclusão da
gravitação levou à generalização do princípio de relatividade para
todos os referenciais. Em 1913, Einstein já sabia que a gravidade
deforma o espaço-tempo. Mas faltava descobrir como a presença
da matéria e da energia afeta o espaço-tempo, qual é a lei que
governa a relação entre a matéria-energia e o espaço-tempo.

De todas, essa foi a parte mais árdua. A geometria de superfícies


curvas é extremamente complexa. Sessenta anos antes da Teoria da
Relatividade, o grande matemático Georg Riemann, discípulo de
Carl Gauss, outro gigante da matemática (ambos alemães), havia
desenvolvido a geometria diferencial. Riemann encarava seu
trabalho como um exercício formal, teórico, sem jamais imaginar
que algum dia ele teria alguma aplicação prática.

Einstein estava de volta a Zurique, em 1912, após uma estadia de


dois anos em Praga (seu primeiro emprego como pesquisador).
Voltava como professor na ETH, a universidade onde havia se
formado e onde fora rejeitado em 1902. Lá ele reencontrou um
velho amigo, Marcel Grossman, professor de matemática no

154
mesmo ETH. Juntos, Einstein e Grossman desbravaram a
complexa matemática envolvida na geometria diferencial.

Foram três longos anos de muitas tentativas e erros, até Einstein


finalmente chegar à relação matemática entre a distribuição de
matéria e energia e a deformação causada no espaço-tempo. Essa
relação é um complexo sistema de 10 equações diferenciais não
lineares. Mas não há necessidade de entrarmos nos detalhes
matemáticos. A essência da teoria de Einstein está resumida nas
palavras do físico John Wheeler: “a matéria e a energia dizem ao
espaço-tempo como se curvar; o espaço-tempo curvo diz à matéria
e à energia como se mover”.

A teoria de Einstein representou uma mudança radical na


interpretação da gravidade. O que sentimos como uma força que
nos prende à superfície da Terra, é um efeito da curvatura do
espaço-tempo. Nesse sentido, a gravidade não é uma força como o

155
eletromagnetismo, ou as forças nucleares forte e fraca, mas apenas
um efeito da geometria do espaço-tempo.

Espaço e tempo, na visão Newtoniana, são entidades independentes


e absolutas. Na RG, ao contrário, espaço e tempo estão
intimamente ligados. Em vez de um mero palco onde o espetáculo
do Universo acontece, o espaço e o tempo ganham um sentido
dinâmico, passam a ser atores também. Espaço e tempo não têm
uma existência em si, independente do Universo. Dito de outra
maneira, o Universo não evolui em um espaço-tempo previamente
existente, e sim os cria à medida que evolui.

A presença da matéria e da energia deforma o espaço-tempo, e a


curvatura produz o efeito que sentimos como aceleração. Se
queremos determinar a forma do espaço-tempo em uma
determinada região, alimentamos a equação de Einstein com a
distribuição de matéria e energia. A luz, ou qualquer outro corpo,
só pode se deslocar ao longo das trajetórias curvilíneas nesse
“tecido” quadridimensional do espaço-tempo deformado. Como as
trajetórias possíveis no espaço-tempo são comuns a todos os
corpos, todos sentirão a mesma aceleração. Essa é a razão pela qual
a massa dos corpos é irrelevante na queda livre. Todos os corpos,
independente da sua composição, caem da mesma forma.

A luz sempre percorre geodésicas, o termo técnico que designa o


caminho mais curto entre dois pontos. Em regiões suficientemente
pequenas e afastadas de qualquer efeito gravitacional, as
geodésicas são linhas retas. O espaço-tempo nessas regiões é
aproximadamente plano, onde valem as leis da geometria de
Euclides. Esse é o conceito de referencial local. Apenas nessas
regiões há sentido em falar sobre referenciais inerciais. As
transformações de Lorentz e o reticulado de Minkowski são válidos
localmente, onde o espaço-tempo é aproximadamente plano.
Nessas regiões limitadas, a luz se propaga em linha reta com
velocidade constante, e a RE se torna um caso particular da RG.

156
No dia 25 de novembro de 1915, Einstein saiu de seu pequeno
apartamento em Berlim. Seu destino era a Academia Prussiana de
Ciências, onde apresentou a versão final da RG. Nesse dia, o longo
reinado de 228 anos da gravitação Newtoniana chegou ao fim, e
teve início o reinado do Universo de Einstein.

Einstein previu com sucesso uma série de efeitos. Previu o valor de


uma pequena anomalia na órbita do planeta Mercúrio, conhecida
havia tempos e que a teoria Newtoniana da gravitação não
conseguia explicar. Previu o desvio para o vermelho da luz emitida
pelo Sol. Previu também o desvio que a luz sofreria ao passar nas
imediações de um objeto muito massivo, como uma estrela.

https://thedemiscientist.wordpress.com/2017/02/13/black-holes-for-high-school-students/

Representação artística da gravidade como o efeito da geometria


do espaço-tempo. A trajetória da Lua é definida pela deformação
no espaço-tempo causada pela presença da Terra. A órbita da Lua
é uma geodésica. A representação acima é apenas ilustrativa, pois
é bidimensional e não inclui o tempo. É impossível deformar o
espaço sem alterar também o tempo.

157
Desde então, todos os efeitos previstos pela RG foram
comprovados por medições cada vez mais precisas, medições que
são realizadas ainda nos dias de hoje. Mas o grande sucesso, que
tornou Einstein uma celebridade mundial, foi a comprovação de
que a luz é desviada pelo campo gravitacional do Sol. Sobre isso
falarei daqui a pouco.

De todos os efeitos previstos pela RG, dois merecem menção


especial. O primeiro efeito é a existência de ondas gravitacionais.
Assim como as ondas EM são perturbações no campo
eletromagnético que se propagam pelo espaço, as ondas
gravitacionais são perturbações na geometria do espaço-tempo
produzidas por cataclismos de gigantescas proporções, que se
propagam pelo Universo. A primeira observação direta das ondas
gravitacionais ocorreu em 2015, feita pelos experimentos LIGO e
Virgo, e que rendeu o Prêmio Nobel de 2017 a três de seus
membros. As ondas gravitacionais abrem uma nova possibilidade
para a astronomia, uma nova ferramenta na investigação sobre a
origem do Universo.

Em 1916, o físico e astrônomo alemão Karl Schwarzschild


resolveu as equações de Einstein para o caso mais simples: uma
distribuição esférica de matéria. O campo gravitacional gerado por
uma esfera é uma ótima representação da gravidade gerada por
estrelas e planetas. Como uma esfera tem simetria perfeita, o efeito
da gravidade é o mesmo em todas as direções e só depende da
distância em relação ao centro da esfera.

A estabilidade de uma estrela é mantida por um duelo de titãs. A


gravidade tende a fazer com que a estrela colapse, mas esse efeito
é compensado pela pressão exercida pela radiação que ela emite,
que age na direção oposta. Quando as reações termonucleares
diminuem no interior da estrela, o equilíbrio é rompido e a estrela
desaba sobre si mesma. O destino final da estrela depende da sua
massa.

158
Schwarzschild mostrou que se a massa da estrela fosse concentrada
em uma esfera de raio muito pequeno, produziria uma atração
gravitacional tão intensa que nem mesmo a luz conseguiria escapar.
No limite, quando o raio da esfera tendesse a zero, a gravidade seria
infinita. No jargão dos físicos, teríamos uma singularidade. Em
1939, Oppenheimer e Snyder mostraram que a singularidade é
inevitável se a massa da estrela for maior do que três vezes a massa
do Sol. Nesse caso, o colapso da estrela levaria invariavelmente “às
bestas do apocalipse cósmico”: os buracos negros. Mas essa é uma
longa história, que foge muito dos objetivos desse livro.

Sobral, CE

Einstein propôs, em 1912, uma forma de comprovar a Teoria da


Relatividade Geral. O confronto entre teoria e realidade consistia
em comparar a posição de uma estrela distante, cuja luz durante o
dia passasse nas proximidades do Sol, com sua posição à noite, sem
a influência do Sol. Usando a RG, Einstein fez uma previsão sobre
o desvio que a trajetória da luz sofreria.

De dia, só seria possível observar a posição da estrela durante um


eclipse total do Sol. Caso a posição aparente da estrela durante o
dia fosse diferente da sua posição real, observada à noite, a
influência da gravidade sobre a luz estaria comprovada.

Em agosto de 1914, ocorreu um eclipse total do Sol. O melhor lugar


para observá-lo era a península da Crimeia, no mar Negro, na época
pertencente ao Império Russo. Uma expedição liderada pelo
astrônomo alemão Erwin Finley-Freundlich partiu rumo à Crimeia
para testar a previsão de Einstein. Mas para azar de Freundlich, a
Primeira Guerra Mundial eclodiu durante os preparativos para a
observação. A expedição teve um final dramático: Freundlich e sua
equipe tornaram-se prisioneiros de guerra.

159
Einstein propõe, em 1912, uma forma de verificar as previsões da
RG. Comparando as posições observadas de uma estrela à noite e
durante o dia (só possível durante um eclipse total do Sol), seria
possível medir o desvio na trajetória da luz ao passar perto de um
objeto muito massivo.

Se há males que vêm para bem, aqui está um exemplo. A previsão


de Einstein feita em 1912 estava errada. Foram necessários mais
três anos para que Einstein chegasse à forma final da RG, e com
ela uma nova previsão do ângulo de desvio foi feita: 1,75 segundos
de arco.

Em 1918, os astrônomos do Observatório Nacional, no Rio de


Janeiro, previram que um novo eclipse total ocorreria no dia 29 de
maio do ano seguinte. O diretor do Observatório, Henrique Charles

160
Morize, preparou um relatório detalhado em que apontava a cidade
cearense de Sobral como o melhor lugar para a observação do
eclipse, que duraria cerca de cinco minutos.

Morize enviou o relatório a instituições de vários países, incluindo


a Royal Astronomical Society, em Londres. Frank Dyson e Arthur
Eddington, respectivamente o diretor e o secretário da sociedade
astronômica inglesa, se interessaram de imediato. Ambos eram
entusiastas da teoria de Einstein, e sabiam que aquele seria um
eclipse especial. Naquela ocasião, o Sol passaria pela linha de visão
de um aglomerado de estrelas na constelação do Touro, e várias
estrelas brilhantes poderiam serem observadas.

Duas expedições inglesas foram organizadas. A principal, chefiada


por Eddington, iria à ilha de Príncipe, na época uma possessão
portuguesa na costa atlântica da África. A outra, chefiada por
Charles Davidson e Andrew Crommelin, foi enviada à Sobral, a
200 km de Fortaleza.

Davidson e Crommelin chegaram à Belém, no Pará, e de lá


rumaram para Sobral. Trouxeram um telescópio grande,
especialmente projetado para observar eclipses. Por via das
dúvidas, trouxeram também um telescópio menor para ser usado
como backup.

Para os habitantes de Sobral, a expedição foi um grande


acontecimento. Toda a cidade se mobilizou. O governo brasileiro
providenciou toda a logística necessária, e ainda enviou uma
equipe médica a Sobral, com receio da febre amarela. A região
atravessava um momento difícil causado por uma prolongada seca,
mas nem isso diminuiu o entusiasmo da população.

Chegou o dia do eclipse, que ocorreria pela manhã. Para a


apreensão de todos, o dia amanheceu nublado. Aos poucos as
nuvens foram se dissipando, e o Sol finalmente apareceu. O calor,
no entanto, afetou o telescópio principal, que produziu imagens

161
distorcidas do eclipse. Felizmente, com o telescópio reserva, boas
imagens foram obtidas.

A expedição de Eddington, do outro lado do Atlântico, teve menos


sorte. Lá, o tempo permaneceu nublado, prejudicando a
observação. Poucas fotografias nítidas foram obtidas, e sem os
registros feitos em Sobral, a expedição teria sido um fracasso.

Em uma seção da Royal Astronomical Society, no dia 6 de


novembro de 1919, os astrônomos ingleses anunciaram o resultado
da expedição. Foi observado um desvio na posição das estrelas de
1,98 segundos de arco, com uma incerteza de 0,18, consistente com
a previsão de Einstein (1,75 segundos de arco). Uma confirmação
espetacular da RG.

Einstein tornou-se uma celebridade mundial. Seu rosto virou a


imagem da Ciência. Apareceu com destaque nas capas dos jornais
de todo o mundo, desfilou em carro aberto pelas ruas de Nova
Iorque, saudado pela multidão. Em 1925, visitou o Brasil, passando
uma semana no Rio de Janeiro. A Ciência por aqui ainda
engatinhava.

A teoria da gravitação de Einstein desbancou a teoria de Newton,


que reinou absoluta por 228 anos. É notável que tenha havido uma
expedição planejada, financiada e executada por ingleses para
comprovar uma teoria de um físico alemão que destronaria o
principal cientista inglês. Isso logo após uma longa e sangrenta
guerra entre a Inglaterra e a Alemanha. Poucas atividades humanas
teriam a capacidade de superar ressentimentos profundos entre
povos e países.

Ao longo das décadas que se seguiram, as várias previsões da RG


foram testadas por vários experimentos. Em um teste recente, feito
em 2003, um grupo de pesquisadores italianos analisou como
ondas de radiofrequência emitidas pela sonda Cassini, da NASA,
eram afetadas pelo Sol. Na ocasião, a sonda se encontrava a
caminho de Saturno e havia um alinhamento entre ela, o Sol e a

162
Terra. As previsões da RG foram confirmadas com uma incerteza
de 20 partes em um milhão.

Os telescópios usados na expedição inglesa à Sobral. Eles foram


montados na horizontal. Os espelhos móveis seguem a trajetória
do Sol e refletem a luz no telescópio. O calor de Sobral afetou o
espelho maior, produzindo imagens de má qualidade. O dia foi
salvo pelo telescópio reserva (à direita).

163
A população de Sobral reunida momentos antes do eclipse

Henrique Charles Morize e os astrônomos ingleses, no


Observatório Nacional, no Rio de Janeiro. Todas as fotos acima
pertencem ao arquivo do Observatório Nacional.

164
Cortesia NASA/JPL-Caltech

Representação artística da sonda Cassini, emitindo um sinal de


rádio entre Saturno e Júpiter, numa comprovação recente da RG.

165
7

Quantum: Dirac e Lattes

A Mecânica Quântica (MQ) e a Teoria da Relatividade (TR)


estão entre as maiores conquistas científicas da Humanidade.
Provocaram a revolução científica e tecnológica que transformou
profundamente a vida de toda a população do planeta.

A MQ permitiu compreender as os mecanismos das ligações


químicas na escala atômica, fundando a Química moderna e a
ciência dos materiais. Duas décadas depois, a MQ possibilitaria
outra revolução: a descoberta da estrutura do DNA, que marcou o
nascimento da Biologia molecular. Graças a ela, vacinas contra o
coronavírus puderam ser criadas.

166
A TR introduziu o princípio de relatividade: as leis da Física são
sempre as mesmas para qualquer observador, independente do seu
movimento. O princípio de relatividade implica a invariância das
equações: para que descrevam os fenômenos físicos, elas devem
ser idênticas em qualquer sistema de referência. Devem ter sempre
a mesma forma, conter sempre os mesmos termos. E aqui a MQ
enfrentou um grande problema.

MQ é uma teoria não-relativística. Ela é válida apenas para


sistemas em que as velocidades das partículas são pequenas
comparadas com a da luz, como no caso dos elétrons atômicos. Mas
toda teoria física deve satisfazer princípios gerais, como a
causalidade, a conservação de energia e a invariância relativística.
E é nesse último critério que a MQ falha. Por isso era necessário
desenvolver uma versão da teoria quântica que satisfizesse o
princípio de relatividade.

A MQ relativística surgiu graças ao trabalho do físico inglês Paul


Dirac, um dos grandes gênios da Física do século XX. Dirac nasceu
em Bristol, em 1902. Sua mãe era bibliotecária e seu pai um
imigrante suíço que lecionava francês. Não teve uma infância
muito feliz, em grande parte pela relação difícil que tinha com o
pai. Dirac era um homem de poucas palavras e longos silêncios.
Era sempre muito sério, extremamente analítico e lógico, e esse
jeito de ser era motivo de piadas entre seus colegas.

Como vimos nos capítulos anteriores, Dirac fez parte de uma das
gerações mais brilhantes de toda a história da Física: num intervalo
de menos de cinco anos nasceram Wolfgang Pauli, Werner
Heisenberg, Louis de Broglie, Carl Anderson, entre outros, cerca
de quinze anos depois do nascimento de Bohr, Einstein,
Schrödinger e Rutherford. Junto com Planck, são os personagens
principais da maior revolução científica da História.

Dirac teve uma trajetória curiosa. Em Bristol, formou-se em


engenharia elétrica aos 18 anos. Os anos seguintes ao fim da
Primeira Guerra foram muito difíceis, tempos de recessão

167
econômica e desemprego alto. Sem perspectiva de conseguir um
emprego, Dirac resolveu seguir estudando. Com uma bolsa da
Universidade de Bristol, graduou-se em matemática em 1923. Nos
dois cursos se destacou como o primeiro aluno, e por isso ganhou
uma bolsa de estudos para fazer o doutorado em Cambridge.

Em 1926, Dirac apresentou sua tese, a primeira sobre a novíssima


MQ. Nela, Dirac demonstrou que as duas versões da MQ, a
mecânica ondulatória de Schrödinger e a mecânica matricial de
Heisenberg, são completamente equivalentes.

Dirac então atacou o problema principal: criar uma versão da MQ


que fosse compatível com a TR. Schrödinger e Heisenberg tinham
uma coleção de fenômenos e dados experimentais para explicar
com suas teorias, mas em todos os casos os efeitos relativísticos
eram irrelevantes. Com Dirac foi diferente. Fenômenos quânticos
e relativísticos só se tornariam conhecidos dali a poucos anos. A
motivação de Dirac era puramente teórica.

Dirac se baseou apenas nos conceitos fundamentais da MQ e nos


dois postulados da Relatividade Especial (RE). Ele levou menos de
dois anos para fazer da MQ uma teoria que satisfaz os quesitos
impostos pela TR. Dirac chegou a uma equação de onda
relativística, que, como ocorreu com Schrödinger, foi batizada com
seu nome. Esse trabalho pioneiro fundou a teoria mais precisa que
temos hoje na Física: a Eletrodinâmica Quântica, a teoria que
descreve a interação entre elétrons e fótons.

Na teoria de Schrödinger, as ondas de probabilidade são funções


matemáticas que têm um valor diferente em cada ponto do espaço
e a cada instante, mas são sempre especificadas por um único
número. São grandezas escalares, que ficam totalmente definidas
por um único número complexo.

Desde Maxwell, os números complexos são utilizados


extensivamente na Física. Mas não se assuste, caso não tenha
familiaridade com os números complexos, pois não precisamos

168
entrar em muitos detalhes: números complexos são definidos por
dois algarismos. Podem ser representados de duas formas básicas:
como partes real e imaginária, ou então como módulo e fase, que
é o ângulo com o eixo real. No desenho abaixo, a parte real e a
imaginária são as duas componentes cartesianas no plano (x,y).
Alternativamente usa-se o módulo r e o ângulo q (a fase) com o
eixo real, (r,q). O eixo real, como o nome indica, é o que contém
os números reais. O módulo do número nada mais é que o
comprimento da seta, r2 = x2 + y2.

As funções de onda de Dirac são bem mais complicadas que as de


Schrödinger. A equação de Dirac é uma equação envolvendo
matrizes. Em vez das funções de onda de Schrödinger, as soluções
da equação relativística são os espinores de Dirac. Os espinores
são um conjunto de quatro funções complexas. Podemos pensar
que a “função de onda relativística” é um conjunto de quatro
funções de onda independentes, y1, y2, y3 e y4 , se organizam na
forma de uma matriz 1x4.

169
A equação de Dirac é uma equação matricial, e por essa razão, a
equação admite quatro soluções, quatro tipos diferentes de matrizes
1x4 diferentes. Em outras palavras, os quatro espinores
representam os quatro estados quânticos possíveis do elétron. Mas
o que são esses diferentes estados quânticos, o que eles
representam?

Quando Dirac publicou sua teoria, já se sabia que só havia dois


estados possíveis para o spin do elétron. Os físicos se referem a
esses estados como spin-up e spin-down. Esses dois estados podem
ser observados quando os elétrons estão na presença de um campo
magnético. Aqui aparece o primeiro bônus da teoria de Dirac: dois
dos quatro espinores representam os dois estados possíveis do spin
do elétron. Na teoria de Schrödinger, o spin uma propriedade que
é “posta à mão”, adicionada à equação de onda. Mas na teoria de
Dirac, o spin aparece naturalmente.

A grande surpresa estava contida nos outros dois espinores. Ao


combinar a teoria quântica com a Relatividade, Dirac jogou luz
sobre uma parte do microcosmo cuja existência ninguém jamais
havia suspeitado: a antimatéria. Pela primeira vez, uma teoria
previa a existência de um novo tipo de partícula.

Na teoria de Dirac, os elétrons podem ter energia negativa. A


matemática não pode ser ignorada. Todas as suas implicações
devem ser exploradas. Não é possível simplesmente jogar fora
soluções indesejadas. As soluções da equação de Dirac em que os
elétrons têm energia negativa são tão legítimas quanto as soluções
com energia positiva. Então, como interpretar esse fato, já que
“energia negativa” não faz nenhum sentido?

Para entender o significado dos dois espinores restantes, é preciso


um pouquinho de detalhe técnico. Os espinores são as soluções da
equação de Dirac, assim como as funções de onda são as soluções
da equação de Schrödinger. Ambas relacionam as interações de
um elétron, por exemplo, com a forma com que sua energia varia

170
com o tempo. A equação de Dirac é uma equação relativística. Na
RE, a energia de uma partícula é a soma da energia de movimento
e da energia contida na massa de repouso. A relação entre essas
quantidades é E2 = p2c2 + m2c4, (p é o momento linear da partícula)
o que significa que a energia da partícula pode ser tanto positiva
como negativa:
<latexit sha1_base64="kZhicaxff4o8RplJzpMbHrsc2rI=">AAACLXicdVDLSgMxFM34rPVVdVkXQRHE6jAzFR8LpaCCSwVbhU5bMmnahiYzY5IRytAv8Q/c+BeuRXChiFu/wZ2ZVsFHPRA4nHMuN/d4IaNSWdaTMTQ8Mjo2nppIT05Nz8xm5uZLMogEJkUcsEBceEgSRn1SVFQxchEKgrjHyLnXPkj88ysiJA38M9UJSYWjpk8bFCOlpVrm8AjuwZwrL4WKw6qDqw7MQZ6Qze6625JtGkIzjzlMchuDc+laZtkynd0dK78L/xLbtHpYLixev9+tZd2TWubBrQc44sRXmCEpy7YVqkqMhKKYkW7ajSQJEW6jJilr6iNOZCXuXduFK1qpw0Yg9PMV7KnfJ2LEpexwTyc5Ui3520vEQV45Uo2dSkz9MFLEx/1FjYhBFcCkOlingmDFOpogLKj+K8QtJBBWuuCkhK9L4f+k5Jj2lpk/1W3sgz5SIAuWwCqwwTYogGNwAooAgxtwD57As3FrPBovxms/OmR8ziyAHzDePgDKqqfh</latexit>

p p
E=+ p2 c 2 + m2 c4 , E= p2 c2 + m2 c4

Em ambos os casos, se elevarmos as expressões acima ao


quadrado, obteremos a relação relativística E2 = p2c2 + m2c4
novamente (qualquer número negativo elevado ao quadrado
resulta em um número positivo).

Não se assute com a matemática. O importante aqui é saber que


não é possível reunir a MQ e a TR sem escapar dessa situação: as
equações resultantes admitem soluções que representam partículas
com energia negativa. As soluções com energia negativa
representam elétrons com energia positiva, mas com carga elétrica
positiva.

Assim, a teoria de Dirac previu a existência de um segundo tipo de


elétron: além do conhecido, com carga elétrica negativa, presente
nos átomos, haveria outro, com carga positiva, como uma imagem
do elétron refletida no espelho, o antielétron. Essa foi a primeira
referência à antimatéria.

Podemos resumir na seguinte forma: os quatro espinores de Dirac


representam quatro estados quânticos possíveis para o elétron: os
dois estados de spin, up e down; e os dois estados de carga elétrica,
positiva e negativa. Isso vale também para múons, prótons etc.
Dirac revelou a existência de um “mundo espelhado”: para cada
partícula, há uma correspondente antipartícula.

Na Física de partículas contemporânea, descobertas acidentais são


cada vez mais raras. Os experimentos atuais são gigantescos,
extremamente complexos e custosos, conduzidos por grandes

171
colaborações internacionais financiadas com recursos públicos. Os
governos só investem em projetos que sejam sustentados por uma
sólida base teórica. O caso típico são os grandes experimentos do
LHC, no CERN, montados para comprovar a existência do bóson
de Higgs e procurar indícios de novas partículas previstas por
teorias.

Mas no começo do século passado não era comum teóricos


indicarem os caminhos aos experimentais. Ao contrário, os
experimentais faziam as descobertas, e os físicos teóricos tentavam
construir teorias que as explicassem. A ideia de antipartículas era
realmente muito estranha, ninguém jamais havia pensado nisso.
Por isso, o trabalho de Dirac foi visto como um mero exercício
acadêmico, e a princípio não despertou muito interesse. Elétrons
com carga positiva nunca haviam sido observados, era uma ideia
exótica demais.

Carl Anderson

Poucos anos depois, no entanto, essa situação mudou


completamente. Em 1932, Carl Anderson, um jovem e talentoso
físico estadunidense, estudava os raios cósmicos, as partículas
muito energéticas que vêm do espaço sideral e que nos

172
bombardeiam continuamente. Anderson estava filiado ao
California Institute of Technology, mais conhecido como Caltech.
Seu propósito era descobrir a composição e estudar o espectro de
energia da radiação cósmica. Mas acabou fazendo uma descoberta
sensacional.

Vinte anos antes, o físico austríaco Victor Hess descobriu uma


certa quantidade de radiação presente na atmosfera. Intrigado,
subiu a 5300 m de altitude em um balão, munido de um
eletroscópio (um aparelho simples, que mede a ionização do ar
causada pela presença de radiação). Queria saber se o fenômeno
ocorria apenas no nível do mar. Para seu espanto, Hess mediu uma
intensidade de radiação três vezes maior do que a observada no
nível do mar. Concluiu, corretamente, que a radiação vinha do
espaço sideral. Daí surgiu o nome raios cósmicos.

No início dos anos 1930, os raios cósmicos eram bastante usados


como fonte de partículas energéticas, substituindo as partículas a.
A natureza da radiação cósmica, no entanto, ainda era incerta.
Alguns físicos achavam que os raios cósmicos seriam apenas
radiação eletromagnética. Mas os raios cósmicos sofrem desvios
devido ao campo magnético da Terra, o que só é possível para
partículas carregadas.

Até meados do século passado, os raios cósmicos eram detectados


por um dispositivo chamado câmara de nuvens. É um nome
poético para um detector ao mesmo tempo simples e genial. A
câmara de nuvens consiste em um cilindro preenchido com vapor
supersaturado: uma pequena perturbação no interior do cilindro
provoca a condensação do vapor.

Quando uma partícula carregada atravessa a câmara ela colide com


as moléculas do vapor supersaturado ao longo da sua trajetória,
deixando um rastro de átomos ionizados. Em torno desses átomos
ionizados formam-se minúsculas gotículas de água, permitindo
visualizar a trajetória da partícula (embora sejam processos
diferentes, pode-se fazer uma analogia com o rastro de

173
condensação que os aviões de carreira deixam na atmosfera quando
voam em grandes altitudes).

Os rastros de condensação deixados pelas partículas carregadas


desaparecem depois de alguns segundos, mas duram o tempo
suficiente para que possam ser fotografados, fazendo com que a
passagem da partícula seja registrada.

Anderson trabalhava sob a supervisão de Robert Millikan, um


físico bastante conhecido por ter determinado o valor da carga
elétrica do elétron. Anderson e Millikan desenvolveram uma
versão modificada da câmara de nuvens. No seu interior, eles
incluíram uma placa de chumbo que dividia a câmara ao meio. A
câmara foi instalada dentro de uma bobina que gerava um campo
magnético forte. A força magnética desviaria a trajetória de
partículas carregadas, permitindo que a energia das partículas fosse
estimada medindo a curvatura das trajetórias.

No dispositivo de Anderson e Millikan (ver figura na página


seguinte) havia uma válvula que, ao ser aberta, fazia com que o
vapor dentro da câmara se expandisse rapidamente. Se uma
partícula atravessa a câmara nesse momento, deixara um rastro de
condensação bem nítido. Uma câmera fotográfica foi acoplada à
câmara de nuvens. A abertura da válvula era sincronizada com o
disparo da câmara, e esse sistema era controlado manualmente por
Anderson. Mas as fotografias eram tiradas ao acaso, sem que se
soubesse o que estava sendo fotografado, o que era uma forma de
operação muito ineficiente.

Mesmo com essa forma artesanal de operação, em agosto de 1932,


Anderson obteve uma fotografia que entrou para a história: o
primeiro registro da antimatéria (página 175).

174
https://commons.wikimedia.org/w/index.php?curid=103444960

Funcionamento de uma câmara de nuvens, também conhecida


como câmara de Wilson, em homenagem ao seu criador, Raymond
Wilson. A câmara propriamente dita é o cilindro de vidro na parte
superior esquerda da fotografia. A base do cilindro é móvel,
podendo aumentar ou diminuir o volume da câmara. O bulbo à
direita é um recipiente evacuado, conectado ao cilindro por uma
válvula. Ao ser aberta, o ar contido na parte metálica do cilindro
flui para o bulbo, causando um aumento súbito no volume da
câmara. Nessas condições, a passagem de uma partícula
eletricamente carregada deixa um rastro de condensação,
permitindo a visualização da trajetória da partícula.

175
Carl Anderson operando a câmara de nuvens, instalada dentro da
bobina. Fotografia pertencente aos arquivos do Caltech.

Anderson, Carl D. (1933). "The Positive Electron". Physical Review 43 (6): 491–494

Primeiro registro da antimatéria. A foto foi tirada no dia 7 de


agosto de 1932, por Carl Anderson. Dentro da câmara de nuvens,
as trajetórias das partículas carregadas eram desviadas pelo
campo magnético gerado por uma bobina. A foto mostra um
pósitron entrando na câmara pela parte inferior. Ao atravessar a
placa de chumbo disposta na metade da câmara, o pósitron perde
energia e sua trajetória sofre um desvio mais acentuado.

176
A foto acima contém muito mais informação do que pode parecer
à primeira vista. O raio de curvatura da trajetória depende da
energia da partícula. Quanto mais energia ela tiver, menor será o
desvio na sua trajetória. Ao atravessar a placa de chumbo, a
partícula perde parte a sua energia. Assim, Anderson concluiu que
a partícula registrada atravessou a câmara entrando pela parte
inferior, onde a curvatura era menor e, portanto, a energia da
partícula era maior. Mas isso não é tudo o que se pode saber.

A densidade da condensação – número de gotículas por unidade de


comprimento – é diretamente relacionada à carga da partícula.
Partículas a, por exemplo, deixam traços mais densos que prótons
ou elétrons. Anderson observou que a densidade do traço
fotografado correspondia a uma partícula com a carga do elétron.

A direção em que a trajetória é desviada depende tanto do tipo de


carga da partícula, positiva ou negativa, como da direção do campo
magnético. No dispositivo de Anderson, elétrons eram desviados
para a direita e prótons para a esquerda. A trajetória aparece
curvada para a esquerda, o que indica uma partícula com carga
elétrica positiva, como a do próton.

A espessura do traço deixado pela partícula é diretamente


relacionada com a sua massa. A espessura do traço observado era
compatível com traços deixados por elétrons. Se o traço observado
fosse devido à passagem de um próton, ele seria significativamente
mais espesso. Em resumo, Anderson observou uma partícula com
a massa do elétron, mas com carga elétrica positiva: o antielétron
previsto por Dirac!

O resultado foi publicado na revista estadunidense Physical


Review. Por sugestão do editor, a partícula foi chamada de
pósitron, nome que usado até hoje. Anderson foi o primeiro a
publicar a observação da antimatéria. Por essa descoberta, ele
recebeu o Prêmio Nobel em 1936. Com apenas 31 anos na ocasião,
Anderson é até hoje o mais jovem laureado.

177
Anderson, no entanto, não foi o primeiro a observar uma
antipartícula. Em 1929, o físico russo Dmitri Skobeltsyn havia feito
um registro semelhante. No mesmo ano, o físico chinês Chung-Yao
Chao, também no Caltech, obteve indícios da existência dos
pósitrons. Mas tanto Chao como Skobeltsyn acharam seus
resultados inconclusivos e os guardaram para si. Alguns meses
antes do anúncio feito por Anderson, os físicos Patrick Blackett e
Giuseppe Ochialini haviam observado o mesmo efeito, mas por um
excesso de cautela, também resolveram aguardar por mais dados.

A descoberta do pósitron foi uma confirmação espetacular da teoria


quântica relativística, e por isso Dirac recebeu o Prêmio Nobel de
1933. Mas como sempre ocorre com as grandes descobertas, novas
perguntas aparecem: qual é a origem dos pósitrons, como eles são
produzidos? Dirac propôs uma resposta ousada: os pósitrons
seriam criados em colisões de dois fótons.

Na vida cotidiana, podemos ver uma pessoa e ao mesmo tempo ser


vistos por ela. Os raios luminosos, obviamente, não colidem. No
entanto, no mundo microscópico as coisas são bem diferentes. A
ideia de Dirac estava na direção correta. Ao se aproximar de um
átomo, o fóton interage com o campo EM gerado pelo núcleo
atômico. Nessa interação o fóton “desparece”, mas a sua energia
não se perde: ela dá origem a um par elétron-pósitron. O
mecanismo, na verdade, é um pouco mais complexo. Envolve as
chamadas partículas virtuais, sobre as quais falarei no próximo
capítulo.

Como se pode imaginar, o impacto da descoberta da antimatéria foi


imenso. Os pósitrons são produzidos por um mecanismo em que a
energia se transforma em matéria. Se passarmos o filme ao
contrário, veremos que na colisão entre partícula e sua antipartícula
ambas são aniquiladas, gerando energia pura: fótons. Mais uma
comprovação experimental da equivalência entre matéria e energia,
prevista pela Teoria da Relatividade de Einstein.

178
Chadwick

Para a Física, 1932 foi um ano excepcional. Além da antimatéria,


houve também outra descoberta fundamental: o nêutron. A história
dessa descoberta ilustra bem como a Ciência progride, combinando
o método científico, baseado na experimentação sistemática, com
uma boa dose de intuição e, às vezes, com um pouco de sorte.

Em 1930, dois físicos alemães, Walther Bothe e Herbert Becker,


descobriram acidentalmente uma radiação neutra que tinha uma
característica muito peculiar: sua energia era anormalmente
grande. No experimento, feito em Berlim, Bothe e Becker
bombardearam um alvo de berílio com partículas a. Observaram,
surpresos, a emissão de uma radiação neutra, que interpretaram
erroneamente como sendo raios g (fótons) de altíssima energia.

Esse resultado despertou muito interesse, graças à energia


incomum da radiação neutra. Dois anos depois, em Paris, Irène
Curie (a filha de Marie Curie) e seu marido, Frederic Joliot,
repetiram o experimento de Bothe e Becker.

Para investigar a natureza dessa nova radiação neutra, Curie e


Joliot usaram um aparato semelhante ao dos alemães, mas
acrescentaram um segundo alvo. Dessa forma, os supostos raios g
de altíssima energia produzidos no primeiro alvo incidiriam no
segundo. Eles esperavam descobrir a natureza dessa radiação
altamente energética analisando o que acontecia na interação com

179
esse segundo alvo. Para isso, instalaram uma câmara de nuvens
após o segundo alvo.

O casal testou várias substâncias como segundo alvo, mas notaram


que quando usavam materiais ricos em hidrogênio, como a
parafina, a câmara de nuvens registrava a passagem de prótons com
muita energia. Assim como Bothe e Becker, Curie e Joliot
interpretaram a radiação neutra como sendo fótons que transferiam
sua alta energia aos prótons da parafina (lembrando que o núcleo
de hidrogênio consistem em um único próton).

Do outro lado do canal da Mancha, no laboratório Cavendish, em


Cambridge, o inglês James Chadwick reproduziu o experimento de
Curie e Joliot, aprimorando a técnica em vários detalhes. Chadwick
tinha uma motivação particular, inspirada pelo seu orientador
acadêmico, o célebre Ernest Rutherford.

Em 1920, Rutherford, intrigado com a existência dos isótopos,


aventou a hipótese de que um elétron e um próton poderiam se
combinar de alguma maneira, formando uma partícula neutra.
Chadwick, que reverenciava Rutherford, seu orientador no
doutorado, ficou vivamente interessado nessa ideia.

Assim como o casal Curie-Joliot, Chadwick usou vários tipos de


alvos secundários nos seus experimentos. Mas Chadwick fez algo
que seus antecessores não fizeram: combinou os resultados
experimentais com cálculos matemáticos. Ele concluiu que se a
radiação neutra fosse feita de fótons, não haveria conservação da
energia. Chadwick demonstrou que os resultados experimentais só
poderiam ser explicados se a radiação fosse uma partícula com
massa parecida com a do próton. Essa partícula era o nêutron, a
peça que faltava na constituição do átomo.

Bothe e Becker, assim como Curie e Joliot estiveram muito


próximos da descoberta, mas, infelizmente para eles, erraram a
interpretação dos resultados. Chadwick, aliando rigor matemático
e intuição, acertou o alvo e identificou corretamente a natureza da

180
nova radiação. Suas conclusões foram apresentadas em um breve
artigo publicado na revista Nature, intitulado “Possível existência
do nêutron”. Chadwick recebeu o Prêmio Nobel de 1935. Essa foi
a última grande descoberta feita com o uso da radiatividade
(partículas a) como fonte de partículas energéticas.

O átomo estava quase completo. Quase, pois apesar de todos os


constituintes terem sido identificados, faltava ainda responder a
uma pergunta fundamental. O núcleo concentra praticamente toda
a massa dos átomos num volume muito pequeno. Num núcleo de
chumbo, por exemplo, há 82 prótons confinados numa região que
é cerca de um décimo de milésimo menor que o átomo. Como os
prótons têm carga positiva e estão muito próximos entre si, a força
de repulsão elétrica dentro do núcleo é imensa. O que mantém o
núcleo atômico coeso, formando uma estrutura estável?

Essa era uma das principais questões da Física nos anos 1930. Com
a dinâmica do átomo bem entendida, o núcleo atômico tornou-se a
nova fronteira do conhecimento. Todos os olhos agora se voltavam
para essa camada mais interna da estrutura da matéria.

Yukawa

A explicação para a estabilidade dos núcleos atômicos veio do


Japão, em 1935. Para manter os prótons unidos no núcleo seria
necessário um novo tipo de força, que fosse atrativa, e cuja

181
intensidade superasse a imensa força de repulsão elétrica. Foi o que
propôs o físico japonês Hideki Yukawa.

Yukawa introduziu o conceito moderno de interação, que ainda


hoje usamos para descrever uma colisão entre duas partículas:
quando duas partículas interagem, elas trocam entre si uma
terceira partícula, que existe apenas durante um brevíssimo
intervalo de tempo. Como veremos mais adiante, essa ideia se
aplica também ao movimento de uma partícula na presença de um
campo de forças, ou ainda ao decaimento de uma partícula instável.
A terceira partícula atua como uma espécie de transmissor de
informação.

Imagine dois patinadores numa pista de gelo deslizando em linha


reta, um em direção ao outro. Quando estão muito próximos,
empurram-se mutuamente. Depois do contato, ambos seguem
deslizando, mas em direções diferentes das originais. Interações
desse tipo são chamadas interações de contato, que só existem no
mundo macroscópico.

Imagine agora uma situação um pouco diferente. Em vez de se


tocarem, cada patinador arremessa um objeto pesado para o outro.
O resultado é parecido com o da interação de contato: a troca de
um objeto pesado faz com que os patinadores mudem de direção
após o encontro. Dependendo do tipo de objeto trocado, a força
entre os patinadores pode ser repulsiva ou atrativa (pense em um
objeto elástico e grudento).

Essa segunda situação é um exemplo de interação à distância, ou


seja, sem contato físico. É a única forma de interação no mundo
microscópico. As partículas subatômicas não são minúsculas bolas
de bilhar limitadas por uma superfície bem definida separando o
interior do exterior. Não há sentido em falar “contato” entre
partículas elementares, mas sim em uma superposição de suas
ondas de probabilidade.

182
A interação entre dois elétrons, por exemplo, tem uma duração
brevíssima, durante a qual eles trocam fótons “mensageiros” entre
si. Yukawa imaginou um esquema semelhante para as forças
nucleares. Prótons e nêutrons permaneceriam unidos no núcleo
atômico por trocarem constantemente partículas “mensageiras”
entre si.

Ao contrário da força eletromagnética, que tem longo alcance, as


forças nucleares só atuariam quando prótons e nêutrons estão muito
próximos. Yukawa mostrou que para que isso ocorresse, a partícula
mensageira da força nuclear deveria ter massa. Quanto maior a
massa da partícula mensageira, menor é o alcance da força. Fótons
não têm massa, e por isso a força eletromagnética tem alcance
infinito. A força elétrica entre dois prótons diminui com a distância,
torna-se tão pequena quanto podemos imaginar, mas nunca chega
à zero.

Considerando as dimensões típicas dos núcleos atômicos, Yukawa


calculou a massa que essas novas partículas mensageiras deveriam
ter. Ele as batizou como mésons, por serem mais pesados que os
elétrons e mais leve que os prótons. A troca constante de mésons
resultaria em uma força que manteria os prótons e nêutrons unidos.
Os mésons atuariam como uma espécie de “cola”, compensando
largamente a repulsão elétrica entre os prótons.

Heisenberg deu mais um passo importante. Ele propôs um modelo


para o núcleo segundo o qual prótons e nêutrons seriam as duas
faces de uma mesma moeda, dois estados diferentes de uma mesma
entidade, o nucleon. Não haveria diferença entre interação entre
dois prótons, entre dois nêutrons, ou entre um próton e um nêutron.

Como os prótons têm carga elétrica e os nêutrons não, deveria


haver três tipos de mésons, um com carga positiva, um neutro e
outro com carga negativa. Todos os três tipos de mésons teriam a
mesma massa. Essa nova força recebeu o nome de força nuclear
forte.

183
Na interação entre dois prótons, ou entre dois nêutrons, cada
partícula mantém sua identidade após a colisão. Essa interação
seria intermediada por um méson sem carga elétrica. Já na
interação entre prótons e nêutrons, a identidade de cada um poderia
ser trocada, ou seja, um méson de carga positiva carrega a carga do
próton, transferindo-a para o nêutron. Nessa reação, o próton se
transforma em um nêutron e o nêutron em um próton. A troca de
um méson negativo, por sua vez, faria com que o nêutron virasse
um próton, e o próton se tornasse um nêutron. Em qualquer caso, a
carga elétrica total, antes ou depois da interação, permanece a
mesma.

Lattes

Parecia que a ordem no mundo microscópico estava estabelecida.


Havia apenas três partículas elementares, o elétron, o próton e o
nêutron, os constituintes da matéria. Tudo seria feita desses três
ingredientes. O fóton completaria a lista, mantendo o átomo unido.
Mas havia o incômodo pósitron, que não se encaixava nesse
esquema. Que papel ele desempenharia? Haveria também um
antipróton? E um antinêutron? Os pósitrons, os antiprótons e os
antinêutrons poderiam se combinar e formar antiátomos?

A confusão aumentou em 1936, quando Carl Anderson e Seth


Neddermeyer, estudando os raios cósmicos com a mesma técnica

184
utilizada na descoberta do pósitron, observaram uma nova partícula
carregada com massa intermediária entre a do elétron e a do próton.

Essa nova partícula, pela sua massa, foi log identificada como a
partícula de Yukawa. Mas logo se percebeu que ela não possuía as
propriedades necessárias. O múon (µ), como é conhecido hoje, não
é um méson, apesar da sua massa ser intermediária entre a do
elétron e a do próton. É um lépton, um outro tipo de partícula
elementar sobre a qual falarei no próximo capítulo. O múon é uma
versão do elétron cerca de 200 vezes mais pesada.

A probabilidade de um múon interagir com a matéria é muito


pequena. Múons são capazes de atravessar blocos espessos de ferro
ou concreto. Isso é o oposto do que se espera dos mésons de
Yukawa, que deveriam ter uma enorme probabilidade de interagir
com prótons e nêutrons. Não poderiam, portanto, funcionar como
a “cola” dos núcleos.

As partículas de Yukawa só foram descobertas em 1947. Nesse


episódio, o Brasil apareceu pela primeira vez no cenário
internacional da Física, através do brasileiro Cesare Mansueto
Lattes, mais conhecido como César Lattes. A descoberta dos
mésons rendeu a Yukawa o Prêmio Nobel de 1949.

Lattes nasceu em Curitiba, em 1924. Era filho de um casal de


imigrantes italianos, Giuseppe e Carolina Lattes. Formou-se em
Física na Universidade de São Paulo, onde foi orientado pelo ítalo-
ucraniano Gleb Wataghin, um dos fundadores do Instituto de Física
da USP. Wathagin era um internacionalista, e acolheu Giuseppe
Occhialini (o mesmo que descobriu o pósitron, mas deixou de
anunciar) no Instituto de Física, em 1937. Occhialini era
antifascista e fugia da Itália de Mussolini.

Na USP, Lattes e Occhialini se conheceram. Quando o Brasil


entrou na II Guerra Mundial, em 1942, Occhialini temeu pela sua
segurança, já que a Itália havia se tornado uma nação inimiga (no
Rio de Janeiro, o famoso Bar do Alemão passou a se chamar Bar

185
Brasil, o clube paulista Palestra Itália virou Palmeiras). Por essa
razão, Occhialini se refugiou nas montanhas de Itatiaia. De tempos
em tempos, descia até a estrada que liga São Paulo ao Rio de
Janeiro para se informar sobre o andamento da guerra. Em 1945,
Hitler e Mussolini foram derrotados, e Occhialini resolveu voltar
para a Europa. Foi trabalhar com Cecil Powell em Bristol, na
Inglaterra.

Lattes escreveu a Occhialini pedindo para trabalhar com ele em


Bristol. Com uma modesta bolsa de estudos, Lattes partiu para a
Inglaterra em 1946. Queria trabalhar com emulsões nucleares, uma
nova técnica de detecção de partículas em que o grupo de Bristol
se especializara.

As emulsões nucleares são filmes fotográficos especiais, com


maior espessura e densidade de sais de prata. A passagem de uma
partícula carregada provoca a ionização dos sais de prata, que se
precipitam ao longo da trajetória da partícula. Quando a emulsão é
revelada, surge um traço escuro como registro da trajetória da
partícula. A emulsão nuclear tem uma resolução espacial muito
melhor que a das câmaras de nuvem, registrando trajetórias com
muito mais definição. Era uma técnica muito empregada no estudo
de raios cósmicos na segunda metade dos anos 1940.

Adaptado de: K. Morishima et al., PoS(ICRC2017)295

186
Lattes teve a ideia de incluir o elemento químico boro em uma série
especial de emulsões encomendadas à Ilford, uma companhia
conhecida por produzir filmes fotográficos de ótima qualidade. No
final de 1946, Occhialini saiu férias. Foi esquiar nos Pireneus.
Lattes pediu-lhe que levasse algumas das emulsões especiais com
boro. Durante a sua estadia na altitude seria mais fácil detectar os
raios-cósmicos, pois haveria menos interferência da atmosfera.

Occhialini voltou das férias, e as emulsões que levou foram


reveladas e analisadas com auxílio de microscópios. Em uma das
chapas fotográficas vindas das montanhas havia um presente dos
céus: o primeiro registro de uma partícula de Yukawa, o méson p,
ou píon. Na mesma emulsão havia também um múon. O resultado
foi publicado na Nature em outubro de 1947, rendendo ao chefe do
laboratório, Cecil Powell – e, infelizmente, apenas a ele – o Prêmio
Nobel de 1950.

A famosa placa fotográfica, vista acima, registra o decaimento de


um píon em um múon e um neutrino, uma partícula que ainda
aparecerá muitas vezes no restante do livro. Neutrinos e fótons são
as partículas mais abundantes do Universo. Os píons, no entanto,
não fazem parte dos raios cósmicos, que são compostos
principalmente por prótons. Os prótons colidem com os núcleos
atômicos das camadas superiores da atmosfera, produzindo
centenas, às vezes milhares de outras partículas, na maioria píons.

187
Os píons decaem em um múon e um neutrino, com uma vida-média
de 10-8 s. Como os neutrinos não têm carga elétrica, suas trajetórias
não ficam registradas na emulsão.

A comprovação da teoria de Yukawa teve grande impacto na


Física. O mecanismo que mantém o núcleo atômico como uma
estrutura estável havia sido confirmado. O átomo agora estava
realmente completo. Isso aconteceu há apenas 74 anos.

A Física Nuclear tinha a princípio uma motivação puramente


acadêmica. Mas isso mudou completamente em 1938, quando o
físico alemão Otto Hahn descobriu a fissão nuclear. A massa do
núcleo original é ligeiramente maior que a soma das massas dos
núcleos menores. Uma enorme quantidade de energia é liberada na
fissão, como prevê a Relatividade Especial. A fissão nuclear
tornou-se uma nova e abundante fonte de energia.

Mas naquela época, viviam-se tempos obscuros. O nazi-fascismo


crescia e a guerra era iminente. A descoberta da fissão tornou a
Física Nuclear uma área estratégica para fins militares. Tanto na
Alemanha como nos Estados Unidos, cientistas trabalharam
arduamente, correndo contra o tempo para produzir armas
nucleares. A vantagem dos Estados Unidos era muito grande, não
só pela sua infraestrutura, que permaneceu intacta durante a guerra,
como também pelo número muito grande de cientistas alemães e
italianos que haviam buscado refúgio naquele país. A corrida pelo
uso militar da energia atômica culminou com Hiroshima e
Nagasaki. Mas isso é outra história.

A descoberta dos píons teve também grande repercussão na mídia,


inclusive no Brasil. A Física criou a nova era nuclear, e isso foi
uma demonstração de como o conhecimento em Ciência
fundamental pode se traduzir em poder militar, político e
econômico. O Brasil não poderia ficar para trás. Assim, com forte
apoio das Forças Armadas, o Centro Brasileiro de Pesquisas Físicas
foi criado em 1949, sendo Lattes um de seus fundadores.

188
Um ano antes, em 1948, Lattes partira para os Estados Unidos com
uma bolsa da Fundação Rockefeller. Lattes chegou a Berkeley para
trabalhar com Eugene Gardner. Seu objetivo: produzir píons no
novo acelerador de partículas, inaugurado dois anos antes. Até
então, o acelerador não havia produzido nenhuma dessas
partículas. Bastaram alguns dias de trabalho conjunto para que os
primeiros píons fossem produzidos. Esse feito teve enorme
repercussão mundial, sendo considerado pelo jornal New York
Times a principal descoberta científica de 1948. No Brasil, Lattes
tornou-se uma celebridade. Aos 25 anos, Lattes era o nosso “herói
nuclear”.

As partículas a foram as pontas de prova usadas no estudo do


átomo. Foram substituídas pelos raios cósmicos, partículas com
energia muito maior. Os raios cósmicos proporcionaram a
descoberta da antimatéria, dos múons, dos píons e de outras
partículas até meados dos anos 1950. Ainda hoje os raios cósmicos
são muito estudados, pois trazem informações importantes sobre o
Cosmo. Mas na pesquisa sobre a estrutura da matéria eles foram
substituídos pelos aceleradores de partículas, que, mesmo sem
atingirem energias tão altas, permitem o controle sobre a energia,
o fluxo e a composição do feixe. A era dos aceleradores se estende
até os dias de hoje.

189
8

Quarks & Léptons

Quarks
Summer ‘68, da banda inglesa Pink Floyd, é uma das minhas
músicas favoritas. Ela sintetiza um pouco do espírito de rebeldia
do final dos anos 1960, um tempo de grandes transformações nos
costumes e de contestação política. Movimentos feministas,
pacifistas, anticolonialistas, contra a discriminação racial, entre
tantos outros, varreram o mundo ocidental como um tsunami.

O verão de 1968 também é marcante na Física. Em Stanford, na


Califórnia, a poucos quilômetros da cidade de São Francisco,
encontra-se o Stanford Linear Accelerator Center, SLAC, um
acelerador linear de elétrons. Nesse laboratório, foi realizada uma
série de experimentos em que um feixe energético de elétrons
incidia sobre um alvo de prótons. Nessas colisões, os elétrons
incidentes eram espalhados em diversas direções, enquanto os
prótons se fragmentavam, formando diversas outras partículas.

Os experimentos do SLAC eram uma versão moderna dos


experimentos de Rutherford, que 57 anos antes haviam revelado a
estrutura interna dos átomos. Nos experimentos de Rutherford, um
feixe de partículas a incidia sobre uma folha fina de ouro. As
partículas a eram pontas de prova capazes de penetrar nos átomos

190
de ouro, e algumas eram espalhadas a grandes ângulos. Rutherford
demonstrou que o espalhamento a grandes ângulos se devia à
colisão das partículas a com os minúsculos núcleos atômicos, que
concentram praticamente toda a massa dos átomos.

Os elétrons nos experimentos do SLAC tinham energia suficiente


para penetrar no interior dos prótons. Como as partículas a, alguns
elétrons eram espalhados a grandes ângulos, e esse fato revelou a
existência de uma nova camada da estrutura da matéria. Os prótons,
ao contrário do que se pensava, não são partículas elementares, ele
possuem uma estrutura interna!

O poder de resolução (menor dimensão observável) de uma ponta


de prova depende da sua energia. Partículas muito energéticas estão
associadas a ondas com comprimentos de onda muito pequenos, o
que permite que estruturas menores possam ser observadas. Por
isso os aceleradores são cada vez mais potentes. Se os elétrons do
SLAC tivessem menos energia, eles “veriam” o próton como uma
partícula compacta, sem estrutura interna. Mas com elétrons de alta
energia, foi possível observar pela primeira vez o interior dos
prótons.

Prótons, assim como nêutrons, não são partículas elementares. A


existência de estruturas mais fundamentais foi uma descoberta de
extrema importância. Sendo um físico experimental, eu escolheria
os experimentos do SLAC como o início da era contemporânea na
Física de Partículas. Prótons e nêutrons são sistemas extremamente
complexos, que ainda hoje não completamente compreendidos.
São compostos por partículas que, até onde sabemos, são
elementares: quarks, antiquarks e glúons.

No início dos anos 1960, mais de uma centena de partículas eram


conhecidas, o que levantava a suspeita de que talvez não fossem
elementares, que poderiam ser compostas por estruturas menores.
De uma certa forma, essa situação era semelhante à vivida no
século XIX, quando os átomos eram considerados indivisíveis. Há

191
um átomo diferente para cada elemento químico, e o grande
número de elementos conhecidos sugeria que os átomos talvez não
fossem elementares, que pudessem ter uma estrutura interna
formada por um número menor de componentes.

Não há nada de errado em haver tantas partículas elementares, mas


o exemplo dos átomos era muito eloquente, e tornava bastante
natural a ideia de que as partículas conhecidas fossem compostas
por outras menores. Essa hipótese foi desenvolvida de forma
independente por Murray Gell-Mann e George Zweig, em 1964.
Analisando as propriedades das partículas, Gell-Mann e Zweig
identificaram certos padrões e imaginaram um esquema de
classificação baseado em poucos constituintes.

No modelo criado por Gell-Mann e Zweig, haveria três tipos de


componentes básicos. Gell-Mann, inspirado no livro Finnegans
Wake, do escritor irlandês James Joice, batizou os supostos
componentes de quarks. Na proposta inicial, havia três quarks
distintos, ainda hoje denominados up, down e strange (em geral,
referidos pelas letras u, d e s). Nos anos 1960, já se sabia que a toda
partícula corresponde uma antipartícula, e assim, além do up, down
e strange haveria também o antiup, antidown e antistrange.

O modelo proposto por Gell-Mann e Zweig era uma espécie de lego


com seis peças. Os quarks e antiquarks não eram, a princípio,
considerados partículas reais, eram vistos apenas como um artifício
matemático. As peças desse lego tinham uma propriedade bizarra:
a carga elétrica de cada uma dessas partículas hipotéticas seria
apenas uma fração da carga do elétron, até então o “quantum” de
carga. O quark u teria carga +2/3e, enquanto os quarks d e s teriam
carga -1/3e (e é a carga do elétron, vale 1,602 x 10-19 Coulombs,
aproximadamente). Nunca havia sido observada uma partícula cuja
carga elétrica fosse uma fração da carga elementar.

Para que o esquema imaginado por Gell-Mann e Zweig


funcionasse, os quarks e antiquarks deveriam ter spin igual ao do
elétron. Uma partícula poderia ser formada combinando um quark

192
tipo u e um antiquark tipo d, por exemplo (um p+). O quark e o
antiquark poderiam girar um em relação ao outro, e também vibrar.
Assim, além do tipo de quark e de antiquark, as combinações
levavam em conta o momento angular total, o spin e o momento
angular orbital (rotação).

Mésons são partículas formadas por um quark e um antiquark. O


spin dos mésons é uma composição dos spins dos quarks e do
momento angular orbital.

Fazendo todas as combinações possíveis com os três tipos de


quarks e antiquarks, e levando em conta as possíveis combinações
dos spins e do momento angular orbital, Gell-Mann e Zweig
conseguiram reproduzir com sucesso o espectro das partículas
conhecidas. Foi, sem dúvida, um grande feito. Posteriormente,
outros tipos de quarks foram adicionados ao modelo original, que
ainda hoje é chamado Modelo a Quarks.

Na proposta de Gell-Mann e Zweig, havia duas classes de


partículas. Na primeira classe estariam os estados formados par
quark-antiquark. Esses seriam os mésons (o píon, por exemplo). A
segunda classe conteria os estados formados por três quarks, e
esses seriam os bárions (prótons e nêutrons), tipicamente mais
pesados que os mésons. Juntas, essas duas classes formam a família
dos hádrons: partículas compostas por quarks e antiquarks, e que
por isso estão sujeitas à interação forte, a força que mantém prótons
e nêutrons ligados no núcleo atômico.

193
Durante quarenta anos, mésons e bárions foram os únicos tipos de
hádrons conhecidos. Até que em 2003, numa das cada vez mais
raras descobertas acidentais, novas formas de os quarks se
combinarem foram descobertas. As novas partículas são formadas
por quatro, cinco ou seis quarks. Podem ser também “moléculas”
(estados ligados de dois mésons). De 2003 aos dias de hoje, várias
dezenas desses novos partículas foram descobertas: são os
(impropriamente) chamados “hádrons exóticos”.

Apesar de os quarks terem carga elétrica fracionária, eles sempre


formam hádrons com carga elétrica inteira (múltiplos da carga do
elétron). Também podem formar compostos neutros, sem carga
elétrica. O próton, por exemplo, é um bárion composto por dois
quarks tipo u e um quark tipo d (carga elétrica = 2 x 2/3e - 1/3e =
1e). O nêutron é uma combinação de dois quarks d e um quark u
(carga = 2x(-1/3e) + 2/3e = 0). Já o píon de carga positiva é uma
combinação de um quark u e um antiquark d (2/3e + 1/3e = +1e).

Depois de 2003, novos tipos de hádrons foram descobertos, além dos


bárions e mésons.

O modelo a quarks é um esquema de classificação das partículas


muito bem-sucedido. Quase todas as partículas previstas pelo
modelo já haviam sido identificadas quando ele foi proposto.
Algumas das partículas previstas ainda não tinham sido
observadas, mas foram encontradas logo depois. Apesar do
sucesso, nem todos os físicos estavam convencidos de que os
quarks eram partículas reais. Alguns ainda viam os quarks como
objetos matemáticos. Quase 10 anos depois das evidências

194
encontradas nos experimentos do SLAC, um professor me disse
que os quarks não eram partículas reais.

Todas as resistências, no entanto, foram definitivamente dissipadas


no final de 1974, quando houve uma confirmação espetacular da
existência dos quarks. Os físicos se referem a esse episódio como
a “revolução de novembro”. Alguns anos antes, Sheldon Glashow,
John Iliopoulos e Luciano Maiani haviam apresentado uma
explicação para um determinado problema. A solução, batizada
como mecanismo GIM, se baseava na existência de um quarto tipo
de quark, que Glashow, Iliopoulos e, Maiani batizaram como
charm (c).

O mecanismo GIM funcionava muito bem, e esse sucesso motivou


dois experimentos diferentes, ambos realizados nos EUA: um no
SLAC, na costa do Pacífico, e o outro no laboratório de
Brookhaven, na costa do Atlântico. Os experimentos seguiam
estratégias diferentes: em Brookhaven, colisões entre prótons; no
SLAC, colisões entre elétrons e pósitrons.

A probabilidade de um quark charm ser produzido em colisões


entre prótons é maior do que entre elétrons e pósitrons. Mas as
colisões entre prótons têm uma desvantagem: as partículas que
contêm um quark charm são produzidas junto com várias outras, e
nem sempre é simples identificá-la. Na colisão entre elétrons, a
probabilidade menor é compensada pelo fato de elétrons e
pósitrons serem elementares e, por isso, nas colisões entre eles, um
número significativamente menor de partículas são produzidas.

Em novembro de 1974 houve uma reunião no SLAC. Os líderes


das duas equipes, Burton Richter, do SLAC, e Samuel Ting, de
Brookhaven, compararam os seus resultados e se convenceram de
que haviam descoberto o quarto quark. Richter batizou a partícula
de “psi”(y), pois a imagem registrada no seu detector lembra a
forma da letra grega. Ting resolveu chamá-la “J”, uma letra que
lembrava o símbolo para o seu nome em mandarim. A partícula

195
passou então a se chamar “J/y”. Para ter uma noção da importância
da descoberta, ambos receberam o Prêmio Nobel de 1976.

A descoberta do quark charm ilustra a prática que se tornou padrão


na Física de Partículas: modelos teóricos preveem novas partículas,
e os físicos experimentais se dedicam a procurá-las. Havia razões
sólidas para justificar a previsão da existência de um quarto tipo de
quark, e por isso a sua descoberta não foi exatamente uma surpresa.

Até onde sabemos, os quarks são partículas elementares. Como


os elétrons, os quarks não possuem uma dimensão observável. Mas
caso tenham um “tamanho” finito, como um próton, seria inferior
a 10-18m. Como nada na Ciência é definitivo, não sabemos o que
nos aguarda no futuro. Ao longo dos últimos 110 anos, o avanço
da tecnologia ampliou imensamente a nossa capacidade de
observar a estrutura da matéria, em escalas cada vez menores.
Estaremos nos aproximando de descobrir uma nova camada?

Seis tipos de quarks são conhecidos, todos com o mesmo spin que
o elétron. Além dos quatro já mencionados, há o quark beauty (b),
descoberto em 1979, e top (t), descoberto em 1995, ambos no
Fermi National Accelerator Laboratory, o Fermilab.

Os quarks diferem entre si pela carga elétrica, pela massa e por um


outro atributo que os físicos, numa licença poética, chamam de
“sabor”. Esse último atributo é exclusivo dos quarks s, c, b e t. Tudo
o que dissemos para os quarks é extensivo aos antiquarks.

Os quarks são organizados em três “famílias” ou “gerações” Cada


família tem dois membros, um quark tipo “up” e um tipo “down”:

196
Há uma razão objetiva para essa classificação. Os quarks mais
pesados decaem espontaneamente nos mais leves. A probabilidade
da transição entre quarks de uma mesma geração é sempre maior.
O quark top, o mais pesado (173 vezes mais pesado que o próton),
decai com muito mais frequência em um quark b do que em um
quark s ou d, que pertencem a outras famílias. Já o quark c decai
em um quark s com muito mais frequência do que em um quark d.

Toda a matéria visível do Universo é feita de prótons e nêutrons.


Ambos são formados pelos quarks u e d. Adicionando os elétrons
a esses dois quarks, podemos dizer que toda a matéria bariônica,
que forma os planetas, as estrelas e as galáxias que preenchem o
Universo, tudo, incluindo você e eu, é feito a partir de apenas três
constituintes elementares.

Os demais quarks são produzidos nas violentas colisões de raios


cósmicos com a atmosfera, ou nas colisões produzidas em
aceleradores de partículas e têm uma vida média muito pequena.
Nessas colisões, os quarks s, c, b e t são sempre produzidos em
conjunto com seus respectivos antiquarks. Os quarks u e d, ao
contrário, são produzidos independentemente de seus antiquarks. É
por essa razão que o atributo “sabor” (um número quântico interno,
no jargão dos físicos) é exclusivo dos quarks s, c, b e t.

O número quântico “sabor” é uma quantidade conservada nas


interações entre hádrons. É positivo para quarks e negativo para
antiquarks. Imagine uma colisão entre dois prótons no acelerador
LHC. Como os prótons são formados por dois quarks u e um quark
d, não há no estado inicial nenhum quark ou antiquark do tipo s, c,
b ou t. Se nessa colisão uma partícula contendo um desses quarks
é criada, sempre haverá uma outra partícula contendo o antiquark
correspondente. Dessa forma, após a colisão o número quântico
“sabor” terá o mesmo valor inicial: zero.

Todos os quarks com número quântico “sabor” são instáveis. Eles


também são significativamente mais pesados que os quarks u e d.
Com uma vida média da ordem de 10-12 s, os quarks mais pesados

197
decaem nos mais leves, num processo em cascata que termina nos
quarks u e d.

A descoberta do núcleo atômico deu origem a um novo enigma:


que força mantém os prótons e nêutrons unidos? A resposta foi
dada por Yukawa e confirmada por Lattes: a força nuclear forte,
que tem os píons como mensageiros. A mesma pergunta pode ser
feita para os quarks: que forças os mantém unidos dentro dos
hádrons?

Na Física de Partículas, estudamos as três forças fundamentais


entre partículas elementares: a interação eletromagnética, a força
nuclear forte e a força fraca (sobre a qual falarei a seguir). Prótons,
nêutrons e píons não são partículas elementares, são hádrons, e por
isso a resposta de Yukawa precisa ser mais elaborada. De fato, o
modelo em que prótons e nêutrons trocam píons entre si explica
bem a estrutura dos núcleos atômicos. Mas a força forte, na
verdade, atua entre quarks e antiquarks, e aqui temos uma situação
parecida com a Física Atômica.

Os átomos são eletricamente neutros: têm mesmo número de


prótons e elétrons. No entanto, conseguem ligar-se uns aos outros
formando moléculas. As ligações químicas podem ocorrer de
diferentes formas, mas todas envolvem o campo eletromagnético
gerado principalmente pelos elétrons atômicos. As forças entre
átomos são efeitos residuais da interação EM entre os elétrons.
Com os nucleons acontece algo semelhante. A força que mantém
prótons e nêutrons unidos é um efeito residual da interação entre
os quarks de que são feitos.

Examinemos o que ocorre no interior de um hádron qualquer. A


coesão entre quarks e antiquarks é mantida pela ação de um novo
tipo de partículas mensageiras: os glúons. Essas partículas, cujo
nome deriva do inglês glue (cola), desempenham nas interações
entre quarks um papel semelhante ao do fóton nas interações entre
elétrons. A interação entre quarks sempre envolve a troca de
glúons, o que resulta em uma força atrativa entre eles.

198
O que chamamos de interação forte, ou força forte é a interação
entre quarks e antiquarks via troca de glúons. Esse é o processo
elementar, como conhecemos hoje. A teoria de Yukawa, formulada
quando ainda se achava que prótons e nêutrons fossem
elementares, é uma teoria efetiva, uma maneira aproximada de
representar um efeito que é mais complexo. Os píons trocados
pelos nucleons (prótons e nêutrons) no núcleo atômico são um
efeito coletivo, uma espécie de força forte residual, que “vaza” do
interior dos hádrons.

Imagine uma colisão entre duas partículas. Não podemos seguir


as trajetórias de cada uma com precisão infinita, assim como não
podemos dizer “o exato momento” em que ocorre a colisão (nada
que se assemelhe a uma colisão entre duas bolas de bilhar filmada
em câmera lenta). Apenas quando partículas quando estão muito
próximas elas sentem a presença da outra. A interação dura um
intervalo de tempo curtíssimo, e rapidamente elas se afastam. As
partículas seguem trajetórias diferentes das iniciais, que são
registradas nos detectores.

O máximo que podemos fazer é imaginar o que se passa nesse


momento, criar uma representação teórica do que deveria ocorrer
na colisão e confrontar o que a teoria prevê com o que é observado
nos detectores. Se as previsões estão de acordo, interpretamos
como uma indicação de que as teorias estão corretas.

As teorias que descrevem as forças conhecidas – as interações


eletromagnética, forte e fraca – têm uma característica em comum:
todas envolvem a troca de um terceiro tipo de partícula. São as
partículas mediadoras - fótons, glúons, já apresentados, e os
bósons W e Z das interações fracas, que veremos daqui a pouco. O
grande físico estadunidense Richard Feynman criou uma forma
gráfica de representar as interações entre partículas elementares: os
gráficos de Feynman.

199
No desenho abaixo, dois elétrons colidem. A linha ondulada em
vermelho representa um fóton, a partícula mediadora de interação
eletromagnética, que é trocado entre os elétrons. Os círculos pretos
representam os “vértices”, pontos onde cada elétron interage com
o fóton. É uma representação que funciona incrivelmente bem.

Numa colisão, as partículas incidentes e espalhadas se propagam


livremente, após o brevíssimo intervalo de tempo da interação. Na
concepção moderna, a interação é transmitida por partículas que
“existem” durante um intervalo de tempo pequeno demais para ser
observado.

Nas colisões entre partículas, portanto, não há “ação à distância”


no sentido Newtoniano, ou seja, uma partícula não atua
diretamente sobre a outra sem que haja contato. As partículas
mediadoras desempenham um papel fundamental: são elas que
efetivamente interagem com cada uma das partículas incidentes, e
são elas que determinam o que ocorre com essas partículas depois
da colisão.

Voltemos aos quarks. Houve, claro, uma resistência inicial que


se explica pelas propriedades insólitas dessas partículas. Ter uma
carga elétrica fracionária não é a única bizarrice. Ao contrário dos
elétrons, os quarks nunca são encontrados isoladamente como
partículas livres: os quarks estão sempre confinados no interior dos
hádrons. Em um acelerador é possível construir um feixe de
prótons, ou de elétrons, até mesmo de neutrinos. Mas é impossível
criar um feixe de quarks u, por exemplo. Um próton deixa um
rastro ao passar por um detector de partículas, o que permite
acompanhar sua trajetória, mas para os quarks isso não é possível.

200
O fato de estarem sempre aprisionados no interior dos hádrons é
uma característica que torna os quarks diferentes de todas as outras
partículas elementares. O confinamento, como essa propriedade é
conhecida, é um fenômeno que ainda é não totalmente
compreendido, mas sabemos que está relacionado a um outro
atributo exclusivo de quarks e glúons: essas partículas possuem um
novo tipo de carga, a carga de cor (mais uma licença poética, sem
nenhuma relação com as cores do dia a dia).

A carga de “cor” é também chamada de carga forte. É uma


propriedade exclusiva dos quarks e dos glúons. Toda partícula com
carga elétrica, seja ela elementar ou composta, está sujeita a forças
eletromagnéticas. Da mesma maneira, os quarks e os glúons sofrem
a força forte porque possuem a carga de cor.

A carga de cor é muito diferente da carga elétrica. Ela aparece em


três tipos distintos. Elétrons, múons ou prótons têm todos a mesma
carga elétrica, assim como suas respectivas antipartículas. Há,
claro, dois estados possíveis para a carga elétrica, batizados de
“positivo” e “negativo”. Já a carga forte pode ser do tipo “verde”,
“vermelha” ou “azul”. Essa nomenclatura é uma analogia com o
sistema de cores RBG, o mais utilizado no processamento de
imagens. Cada tipo de carga forte também aparece em dois estados
possíveis. Os estados “positivo” e “negativo” da carga de cor são
“verde” e “antiverde”, “azul” e “antiazul”, e “vermelha” e
“antivermelha”.

A existência de três tipos distintos de carga de cor implica


diferenças fundamentais entre as interações eletromagnéticas e
fortes. Do ponto de vista matemático, a teoria das interações fortes,
a cromodinâmica quântica (QCD, na sigla em inglês), é muito mais
complexa do que a Eletrodinâmica Quântica (QED). Vamos
explorar um pouco essas diferenças.

Cargas de todo e qualquer tipo, sejam elétricas ou fortes, são


sempre conservadas, qualquer que seja o processo físico. Essa é

201
uma lei universal. Vamos considerar a interação entre dois quarks.
Inicialmente, um tem carga forte do tipo “verde” e o outro tem
carga “azul”. Na colisão, é possível que as cargas de cor dos quarks
sejam trocadas. O quark que inicialmente tinha carga verde, passa
a ter carga azul após a colisão, e vice-versa. A carga total é
conservada, mas para que isso aconteça é necessário que os glúons
trocados entre os quarks também tenham carga forte.

Na verdade, a carga forte dos glúons é uma combinação de “cor”


e “anticor”. Para dar conta de todas as possíveis interações entre
quarks, são necessários oito tipos de glúons, que diferem entre si
pelas combinações de cores e anticores que carregam.

O mundo colorido dos quarks e glúons se restringe ao interior dos


hádrons. Quarks e antiquarks sempre se combinam formando
partículas “brancas”, ou seja, sem uma carga forte resultante. Todos
os hádrons conhecidos são neutros de cor. Átomos podem ser
ionizados, tornando-se carregados, mas isso não ocorre com os
hádrons. Não há prótons “verdes” ou nêutrons “azuis”. Partículas
“coloridas”, que seriam o equivalente a partículas carregadas
eletricamente, nunca foram observadas.

E aqui está a diferença fundamental entre fótons e glúons.


Enquanto fótons interagem apenas com partículas carregadas, os
glúons, por terem carga de cor, podem também interagir entre si.
Podem mesmo formar partículas “invertebradas”, hádrons sem
quarks!

Glúons possuem carga de cor, e por isso podem interagir entre si.
Fótons, por sua vez, só interagem com partículas carregadas.

202
Há uma outra diferença importante entre as interações EM e fortes.
A intensidade da atração ou repulsão elétrica é grande quando duas
cargas estão muito próximas, e diminui quando elas se afastam. Na
interação forte ocorre exatamente o oposto. Quando dois quarks
estão muito próximos, a intensidade da interação forte entre eles é
pequena, mas aumenta brutalmente quando eles se afastam.

O confinamento dos quarks está associado a esse fato. À medida


que dois quarks tendem a se afastar no interior de um hádron,
muitos glúons são trocados entre eles. Quanto mais os quarks se
afastam, maior é o número de glúons trocados entre eles. Forma-se
uma nuvem de glúons entre os quarks, tão espessa que se torna uma
espécie de “corda de cor” bastante rígida, impedindo os quarks de
se afastarem.

O equilíbrio no interior dos hádrons só é rompido quando um de


seus quarks constituintes decai, ou quando quarks recebe um
impulso muito forte em colisões violentas com quarks de outros
hádrons, ou com elétrons (como nos experimentos do SLAC). Nas
colisões com grandes energias, os quarks se afastam tanto que a
“corda colorida” se rompe. Mas a energia armazenada na corda é
suficiente para que novos quarks surjam nas extremidades. Os
quarks imediatamente se reorganizam formando novos hádrons
“brancos”.

Bósons e férmions

Todas as partículas mediadoras têm spin, mas com características


diferentes das dos quarks e elétrons. Estes têm spin ½, que se
manifesta em dois estados, spin up e spin down, caracterizados pelo
número quântico magnético ms = +½ e -½. As partículas
mediadoras têm spin 1, cujos estados podem ser ms = +1, 0 e -1.

203
As partículas podem ser classificadas de diferentes maneiras,
dependendo das propriedades que se considera. Uma dessas
maneiras leva em conta o spin da partícula. As partículas
mediadoras pertencem à classe dos bósons, partículas de spin
inteiro. Já as partículas elementares, como elétrons, múons ou
quarks são classificadas como férmions, partículas de spin semi-
inteiro.

Uma outra forma de classificação divide as partículas em duas


classes: constituintes e mediadoras. Todos os constituintes da
matéria são férmions, e todas as partículas mediadoras são bósons.
A interação entre dois férmions ocorre sempre pela troca de bósons
mediadores. Numa colisão entre dois elétrons, eles trocam fótons
entre si, enquanto na interação entre dois quarks, os bósons
trocados são os glúons.

Campos

A teoria do Eletromagnetismo de Maxwell é um exemplo de


teoria de campos clássica. As teorias clássicas são baseadas no

204
princípio de continuidade. Os campos são contínuos e podem
vibrar com qualquer frequência. Nessas teorias, os campos não têm
uma existência independente. Só existem por causa das fontes, que
são as partículas carregadas e as correntes elétricas. Sem elas, não
haveria campos eletromagnéticos.

A carga do elétron gera o campo elétrico ao seu redor. Um segundo


elétron, posto em uma determinada posição, sofrerá uma força
elétrica cuja intensidade é proporcional à intensidade do campo
naquele ponto. Os campos, clássicos ou quânticos, são como
tecidos invisíveis, intangíveis, que preenchem o espaço-tempo e
que contêm energia. Quando éramos crianças, quase todos nós
brincamos com ímãs pelo menos uma vez. Sentimos nas nossas
mãos a força atrativa entre polos magnéticos opostos, e a força
repulsiva entre polos iguais. O campo magnético, assim como o
elétrico, não é um objeto matemático, ele é real.

A Teoria Quântica de Campos (TQC) é uma combinação da teoria


clássica de campos com a MQ e a RE. Na TQC, a ordem é
invertida: os campos são a entidade fundamental. As partículas
existem porque os campos existem, são excitações (quanta) desses
campos, regiões do espaço onde a energia se concentra.

Outra diferença fundamental entre as teorias de campo clássica e


quântica é o conceito de vácuo. Na teoria clássica, o vácuo é o puro
espaço vazio, a ausência total de qualquer traço de matéria ou
energia. Na teoria quântica, o vácuo tem outro significado. Mesmo
que tomássemos uma região do espaço totalmente livre de qualquer
traço de matéria ou de radiação, ainda assim o vácuo quântico não
seria o vazio. O vácuo quântico possui energia.

Existe uma limitação incontornável na precisão com que as


medidas podem ser feitas, expressa pelo Princípio de Incerteza de
Heisenberg. Não é possível determinar, ao mesmo tempo e com
precisão absoluta, a duração de um processo físico qualquer e a
energia envolvida. Em qualquer fenômeno, a energia é conservada.
Esse é um dos princípios mais fundamentais da Natureza. No

205
entanto, durante intervalos de tempo pequenos demais para serem
observados, a conservação da energia pode falhar. Esse fato está
diretamente ligado às propriedades do vácuo quântico. Mas se não
podemos observar o que acontece durante intervalos de tempo
pequenos demais, como podemos dizer alguma coisa sobre a
conservação da energia?

A matéria não pode ser criada a partir do nada. Mas o Princípio de


Incerteza permite que pares de partículas e antipartículas (elétrons
e pósitrons, ou quarks e seus antiquarks, por exemplo) possam
surgir espontaneamente do vácuo, e se aniquilarem imediatamente.
São as flutuações do vácuo. Por terem um tempo de vida tão
efêmero, os pares partícula-antipartícula produzidos do vácuo não
podem ser observados diretamente.

Os pares criados e aniquilados continuamente são partículas


virtuais. Elas têm as mesmas características das partículas reais,
aquelas que deixam rastros nos detectores, mas com uma diferença
básica. Na RE, há uma relação bem definida entre a massa, a
energia e momento linear (o produto da massa pela velocidade) de
partículas reais, aquelas que deixam rastros nos detectores. As
partículas virtuais, no entanto, podem ter massas muito diferentes
das partículas reais correspondentes. Para elas, não vale a relação
entre massa, energia e momento das partículas reais.

Pode parecer estranho atribuir realidade a alguma coisa que não


pode ser observada diretamente. Poderíamos pensar nas partículas
virtuais como mais um artifício matemático útil para fazer cálculos.
Mas apesar de fora do alcance direto, as partículas virtuais
produzem efeitos detectáveis. Existem muitos exemplos na Física
de fenômenos que são conhecidos pelos seus efeitos indiretos.

Os prótons são partículas compostas. Sua estrutura interna é


extremamente complexa. Além dos dois quarks u e o quark d, há
um número incontável de pares quark-antiquark virtuais que
surgem continuamente do vácuo, para desaparecer logo em

206
seguida. Os quarks e antiquarks virtuais estão sempre envolvidos
por nuvens de glúons, também virtuais.

Se somarmos as massas dos quarks u e d do próton, chegaríamos a


um valor cerca de 10 vezes menor que a massa do próton. A maior
parte da sua massa vem das partículas virtuais. É o que mostram
experimentos feitos para estudar o funcionamento interno dos
prótons: menos da metade da sua energia vem dos dois quarks u e
do quark d. A maior parte é carregada pelos glúons e pelos pares
quark-antiquark criados do vácuo.

Representação artística de um próton. Há um número incontável


de partículas virtuais – glúons e pares quark-antiquark -,
formando uma nuvem difusa, sem uma superfície que separa o
interior do exterior. Prótons, como as demais partículas
subatômicas, não são bolinhas minúsculas de matéria.

A QED descreve com altíssima precisão a interação entre fótons e


partículas elementares com carga elétrica. Os cálculos da QED só
reproduzem as observações experimentais quando os efeitos
causados pelas partículas virtuais são levados em conta.

Os píons trocados entre prótons e nêutrons no núcleo atômico são


partículas virtuais. São como os observados por Lattes, exceto pela
massa e pelo fato de “existirem” por um tempo curto demais para
ser medido. Todos os cálculos envolvendo a QCD também têm que

207
levar em conta as partículas virtuais (quarks, antiquarks e glúons).
Há muitos outros efeitos indiretos das flutuações do vácuo, que
aparecerão na sequência do livro.

Força fraca

Das três forças conhecidas, a interação fraca é a que tem menor


intensidade, como o nome indica. Mas é a única que é sentida por
todas as partículas elementares. A força fraca é a responsável pela
radioatividade. A manifestação mais comum das interações fracas
é o decaimento de partículas instáveis, como o decaimento b: um
nêutron se desintegra espontaneamente, e em seu lugar surge um
próton, um elétron e um antineutrino. A interação fraca também é
a causa da emissão nuclear das partículas a e de raios-X e g.

Fora do núcleo atômico, os nêutrons são instáveis, com uma vida-


média em torno de 14 minutos. Felizmente, dentro dos núcleos os
nêutrons são estáveis, com algumas exceções. Uma delas é o
carbono-14, um isótopo radiativo do carbono-12. Possui seis
prótons e oito nêutrons, em um arranjo instável. Um dos nêutrons
do carbono-14 decai espontaneamente, transformando-se num
próton e emitindo um par elétron-antineutrino. O núcleo
permanece unido, mas agora com sete prótons e sete nêutrons. Em
vez do radiativo carbono-14, temos um corriqueiro átomo de
nitrogênio.

O decaimento b tem uma importância histórica, não apenas por ter


sido a primeira manifestação da radioatividade natural (a
radioatividade pode ser induzida também). Foi bastante estudado
no início do século passado, mas havia nele um aspecto misterioso,
que teria desdobramentos importantes.

As massas do 14C e do 14N têm valores bem definidas. Como a


conservação da energia é um princípio universal, a energia do

208
elétron emitido (o “raio” b) deveria ser exatamente igual à
diferença entre as massas dos dois núcleos. Os elétrons, portanto,
deveriam ter sempre a mesma e exata energia. Mas algo diferente
foi observado: a energia dos elétrons variava significativamente.

O decaimento beta do carbono-14. O processo elementar é o


decaimento de um quark d de um nêutron, formando um quark u e
um par elétron-antineutrino. Isso resulta no decaimento do
carbono, formando um núcleo de nitrogênio.

À primeira vista, esse fato poderia indicar uma violação da


conservação da energia. Para contornar esse problema, Pauli
postulou a existência de uma partícula neutra, com massa muito
pequena, que não seria detectada no decaimento b. Essa suposta
partícula carregaria parte da energia disponível no decaimento, o
que explicaria o fato de a energia do elétron ser variável.

A primeira teoria das interações fracas foi elaborada por Enrico


Fermi, o grande físico italiano. Fermi batizou a partícula de Pauli
como “neutrino”, diminutivo de nêutron em italiano. Ele
demonstrou que os elétrons e neutrinos não ficam “armazenados”
no interior do núcleo. Em vez disso, essas partículas eram criadas

209
num processo envolvendo a interação fraca. Os neutrinos só seriam
observados em 1956.

Quando surgiram os grandes aceleradores, capazes de produzir


colisões com energias muito altas, ficou evidente que a teoria de
Fermi era apenas uma boa aproximação para fenômenos com
energia mais baixa, como o decaimento b. A teoria moderna das
interações fracas foi formulada no final dos anos 1960 por três
físicos, Sheldon Glashow, Abdus Salam e Steven Weinberg, todos
agraciados com o Prêmio Nobel.

As partículas mediadoras da força fraca são o bóson W, carregado


eletricamente, e o Z, que é neutro. Ao contrário de fótons e glúons,
o W e o Z são partículas com massa. E não são pequenas: o W é
cerca de 80 vezes mais pesado que o próton, enquanto o Z tem
massa cerca de 90 vezes maior que a do próton. O fato de serem
partículas mensageiras tão pesadas implica a força fraca ter um
alcance curtíssimo.

O nêutron é um bárion formado por dois quarks d e um quark u.


Dentro do nêutron, sem qualquer aviso prévio, um dos quarks d
decai espontaneamente em um quark u, um elétron e um
antineutrino. Ao se transformar em um quark u, o quark d “emite”
um bóson W virtual com carga negativa (a carga elétrica é sempre
conservada, mesmo em processos envolvendo partículas virtuais).
O W virtual, por sua vez, dá origem ao par elétron-antineutrino.

Depois do decaimento, os dois quarks u e o quark d se recombinam,


formando um próton. Como o elétron e o neutrino não sentem a
força forte, eles não interagem com os quarks e se propagam quase
como se estivessem no vácuo.

Esse é mais um exemplo do que são as partículas virtuais. Algumas


partículas elementares instáveis, como o múon, vivem o suficiente
para serem detectadas diretamente. Mas no decaimento b, o bóson
W é virtual e jamais pode ser observado. Ele logo se transforma em
um par elétron-antineutrino. O bóson W real é 20.000 vezes mais

210
pesado quark d. Uma partícula real jamais poderia decair emitindo
uma outra partícula real que fosse mais pesada! Seria como se de
um ovo de passarinho nascesse um elefante.

Diagrama de Feynman do decaimento b, mostrando a linha de


vida de cada partícula. A seta no sentido contrário do tempo
simboliza uma antipartícula (o antineutrino). A carga elétrica é
conservada em cada vértice (pequenos círculos em preto). A carga
elétrica do bóson W é transferida ao elétron. As linhas em preto
formam a corrente dos quarks, enquanto as linhas azuis formam a
corrente leptônica. As duas correntes são conectadas pelo bóson
W, que interage com cada uma nos vértices representados pelas
bolinhas cheias.

As partículas virtuais, como vimos, não têm uma massa bem


definida. No entanto, o fato de o bóson W real ser tão pesado faz
com que a probabilidade de decaimento b seja muito pequena.
Significa também que a força fraca só é sentida quando as
partículas envolvidas na interação estão muito próximas, quase
“em contato”. Por isso a teoria de Fermi é uma aproximação tão
boa.

O decaimento beta é uma interação em que a carga elétrica do


quark inicial (d = -1/3e, lembrando que e é a carga do elétron) é
diferente da carga do quark final (u = +2/3e). É uma interação cujo
mensageiro também tem carga elétrica, e por isso são chamadas de
correntes carregadas. Há também interações em que a carga dos

211
férmions não muda. Estas são as correntes neutras, e em vez do W,
é o bóson neutro Z que toma parte.

Uma divisão em famílias, semelhante à dos quarks, é observada


também na outra classe de partículas constituintes: os léptons.

Léptons

Os aceleradores de partículas são uma espécie de gigantescos


microscópios, que permitem observar a matéria em escalas
incrivelmente pequenas (10-18m). Tudo o que aprendemos sobre a
estrutura da matéria até essa escala está sintetizado no chamado
Modelo Padrão (MP) das partículas elementares. Não sabemos ao
certo o que encontraremos quando pudermos observar a Natureza
em escalas menores.

No MP, as partículas elementares (indivisíveis, até onde sabemos)


são divididas em constituintes e mensageiras. As constituintes são
divididas em duas classes: quarks e léptons (elétrons, múons,
neutrinos). Todas são férmions (spin ½), e as interações entre eles
sempre envolve a troca de bósons (spin 1) mensageiros. Há seis –
e apenas seis – tipos de quarks e seis tipos de léptons. Todos os
quarks têm carga elétrica. Já os léptons podem ou não ser
carregados. Essa mesma estrutura de famílias, ou gerações, com
asa mesmas propriedades, é replicada nos antiquarks e antiléptons.

Os quarks são as únicas partículas elementares que podem interagir


de todas as formas conhecidas. Podem interagir trocando fótons
com qualquer outra partícula que possua carga elétrica. Podem
interagir com outros quarks ou com léptons através da força fraca.
E também podem interagir entre si por terem carga de cor. Os
léptons carregados podem interagir através das forças fraca e

212
eletromagnética. Os neutrinos não têm carga elétrica, e só podem
interagir através da força fraca.

Os seis léptons são organizados em “famílias” ou “gerações”:

As razões dessa divisão são diferentes das dos quarks. Os léptons


também têm suas características únicas. Um tau (t) pode decair em
um múon, e um múon pode decair em um elétron. Mas os neutrinos
não decaem. Segundo o MP, eles estão confinados à suas próprias
famílias. Os neutrinos são sempre produzidos junto com o seu
lépton carregado. Quando interagem novamente, apenas o lépton
parceiro é produzido. Por isso carregam o rótulo da família.

Segundo o MP, os neutrinos são partículas com massa exatamente


zero, como os fótons. Até recentemente, acreditava-se que fossem
realmente partículas sem massa, mas no início dos anos 2010, as
evidências experimentais contrárias se acumularam. Hoje sabemos
com certeza que os neutrinos têm massa. Sabemos também que as
massas são muito pequenas, muito menores que a do elétron,
embora ainda não tenhamos como medi-las. Mas o simples fato de
os neutrinos terem massa, mesmo que muito pequena, é uma
demonstração de que o MP é uma teoria incompleta. É certo que
há algo além do MP, mas não sabemos ainda o que é.

Os neutrinos são as partículas mais misteriosas que conhecemos.


Como não têm carga elétrica, só podem interagir com a matéria de
uma única forma: interações fracas. Os bósons W e Z são muito
pesados, e isso faz com a probabilidade de um neutrino colidir com
outra partícula seja muito pequena. Os neutrinos interagem tão
raramente com a matéria que são capazes de atravessar toda a
extensão da Terra como se ela fosse transparente. Para detectar

213
qualquer partícula é necessário que ela interaja de alguma forma
com a matéria. Por isso é tão difícil detectar neutrinos.

Com distinguir os três tipos de neutrinos, se são partículas neutras


e não sabemos as massas que têm? Vamos analisar o decaimento
do múon. Praticamente 100% dos múons decaem em um neutrino
do múon (nµ), um elétron e um antineutrino do elétron (anti ne). Se,
na sequência, o neutrino do múon nµ interage com a matéria, dessa
interação surgirão apenas múons, e nunca elétrons ou taus. Já o
antineutrino do elétron, quando interagir, produzirá apenas
elétrons. Neutrinos do múon e do elétron são, portanto, partículas
distintas. O mesmo se aplica ao neutrino do tau.

Há uma lei de conservação em colisões envolvendo léptons, que


corresponde a um novo número quântico, o número leptônico. É
uma simples regra de contagem: em uma reação, o número
leptônico é a diferença entre o número de léptons e antiléptons. O
número leptônico é sempre conservado, ou seja, tem o mesmo valor
antes e depois de a reação ocorrer. A cada lépton é atribuído o valor
+1, e a cada antilépton, o valor -1. No caso do decaimento do múon,
temos um lépton no estado inicial (o múon), um lépton no estado
final (o neutrino do múon) e um par lépton-antilépton (o elétron e
seu antineutrino). O número leptônico tem valor +1 em ambos os
lados da reação.

No decaimento de um múon, o neutrino do múon é produzido. Note


a semelhança com o decaimento b. O neutrino do múon, por sua
vez, interage com ou próton ou com um nêutron (a interação, na
verdade, é entre o neutrino e um dos quarks do nucleon). Nessa
interação, somente múons são observados.

214
Há também uma segunda lei de conservação relativa a cada
“família”. Imagine uma colisão entre dois prótons no LHC em que
um bóson W real seja produzido. Ele se propaga pelo detector até
decair em um elétron e um antineutrino do elétron, por exemplo. O
número leptônico do W é zero (o W não é um lépton), assim como
o do par elétron-antineutrino (+1 para o elétron, -1 para o
antineutrino). Mas o número leptônico do estado final também
seria zero se, em vez do antineutrino do elétron, fosse produzido o
antineutrino do múon, ou o antineutrino do tau. Só que isso nunca
acontece. O elétron será produzido sempre em conjunto com o
antineutrino do elétron (e o pósitron em conjunto com o neutrino
do elétron).

Essa lei vale para todas as famílias leptônicas. Temos assim três
números quânticos específicos: o número leptônico do elétron, o
número leptônico do múon e o do tau. Assim como o número
leptônico global, esses três outros números quânticos também são
conservados. Se um lépton surge no decaimento de um W, há de
surgir também um antilépton. Por isso o elétron sempre surge em
companhia de um antineutrino. E esse antineutrino é sempre o
antineutrino do elétron.

Além da relação “monogâmica” com os seus respectivos neutrinos,


os léptons carregados se diferenciam também pela massa. O múon
é cerca de 200 vezes mais pesado que o elétron, enquanto o tau é
cerca de 17 vezes mais pesado que o múon. Tanto os múons como
os taus são instáveis. Quando o tau decai ele pode dar origem tanto
a um múon como a um elétron. Já no decaimento do múon, apenas
o elétron pode ser criado.

215
9

Modelo Padrão

O conhecimento que adquirimos sobre a Natureza é o resultado


de um longo processo cumulativo, de milênios de reflexão,
observação e experimentação. No mundo ocidental, o método
científico foi estabelecido apenas há alguns séculos, mas muito
antes disso já era empregado em outras culturas, como a árabe e a
chinesa.

A evolução do conhecimento é, em geral, o resultado de um


processo contínuo. Mas há momentos de impasse, quando se
descobrem novos fenômenos que não podem ser explicados por
meras adaptações das teorias existentes. Nesses casos, é necessário
criar teorias inteiramente novas, que incorporem novos
ingredientes, novos conceitos, que sejam baseadas em uma nova
linguagem.

Foi assim com “revolução atômica” no início do século XX, que


culminou com a Mecânica Quântica (MQ), uma teoria diferente de
tudo que a precedeu. No mesmo período, a Teoria da Relatividade
(TR) de Einstein transformou radicalmente os conceitos de espaço
e tempo, revelou a equivalência entre massa e energia, estabeleceu
uma nova lei de gravitação e uma nova concepção do Universo.
Aquele foi um momento na história da Física em que houve um
ponto de inflexão, inaugurando uma nova visão do mundo, tanto
nas menores como nas maiores escalas.

216
Pode-se então dizer que o Modelo Padrão (MP) começou a ser
desenvolvido no início do século passado. Da radiatividade, no
apagar das luzes do século XIX, ao bóson de Higgs, pouco mais de
110 anos depois, uma série de descobertas experimentais e teóricas
pavimentou o longo caminho até chegarmos ao que sabemos hoje
sobre a estrutura da matéria na sua menor escala.

Mas é possível também fazer um outro corte, e dizer que o MP foi


desenvolvido sobretudo a partir dos anos 1960, tendo se
consolidado pouco a pouco. Um edifício construído, tijolo por
tijolo, sobre fundações sólidas estabelecidas ao longo das décadas
anteriores. Como sou um físico experimental, costumo dizer que a
descoberta da estrutura interna dos prótons pode ser vista como um
marco inicial da era contemporânea da Física de Partículas. Mas é
apenas uma opinião pessoal.

O MP é um marco de uma nova era na pesquisa em Física. Todas


as partículas elementares previstas pelo MP foram descobertas.
Experimentos complexos, envolvendo colaborações internacionais
entre um número cada vez maior de instituições e de participantes,
foram construídos ao longo dos últimos 50 anos com o objetivo de
detectar partículas cuja existência era dada como certa. E, uma a
uma, todas foram encontradas. Não houve surpresas. O quebra-
cabeças foi completado em 2012, no LHC, com a descoberta do
bóson de Higgs, sobre o qual falaremos mais adiante.

Quarks e léptons são as partículas elementares, constituintes da


matéria. As três forças fundamentais – forte, fraca e
eletromagnética - são mediadas por fótons, glúons, e bósons W e Z.
O número de integrantes do MP é relativamente elevado: seis
quarks, seis léptons, mais as respectivas antipartículas, totalizando
24 férmions; o fóton, oito glúons, o W+, W- e o Z. Somando
constituintes, mediadoras e o Higgs, temos 37 partículas.

São conhecidas 24 partículas constituintes e 12 bósons, mas tudo


no Universo parece ser feito por apenas quatro delas: os quarks u e
d, o elétron e o fóton. Muitos físicos acham que o número 37 é

217
ainda muito grande, e que isso seria um indício de uma camada
mais profunda da estrutura da matéria, que estaria prestes a ser
descoberta.

Mentes brilhantes se dedicam com afinco à busca desse “santo


Graal”, mas até agora todos os esforços parecem ser em vão. No
último capítulo veremos que os indícios de uma nova Física se
acumulam, nos lembrando de como se iniciou a era moderna, cem
anos atrás.

As três forças são muito diferentes entre si. Cada uma tem
características particulares. Mesmo assim, as teorias que as
descrevem têm em comum um aspecto fundamental: todas têm a
mesma estrutura matemática. E essa estrutura matemática comum
está baseada em um princípio organizador: o conceito de simetria.

Talvez os melhores exemplos do que os físicos entendem por


simetria sejam a translação e a rotação. Para determinar a posição
de um objeto é preciso definir um sistema de coordenadas. Para
simplificar, consideremos um plano, de forma que a posição de um
ponto fica determinada por dois números (as coordenadas
Cartesianas nos eixos x e y, por exemplo).

No plano Cartesiano, o comprimento de uma barra metálica é a


diferença entre as posições das suas extremidades. Se a barra é
paralela ao eixo x, suas extremidades terão coordenadas x1 e x2, e
seu comprimento será simplesmente x2 - x1. Imagine um segundo
sistema de coordenadas com eixos paralelos e em repouso relativo
ao primeiro, mas cuja origem está deslocada. Nesse segundo
sistema as coordenadas das extremidades serão x’1 e x’2, mas o
comprimento, naturalmente, será o mesmo, x2 - x1 = x’2 - x’1.

Imagine agora dois sistemas de coordenadas, A e B, ambos com a


mesma origem, mas com eixos que não sejam paralelos.
Novamente, as coordenadas das extremidades da barra serão

218
diferentes nos dois sistemas, mas o comprimento da barra será o
mesmo medido se for medido em A ou em B.

No primeiro caso temos um exemplo de simetria de translação, e


no segundo, simetria de rotação. Nos dois casos, as transformações
matemáticas no sistema de coordenadas deixam inalterados a
distância entre dois pontos. Esses dois exemplos ilustram o que são
simetrias contínuas: transformações (em geral nas coordenadas)
que podem ser feitas numa sequência de passos muito pequenos,
deixando inalterada alguma propriedade básica.

Emily Noether é considerada a mulher mais importante da história


da Matemática. Em 1918, a célebre matemática alemã, demonstrou
um teorema que estabelece a conexão entre simetrias contínuas e
as leis de conservação.

A simetria de translação está associada à conservação do momento


linear (produto da massa pela velocidade), enquanto a simetria de
rotação está relacionada à conservação do momento angular.
Translação e rotação são transformações matemáticas contínuas
realizadas sobre as coordenadas do espaço-tempo que não alteram
a forma das equações de movimento e, portanto, a Física que elas
descrevem.

O MP é baseado em um outro tipo de simetria contínua chamado


simetria de calibre. É o princípio organizador que está por trás das
teorias que descrevem as três interações fundamentais. É uma
simetria um pouco mais abstrata, porque não corresponde a uma
transformação nas coordenadas, e sim na própria função de onda.
Mas a ideia básica pode ser resumida da seguinte maneira.

Imagine uma partícula carregada que se propaga em uma região


onde há um campo EM. Podemos fazer uma transformação na onda
de probabilidade de uma partícula, sem alterar a forma das
equações e, portanto, sem alterar a Física. A condição para que isso
aconteça é que uma segunda transformação, relacionada à primeira,
seja feita simultaneamente sobre o campo EM. Alterações devidas

219
à transformação matemática sobre as ondas de probabilidade são
compensadas pelas alterações que aparecem quando modificamos
o campo EM.

A agulha de uma bússola se orienta pelo campo magnético da


Terra. Imagine um número muito grande de bússolas espalhadas
em uma planície extensa. Se o campo magnético da Terra for
constante ao longo da planície, todas as agulhas apontarão para a
mesma direção. Mas o que aconteceria se tivéssemos o poder de
mudar a orientação de cada agulha individualmente, ou seja, se
fizéssemos uma transformação local, em que a orientação de uma
agulha não depende da orientação das suas vizinhas?

Para que as leis do magnetismo permaneçam inalteradas, isto é,


para que as bússolas continuem a se orientar pelo campo
magnético, teríamos que ter também o poder de “manipular” o
campo da Terra, de forma que ele fosse diferente em cada pequena
região da planície onde há uma bússola. A transformação
simultânea na orientação das agulhas e no campo magnético da
Terra faz com que a Física não se altere.

A transformação de calibre não modifica as coordenadas do


espaço-tempo, como a rotação ou a translação, ela modifica a
própria função de onda. As funções de onda são funções
complexas. Isso quer dizer que em cada ponto do espaço-tempo seu
valor é um número complexo, definido pelo módulo r e pela
direção q. A transformação de calibre modifica a direção q das
funções de onda de cada partícula, dando a elas um valor diferente
em cada ponto do espaço, sem alterar o módulo r. Como no
exemplo acima das agulhas. A simetria de calibre significa que se
fizermos ao mesmo tempo uma transformação equivalente no
campo “mensageiro”, a interação entre duas partículas não se
altera.

A equação de Dirac (capítulo 7), que descreve como elétrons


interagem com fótons, possui três termos: um termo que descreve
a propagação do elétron, outro que descreve a propagação do fóton,

220
e um terceiro que descreve a interação entre o elétron e o fóton.
Uma transformação de calibre feita apenas na função de onda do
elétron alteraria a forma da equação. Um quarto termo iria
aparecer.

Da mesma forma, se a transformação fosse feita apenas na função


de onda do fóton, também haveria uma mudança na forma da
equação, um quarto termo apareceria. Mas quando transformação
é feita ao mesmo tempo nas funções de onda do fóton e do elétron,
os termos adicionais se cancelam e a equação de Dirac permanece
inalterada.

A simetria de calibre do eletromagnetismo era conhecida desde


Maxwell, mas era vista como um mero “acidente” matemático sem
maiores consequências. Nos anos 1940-50, os físicos perceberam
que ao elevar a simetria de calibre à categoria de princípio
fundamental, a forma como os férmions interagem com os bósons
intermediários ficaria determinada para todos os tipos de interação.
Dito de outra maneira, o termo de interação na equação de Dirac
tem a mesma forma para todos os férmions e bósons. A toda
simetria contínua está associada uma grandeza que se conserva no
tempo. Com a simetria de calibre não é diferente: ela está associada
à conservação da carga.

O MP é uma combinação de três teorias com simetria de calibre


que descrevem as três formas de interação conhecidas. Ao longo
dos últimos 50 anos, o MP foi testado exaustivamente em variados
tipos de experimentos. Suas previsões, que têm uma precisão
espantosa, foram todas confirmadas até o momento. Mas há pelo
menos três fatos que mostram que o MP é apenas uma parte da
história: neutrinos são partículas com massa; a existência da
matéria escura; a assimetria entre matéria e antimatéria.

221
Bóson de Higgs

A simetria de calibre tem uma consequência importante: todos


os bósons mediadores devem ser partículas sem massa, como os
fótons e os glúons. Por que então o W e o Z são tão pesados? Uma
outra questão fundamental é a origem da massa das partículas
elementares. Que mecanismo faz com que elas tenham massa? Para
responder a essas perguntas, um novo ingrediente foi adicionado
ao MP por Steven Weinberg e Abdus Salam: o mecanismo de
Higgs.

Embora “mecanismo de Higgs” tenha sido o nome adotado, a ideia


foi, na verdade, desenvolvida independentemente por vários físicos
no início dos anos 1960: Peter Higgs, Robert Brout, François
Englert, Carl Hagen, Gerald Guralnik e Tom Kibble.

O mecanismo de Higgs-Brout-Englert-Hagen-Guralnik-Kibble é
uma ideia bastante sofisticada e engenhosa para resolver um
problema complexo. Através desse mecanismo, os bósons
mediadores das interações fracas tornam-se partículas com massa,
enquanto fótons e glúons permanecem sem massa. O mecanismo
está baseado na hipótese de que um campo especial que existe
preenche todo o Universo, o campo de Higgs.

Todas as partículas elementares interagem com o campo de Higgs.


Nessa interação as partículas adquirem as suas massas. As
exceções são os fótons, os glúons e, talvez, os neutrinos. Digo
talvez por que a origem da massa dos neutrinos é ainda um
mistério. Cada partícula elementar interage com o campo de Higgs
com uma intensidade diferente, e por isso elas têm massas
diferentes.

As massas dos quarks e léptons seguem um padrão no mínimo


estranho. A massa do próton pode ser tomada como unidade. Ela
vale aproximadamente um giga-elétron-Volt (GeV), a unidade de
energia/massa utilizada na Física de Partículas. Um elétron é cerca

222
de 2000 vezes mais leve que o próton, o múon é apenas 10 vezes
mais leve, enquanto o tau é 1,7 vezes mais pesado.

Os quarks nunca se propagam livremente, e por isso o conceito de


“massa” para essas partículas não tem uma definição tão clara
como para os léptons. Os valores das massas dos quarks dependem
como o conceito é definido. Ainda assim, é possível fazer uma
comparação. Os quarks u e d são os mais leves, enquanto o b e o t
são os mais pesados. As massas dos quarks u e d são,
respectivamente, 500 e 250 vezes menores que a do próton,
enquanto o quark s é apenas cerca de seis vezes mais leve. Já o
quark c é cerca de uma vez e meia mais pesado, o quark b é cinco
vezes mais pesado e o t é 173 vezes mais pesado que o próton!

O MP não explica esse padrão. As massas são o que são, os


acoplamentos das partículas com o campo de Higgs (a intensidade
da interação) são parâmetros livres do MP, quantidades a serem
medidas. Podemos medi-las com a melhor precisão possível, mas
não sabemos o porquê dos seus valores. Para muitos, essa
hierarquia bizarra seria uma indicação de que há uma simetria mais
fundamental ainda por se descobrir.

O CERN produziu uma série de quadrinhos, reproduzidas abaixo,


que ilustram a ideia básica de como a interação com o campo de
Higgs pode gerar a massa das partículas. Na série de ilustrações,
vemos uma sala com físicos à espera de um convidado muito
especial. Quando ele chega, uma grande excitação toma conta da
sala. Os físicos da sala poderiam simplesmente abrir espaço para o
convidado passar, mas ele é imediatamente cercado pelos
admiradores e por isso atravessa a sala mais devagar.

A dificuldade do convidado em atravessar a sala pode ser


interpretada como uma inércia – a massa - adquirida na interação
com os admiradores. Outros convidados menos famosos causariam
menos alvoroço e teriam em torno de si aglomerações menores.

223
Copyright CERN

Os desenhos acima ilustram como a interação com o campo de


Higgs dá origem à massa das partículas. A multidão na sala
(esquerda) é o campo de Higgs e o convidado (centro) ao interagir
com a multidão, torna-se “pesado” (direita).

O Eletromagnetismo de Maxwell é o primeiro caso de uma


unificação entre fenômenos de natureza aparentemente diferente.
Antes mesmo de a estrutura da matéria ser conhecida, Maxwell
identificou o movimento de cargas elétricas como fonte de campos
magnéticos. Identificou também que em regiões onde há campos
magnéticos que variam com o tempo, surgem campos elétricos,
mesmo na ausência de cargas elétricas. Maxwell demonstrou que
eletricidade e magnetismo não são fenômenos independentes, mas
sim manifestações distintas de uma mesma entidade, o campo
eletromagnético, que se propaga no espaço como ondas.

O mecanismo de Higgs tornou possível uma outra unificação, dessa


vez entre as interações eletromagnéticas e fracas. Elas são versões
diferentes de uma única força, chamada eletrofraca. “Unificar”
significa em um regime onde as energias são muito altas, as forças
eletromagnéticas e fracas são uma só, com a mesma intensidade. A
intensidade das interações fracas é pequena comparada à da
interação eletromagnética. Mas quando a energia das reações é
muito alta, ela aumenta significativamente, chegando a se igualar à
intensidade da força eletromagnética.

Veremos no próximo capítulo que as temperaturas do Universo nos


seus primórdios eram extremamente elevadas, da ordem de 1015
graus Kelvin. Nessas condições, não haveria diferença entre a força

224
fraca e a eletromagnética. Todas as partículas elementares
sofreriam a mesma ação da força eletrofraca, com a mesma
intensidade, sem qualquer distinção. Haveria quatro bósons
mediadores, diferentes dos que existem hoje. Nessa fase do
Universo, só haveria partículas sem massa e interagindo
indistintamente através dos quatro bósons, igualmente sem massa.

A temperatura do Universo diminuiu à medida que ele expandiu,


até chegar a um momento crítico, quando ocorreu uma transição de
fase que fez com que as interações fraca e eletromagnética se
tornassem o que são hoje. É nesse momento de transição que o
mecanismo de Higgs entra em ação, fazendo que o W e o Z
adquirissem massa e o fóton permanecesse com massa zero. O
mecanismo se baseia no fenômeno conhecido como quebra
espontânea de simetria.

Há vários exemplos na Física de quebra espontânea de simetria. O


mais ilustrativo é o ferromagnetismo. Materiais ferromagnéticos
(os ímãs) têm uma magnetização permanente. O ferro é o material
que possui a magnetização permanente mais intensa. Os átomos da
rede cristalina de uma amostra de ferro funcionam como
minúsculos ímãs. Isso ocorre por causa da interação entre elétrons
da última camada envolvendo os spins. É um efeito puramente
quântico, que faz com que os minúsculos ímãs se orientem em uma
mesma direção, resultando na magnetização permanente.

No entanto, quando uma amostra de ferro é aquecida a mais de


1043º K, a temperatura de Curie do ferro, a magnetização
desaparece. Em temperaturas acima desse valor, o efeito da
agitação térmica dos átomos é mais intenso do que as forças de
alinhamento entre os spins. Nesse regime, o interior do material
tem um aspecto caótico, mas com simetria de rotação (ou esférica):
em qualquer direção que se olhe, observa-se a mesma coisa, cada
minúsculo ímã orientado numa direção diferente, aleatória.

Fazendo o caminho inverso, a amostra de ferro é resfriada e, ao


passar pela temperatura de Curie, ocorre uma transição de fase.

225
Subitamente, o estado caótico se torna novamente ordenado. A
interação entre os spins volta a ser dominante, e todos os
minúsculos ímãs se orientam em uma mesma direção. A simetria
esférica da amostra é perdida apenas pela diminuição da
temperatura, sem que haja ação de campos magnéticos externos.
Ou seja, há uma quebra espontânea da simetria de rotação.

A direção de alinhamento dos spins, no entanto, é aleatória. Se


repetirmos várias vezes o processo, aquecendo e depois resfriando
a amostra de ferro, veremos que em cada repetição os spins se
alinharão em uma direção diferente, impossível de ser prevista.

Se seguirmos resfriando a amostra de ferro, atingiremos um limite,


bem perto do zero absoluto. É o estado de mais baixa energia, ou
estado fundamental: o vácuo do sistema. Aquecendo e resfriando a
amostra repetidamente, chegaríamos ao estado fundamental. Os
spins podem estar alinhados em direções diferentes, mas
independente da orientação, o estado fundamental terá sempre a
mesma energia. As diferentes orientações dos spins correspondem
às infinitas possibilidades para o vácuo desse sistema. Nesse caso,
dizemos que o vácuo é degenerado.

226
Assim como no ferromagnetismo, o vácuo do campo de Higgs, o
estado de energia mais baixa, também é degenerado. Há infinitas
possibilidades para esse estado, todas com a mesma energia. Esse
é o ponto crucial do mecanismo de Higgs. Quando a temperatura
do Universo diminuiu, ocorre uma transição de fase como no
ferromagnetismo, e o campo de Higgs evoluiu para um de seus
estados fundamentais possíveis. Naquele momento, a interação
entre os bósons mediadores e o campo de Higgs deu origem três
bósons massivos, o W+, W- e Z, e a um bóson de massa nula, o
fóton. As interações fracas e eletromagnéticas se separaram
definitivamente.

O mecanismo de Higgs é uma ideia bastante engenhosa e complexa


que preenche lacunas cruciais no MP. Mas o que nos garante que
seja essa a origem da massa? Se o campo de Higgs de fato existe,
então, como acontece com qualquer campo, seus quanta (estados
excitados do campo) também devem existir. Assim como os fótons
reais são os quanta do campo eletromagnético, deve haver
partículas reais que sejam aos quanta do campo de Higgs: os bósons
de Higgs.

Na página seguinte, novamente recorremos às ilustrações


produzidas pelo CERN. O convidado especial não chega e uma
inquietação toma conta da sala. De repente, surge um boato de que
ele não virá mais. As pessoas da sala se aglomeram na tentativa de
saber o que se passa. Esse aglomerado é o bóson de Higgs, que
existe independente de haver quarks e léptons.

Essa é a razão de todo o alvoroço em torno da descoberta do Higgs,


em 2012. A observação dessa partícula ratificou o mecanismo de
Higgs como a origem da massa das partículas. Foi a última peça
que faltava no quebra-cabeças do MP. Se o bóson de Higgs não
fosse detectado, o mecanismo de Higgs teria sido apenas mais uma
bela ideia que não deu certo.

O mecanismo de Higgs explica como os quarks ganham a massa


que têm, mas ele não é diretamente responsável pela massa da

227
matéria bariônica do Universo (a que é feita por prótons e
nêutrons). Os quarks leves, u e d, têm uma massa muito pequena
comparada à do próton. A soma das massas dos dois quarks u e do
quark d correspondem a menos de 1% da massa do próton. A maior
parte da massa do próton vem da energia que mantém os quarks
ligados.

Copyright CERN

Os bósons de Higgs são a demonstração da existência do campo


de Higgs, dando credibilidade ao mecanismo de Higgs. o desenho
acima mostra como os bósons de Higgs surgem como estados
“condensados” de energia dos campos.

Resumo

Esse capítulo e o anterior contêm um breve resumo do que


sabemos atualmente sobre a estrutura da matéria na menor escala.
Vamos fazer uma recapitulação.

• Há três tipos de partículas elementares: quarks, léptons e


bósons mediadores. Quarks e léptons formam a classe das
partículas constituintes.

228
• Há apenas três “gerações” de quarks e três de léptons.

• Quarks e léptons podem interagir de três formas possíveis.


São as três interações fundamentais envolvendo as partículas
elementares: as interações eletromagnética, forte e fraca.
Todas elas ocorrem via troca de bósons mediadores.

• Todos os quarks e léptons podem interagir via força fraca. Os


quarks, as únicas partículas elementares que podem interagir
de todas as formas conhecidas, são também as únicas
partículas que sofrem a força forte. Além da força fraca, os
léptons carregados podem interagir com o campo
eletromagnético. Os neutrinos interagem apenas pela força
fraca.

• As interações fundamentais diferem entre si não só pela


intensidade, mas por diversas outras características: os
glúons, mediadores da interação forte, podem interagir entre
si, o W e o Z são as únicas partículas mediadoras com massa.
A interação eletromagnética é a única com longo alcance. As
demais só ocorrem se as partículas estiverem a curtíssimas
distâncias umas das outras.

• As teorias que descrevem as interações fundamentais foram


construídas baseadas no princípio de simetria de calibre. Esse
princípio cria uma estrutura matemática comum a todas as
formas de interação.

• O bóson de Higgs é um caso a parte. Ele é o estado excitado


do campo de Higgs, que preenche todo o Universo. No MP,
a interação entre as partículas elementares e o campo de
Higgs é a origem da massa.

229
230
10

A conexão cósmica

Olhar para o céu numa noite estrelada é fazer uma viagem ao


passado. A luz tem uma velocidade finita, e no espaço interestelar
nada se propaga com maior rapidez. Isso significa que a luz das
estrelas que vemos hoje foi emitida em um passado remoto. Viajou
durante muito tempo até chegar a nós. No momento em que as
vemos, as estrelas já não estão no mesmo lugar.

A luz do Sol leva cerca de 8 minutos para chegar à Terra. A estrela


mais próxima é a Proxima Centauri: sua luz viaja durante pouco
mais de quatro anos para chegar até nós. A luz da galáxia de
Andrômeda, a nossa vizinha mais próxima, chega até nós depois
de viajar aproximadamente dois milhões e meio de anos. Quando
olhamos para Andrômeda, vemos a luz emitida na época em que os
nossos ancestrais mais longínquos deixavam as árvores e
começavam a caminhar eretos pela na Terra.

Quanto mais longe estiver o objeto celeste que observamos, mais


profundamente para o passado estaremos olhando. A galáxia mais
distante até hoje observada está a 13,4 bilhões de anos-luz: a luz
dessa galáxia viajou 13,4 bilhões de anos até chegar ao telescópio
espacial Hubble, na órbita da Terra. Mas isso não significa que seja
esse o tamanho do Universo observável, pois quando recebemos a
luz dessa galáxia, ela já estará muito mais distante.

Distâncias astronômicas são difíceis de medir. Várias técnicas são


empregadas, dependendo de quão longe estejam os objetos a serem

231
medidos. Todas elas envolvem incertezas significativas. Não
vamos discuti-las, pois não é o nosso objetivo nesse livro, mas é
importante ter uma noção das distâncias astronômicas.

O ano-luz é uma medida de distância: a distância percorrida pela


luz em um ano. Em um segundo, a luz percorre uma distância de
300 mil km, em números redondos. Um ano tem 365,6 dias x 24
horas x 60 minutos x 60 segundos = 31.587.840 segundos. Ou seja,
um ano-luz equivale a uma distância de 10.000.000.000.000 km
(1013 km), aproximadamente. Para comparar, o Sol está a “meros”
150.000.000 km de distância da Terra. É incrível que possamos,
daqui do nosso pequeno pontinho azul, medir distâncias da ordem
de bilhões de anos-luz!

O parsec é outra unidade bastante empregada. É uma unidade


relacionada ao desvio na posição em que estrelas são observadas
ao longo da trajetória da Terra em torno do Sol. Na prática, usa-se
mais o megaparsec, que equivale a aproximadamente 1015 km. A
galáxia mais distante está a 4 milhões de megaparsecs. As
distâncias são mesmo muito difíceis de conceber.

Vimos, no capítulo 3, que até o início do século XX acreditava-se


que o Universo fosse estático, infinito e eterno, e que se resumia à
Via Láctea. Até muito recentemente, os planetas do Sistema Solar
eram os únicos conhecidos. Além deles, os cometas seriam os
objetos móveis. As estrelas seriam fixas em relação a um espaço
absoluto, imutável.

Essa visão mudou radicalmente com a teoria da Relatividade Geral,


a teoria moderna da gravitação. Einstein demonstrou que a
gravidade não é uma força como as outras conhecidas, mas sim um
efeito geométrico resultante da deformação no espaço-tempo
causada pela presença da matéria e da energia. O físico John
Wheeler resumiu a essência da Relatividade Geral: “a matéria e a
energia dizem ao espaço-tempo como se curvar; o espaço-tempo
curvo diz à matéria e à energia como se mover”.

232
A teoria de Einstein foi confirmada espetacularmente na cidade
cearense de Sobral, em 1919, e por inúmeras observações
astronômicas desde então. A Relatividade Geral nos mostra que o
Universo é isotrópico (a mesma aparência em qualquer direção) e
homogêneo (o mesmo aspecto em qualquer profundidade). Para
desgosto de Einstein, no entanto, a sua teoria original prevê um
Universo dinâmico (lembrando que ao falar em “Universo”, me
refiro apenas à porção que podemos observar, sobre a qual
podemos dizer alguma coisa).

Um objeto lançado verticalmente para cima atinge uma altura


máxima e depois entra em queda livre devido à atração
gravitacional da Terra. Algo semelhante deveria ocorrer com o
Universo de Einstein. A atração gravitacional entre todos os corpos
celestes causaria um colapso do Universo.

Incomodado com esse aspecto indesejado, Einstein maculou a


beleza e a elegância da sua teoria introduzindo um termo nas suas
equações, conhecido como constante cosmológica. Esse termo
representaria a densidade de energia do vácuo, e compensaria a
ação atrativa da gravidade, tornando o Universo estático.

Em 1922, o matemático e físico russo Alexander Friedmann,


retomou a teoria original de Einstein, abandonando a constante
cosmológica. Friedmann chegou a uma solução das equações de
Einstein, que relacionam a matéria/energia com a forma do espaço-
tempo, demonstrando que o Universo não só é homogêneo e
isotrópico, mas também está em expansão.

Na solução de Friedmann, a velocidade de expansão é proporcional


à distância entre as galáxias. Quanto mais distantes estiverem duas
galáxias, mais rapidamente se afastarão uma da outra. Sete anos
depois, quando Hubble demonstrou que as galáxias de fato se
afastam uma das outras, e que a velocidade de afastamento
aumenta com a distância, como previra Friedman, Einstein admitiu
que a introdução da constante cosmológica na teoria da gravitação
foi seu maior erro científico. Friedmann, no entanto, faleceu em

233
1925, aos 37 anos, sem saborear a espetacular confirmação dos
seus resultados.

A descoberta de Hubble foi baseada no chamado efeito Doppler: o


comprimento de onda da luz é afetado pelo movimento da fonte. É
um efeito comum a todos os tipos de onda. O comprimento de onda
aumenta quando a fonte luminosa se afasta do observador (desvio
para o vermelho, ou redshift). Se, ao contrário, a fonte se aproxima
do observador, o desvio ocorre em direção a comprimentos de onda
menores (desvio para o azul, ou blueshift).

As galáxias são compostas majoritariamente por hidrogênio


(~71%), hélio (~28%) e uma minúscula fração de todos os demais
elementos. O espectro da luz emitida pelas galáxias contém as
linhas de absorção características desses elementos, mas com uma
particularidade: as linhas espectrais aparecem deslocadas em
relação às suas posições reais, conhecidas com precisão através de
medidas feitas em laboratório. O fenômeno do redshift já era
conhecido quando Hubble se tornou um astrônomo.

As linhas espectrais do hidrogênio, como observadas por uma


fonte em repouso (espectro superior) e como observadas em uma
galáxia distante (espectro inferior). As linhas do espectro da
galáxia aparecem deslocadas na direção do vermelho. O redshift
é interpretado como evidência de que as galáxias se afastam de
nós.

234
Hubble, corretamente, interpretou o redshift como uma evidência
da expansão do Universo, conforme previsto pela solução de
Friedmann. A luz emitida por uma galáxia se torna mais
avermelhada quando ela se afasta da Terra. Quando se aproxima, a
sua luz, ao contrário, se torna mais azulada.

Analisando os desvios das linhas espectrais de várias galáxias,


Hubble descobriu uma relação linear (uma proporcionalidade)
entre a distância e o redshift: quanto mais distante estiver uma
galáxia, maior será o redshift. Como o redshift está associado ao
movimento da fonte, Hubble concluiu que a velocidade de
afastamento de uma galáxia é proporcional à sua distância. Quanto
mais longe ela estiver, mais rapidamente ela se afastará de nós.
Essa relação é conhecida como a lei de Hubble. A constante de
proporcionalidade é conhecida como a constante de Hubble e é um
dos parâmetros fundamentais da Cosmologia.

O desvio para o vermelho é observado na luz de praticamente todos


os objetos celestes, o que significa que quase todos se afastam de
nós. Tudo no Universo está em movimento. Os objetos celestes se
movem em relação às suas vizinhanças imediatas. A Terra gira em
torno do Sol, o Sistema Solar gira em torno do centro da Via
Láctea, que por sua vez gira em torno do aglomerado local de
galáxias. Mas a origem do redshift não é esse movimento local, ou
peculiar (como a ele se referem os astrônomos). O afastamento das
galáxias ocorre porque o próprio espaço se expande.

Imagine um padeiro fazendo um pão com sementes. Ele mistura a


farinha, a água, o fermento e as sementes, formando uma massa
homogênea. A massa deve descansar durante um certo tempo,
enquanto a fermentação faz com que a ela cresça. À medida que a
massa cresce, as distâncias entre as sementes aumenta. Esse
afastamento ocorre porque a massa como um todo se expande, e
não porque as sementes se movem em relação à sua vizinhança
imediata. Elas continuam fixas em suas posições originais dentro
da massa.

235
Para melhor compreender o que é o redshift, podemos recorrer a
uma outra analogia. Imagine uma faixa elástica, como as usadas
nas academias de ginástica. Desenhe sobre ela uma onda. Ao
distender a faixa, o desenho se estica, o comprimento de onda
aumenta. É mais ou menos o que ocorre com a luz viajando pelo
espaço sideral em direção aos nossos telescópios.

Não estamos em um lugar privilegiado do Cosmo. Não há um


centro do Universo, nenhum ponto é especial. Tampouco existe um
sistema de referência absoluto, em relação ao qual tudo se move.
Se estivéssemos em Andrômeda, ou em qualquer outra galáxia,
observaríamos o mesmo efeito: a expansão uniforme e homogênea
do Universo, com a mesma relação entre velocidade e distância
encontrada por Hubble. Esse é o chamado Princípio Cosmológico:
visto em uma escala suficientemente grande, as propriedades do
Universo são as mesmas para qualquer observador.

Universo não expande em um espaço vazio previamente existente.


Não existe um “lado de fora” do Universo. O próprio espaço é
criado à medida que o Universo expande. Há outras evidências,
além do redshift, de que o Universo está em expansão. Sobre elas
falarei mais à frente. Embora não restem dúvidas sobre a expansão
do Universo, a sua causa ainda é desconhecida.

As medidas mais atuais da densidade de matéria no Universo


sugerem que a expansão pode seguir eternamente. Se for esse o
caso, num futuro muito distante o Universo será um lugar desolado,
de total solidão, em que os objetos celestes perderão contato até
mesmo com seus vizinhos mais próximos. Mas ainda há incertezas
no valor da densidade de matéria, de forma que não sabemos ao
certo qual será o destino do Universo. Também é possível que em
algum momento a expansão cesse e tenha início uma contração.
Tudo o que podemos afirmar com certeza é que num futuro
próximo as galáxias estarão mais distantes entre si.

Se no futuro as galáxias estarão mais distantes entre si, podemos


afirmar com segurança que no passado elas estiveram mais

236
próximas. Levando essa ideia ao limite, poderíamos recuar
suficientemente no tempo até chegar ao momento em que todo o
Universo teria colapsado em um único ponto, que seria a origem
do tempo e do espaço. Os físicos se referem a esse ponto como uma
singularidade, quando o volume é zero e a densidade, infinita.
Nessas condições, a teoria da Relatividade Geral e a Mecânica
Quântica deixariam de ser válidas.

O astrônomo americano Fred Hoyle, contemporâneo de Hubble,


usou pela primeira vez a expressão Big Bang, como uma piada para
ridicularizar a ideia de que a expansão do Universo seria
consequência de uma grande explosão, ocorrida quando toda a
matéria e energia do Cosmo estivessem concentradas em um único
ponto. Hoyle achava essa ideia absurda. Ironicamente, o termo Big
Bang designa hoje a teoria mais aceita sobre a origem e evolução
do Universo.

Medições astronômicas muito precisas foram feitas ao longo das


últimas três décadas pelos satélites Hubble e Planck. A existência
desses dados permitiu que um consenso entre físicos e astrônomos
fosse formado: o Universo evoluiu de um estado primordial
extremamente quente, quando toda a matéria e energia estavam
concentradas em uma região muito pequena. Esse momento teria
ocorrido há 13,8 bilhões de anos.

Embora as técnicas experimentais sejam cada vez mais


sofisticadas, há um limite observacional. Nossa vista alcança até
cerca de 13,4 bilhões de anos no passado. É até quando é possível
observar o Universo usando a luz. Para além desse limite, no
momento, só podemos ser guiados pela teoria. Mesmo assim,
podemos recuar apenas um pouco mais no tempo, até o momento
em a densidade e a temperatura eram tão altas que nossas teorias
atuais deixariam de ser válidas.

Há certas características marcantes no Universo atual, como a sua


geometria, aparentemente plana, e a isotropia e homogeneidade,

237
observadas em escalas muito grandes. São características que só
podem ser explicadas se nos seus primórdios, antes mesmo de as
galáxias se formarem, o Universo tenha passado por um estado de
equilíbrio termodinâmico, em que as mesmas propriedades fossem
observadas em todas as suas partes.

Como o Universo teria atingido esse estado de equilíbrio? Existem


diferentes respostas a essa pergunta, mas são respostas que
suscitam outras perguntas. Não há ainda consenso sobre esse tema.

O físico inglês Stephen Hawking fez uma analogia interessante.


Um professor aplica uma prova em uma sala de aula. Se em todas
as provas as respostas são idênticas, pode-se concluir que os alunos
se comunicaram. No Universo primordial, no entanto, seria
impossível que houvesse uma comunicação entre todas as partes,
condição necessária para que a distribuição de matéria e energia se
uniformizasse. Seria necessário que a informação se propagasse
com velocidade maior que a da luz. A uniformização foi gerada em
processos ocorridos anteriormente. Esse é um dos grandes enigmas
da Cosmologia.

Uma hipótese aceita por muitos físicos é a de que o estado de


equilíbrio seria consequência de uma expansão ultrarrápida do
espaço, ocorrida imediatamente após a suposta “grande explosão”.
Essa expansão teria durado uma fração ínfima de tempo, durante a
qual o estado inicial caótico do Big Bang teria se transformado em
um estado homogêneo e em equilíbrio termodinâmico. Essa etapa
hipotética da evolução do Universo é conhecida como inflação
cósmica.

A hipótese da inflação explica uma série de problemas existentes


nas teorias sobre a evolução do Universo. Não temos ainda como
testar essa hipótese de forma conclusiva, e por isso não podemos
afirmar se a inflação de fato ocorreu. Também não sabemos o que
poderia tê-la causado. Muitos estudos sobre esse tema estão em
andamento, e talvez as ondas gravitacionais possam trazer as
informações necessárias.

238
O modelo do Big Bang seguido da inflação é muito bem-sucedido.
Explica muitas observações astronômicas, mas ao mesmo tempo
levanta uma série questões fundamentais que talvez nunca sejam
respondidas. Uma consequência controversa do modelo
inflacionário é que ele leva quase que automaticamente à ideia de
que nosso Universo é apenas uma entre muitos possíveis.
Viveríamos dentro de uma “bolha” em um mar de “multiversos”.

Em um modelo alternativo, o Universo é um eterno ciclo de


expansão e contração, sem começo ou fim. Haveria limites tanto
para a expansão como para a contração. O Universo não poderia se
contrair indefinidamente, não poderia ter surgido de uma
singularidade. Estaríamos em um ciclo de expansão que se seguiu
a um de contração, sem que jamais tenha existido um ponto de
densidade infinita. Em vez de uma grande explosão, um grande
quique, ou ricochete, referido como Big Bounce, que produziria a
uniformidade observada hoje.

Os dois modelos, no entanto, estão de acordo em um ponto


essencial: num passado remoto, o Universo teve uma fase de
equilíbrio térmico com altíssima densidade e temperatura. A
principal divergência é sobre como o estado de equilíbrio teria sido
atingido.

Não sabemos o que aconteceu no Universo quando a temperatura


era superior 1015 oC. Não sabemos se houve de fato um início do
tempo e do espaço. Por isso tomaremos como “início” o momento
em que a temperatura do Universo atingiu esse valor, 1015 oC, seja
partindo do Big Bang ou do Big Bounce. É o momento a partir do
qual a Ciência pode dizer alguma. Daqui em diante, para evitar a
disputa entre Bang e Bounce, vou usar o termo BigB para designar
o “início”.

A Física, como qualquer Ciência natural, é baseada numa


premissa fundamental: as leis que regem os fenômenos naturais são
as mesmas em qualquer lugar e em qualquer momento. Sem esse

239
caráter universal as teorias não teriam utilidade. Não poderíamos
fazer previsões sobre o futuro, ou explicar o que ocorreu no
passado, aqui na Terra ou em qualquer outro lugar. Partindo dessa
premissa, podemos usar nosso conhecimento atual sobre as leis da
Natureza para explorar o Universo primordial.

Fenômenos ocorridos no passado podem deixar marcas que


resistem ao tempo. Amostras de gelo recolhidas de camadas
profundas da Antártida contêm bolhas de ar formadas há milhões
de anos que permitem determinar a composição da atmosfera
naquele período. Elementos radioativos aprisionados em certos
cristais permitem estimar a idade de rochas formadas há bilhões de
anos. Amostras de DNA extraídas de fósseis permitem determinar
como foram as migrações humanas pelos quatro cantos da Terra,
desde o êxodo da África.

Processos físicos ocorridos no passado mais remoto do Universo


também deixam marcas que podem ser observadas nos dias de
hoje. Nas últimas três décadas, vários satélites com instrumentos
científicos cada vez mais sofisticados, forneceram informações
muito precisas sobre o Cosmo. A investigação sobre o Universo
primordial é feita combinando as observações astronômicas e o
conhecimento sobre as interações fundamentais adquirido nos
laboratórios. Essa é a conexão cósmica, o encontro entre a Física
da menor com a da maior escala.

As energias extremas das fases iniciais são impossíveis de ser


atingidas em laboratório com a tecnologia atual. Mas podemos usar
o Universo primordial como um “laboratório” para o estudo das
interações fundamentais envolvendo matéria e radiação. Por outro
lado, a viagem de retorno aos primórdios do Universo é guiada
pelas teorias que descrevem o mundo microscópico. A ligação
entre o microcosmo e a Cosmologia, entre as leis que governam o
mundo do infinitamente pequeno e as que regem o Universo na sua
mais larga escala, é um fato recente na Física.

240
Modelos teóricos de como teria sido o Universo primordial são
utilizados para fazer simulações numéricas. Partindo desses
modelos, computadores muito potentes são utilizados para simular
a evolução do Universo primordial até os dias de hoje. As
características “atuais” desse Universo simulado são então
comparadas com as observações astronômicas. Se o Universo
simulado tem características compatíveis com as observações, os
modelos estão na direção correta. Caso contrário, é preciso
modificá-los e refazer as simulações.

Densidade de energia e temperatura estão intimamente ligadas.


Podemos usar tanto uma como a outra para especificar o estado do
Universo em suas sucessivas fases. De certa forma, densidade de
energia e temperatura são maneiras distintas de se falar sobre a
mesma coisa. Por ser um conceito mais intuitivo, usarei a
temperatura para caracterizar as diversas eras do Universo
primordial.

Estamos prontos para iniciar uma viagem no tempo em direção ao


passado mais remoto. Nesse filme rodado ao contrário, chegamos
à época em que galáxias, estrelas e planetas ainda não existiam,
quando a “idade” do Universo era de “meros” 380.000 anos. Havia
nessa era apenas a matéria prima de que o Universo visível é feito:
fótons e átomos de elementos leves (basicamente hidrogênio e
hélio), formando um gás superquente à temperatura de 3.000 oC.
Como veremos a seguir, as observações astronômicas que utilizam
a luz só podem chegar até esse ponto. Além dele, dependemos das
teorias, no momento.

Continuando a viagem, à medida que o Universo se contrai, a


temperatura aumenta e as colisões entre fótons e átomos se tornam
mais frequentes e violentas. Nessas colisões os elétrons são
arrancados dos átomos. Os fótons também se convertem em pares
elétron-pósitron, que, em seguida, aniquilam-se produzindo fótons.

Nessa fase, o Universo é um plasma, ou seja, um gás feito de fótons


e partículas carregadas (elétrons livres e átomos ionizados), com

241
uma densidade extremamente elevada. Os fótons estão
aprisionados: interagem tão frequentemente com as partículas
carregadas que não conseguem se propagar livremente por longas
distâncias. O plasma é opaco, como um nevoeiro espesso.

Voltando um pouco mais no tempo, chegamos ao momento em que


a temperatura do plasma é bem mais alta: 1010 oC, mil vezes maior
que a temperatura do interior do Sol (107 oC). As colisões entre os
componentes do plasma primordial tornam-se cada vez mais
violentas. Os núcleos atômicos são destroçados nessas colisões. O
plasma primordial agora contém fótons, elétrons, pósitrons,
prótons e nêutrons.

Chegamos ao final da viagem quando a temperatura atinge 1015 oC.


Prótons e nêutrons já não existem mais, foram desfeitos por
colisões extremamente energéticas. O plasma agora é feito de
fótons, glúons, partículas e antipartículas elementares – elétrons e
pósitrons, quarks e antiquarks.

Essa “sopa primordial” é o plasma de quarks e glúons. A densidade


é inimaginavelmente alta. Prótons e nêutrons estão tão próximos
entre si que não há mais confinamento dos quarks, antiquarks e
glúons, que agora podem se propagar livremente através do
plasma. O plasma de quarks e glúons é um estado da matéria que
pode ser recriado, em escala microscópica, no acelerador LHC, do
CERN, do qual falarei mais à frente.

Tendo chegado ao fim da viagem, retomemos a direção real do


tempo, retornando ao presente. O ponto de partida é o plasma
composto por fótons, glúons, partículas elementares e suas
antipartículas, todos interagindo entre si em colisões extremamente
energéticas e frequentes. Naquele momento, o Universo já estava
em equilíbrio térmico, e toda a matéria já existia.

Como ocorre com qualquer gás, a expansão do Universo causa o


resfriamento do plasma. O conteúdo energético não se altera, e

242
assim, quanto maior for o volume, menor será a densidade de
energia, assim como a temperatura. Quando a temperatura atingiu
1011 oC, o plasma já era diluído o suficiente para que os quarks não
pudessem mais se mover livremente. O confinamento fez com que
eles se aglutinassem formando os prótons e nêutrons que vemos
hoje.

À medida que o Universo continuou a se expandir, as interações se


tornaram cada vez menos violentas. Prótons e nêutrons se
combinaram formando núcleos atômicos dos elementos leves,
como o deutério, o hélio e o lítio. Essa etapa é a nucleossíntese
primordial, ocorrida entre 10 segundos e 20 minutos depois do
BigB.

Nessa etapa, a temperatura ainda era alta demais para que os


núcleos recém-formados capturassem elétrons e formassem
átomos estáveis. Além disso, com tantos elétrons livres, o livre
caminho médio (distância média entre duas colisões sucessivas)
dos fótons ainda seria muito pequeno. Os fótons interagiam com
tanta frequência que não conseguiam se propagar livremente. O
plasma ainda era opaco.

A expansão seguiu, os fótons continuavam a interagir com a


matéria, mas com frequência e intensidade cada vez menor.
Passados 380.000 anos, a energia média dos elétrons diminuiu o
suficiente para que eles fossem capturados pelos núcleos atômicos.
Os primeiros átomos foram formados quando a temperatura atingiu
3.000 oC.

A formação dos primeiros átomos ocorreu de forma “súbita”: um


“momento” que durou cerca de 10 mil anos, um simples piscar de
olhos comparado à idade do Universo (13,8 bilhões de anos).
Ocorreu, também, ao mesmo tempo em todos os pontos do
Universo. Os fótons puderam, enfim, se propagar livremente.
Nesse momento, o Universo se tornou transparente. Fiat lux!

243
Os modelos de evolução do Universo são, obviamente, muito mais
complexos do que esse brevíssimo resumo: os fótons puderam se
propagar livremente a partir de 380.000 anos; nesse período o
Universo estava em equilíbrio térmico; e que a súbita transparência
ocorreu em todos os lugares mais ou menos ao mesmo tempo. Esse
é um momento chave na história do Universo. Desde então, a luz,
recém-libertada, percorreu uma longa viagem até nossos
telescópios, trazendo informações preciosas sobre o jovem
Universo.

Radiação cósmica de fundo

A passagem do estado opaco para transparente deixou um


“registro fóssil”, uma marca inconfundível que pode ser observada
hoje. Na verdade, essa marca é a principal evidência de que o
Universo se encontra em expansão.

Muitas coisas importantes na Física aconteceram em 1964. Nesse


ano, dois astrônomos americanos, Arno Penzias e Robert Wilson,
trabalhavam no Laboratório Bell, uma instituição privada de
pesquisas, fundada em 1925, e que é parte da atual companhia
telefônica AT&T. Penzias e Wilson queriam medir a intensidade
da radiação eletromagnética na faixa de frequência do rádio
(comprimentos de onda que variam de 1 milímetro a vários
quilômetros), oriunda da Via Láctea.

Mesmo com uma antena especial, essa é uma medida muito difícil
de ser feita na superfície da Terra. Há muita interferência da
atmosfera e de transmissões de telecomunicações. Penzias e
Wilson observaram um ruído contínuo, que a princípio pensaram
ser o ruído inerente a todo e qualquer dispositivo eletrônico. Mas
era um ruído muito acima do normal, e que apesar de todos os
esforços não conseguiam eliminar.

244
Havia uma particularidade intrigante: o sinal tinha a mesma
frequência e intensidade, qualquer que fosse a direção para onde
apontassem a antena. Provinha de uma radiação com frequência na
faixa de micro-ondas (ondas eletromagnéticas com comprimento
de onda da ordem de alguns centímetros). Os dois astrônomos logo
se deram conta de que essa radiação de micro-ondas não era
originada da Via Láctea. Ela parecia vir de todas as direções, como
se preenchesse todo o Universo.

Penzias então ligou para um amigo que também era astrônomo. Na


conversa, o amigo mencionou um seminário recente na
Universidade Johns Hopkins. O seminário havia sido apresentado
por um jovem astrofísico, James Peebles, que afirmou que todo o
Cosmo deveria estar preenchido por uma radiação na frequência de
micro-ondas. Essa radiação seria uma relíquia do Universo
primordial, mais precisamente do momento em que os fótons se
libertaram da interação com os elétrons, há 13,4 bilhões de anos.
Ali estava a explicação para a radiação que observaram!

Penzias e Wilson publicaram a observação da radiação cósmica de


fundo (RCF) no início de 1965. Foram laureados com o Prêmio
Nobel em 1978 (e Peebles, em 2019, pelo conjunto de sua vasta
obra). A descoberta da RCF e da relação entre o redshift e a
distância das galáxias, feita por Hubble em 1929, são dois dos
pilares dos modelos cosmológicos atuais. São duas das descobertas
mais importantes de toda a história da Astronomia. A essas,
podemos incluir descoberta de que a expansão do Universo está
acelerada, feita em 1998, sobre a qual falarei mais adiante.

A descoberta da RCF teve uma repercussão imediata. A partir de


então, a Cosmologia adquiriu um novo status, o de uma Ciência
experimental. Devido à sua enorme importância e às dificuldades
de detecção da RCF na superfície da Terra, satélites foram
construídos para estudá-la em detalhes, em sucessivos programas
da NASA e da ESA (European Space Agency).

245
Arno Penzias (à frente) e Robert Wilson (ao fundo), e a antena
utilizada na descoberta da radiação cósmica de fundo. A antena
gira em relação à vertical e à horizontal, possibilitando a
cobertura de todos os ângulos. Com esse dispositivo, apenas uma
limitada faixa de frequência podia ser detectada. Os instrumentos
modernos, instalados em satélites, permitem detectar a radiação
de fundo em uma faixa de frequências mais ampla.

Como toda onda, a RCF é caracterizada por dois parâmetros:


frequência (ou pelo comprimento de onda) e intensidade. No
capítulo 1, vimos que todo corpo emite radiação térmica, cujas
características dependem basicamente da temperatura do corpo. A
radiação térmica é uma combinação de ondas de diferentes
frequências e intensidades. No ferro em brasa, a cor avermelhada
corresponde à frequência predominante, aquela que tem maior
intensidade, mas há também radiação com frequências na faixa do
infravermelho e micro-ondas.

Vimos também que um corpo negro em equilíbrio térmico emite


radiação com um espectro (o conjunto das frequências e suas

246
respectivas intensidades) muito característico, que depende apenas
da temperatura. A relação entre a temperatura do corpo negro e a
forma do seu espectro de frequências segue uma lei universal, e
essa foi a grande descoberta de Planck, que abriu as portas do
mundo quântico. Assim, podemos determinar a temperatura do
corpo medindo a frequência para a qual a intensidade da radiação
térmica é máxima.

Espectro da radiação cósmica de fundo, medido pelo telescópio


espacial COBE, em vermelho. Em azul, o espectro de corpo negro
segundo a fórmula de Planck. A comparação dos dois espectros
determina a temperatura atual dos fótons primordiais. É quase
impossível distinguir os pontos experimentais da curva em azul.
https://en.wikipedia.org/wiki/Cosmic_microwave_background

Graças às medidas feitas pelos satélites, o espectro da radiação


cósmica de fundo é conhecido com bastante precisão. Ele é o
mesmo em qualquer direção que apontemos as antenas. Coincide
quase que perfeitamente com o espectro de um corpo negro à
temperatura de 2,726 graus acima do zero absoluto, ou 2,726 K (a
escala Kelvin difere da Celsius apenas pela definição do zero: o

247
ponto de fusão do gelo é o zero na escala Celsius; na escala Kelvin
é o zero absoluto, -273,15 oC).

A isotropia da RCF é um fato absolutamente notável. É a


comprovação definitiva de que o Universo, quando se tornou
transparente, já era um sistema em equilíbrio térmico, a uma
temperatura de aproximadamente 3.000 oC. Desde então, esses
fótons primordiais se propagaram livremente pelo espaço, em todas
as direções. Sem interagir com a matéria, eles preservam hoje o
mesmo estado de equilíbrio de 13,4 bilhões de anos atrás. A análise
detalhada da RCF nos revela como era o Universo 380.000 anos
depois do BigB.

Os fótons primordiais são a luz mais antiga que pode chegar às


nossas antenas e telescópios. Os seus redshifs são os maiores
observados, pois viajaram por mais tempo do que a luz vinda de
qualquer estrela ou galáxia. Esses fótons são registrados na forma
de um mapa de temperaturas.

A superfície da Terra é bidimensional. Bastam dois números,


latitude e longitude, para determinar exatamente a posição de um
ponto qualquer. Não é possível, no entanto, representar uma
superfície esférica em um plano mantendo as proporções
inalteradas. Nos mapas-múndi, a representação dos continentes e
oceanos terá sempre algum tipo de distorção.

Há várias formas de projetar a superfície terrestre em um plano.


Uma delas é a projeção de Mollweide, elaborada em 1805 pelo
astrônomo alemão Karl Mollweide. Essa projeção preserva a
proporção dos paralelos, enquanto os meridianos são distorcidos.
As áreas dos quadriláteros formados pelos meridianos e paralelos
na projeção de Mollweide mantêm a mesma proporção das áreas
na superfície esférica do globo terrestre.

O mesmo problema surge ao representar mapas celestes em um


plano. Do nosso ponto de vista, o Universo visível é uma esfera

248
centrada na Terra. Nas cartas celestes também se utiliza com muita
frequência a projeção de Mollweide. Nesse caso, é a superfície
interna da “esfera celeste” que é projetada (não é possível observar
o Universo como se estivéssemos fora dele).

Um mapa bastante detalhado da RCF foi elaborado pelos satélites


WMAP (NASA), e, mais recentemente, Planck (ESA). O mapa é
uma varredura completa de todos os pontos da “esfera celeste”. Em
cada pequena área do céu, o espectro da radiação de fundo foi
medido e a correspondente temperatura foi determinada (as antenas
funcionam como uma espécie de termômetro).

O mapa-múndi na projeção de Mollweide. As áreas dos


quadriláteros formados pelos meridianos e paralelos nessa
projeção mantêm a mesma proporção observada no globo
terrestre.

O resultado revela que a temperatura não é exatamente uniforme.


Há regiões ligeiramente mais quentes e outras um pouco mais frias.
As diferenças, no entanto, são muito pequenas, de apenas uma
parte em 100.000, e estão distribuídas ao acaso. Mesmo assim,
contêm informações valiosas. Essas pequenas variações, ou
flutuações, já estavam presentes há 13,4 bilhões de anos. Elas
indicam que no momento em que fótons e átomos passaram a
seguir caminhos independentes, a matéria também tinha densidade
ligeiramente maior em algumas regiões e menor em outras, e que
essas flutuações estavam distribuídas ao acaso.

249
O mapa da radiação de fundo representa o quão remotamente
podemos observar o Universo usando a radiação eletromagnética.
É a nossa imagem mais antiga. Talvez a astronomia utilizando
neutrinos e ondas gravitacionais nos permitam ir além.

O mapa da radiação cósmica de fundo. As regiões mais escuras


correspondem a temperaturas menores e as mais claras
representam zonas mais quentes. A variação de temperatura, no
entanto, é muito pequena: 0,000.001 K.

As flutuações na distribuição de matéria no Universo primordial


são o ponto de partida para a formação das estrelas, galáxias e
aglomerados de galáxias, bem como a sua distribuição no
Universo. Ao se separarem dos fótons, os átomos passaram a sofrer
apenas a tênue, mas contínua ação da gravidade. A partir de então,
a evolução do Universo passou a ser regida pela Relatividade
Geral, a lei da gravitação Einsteiniana.

Sabemos que a matéria não é criada a partir do nada. Partículas e


antipartículas virtuais surgem do vácuo quântico, mas não vivem o
suficiente para serem consideradas reais. Partículas e antipartículas

250
reais se aniquilam, mas a energia de ambas não desaparece, ela se
transforma em fótons ou em outras partículas. Fenômenos físicos
envolvem transferência de energia de um sistema a outro,
transformação de uma forma de energia em outra, conversão de
matéria em energia ou vice-versa. Mas em todos, a energia é
sempre conservada.

Assim, podemos afirmar com segurança que a matéria bariônica


(prótons e nêutrons) que existe hoje no Universo é a mesma desde
o início. Prótons, nêutrons e elétrons que existiam no Universo
primordial são a matéria prima de todas as estrelas e planetas que
já existiram, existem ou existirão.

E aqui temos outra evidência que sustenta o atual modelo de


evolução do Cosmo: a nucleossíntese primordial, ou seja, a
formação dos núcleos dos elementos leves: deutério (um próton e
um nêutron), hélio, lítio e berílio. Usando métodos da Física
Estatística, é possível calcular qual teria sido a abundância relativa
desses elementos nos primórdios do Universo, e como essa
proporção evoluiu com o passar do tempo. Os resultados desses
cálculos estão em ótimo acordo com os valores medidos.

A composição química do Universo, como vimos, é simples: cerca


de 75% de hidrogênio, 24% de hélio e 1% dos outros 92 elementos
(ao todo, 94 elementos químicos são observados na natureza, além
de 20 outros que são produzidos apenas em laboratório). Núcleos
mais pesados que o berílio são forjados no interior das estrelas. O
ferro (26 prótons e 30 nêutrons) é o limite. Não há energia
suficiente no interior das estrelas para forjar núcleos mais pesados.
Estes são produzidos nas explosões de supernovas, o final
dramático da maioria das estrelas.

É interessante olhar a evolução dos átomos de hidrogênio ao longo


da história do Universo. Para isso, examinemos o que acontece com
prótons e elétrons. Quase todas as partículas se desintegram
espontaneamente. Com a energia disponível na desintegração,
outras partículas mais leves são produzidas. As desintegrações,

251
assim como as colisões entre partículas, seguem leis empíricas de
conservação, sendo duas delas particularmente importantes.

Em qualquer reação (colisão ou decaimento), o número de bárions


(partículas compostas por três quarks, como os prótons e nêutrons)
no estado inicial é sempre igual ao do estado final. Fora do núcleo,
o nêutron tem uma vida-média de aproximadamente 14 minutos. O
nêutron é ligeiramente mais pesado que o próton. Por isso ele pode
decair em um próton, um elétron e um antineutrino do elétron. É o
decaimento beta, o protótipo das interações fracas. Há um bárion
no estado inicial, o nêutron, e outro no estado final, o próton.

São conhecidas várias dezenas de bárions, quase todos produzidos


em colisões nos aceleradores de partículas ou em raios cósmicos.
Todos eles são instáveis. Decaem em bárions mais leves, num
processo em cascata que sempre termina no próton, o mais leve de
todos. Sendo o bárion mais leve, o próton não poderia decair. Até
o presente, nenhum decaimento do próton foi observado.
Experimentos feitos ao longo das últimas décadas mostram que o
decaimento do próton, se ocorrer, teria uma vida-média que seria,
no mínimo, ordens de grandeza maior que a idade do Universo.

Uma lei semelhante é observada nas reações com léptons –


elétrons, múons, taus e seus respectivos neutrinos. Os léptons mais
pesados decaem nos mais leves. O elétron é o lépton mais leve e,
assim como o próton, também não pode decair.

Até onde sabemos, prótons e elétrons não se desintegram


espontaneamente. Eles podem, por exemplo, se aniquilar em
colisões com as suas respectivas antipartículas. Exceto por essa
possibilidade, podemos dizer que prótons e elétrons são partículas
estáveis. Como prótons e elétrons não são criados a partir do nada,
nossos corpos, assim como tudo à nossa volta, são feitos de prótons
e elétrons que existem há mais de 13,4 bilhões de anos. Cada um
de nós carrega dentro de si uma parte da história do Universo.
Somos todos feitos de poeira de estrelas.

252
Imagine um átomo de hidrogênio primordial. Durante bilhões de
anos, a lenta ação da gravidade aproximou esse átomo de outros
iguais, todos formados na mesma época. Assim uma nuvem surgiu
lentamente, e foi se tornando cada vez mais densa com o passar do
tempo.

Sob a ação contínua da gravidade, a nuvem foi aos poucos se


condensando. Os átomos se aproximaram muito uns dos outros,
adquirindo energia de movimento. Depois de algum tempo, a
nuvem se tornou tão densa que os átomos passaram a colidir com
muita violência. Reações termonucleares começaram a ocorrer,
produzindo muitos fótons: uma jovem estrela se acendeu.

Se a estrela fosse muito massiva (algumas vezes maior que o Sol),


seu brilho duraria pouco. Sua vida efêmera terminaria numa
explosão gigantesca, uma supernova, que durante alguns dias
brilharia mais do que toda a galáxia. Imensas quantidades de
matéria seriam lançadas no espaço, incluindo os elementos mais
pesados que o ferro, e também o nosso átomo de hidrogênio
primordial.

Depois de vagar pelo espaço sideral por mais alguns bilhões de


anos, nosso átomo foi atraído por outra nuvem. Assim como a
primeira, essa nuvem tornou-se uma estrela cercada de planetas: o
Sistema Solar.

Nosso átomo de hidrogênio se encontra agora em um dos planetas


rochosos, mas não é mais independente. Inicialmente, fez parte de
uma molécula de água, mas depois tornou-se parte de uma
molécula orgânica complexa, com várias centenas de outros
átomos. Essa macromolécula esteve em um dos primeiros seres
vivos. Erupções vulcânicas e outros fenômenos geológicos
espalharam material orgânico pelo planeta. Muito tempo depois,
encontramos o nosso átomo como parte de uma gramínea, que
serviu de alimento para um dinossauro herbívoro.

253
Um grande meteoro caiu na atual costa do México, exterminando
os dinossauros e quase toda a vida há cerca de 65 milhões de anos.
Mas a matéria orgânica não desapareceu, passou a fazer parte do
solo onde, milhões de anos depois, um agricultor plantou trigo.
Após algumas colheitas, encontramos o nosso átomo em uma das
espigas. Quando minha mãe estava grávida, comeu pão feito com
esse trigo e o nosso átomo passou a fazer parte do seu corpo.
Durante a minha gestação, o nosso átomo, contido agora em uma
célula sanguínea, atravessou o cordão umbilical e passou a fazer
parte do meu corpo.

Dentro de você, portanto, há resquícios de seres vivos ancestrais,


de rochas formadas no nascimento da Terra e de estrelas que
explodiram há bilhões de anos. A matéria se recicla eternamente.
É como se a natureza brincasse de lego: faz, desfaz, refaz, usando
sempre as mesmas peças, mudando apenas a ordem.

Há uma tendência de a matéria se organizar de formas cada vez


mais complexas. No início, havia quarks, elétrons, glúons e fótons;
depois, núcleos atômicos, átomos e moléculas; na sequência,
estrelas e planetas, que se organizaram em galáxias, e estas, em
aglomerados de galáxias.

A Terra primitiva era uma rocha incandescente, sob um


bombardeio incessante de asteroides de todos os tamanhos. Depois
vieram a água, as moléculas orgânicas, as macromoléculas, a vida.
A biosfera primitiva evoluiu, adquirindo uma complexidade
extraordinária.

O cérebro humano é um mundo um si mesmo. Nossa capacidade


cognitiva depende das conexões formadas entre os neurônios. Mas
não bastam as células, a base física: a ordem é essencial. E até onde
a cultura é influenciada pela biologia, podemos dizer que a
sociedade humana segue o mesmo rumo da matéria, na direção de
uma ordem cada vez mais complexa.

254
É fantástico pensar que, apesar da complexidade crescente, tudo à
nossa volta é feito de apenas de cinco elementos: os quarks u e d,
que formam prótons e nêutrons; os elétrons; os glúons, que mantêm
os quarks unidos dentro dos prótons e nêutrons; e os fótons, sem os
quais não haveria átomos, luz e graça.

Concepção artística da história do Universo, segundo o modelo do


Big Bang. Os fótons que compõem a radiação de fundo se
propagam pelo espaço há 13,4 bilhões de anos. Após um longo
período em que nada além da expansão ocorreu, as primeiras
estrelas são formadas. O Universo segue expandindo, mas no final
dos anos 1990 uma descoberta abalou os alicerces da Cosmologia:
a velocidade da expansão é cada vez maior
Fonte: NASA / WMAP Science Team,
https://map.gsfc.nasa.gov/media/060915/index.html

255
As escalas de tempo e distâncias cósmicas são muito difíceis de
conceber. Nesse quadro, a história do Universo observável tem a
duração de um ano. Os fogos de artifício da noite de Ano Novo são

256
os fótons que hoje detectamos na radiação cósmica de fundo. As
primeiras estrelas e galáxias foram formadas a partir do início da
segunda semana de janeiro. A Via Láctea foi formada em maio,
mas apenas em setembro o Sistema Solar surgiu. A vida na Terra
apareceu algumas semanas depois, mas só no início de dezembro
vemos seres multicelulares. O longo domínio dos dinossauros
durou três semanas. No último dia do ano, quando os dinossauros
estão extintos, os mamíferos passam a dominar o cenário. Pouco
depois das nove horas da noite, surgem os primeiros humanos.
Faltando alguns minutos para a meia-noite, o homem
anatomicamente moderno inicia o êxodo, deixando a África para
conquistar o mundo. No último minuto do ano, a cultura emerge,
com as primeiras manifestações artísticas conhecidas. Os
primeiros assentamentos surgem faltando 30 segundos para o fim
do ano. Apenas 1,2 segundos separam o presente da chegada dos
europeus à América. Essa escala de tempo foi popularizada pelo
astrofísico estadunidense Carl Sagan, autor da histórica série
“Cosmos” e de vários livros, como “Os Dragões do Éden”.
Fonte: https://commons.wikimedia.org/w/index.php?curid=18385338

257
11

Detecção

A pesquisa em Física de Altas Energias (FAE) é uma atividade


internacional. Os experimentos modernos são extremamente
complexos, exigem enormes volumes de recursos e mobilizam um
grande contingente de pesquisadores, engenheiros e técnicos. São
realizados em grandes laboratórios com aceleradores, ou em
observatórios de raios cósmicos, ou ainda em satélites em órbita
terrestre.

Os experimentos são realizados por grandes colaborações


internacionais, cada uma envolvendo dezenas de instituições de
pesquisa de todos os continentes. Em geral, a construção de um
experimento em FAE leva mais de 10 anos. É preciso elaborar o
projeto do detector, o que é feito usando simulações numéricas do
funcionamento dos diversos componentes; desenvolver a
tecnologia necessária, quem nem sempre existe; construir e montar
os diversos componentes do detector e do sistema de aquisição de
dados. Contando o tempo de operação e análise dos dados, os
experimentos duram décadas, tipicamente.

Existem grandes laboratórios com aceleradores para experimentos


em FAE nos EUA, na Suíça, Alemanha, Itália, Rússia, China e
Japão. Dentre os principais laboratórios estão o CERN (Suíça), o
Fermilab, SLAC e o Jefferson Laboratory (EUA), KEK (Japão),
Frascati (Itália), BEPC (China), entre outros. Há também grandes

258
observatórios de raios cósmicos na Argentina, Antártida, EUA,
China, Japão e Itália.

As técnicas empregadas em todas as etapas de um experimento são


cada vez mais sofisticadas. O desenvolvimento dos aceleradores,
detectores e do software, por sua vez, impulsiona continuamente
avanços tecnológicos que, cedo ou tarde, acabam se incorporando
no nosso dia a dia. Redes neurais e outras técnicas de “aprendizado
de máquinas” são usadas – e desenvolvidas - extensivamente. A
World Wide Web, o popular www, foi criada no final dos anos 1980,
no CERN, para viabilizar a troca de informações entre os
participantes dos experimentos, espalhados ao redor do mundo.
Atualmente, o processamento dos dados dos grandes experimentos
do CERN é feito em uma rede mundial de computadores
interligados por uma conexão especial da internet.

A Ciência, de uma forma geral, é cada vez mais uma atividade


supranacional. Nos anos 1980, eu trabalhava no Fermilab, em
Chicago, EUA. Ali presenciei a convivência colaborativa entre
pesquisadores de vários países. A Guerra Fria ainda não havia
acabado, mas nos vários laboratórios do Fermilab, chineses e
soviéticos, vindos de países comunistas, adversários políticos dos
estadunidenses, participavam normalmente dos experimentos,
trabalhando lado a lado com colegas de vários outros países.

A Ciência demonstra como a cooperação entre os países é possível,


levando à convivência harmoniosa entre os povos, com benefícios
para todos. Nos dias atuais, a participação nas colaborações
internacionais é estratégica para qualquer país, resultando na
formação de recursos humanos, na transferência de tecnologia e na
sofisticação da indústria local.

259
CERN & LHC

O acelerador LHC é uma das maravilhas do mundo moderno, um


motivo para nos orgulharmos da Humanidade. Digo isso não
apenas pela impressionante sofisticação tecnológica, como vamos
ver a seguir, mas também como mais uma demonstração do que a
cooperação entre as nações é capaz de produzir. O caminho
percorrido até a sua realização foi bastante longo.

Alguns anos depois da II Guerra Mundial, que destroçou a Europa,


um grupo de cientistas europeus, dentre eles Bohr e Louis de
Broglie, tomou a inciativa de mobilizar os governos para se unirem
na construção de um grande laboratório europeu, inspirados pelas
instituições internacionais criadas no pós-guerra, como a ONU.
Dessa iniciativa nasceu o CERN, em 1951.

O local escolhido foram os arredores da cidade de Genebra, na


Suíça, mais precisamente entre o lago Leman e as montanhas Jura.
Para evitar desapropriações onerosas e minimizar o impacto
ambiental, foi acordado com as comunas locais que o acelerador
seria construído no subsolo. O primeiro acelerador, o Próton
Síncroton (PS), foi inaugurado em 1959. O PS é um acelerador
circular que funciona ainda hoje. É o estágio inicial do complexo
de aceleradores que culmina com o LHC.

O laboratório logo atrairia físicos renomados de todo o mundo. O


caráter internacionalista está no DNA do CERN, desde a sua
fundação até os dias de hoje. E as inovações tecnológicas, desde
então, se tornaram rotina. Os aceleradores empregam o estado da
arte em eletrônica, ciência dos materiais, criogenia, mecânica de
precisão, supercondutividade e software.

O conhecimento sobre a estrutura da matéria avançou e a energia


do PS se revelou insuficiente. Um novo projeto, o ISR (Intersecting
Storage Rings), foi desenvolvido. Pela primeira vez, o conceito de

260
anéis de colisão foi utilizado: dois aceleradores circulares e
paralelos, com 300 m de diâmetro, acelerando feixes de prótons em
sentidos opostos. Os detectores para os experimentos foram
instalados onde os dois anéis se cruzam.

Existem dois tipos de aceleradores, os lineares e os circulares. O


acelerador do SLAC, nos EUA, é linear. Lá, em 1968, foi
descoberta a estrutura interna de prótons e nêutrons. Os
aceleradores lineares são usados para produzir um feixe que é
lançado contra um alvo fixo.

Os aceleradores circulares podem ser usados da mesma forma,


acelerando feixes que também podem colidir com alvos fixos, mas
são mais usados como anéis colisores: dois feixes que circulam em
sentidos opostos e se interceptam em um ou mais pontos. A grande
vantagem dos anéis de colisão é o fato de a colisão entre dois feixes
que circulam em sentidos opostos ser muito mais energética do que
quando um dos feixes colide com um alvo fixo. Os anéis de colisão
são também chamados de colisores.

Um acelerador, linear ou circular, consiste em um tubo metálico,


com cerca de 10 cm de diâmetro, tipicamente. No interior do tubo,
produz-se um alto vácuo para minimizar a possibilidade de
partículas do feixe colidirem com moléculas de ar. Feixes de
prótons, elétrons e suas antipartículas são os mais utilizados. As
partículas são aceleradas por campos elétricos e mantidas na órbita
correta por campos magnéticos.

O colisor ISR funcionou entre 1971 e 1984. Foi substituído por um


acelerador ainda mais potente, o Super Próton Sincrotron (SPS),
com uma extensão de 7 km. Entre outros objetivos, o SPS foi
construído para confirmar a existência dos mediadores das
interações fracas, os bósons W e Z. A observação desses bósons
ocorreu em 1983. O SPS hoje opera como o último estágio na
aceleração dos feixes que são injetados no LHC.

261
Ainda com o ISR em funcionamento, o CERN iniciou um projeto
extremamente audacioso: um colisor de elétrons e pósitrons, o LEP
(Large Electron-Positron collider), com 27 km de extensão. O
novo acelerador deveria ser tão extenso porque elétrons são muito
leves e perdem muita energia quando percorrem trajetórias
circulares. Para que os feixes do LEP atingissem a energia
necessária, seria preciso construir um anel com uma curvatura
muito suave. A primeira colisão elétron-pósitron ocorreu em 1989.

O LEP foi a primeira tentativa de detectar o bóson de Higgs. Os


experimentos chegaram bem perto, mas a glória só viria dali a duas
décadas. Apesar de o bóson de Higgs não ter sido encontrado, os
experimentos do LEP foram muito importantes porque fizeram as
medições mais precisas de vários parâmetros do Modelo Padrão
(MP), bem como testaram muitas das suas previsões.

O LHC

Então, em 1996, teve início uma nova aventura: o LHC. O túnel


em que o LEP foi construído foi aproveitado para o LHC, um
acelerador de prótons, mas todo o resto foi refeito. Como os prótons
são muito mais pesados que os elétrons, a perda de energia em
trajetórias circulares não é um problema tão grave, e a grande
extensão do acelerador permite atingir as energias mais altas já
obtidas em um laboratório.

O túnel onde o LHC foi construído fica, em média, a 100 m de


profundidade. Desde o início, a construção do acelerador foi um
grande desafio. Os cuidados foram tantos que até o efeito de maré
terrestre foi levando em conta. A atração gravitacional da Lua
produz sobre os oceanos um efeito bastante conhecido. Mas a Lua
também causa movimentos na crosta terrestre. Em Genebra, as
marés terrestres causam uma variação de até 25 cm na altura do

262
solo, o que implica uma variação de 1 mm na circunferência do
acelerador, o suficiente para alterar a energia do feixe.

Para manter os prótons em órbita circular no LHC são necessários


campos magnéticos muito intensos, gerados por magnetos
especiais. Alguns elementos químicos possuem uma propriedade
singular: abaixo de uma determinada temperatura, em geral
próxima do zero absoluto, a resistência elétrica desaparece e o
material se torna um supercondutor. Correntes muito mais
poderosas podem passar pelo material. Como não há dissipação de
energia através de calor, a corrente em uma bobina, uma vez criada,
pode continuar a circular indefinidamente, mesmo tirando a bobina
da tomada.

As bobinas supercondutoras são feitas de uma liga de nióbio-


titânio. A uma temperatura inferior a -263 oC, as bobinas tornam-
se supercondutoras, gerando os campos magnéticos muito intensos
que são necessários para desviar a trajetória de partículas muito
energéticas.

O interior do acelerador é provavelmente o lugar mais frio do


Universo: -271,3 oC, quase um grau mais frio que o espaço sideral.

263
E, provavelmente, é também o lugar mais vazio. O vácuo no
interior do acelerador é maior que no espaço sideral.

Os prótons têm um longo percurso até serem injetados no LHC. O


ponto de partida é uma garrafa de hidrogênio do tamanho de um
extintor de incêndio médio. Inicialmente, os prótons são separados
dos elétrons por campos eletrostáticos. Uma única garrafa de
hidrogênio contém prótons suficientes para que o acelerador
funcione por um bilhão de anos.

Os prótons são acelerados em sucessivas etapas pelos diferentes


componentes do complexo de aceleradores do CERN. Os feixes
são injetados no LHC na forma de sequência de nuvens, cada uma
contendo aproximadamente 1011 prótons. As nuvens são injetadas
intercaladamente em cada anel, com um intervalo de
0,000.000.000.025 segundos. Dentro do LHC, campos magnéticos
dão forma às nuvens, ao mesmo tempo em que os prótons ganham
energia à medida que circulam. Em condições normais, os feixes
circulam dentro do acelerador por cerca de 10 horas. Durante esse
tempo, a distância percorrida pelos prótons equivale a uma viagem
de ida e volta ao planeta Netuno.

Quando atingem a energia final, os prótons têm 99,9999991% da


velocidade da luz. Graças à ação dos diversos magnetos, as nuvens
de prótons ficam muito compactadas, com um comprimento de
cerca de 30 cm e uma espessura de apenas 20 µm, menos da metade
da espessura de um fio de cabelo. Fazer com que dois filamentos
com essa espessura, viajando praticamente à velocidade da luz, se
encontrem depois de percorrer 27 km em sentidos opostos é algo
absolutamente fantástico!

Diferentes tipos de magnetos são utilizados para manter os prótons


na trajetória correta. Uns são utilizados para manter a trajetória
circular, outros são necessários para focalizar e comprimir os
feixes. Mas eles não são usados para acelerar os prótons. Para isso
são utilizadas as chamadas cavidades ressonantes.

264
As cavidades ressonantes são estruturas metálicas ocas, que
funcionam no regime de supercondutividade. No interior há um
campo elétrico que acelera os prótons. Esse campo oscila como
uma onda, que é sincronizada com a passagem das nuvens. Quando
os prótons passam pela cavidade, sempre recebem um impulso que
aumenta sua energia, como um surfista pegando uma onda.

No momento em que eu escrevo, os quatro grandes experimentos


no LHC - ATLAS, CMS, ALICE e LHCb – preparam-se para a
terceira rodada de aquisição de dados, com início previsto para
2022. Grupos de pesquisa brasileiros fazem parte de todos os
quatro experimentos há mais de 20 anos, e no momento, também
participam dos preparativos.

Os experimentos têm propósitos diferentes e complementares. O


ATLAS e o CMS são os maiores e mais complexos. Foram
projetados para detectar o bóson de Higgs e procurar por novas
partículas previstas por teorias que são extensões do Modelo
Padrão. Os dois experimentos são realizados por milhares de
pesquisadores, engenheiros e técnicos. Nas publicações científicas,
a lista de autores e de instituições ocupa várias páginas.

Os detectores empregados no ATLAS e CMS têm o formato de um


barril, envolvendo completamente a região onde ocorre a colisão
entre os feixes. Cada detector é composto por diversos módulos
com funções específicas. Tudo funciona de forma automatizada,
praticamente sem intervenção humana, que se limita ao
monitoramento do detector.

Espera-se que as partículas superpesadas previstas por extensões


do MP sejam produzidas em direções que fazem grandes ângulos
com relação ao feixe. Por essa razão, é necessária uma cobertura
completa da região de interação entre os feixes. A estratégia do
ATLAS e CMS é explorar a alta energia dos feixes para produzir e
observar essas partículas diretamente.

265
É uma prática comum nos grandes laboratórios, como o CERN e o
Fermilab, ter dois experimentos diferentes com o mesmo objetivo.
Caso um deles faça uma descoberta, ela deve ser feita no outro
também. Foi assim com o Higgs, cuja descoberta ocorreu em 2012,
feita e anunciada com pompa pelos dois experimentos, em uma
sessão pública histórica.

O experimento ALICE é diferente dos demais pelo fato de usar


feixes de átomos de chumbo ionizados. O núcleo de chumbo possui
207 nucleons (prótons e nêutrons). Uma colisão frontal entre dois
núcleos de chumbo envolve 414 partículas! Os núcleos de chumbo
são acelerados até atingirem uma energia fantástica, e em colisões
mais frontais, a densidade de energia é próxima à do Universo
primordial.

O objetivo principal do ALICE é estudar as propriedades do plasma


de quarks e glúons. Nas colisões com centenas de partículas
envolvidas, prótons e nêutrons se superpõem, criando uma região
onde a densidade é tão alta que o confinamento dos quarks deixa
de existir por breves instantes.

266
O quarto experimento é o LHCb, do qual tenho orgulho de
participar. Dos quatro experimentos do LHC, o LHCb é o que
concentra a maior participação de grupos brasileiros. O “b” do
LHCb representa o quark b. Os objetivos principais do experimento
são estudar a origem da assimetria entre matéria e antimatéria no
Universo, assim como procurar evidências de uma Física além do
MP, assuntos do próximo capítulo. Isso é feito analisando
decaimentos de hádrons contendo os quarks b e c.

Ao contrário dos demais, o LHCb emprega um detector cuja


geometria se assemelha à dos experimentos com alvo fixo. As
colisões entre os feixes produzem partículas em todas as direções.
Os quarks b e c são produzidos em ângulos relativamente pequenos
em relação ao feixe. Por isso o detector foi instalado abrangendo
apenas a região mais frontal, cobrindo apenas metade de cada
colisão.

Vista aérea do CERN. O LHC e os experimentos são localizados


no subsolo. Copyright CERN

267
O LHCb opera no regime de alta intensidade: a taxa de produção
dos quarks b e c é muito elevada, mesmo cobrindo apenas metade
das colisões. Ao produzir muitos hádrons com quarks b e c,
processos raros, que são os mais promissores, têm maior chance de
serem observados. Ao longo do tempo, no entanto, o LHCb se
mostrou um experimento tão versátil que diversos outros aspectos
da Física de Partículas podem ser estudados.

O LHC foi construído em um túnel com uma profundidade média


de 100 m. Os dois feixes se cruzam e quatro pontos, onde estão
localizados os quatro grandes experimentos. Copyright CERN

Detectores

As partículas subatômicas são detectadas através da sua


interação com a matéria. É a única forma possível de uma detecção
direta. O desenho básico de qualquer detector consiste em um

268
volume contendo alguma substância, sólida, líquida ou gasosa,
com que a partícula interage. O corpo do detector é acoplado a um
mecanismo que capta o que é produzido nessa interação. Em geral,
o resultado da interação se traduz, direta ou indiretamente em
correntes elétricas.

Os sinais analógicos vindos dos detectores são quase sempre muito


pequenos e precisam ser amplificados antes de serem digitalizados
por dispositivos eletrônicos específicos. Associados aos detectores,
existe o sistema de aquisição de dados, para o qual os sinais
digitalizados são enviados. Existe também um mecanismo que
dispara o sistema de digitalização e registro dos sinais, o trigger.

Há uma variedade muito grande de detectores usados na Física de


Partículas, cujo princípio de funcionamento depende do tipo de
partícula que se quer detectar. Há detectores específicos para
fótons, para partículas carregadas, como píons, prótons, elétrons e
múons, assim como para partículas neutras, como nêutrons e
neutrinos.

Num experimento é preciso registrar diferentes tipos de


informação, como a trajetória, velocidade, massa e energia de cada
partícula. Para determinar trajetórias, velocidades ou massas, é
necessário que o processo de medida cause a menor perturbação
possível no movimento da partícula. Por outro lado, para medir a
energia de uma partícula, é inevitável que ela seja totalmente
absorvida pelo detector, o que significa destruí-la. No restante
desse capítulo vamos ver como os detectores básicos funcionam e
como são realizados os experimentos em FAE.

Ionização
Os experimentos modernos utilizam uma combinação de
diferentes tipos de detectores, específicos para cada tipo de medida,
assim como para cada tipo de partícula. O funcionamento da

269
maioria dos detectores é baseado na interação eletromagnética
entre fótons ou partículas com carga elétrica e a substância ativa de
que é feito o detector.

Ao atravessar um detector, partículas eletricamente carregadas


colidem com os átomos do material (tratarei dos fótons mais
adiante). As distâncias típicas entre átomos são bastante grandes,
mesmo nos sólidos. Quando uma partícula carregada atravessa um
meio material qualquer, a probabilidade de colisão com algum
átomo é pequena. No entanto, o número de átomos existentes em
qualquer porção de matéria é gigantesco, e esse fato compensa a
pequena probabilidade de colisão. Mesmo atravessando uma placa
muito fina, uma partícula carregada interage muitas vezes.

Em geral, a velocidade da partícula incidente é muito maior que a


dos elétrons atômicos. Nas colisões, a energia é transferida da
partícula mais rápida para a de menor velocidade, de forma que ao
passar por um detector, a partícula incidente perde parte da sua
energia. As colisões, no entanto, são muito suaves, na imensa
maioria das vezes. Se o detector não for muito espesso, a partícula
incidente perde apenas uma fração muito pequena da sua energia
inicial.

A passagem de uma partícula carregada pela matéria tem uma


particularidade importante: a energia transferia ao meio é a mesma
para todas as partículas incidente, independente da sua natureza. O
único parâmetro que importa é a velocidade da partícula. Um
próton ou um múon que tenham a mesma velocidade vão transferir,
em média, a mesma quantidade de energia para o material do
detector. A única exceção são os elétrons, pois como são partículas
muito mais leves que as demais, são bastante afetados na interação
com a matéria. Os elétrons são tratados à parte.

Os efeitos mais importantes na interação da partícula incidente com


a substância do detector são a ionização e a excitação atômica. Em
ambos os casos, a partícula incidente interage com um elétron do
material sem influência apreciável dos outros átomos. São muitas

270
interações, mas sempre com um elétron atômico de cada vez.
Fótons são trocados entre a partícula e os elétrons atômicos.
Dependendo da energia que recebem, os elétrons podem ser
ejetados dos átomos (ionização) ou simplesmente pular de uma
órbita para outra com maior energia (excitação atômica).

Na passagem pela matéria, a partícula incidente também perde


parte da sua energia emitindo radiação. Se a velocidade da partícula
não é muito alta, esse efeito é muito pequeno, e a ionização é a
principal forma de transferência de energia. Mas a situação muda
quando as partículas são muito rápidas: emissão de fótons se torna
a principal forma com que as partículas incidentes perdem energia,
suplantando a ionização.

Eis mais uma razão para tratar os elétrons diferentemente. Como


os elétrons são muito leves, mesmo os que têm baixa energia se
deslocam com velocidades altas, emitem muitos fótons e são
rapidamente absorvidos pelo material.

Quase todas as partículas mais pesadas que o múon – píons, káons


prótons etc. – são hádrons, e podem interagir via força forte com
os núcleos atômicos. Os hádrons são destruídos nessas colisões, e
a sua energia inicial se transforma em novas partículas. As colisões
com os núcleos são bem menos frequentes do que as com os
elétrons atômicos, mas se a espessura do detector for
suficientemente grande, os hádrons acabam sendo absorvidos.

Os múons são um caso particular. Não possuem carga forte, e por


isso não interagem com os núcleos. Apenas a interação EM importa
nesse caso. Como os múons são 200 vezes mais pesados que os
elétrons, perdem muito pouca energia emitindo fótons. A energia
que perdem é transferida ao meio causando ionização e/ou
excitação atômica. Mas nas colisões com os átomos, as partículas
perdem apenas uma pequena fração da sua energia, de forma que
os múons são capazes de atravessar grandes extensões de matéria
sem perda apreciável de energia.

271
Conceitualmente, não há muita diferença entre o primeiro
contador Geiger, do início do século passado, e o mais moderno
detector de estado sólido usado nos experimentos do LHC. Ambos
contêm um volume com uma substância com que a partícula
incidente vai interagir, provocando ionização. O volume pode ser
preenchido com um gás, ou pode ser um pixel feito de um material
semicondutor.

Os elétrons das camadas mais externas dos átomos são menos


ligados ao núcleo. A partícula incidente transfere a esses elétrons
energia suficiente para jogá-los para fora dos átomos (ionização
primária). Dois eletrodos conectados a uma fonte de tensão criam
um campo elétrico no interior do detector que acelera os elétrons
ionizados. Ao adquirirem mais energia, esses elétrons causam
ionizações secundárias, gerando em uma reação em cadeia que
culmina com uma pequena corrente elétrica nos eletrodos.

Com detectores de estado sólido podemos medir a posição da


partícula com uma resolução espacial excelente. Eles são usados
para determinar as trajetórias em regiões muito próximas à

272
interação primária entre os feixes, ou entre o feixe e o alvo. Nessas
regiões, as trajetórias são muito próximas uma das outras, e um
distingui-las torna-se um desafio.

Em regiões mais afastadas da interação primária, as trajetórias


estão mais afastadas entre si, e a resolução espacial não é tão
importante. Mas é necessário cobrir uma área grande, e os
detectores de estado sólido são muito custosos. Nessas regiões,
detectores a gás são os mais utilizados. O CBPF participou de um
projeto inovador: o desenvolvimento de detectores de posição
feitos de fibras óticas, que substituíram alguns dos sistemas de
detectores a gás do LHCb.

As câmaras multifilares são os detectores a gás mais usados. São


caixas contendo um gás que é ionizado quando atravessado por
uma partícula carregada. No interior da caixa há planos de fios
(anodos) paralelos ligados a uma fonte de alta voltagem. Os fios
são dispostos de forma a criar um campo elétrico que conduz os
elétrons e íons aos eletrodos mais próximos. Combinando planos
de fios com orientação espacial diferentes (girados uns em relação
aos outros), pode-se determinar com bastante precisão a posição
por onde a partícula passou.

Com detectores de silício uma ótima resolução espacial é obtida.

Nas câmaras multifilares, a distância típica entre dois fios é da


ordem de 2 mm. Não é possível aproximá-los mais, pois senão os
fios se deformariam devido ao campo elétrico. Nos detectores de
silício, os eletrodos são soldados na superfície externa do chip, o

273
que permite uma separação até 100 vezes menor. Por isso os
detectores de silício têm uma resolução espacial muito melhor.

274
Como medir intervalos de tempo

Há um outro fenômeno, mais raro e complexo, mas que também


é largamente usado nos diversos experimentos. É o fenômeno da
luminescência. Certas substâncias têm a propriedade de emitir luz
quando seus átomos absorvem energia vinda de alguma fonte
externa, como por exemplo a energia transferida por uma partícula
carregada, ou por um fóton.

Existem dois tipos de luminescência: a fosforescência e a


fluorescência. Nos dois casos, os átomos absorvem a energia,
passam a um estado excitado, e depois voltam ao estado
fundamental emitindo luz. A diferença entre os dois efeitos está no
tempo que o átomo leva para se desexcitar. Estamos mais
acostumados com a fosforescência (os objetos que brilham no
escuro), em que os átomos retornam ao estado fundamental
lentamente. Na fluorescência, ao contrário, a luz é emitida quase
instantaneamente.

Os dispositivos que usam a fluorescência são os cintiladores.


Podem ser feitos de diversos tipos de material, mas em geral são
feitos de plásticos especiais. A luz produzida na fluorescência é
refletida pelas paredes internas do cintilador, ficando aprisionada
até ser coletada por um detector de fótons instalado em uma das
extremidades. As fibras óticas utilizam o mesmo princípio: fótons
produzidos em algum ponto da fibra são refletidos internamente até
serem coletados nas extremidades.

O detector de fótons mais comum é a fotomultiplicadora. São


dispositivos capazes de detectar um único fóton. Lembram as
antigas válvulas de televisão. Elas funcionam baseadas no efeito
fotoelétrico (capítulo 2). Os fótons produzidos pela fluorescência
atingem o fotocatodo, que é revestido por uma camada metálica. O
fóton é absorvido pelo fotocatodo e um elétron primário
(fotoelétron) é gerado. Dentro da fotomultiplicadora, um eletrodo
atrai o fotoelétron, que entra em uma região onde é acelerado por

275
uma sequência de placas metálicas ligadas à alta voltagem, gerando
uma cascata de elétrons secundários.

Esquema de uma fotomultiplicadora típica. Esses detectores são


acoplados aos cintiladores. Um único fóton pode ser detectado.

Nossos celulares contêm milhões de minúsculos detectores de


fótons, detectores de um outro tipo: os pixels das câmeras
fotográficas. Os pixels são feitos de material semicondutor e
utilizam a ionização como princípio de funcionamento. Os
detectores de fótons feitos de pixels são mais sensíveis – e muito
mais caros – que as fotomultiplicadoras. Cada pixel funciona como
um detector independente.

O método padrão para medir intervalos de tempo de curtíssima


duração, necessários nos experimentos modernos, combina
detectores e eletrônica rápida. Há diversos tipos módulos
eletrônicos que executam tarefas específicas, como amplificar
sinais analógicos de intensidade muito baixa, ou transformar
correntes elétricas em pulsos digitais, por exemplo.

Para medir intervalos de tempo usamos módulos eletrônicos TDC


(Time-to-Digital Converter). Esse dispositivo é uma espécie de
cronômetro capaz de medir intervalos de tempo da ordem de um
trilhonésimo de segundo (0,000.000.000.001 s). O cronômetro
recebe um sinal de partida, de um detector, e um de parada, vindo

276
de um segundo detector, como na ilustração abaixo. A distância L
entre os dois detectores pode ser medida com alta precisão. Com o
intervalo de tempo medido pela TDC, podemos determinar a
velocidade da partícula.

Na parte superior, o esquema de uma fotomultiplicadora acoplada


a um cintilador. O efeito fotoelétrico produz um elétron que é
acelerado sucessivamente entre os dinodos, produzindo uma
corrente mensurável. Na parte inferior, um arranjo típico para
medias de intervalos de tempo.

trajetórias e momento

Detectores de estado sólido ou a gás são os mais utilizados para


medir posição. As trajetórias são sempre determinadas por um
conjunto de módulos dispostos em sequência, onde a posição das
partículas no plano xy (perpendicular ao feixe) é medida em
diferentes pontos ao longo do eixo z (paralelo ao feixe). As
trajetórias são determinadas passando linhas retas pelas posições
medidas.

277
Embora a ideia seja simples, na prática não é bem assim. Em uma
colisão entre dois prótons no LHC, centenas de partículas podem
ser criadas. A maioria são partículas carregadas, e todas vão deixar
registro nos detectores de posição. Em cada módulo há muitos
registros, o que pode tornar a tarefa de “ligar os pontos” bastante
complexa. A reconstituição das trajetórias a partir desses registros
requer algoritmos sofisticados.

Planos sucessivos de detectores de posição permitem determinar a


trajetória de uma partícula carregada. A reconstituição da
trajetória é feita a partir dos registros que a partícula deixa em
cada estação.

Quando muitas partículas são produzidas numa colisão, a


determinação das trajetórias de cada uma pode ser uma tarefa bem
complicada. Algoritmos complexos associam os pontos nos
diversos detectores para formar as trajetórias.

278
Outra grandeza fundamental é o momento linear (produto da massa
da partícula pela sua velocidade), ou simplesmente momento.
Campos magnéticos são usados para medir o momento das
partículas carregadas. A trajetória das partículas é desviada pela
força magnética. Medindo o ângulo de desvio é possível determinar
o momento linear. Os experimentos usam eletroímãs para gerar
campos magnéticos, e dois conjuntos de detectores de posição, um
imediatamente antes e outro imediatamente depois do eletroímã,
possibilitam a medida do ângulo de desvio da trajetória.

Os eletroímãs são uma parte crucial nos experimentos com


aceleradores. Sem eles, não podemos determinar o momento das
partículas. Nos maiores experimentos do CERN, campos
magnéticos muito intensos são necessários para que as trajetórias
das partículas sofram desvios apreciáveis.

Quando uma partícula carregada passa por uma região onde há


um campo magnético, ela sofre um desvio na sua trajetória, O
momento é determinado medindo o ângulo de desvio.

Um eletroímã contém uma bobina por onde passa uma corrente


elétrica. Nos materiais condutores, como o cobre, a passagem de
corrente vem sempre acompanhada de um aumento na temperatura.
Isso impõe um limite à corrente que o material pode suportar sem
se fundir e, consequentemente, um limite para a intensidade do
campo magnético. Chamamos esse tipo de eletroímã de magnetos

279
convencionais. Esse é o tipo de eletroímã utilizado no experimento
LHCb.

O magneto utilizado pelo LHCb gera um campo magnético


uniforme na direção vertical. Quando passam pelo magneto, as
partículas carregadas sofrem desvios para a direita ou para a
esquerda, dependendo do sinal da sua carga elétrica. Mas após
saírem do magneto as trajetórias continuam sendo linhas retas. O
momento das partículas é determinado pelo ângulo de desvio das
trajetórias.

Vista frontal do eletroímã do experimento LHCb, do CERN,


durante a sua montagem. Os feixes de próton circulam na direção
perpendicular ao plano da imagem. A interação entre os feixes
ocorre parte traseira do magneto. Ao centro, na parte superior do
magneto vemos os cabos que fornecem a corrente. Copyright CERN

Os maiores experimentos do CERN, ATLAS e CMS necessitam de


campos magnéticos mais intensos. Por isso utilizam um outro tipo
de eletroímã: os magnetos supercondutores. Nos dois
experimentos, as bobinas feitas com material supercondutor geram

280
um campo magnético uniforme (intensidade e direção constantes)
em todo o miolo dos detectores. A direção do campo magnético é
a mesma do feixe, e isso faz com que as trajetórias sejam curvas
em forma de hélice. Medindo a curvatura das trajetórias,
determina-se o momento das partículas.

Estrutura do magneto supercondutor do experimento ATLAS.


Dentro dos tubos estão as bobinas supercondutoras. O campo
magnético gerado tem a mesma direção do feixe: perpendicular ao
plano da imagem, paralelo aos tubos. A colisão entre os prótons
ocorre no ponto central no interior do magneto. A foto foi tirada
antes da montagem do detector, que preenche todo o miolo e uma
parte na região externa das bobinas. Claudia Marcelloni, copyright CERN.

Como determinar massas


Determinar a massa de uma partícula não é uma tarefa trivial. Há
diferentes técnicas, que dependem da velocidade da partícula. Uma

281
técnica bastante comum utiliza a radiação Čerenkov. Esse
fenômeno foi descoberto em 1934 pelo russo Pavel Čerenkov, mas
a explicação teórica só viria três anos depois, dada por dois colegas
de Čerenkov, Igor Tamm e Ilya Frank. Os três dividiram o Prêmio
Nobel de 1958.

A velocidade da luz no vácuo é um limite absoluto. Nada se


propaga mais rápido. Mas em meios materiais, em particular nos
meios mais densos, a velocidade da luz é menor que no vácuo e
depende das propriedades óticas do meio (índice de refração).
Nesse caso, é possível que uma partícula massiva se propague com
velocidade maior que a da luz naquele meio, sem que haja violação
da RE. Quando isso acontece, a passagem da partícula provoca o
surgimento da radiação Čerenkov.

Podemos fazer uma analogia com os aviões supersônicos. Quando


um avião rompe a barreira do som, ele provoca uma onda de
choque sonora. Da mesma maneira, quando uma partícula rompe a
“barreira da luz” no meio, uma “onda de choque luminosa” é
criada.

Os fótons da luz Čerenkov são emitidos em um ângulo pequeno e


bem definido em relação à trajetória da partícula. Esse ângulo
depende da velocidade da partícula. Medindo o ângulo sabemos a
velocidade da partícula. Combinando a medida do ângulo em que
os fótons são emitidos e o momento da partícula, podemos
determinar a sua massa.

A radiação Čerenkov é uma luz tênue, com poucos fótons emitidos


em um cone com pequeno ângulo de abertura em relação à
trajetória da partícula.

282
A radiação Čerenkov é uma luz de coloração azulada. Sua origem
é a reação coletiva dos átomos do meio à passagem de partículas
carregadas que se propagam mais rapidamente que a luz naquele
meio. É comum observá-la nos reatores nucleares que são
refrigerados a água.

O núcleo de um reator nuclear imerso em água para resfriamento.


Elétrons com alta energia são produzidos na fissão nuclear. Ao se
propagarem pela água, provocam a emissão de radiação
Čerenkov, que dá o tom azulado visto na foto.
Fonte: Argonne National Laboratory
https://commons.wikimedia.org/w/index.php?curid=27024528

Os detectores de radiação Čerenkov são pequenas obras de arte.


São caixas seladas contendo um gás. Na parte frontal há espelhos
que refletem os fótons emitidos durante a passagem das partículas.
Esses fótons são coletados por fotomultiplicadoras instaladas na
parte traseira do detector.

283
Copyright CERN.

284
Como medir energia

Os calorímetros são detectores que medem a energia das


partículas. Não é uma medida fácil de realizar, e está sempre sujeita
a incertezas maiores do que as da medida do momento, por
exemplo. A razão da dificuldade é a natureza do processo físico
envolvido.

Há dois tipos de calorímetros: o eletromagnético e o hadrônico.


Como os nomes sugerem, o funcionamento do primeiro está
associado à interação eletromagnética, enquanto o segundo
depende da interação forte.

Quando um hádron atinge o calorímetro, ele é destruído após


colidir com um núcleo atômico. Os calorímetros são feitos de
materiais densos, como o chumbo. Núcleos de elementos pesados
são maiores e aumentam a chance de colisões com os hádrons
incidentes. Nessa colisão, a energia do hádron se converte em
novos hádrons, que têm energia suficiente para provocar novas
reações com outros núcleos. Essa sequência de colisões resulta em
um “chuveiro” de partículas, semelhante aos dos raios cósmicos.

O calorímetro deve ser longo o suficiente para absorver toda a


energia da partícula. O princípio de funcionamento desse tipo de
detector está baseado na interação forte, que é independente da
carga elétrica da partícula. Assim, calorímetros são usados para
medir a energia tanto de partículas carregadas como neutras.

Fótons e elétrons interagem com os núcleos atômicos do material


de outra forma. Elétrons emitem fótons quando sentem o campo
EM dos núcleos. Fótons se convertem em pares elétron-pósitron,
que por sua vez, emitem mais fótons. O resultado também é um
chuveiro de partículas, mas nesse caso, composto por elétrons,
pósitrons e fótons. Duas partículas com a mesma energia podem
gerar chuveiros diferentes. A cascata de partículas é um processo
estatístico.

285
Os calorímetros eletromagnéticos são empregados para medir a
energia de fótons e elétrons. Os hadrônicos são usados para os
demais tipos de partículas (exceto múons e neutrinos). Os
calorímetros eletromagnéticos são menores que os hadrônicos, pois
fótons e elétrons são absorvidos mais facilmente do que píons e
prótons. Quando atravessam os calorímetros eletromagnéticos, os
hádrons depositam apenas uma pequena parte da sua energia. Por
isso os calorímetros eletromagnéticos são posicionados sempre
antes dos hadrônicos.

Aquisição de dados

No experimento em que Carl Anderson descobriu o pósitron


(capítulo 7), as fotografias da câmara de nuvens eram tiradas ao
acaso. Anderson não tinha como saber quando uma partícula iria
atravessar o detector. Com sorte, algum evento interessante seria
registrado, como a famosa foto da primeira antipartícula.

286
Essa é uma forma artesanal de coletar dados, claramente ineficiente
para selecionar os eventos interessantes. Nos experimentos
modernos, um sistema como o empregado por Anderson seria
impraticável. Nos detectores do LHC, por exemplo, os dois feixes
se cruzam 40 milhões de vezes a cada segundo. A probabilidade de
um próton de um dos feixes colidir com um próton do outro feixe
é muito pequena, mas como o número de prótons em cada nuvem
é gigantesco (aproximadamente 1011), ocorrem cerca de um bilhão
de colisões por segundo. A capacidade de armazenar dados, no
entanto, é limitada: “apenas” alguns milhões de colisões podem ser
registrados a cada segundo nos computadores dos experimentos.

Muitas coisas podem acontecer nas colisões entre prótons com a


energia do LHC. Quanto maior for a energia de uma colisão, mais
possibilidades se abrem. As taxas com que as partículas que os
experimentos estudam são produzidas são relativamente altas. A
cada 20 colisões, um par quark-antiquark do tipo c é criado (quarks
são sempre criados simultaneamente com seus respectivos
antiquarks). A cada 200 colisões, um par quark-antiquark do tipo b
é produzido.

As colisões em que os quarks c e b são produzidos são semelhantes


a outras em que nada muito interessante acontece. Por isso a
escolha das colisões que devem ser registradas é desafiadora. Essa
escolha requer uma análise detalhada e em tempo real de cada
colisão, considerando que o intervalo entre dois cruzamentos de
nuvens de prótons é de apenas 0,000.000.025 segundos.

Os sistemas de escolhas modernos, ou trigger, no jargão dos


experimentais, são cruciais em qualquer experimento. São bastante
complexos, e as colaborações investem muitos recursos no seu
desenvolvimento. Empregam o estado da arte em hardware e
software, com o uso extensivo de redes neurais e outras técnicas de
aprendizado de máquinas. Em qualquer experimento, o trigger está
integrado ao sistema de registro das informações, ou aquisição de
dados.

287
Uma vez ligados, os detectores nunca deixam de produzir sinais.
Sempre que uma partícula atravessa um detector de posição, por
exemplo, ela vai causar ionização e isso resultará em um sinal, ou
seja uma pequena corrente elétrica que precisa ser tratada pela
eletrônica. Mas se os dispositivos eletrônicos acoplados aos
detectores estiverem com a porta fechada, os sinais simplesmente
se perdem. O que o trigger faz é habilitar ou desabilitar o sistema
eletrônico que recebe, faz o tratamento e envia os sinais de cada
detector aos computadores, onde as informações sobre cada colisão
são gravadas.

Temos uma boa ideia sobre as características das reações que


interessam estudar. Podemos usar dados, ou mesmo simulações
numéricas para treinar redes neurais ou outros métodos de análise
multivariada para que reconheçam essas mesmas características
nas colisões. Essa é a forma mais eficiente de selecionar as colisões
que seriam potencialmente interessantes. Para os amantes da
computação, o desenvolvimento de estratégias e de software para
o trigger é um parque de diversões.

As partículas mais interessantes têm uma vida média muito curta.


Elas se desintegram rapidamente, antes de deixar rastros no
detector. O tempo de vida é insuficiente para que sejam observadas
diretamente, mas os produtos da sua desintegração – píons, káons,
múons, elétrons etc. – vivem o suficiente para que sejam
detectados. Através dos produtos da desintegração, as partículas
interessantes são reconstituídas, o que, frequentemente, é feito em
tempo real.

Os detectores modernos usados nos aceleradores têm em comum o


fato de serem gigantescos e serem compostos por diversos
módulos, com finalidades específicas (detectores de posição,
magnetos, detectores de radiação Čerenkov, detectores de múons
etc.). Ao todo, cada experimento pode ter dezenas de milhões de
sensores independentes (um pixel, ou um fio de uma câmara
multifilar corresponde a um sensor, ou canal).

288
Em uma colisão típica, mais de 100 partículas são produzidas. Elas
atravessam os diversos módulos e sempre deixam os sinais de sua
passagem. Se o trigger decide que o evento é promissor, as
informações dos diversos módulos são enviadas ao sistema de
aquisição de dados.

A tarefa do sistema de aquisição de dados é complexa. Os sinais


digitalizados de cada evento chegam em fragmentos, cada parte
correspondendo a um módulo específico do detector. É necessário
reunir todas as partes do evento (milhões de sinais eletrônicos são
produzidos) sem, por exemplo, misturar as informações sobre
trajetórias de um evento com as informações dos calorímetros do
evento anterior. É como montar um quebra-cabeças de dezenas de
milhões de peças.

Após o evento ser “montado”, com todas as informações completas


codificadas e ordenadas, ele é enviado aos computadores dedicados
a gravar os dados em disco. Tudo feito em tempo real.
Posteriormente, esses dados serão processados e distribuídos entre
os colaboradores para análise. Os experimentos produzem uma
quantidade de dados que cresce exponencialmente, pois estamos
sempre buscando eventos muito raros. Por isso a análise dos dados
pode levar anos, ou mesmo décadas.

Os detectores são atualizados de tempos em tempos. Peças


danificadas pela intensa radiação produzidas nas colisões devem
ser substituídas. Módulos inteiros são trocados por outros de
melhor performance, ou com tecnologia mais sofisticada. Ao
mesmo tempo em que é feita a análise dos dados, desenvolve-se o
software e o hardware para a continuidade dos experimentos. Nos
grupos de pesquisa que formam as colaborações há atividades para
todos os gostos.

Nas páginas seguintes, vemos ilustrações de três detectores do


LHC.

289
Copyright CERN, adaptado com permissão do trabalho de David Barney.

290
Copyright CERN

O experimento LHCb tem como objetivo estudar a assimetria entre


matéria e antimatéria observada no Universo, além de procurar
por fenômenos que não sejam explicados pelo Modelo Padrão. A
“matéria prima” para esses estudos são os decaimentos de
hádrons formados pelos quarks c e b.

Boa parte desses hádrons têm trajetórias que fazem um ângulo


pequeno com a direção do feixe. Esse fato determina a geometria
do detector, que é semelhante à de experimentos em que um feixe
colide com um alvo fixo, apesar de o LHCb ser um experimento em
um anel de colisões.

Os diversos componentes do detector são dispostos como se um


dos feixes funcionasse como um alvo fixo. No entanto, a ordem dos
diversos componentes do detector segue a mesma lógica do CMS
e ATLAS.

291
Copyright CERN

Esquema do detector ATLAS. O experimento visa detectar


partículas que seriam produzidas em direções perpendiculares ao
feixe.

292
12

Enigmas

Onde está a antimatéria?

A tecnologia evoluiu tanto nas últimas décadas que nos permitiu


estudar os fenômenos que ocorrem nas regiões mais remotas do
Universo sem sair dos limites do nosso pequeno planeta. Satélites
carregando instrumentos muito sensíveis complementam os dados
dos observatórios terrestres. A quantidade e qualidade de
informações obtidas nas últimas três ou quatro décadas fez com que
a Cosmologia entrasse na era da precisão.

O Universo está em expansão, e sobre esse fato não há dúvidas.


Isso era sabido desde 1929, mas descobrimos em 1998 que a
velocidade da expansão está aumentando. As galáxias se afastam
umas das outras cada vez mais rapidamente. Não sabemos ainda o
que causa a aceleração na taxa de expansão do Universo. Esse é um
dos grandes enigmas da Física, sobre o qual vou falar no próximo
capítulo.

Todas as evidências mostram que num passado remoto, antes


mesmo de as estrelas e galáxias se formarem, o Universo era uma
“sopa” de quarks e léptons (e suas respectivas antipartículas), além
de fótons e glúons. Esse estágio primordial, extremamente denso e

293
quente, ocorreu há 13,8 bilhões de anos, segundo as estimativas
mais recentes.

Também há evidências muito sólidas de que os fótons conseguiram


se libertar das interações com as partículas carregadas e núcleos
atômicos há 13,4 bilhões de anos. Desde então, esses fótons
viajaram livres pelo espaço até chegarem aos nossos telescópios.
Os satélites WMAP e Planck produziram mapas bastante
detalhados da distribuição desses fótons, que constituem a radiação
cósmica de fundo (RCF, capítulo 11). São relíquias do passado
mais longínquo que podemos observar.

Isso significa que a maior distância espacial que é possível observar


da Terra é 13,4 bilhões de anos-luz, ou seja, a distância que a luz
percorreu durante 13,4 bilhões de anos. Isso não significa que todo
o Universo tenha esse tamanho e essa idade. O Universo
observável em que vivemos é uma espécie de bolha, e muito pouco
podemos dizer sobre o que há além dos seus limites. É possível que
o Universo se estenda infinitamente, no tempo e no espaço. Mas
teorias sobre o que ocorre fora da região observável são
especulativas, pelo menos por enquanto. As informações sobre
processos que porventura ocorram fora da nossa bolha ainda não
tiveram tempo suficiente de chegar até nós. Assim, quando uso o
termo “Universo”, eu me refiro apenas à porção sobre a qual
podemos falar alguma coisa baseada em medidas.

No plasma primordial, partículas e antipartículas se aniquilavam


continuamente originando fótons. A densidade era tão alta que os
fótons, por sua vez, não podiam se propagar sem logo interagir e se
transformar em pares de partículas e antipartículas. Matéria se
convertendo em energia e vice-versa, freneticamente, mas com
uma particularidade importante: tanto nas interações fortes como
nas eletromagnéticas, partículas sempre são criadas junto com as
suas antipartículas, e quando colidem, ambas desaparecem, se
transformando em radiação.

294
À medida que o Universo se expandia, a temperatura diminuía e as
colisões se tornavam menos frequentes e menos energéticas. Em
um dado momento, os quarks se combinaram para formar prótons
e nêutrons, estes se combinaram para formar núcleos, que, por sua
vez, se combinaram com elétrons para formar átomos. Quando os
átomos se formaram, a luz pôde se propagar livremente e o
Universo se tornou transparente. A partir de então, a dinâmica do
Universo passou a ser regida pela gravidade.

Partículas e antipartículas são criadas aos pares. A matéria é feita


de partículas, a antimatéria é feita de antipartículas. Um antiátomo
de hidrogênio é feito de um antipróton e um pósitron. Exceto pela
inversão na carga elétrica do elétron e do próton, o antiátomo e o
átomo de hidrogênio são idênticos. Ambos têm os mesmos níveis
de energia, os mesmos orbitais, produzem as mesmas linhas
espectrais. A análise da luz, por si só, não seria suficiente para dizer
se uma estrela é feita de matéria ou de antimatéria.

As estrelas são formadas por gigantescas nuvens de gás


(basicamente hidrogênio). Estrelas de antimatéria seriam feitas a
partir de nuvens de anti-hidrogênio. Elas só poderiam se formar a
partir de nuvens onde só houvesse antimatéria. Ou seja, deveriam
existir regiões do Universo preenchidas exclusivamente com
antimatéria.

Seria extremamente improvável que essas regiões pudessem ser


formadas apenas pela ação da gravidade, que não distingue matéria
de antimatéria. Regiões exclusivas de antimatéria só seriam
possíveis se já existissem no Universo primordial. Temos, no
entanto, evidências abundantes de que nessa era o Universo já era
um sistema em equilíbrio termodinâmico. Esse estado de equilíbrio
implica todas as partes estarem à mesma temperatura e terem a
mesma composição.

Mesmo que, por alguma razão misteriosa, regiões contendo apenas


antimatéria pudessem ser formadas no espaço sideral, haveria
fronteiras separando das regiões onde há somente matéria. Matéria

295
e antimatéria se aniquilariam ao longo dessas fronteiras, e isso
deixaria um sinal muito característico (fótons de alta energia). Tal
sinal nunca foi observado. Apesar de a matéria e a antimatéria
serem criadas aos pares, podemos afirmar com segurança que
vivemos num Universo constituído apenas por matéria. E isso leva
a um outro grande enigma da Física: o que aconteceu com a
antimatéria?

As interações EM e fortes não distinguem matéria de antimatéria.


Como é possível então que o Universo seja feito apenas de matéria?
Se no Universo primordial o número de partículas fosse
exatamente igual ao de antipartículas, elas acabariam por se
aniquilar. Não haveria matéria e o Universo seria todo ele
preenchido por luz. Não haveria estrelas, planetas, galáxias. No
entanto, aqui estamos nós. O mero fato de nós existirmos significa
que, no início de tudo, havia um excesso de partículas sobre
antipartículas. Ou então, que no início tenha havido processos
afetaram de forma diferente as partículas e as antipartículas.

Vamos examinar a primeira possibilidade, a “condição inicial”. A


chave está na RCF. Há muita informação no mapa detalhado que
os satélites WMAP e Planck produziram (capítulo 10). Analisando
algumas características das flutuações de temperatura na RCF, é
possível estimar a proporção entre bárions (prótons e nêutrons) e
fótons no Universo primordial: aproximadamente um bárion para
cada bilhão de fótons.

Essa fração muito pequena nos diz que bastaria apenas um pequeno
excesso de quarks sobre antiquarks no Universo primordial para
gerar o Universo atual constituído apenas por matéria. É bom
lembrar que quando falo sobre o “início” do Universo, o BigB,
estou me referindo ao momento em que a temperatura era 1015 oC.
Não temos certeza sobre o que se passou antes disso, já que ainda
não temos meios de testar as diferentes teorias a respeito.

296
Poderíamos explicar o fato de que vivemos em um mundo
dominado pela matéria e não pela antimatéria admitindo que já no
BigB haveria um pequeno excesso de quarks sobre antiquarks. Não
saberíamos explicar como teria surgido esse suposto excesso, mas
essa seria uma condição inicial muito especial. A maioria dos
físicos suspeita dessa hipótese. A principal razão é que seria
necessário um ajuste muito fino dessa condição inicial. O excesso
de quarks sobre antiquarks no BigB deveria ser um número
caprichosamente escolhido pela Natureza. Isso seria muito pouco
provável, embora não possa ser descartado.

O mais provável é que no início do Universo houvesse uma


igualdade entre o número de partículas e antipartículas, e que uma
assimetria se formou dinamicamente, isto é, através de interações
entre os componentes do plasma primordial, interações que
diferenciassem partículas de antipartículas.

No que diz respeito às interações fortes e eletromagnéticas,


podemos dizer com bastante segurança que não há qualquer
diferença em como elas afetam partículas e antipartículas.
Pósitrons e elétrons interagem com fótons exatamente da mesma
maneira. O esmo vale para a forma como quarks e antiquarks
interagem com glúons. Essa simetria foi testada e confirmada
muitas vezes, com altíssima precisão.

Mas isso não acontece com a força fraca, responsável pelos


decaimentos radioativos. Existe uma diferença sutil nas interações
fracas entre partículas e antipartículas. Essa diferença foi
descoberta acidentalmente em 1964, e causou um grande espanto
(para a Física, o ano de 1964 foi glorioso: a invenção do modelo a
quarks, as descobertas da RCF e da assimetria entre matéria e
antimatéria nas interações fracas).

297
Violação de CP

As simetrias desempenham um papel fundamental nas teorias


físicas. Por simetria entendemos uma transformação matemática
que não altera as equações de movimento – e, portanto, a Física.
As simetrias são importantes porque estão intimamente
relacionadas a princípios fundamentais, a quantidades físicas
básicas cujo valor não se altera ao longo de uma interação: leis de
conservação.

A transformação pode ser feita nas coordenadas, como girar os


eixos ou transladar a origem. A simetria de rotação está ligada à
conservação do momento angular, e a de translação, à conservação
do momento linear. A transformação pode ser feita também na
própria função de onda (a onda de probabilidade que acompanha a
partícula), como a transformação de calibre (capítulo 9), que está
ligada à conservação da carga elétrica. São transformações
contínuas, que podem ser feitas através de uma sequência de passos
tão pequenos quanto se queira.

Existe um outro tipo de transformação, que também pode ser


aplicada tanto às coordenadas como diretamente à função de onda,
mas de forma discreta, ou seja, feita em saltos. Simetrias por
transformações discretas, no entanto, não estão diretamente ligadas
a leis de conservação.

Um exemplo de transformação discreta, aplicada às funções de


onda, é a conjugação de carga, C. É uma operação que inverte as
cargas elétricas e outros números quânticos. A conjugação de carga
não causa nenhuma alteração na forma da equação de Dirac, que
descreve a interação de elétrons com fótons. Após a transformação,
a equação continua igual, mas a função de onda passa a representar
pósitrons. Afinal, elétrons e pósitrons interagem com fótons
exatamente da mesma maneira.

298
Outra transformação discreta é a paridade, P. É uma transformação
que inverte as coordenadas espaciais. Ela pode ser feita em duas
etapas: uma reflexão no espelho, seguida de uma rotação de 180º.

É possível combinar as duas transformações, invertendo de uma só


vez tanto a carga da partícula como as coordenadas espaciais. A
combinação de conjugação de carga com paridade, CP, equivale a
transformar todos os tipos de partícula em suas antipartículas
correspondentes.

A transformação de paridade é uma inversão das coordenadas


seguida de uma rotação de 180º em relação ao eixo perpendicular
ao espelho.

Uma teoria cujas equações permaneçam inalteradas quando é feita


a transformação CP é uma teoria em que partículas e antipartículas
interagem exatamente da mesma forma. Dizemos que é uma teoria
com simetria CP. Até 1964, acreditava-se essa fosse uma
característica fundamental e obrigatória de qualquer teoria, como a
conservação da energia, ou a invariância de Lorentz (mesmas
equações em qualquer referencial inercial). A simetria CP implica
regras de seleção, ou seja, determina que tipos de reação podem
ou não ocorrer.

Pois bem, eis o que aconteceu em 1964. Em um experimento


conduzido no laboratório de Brookhaven, nos EUA, onde dez anos

299
depois o quark charm seria descoberto, James Cronin e Val Fitch
estudavam decaimentos de mésons K0, também chamados káons
neutros. Por ser uma partícula neutra, o méson K0 não causa
ionização, e por isso não deixa rastro nos detectores de posição.
Mas após percorrer uma certa distância, o káon decai em dois píons
carregados, e estes sim são detectados. Combinando as trajetórias
dos píons, podemos determinar a posição onde houve o decaimento
do K0.

O méson K0 é um hádron formado por um quark d e um antiquark


s. O decaimento do K0, como o decaimento b, é um processo que
resulta da combinação de interações fracas e fortes. A reação tem
início com o decaimento do quark s, no interior do méson K0. Essa
desintegração é causada pela força fraca e dá origem a três outros
quarks. O méson se desintegra. Os quarks rapidamente se
recombinam para formar novos hádrons, mais leves, e essa etapa é
regida pela força fortes.

O káon neutro é uma partícula de um tipo muito especial. Apesar


de ser neutro, é diferente da sua antipartícula: o anti-K0 é um
hádron composto por um quark s e um antiquark d. Tanto o K0
como o anti-K0 podem se desintegrar espontaneamente formando
dois píons carregados. O fato de ambos poderem decair da mesma
forma causa um efeito quântico incrível: durante o voo, o K0 pode
se transformar no anti-K0, e vice-versa. Esse fenômeno, chamado
oscilação de sabor, é mais uma demonstração de como as
partículas virtuais, que não podem ser detectadas diretamente,
produzem efeito observáveis.

Devido às oscilações de sabor, em um feixe de káons neutros não


podemos definir, em um dado instante qualquer, qual é a identidade
de cada partícula. Dizemos que o estado quântico do feixe é uma
mistura de káons e anti-káons. Se observamos durante um intervalo
de tempo suficiente, todas as partículas vão decair e o feixe
desaparece. A identidade de cada partícula do feixe só se revela
quando ela decai. Somente nesse momento podemos dizer se a
partícula é um káon ou um anti-káon.

300
No feixe, seja ele inicialmente composto por K0 ou por anti-K0, a
oscilação K0/anti-K0 ocorre de duas maneiras. Dito de outra forma,
as partículas do feixe se propagam em estados quânticos distintos,
duas combinações K0/anti-K0 possíveis, e elas têm propriedades
bem diferentes. As partículas que estão em um dos estados decaem
muito mais rápido do que as do outro estado. O estado quântico
com tempo de vida maior é chamado de KL (“L” de longo) e o
outro, KS (“S” do inglês short). O feixe de káons neutros pode ser
visto tanto como uma mistura K0/anti-K0 como uma mistura de
KL/KS. Ambas são equivalentes.

As oscilações de sabor são um fenômeno puramente quântico que


ocorre apenas com partículas neutras. Durante a sua propagação,
determinados tipos de partículas se transformam de forma
espontânea em suas antipartículas, e vice-versa.

Além da vida-média, há uma outra diferença fundamental. A


simetria CP impõe uma regra de seleção: o estado quântico de vida
média curta, KS, só pode decair em dois píons, enquanto o de vida-
média longa, KL, só pode decair em três píons.

No experimento em Brookhaven, Cronin e Fitch observaram 49


decaimentos “proibidos” de KL em dois píons, decaimentos que
não poderiam acontecer segundo a regra de seleção da simetria CP.
Esse resultado mostrou que as interações fracas não possuem a
simetria CP, partículas e antipartículas são afetadas de forma
diferente! O fenômeno, conhecido como violação de CP, tem
implicações profundas na história do Universo e, como veremos,

301
na nossa própria existência. Cronin e Fitch receberam o Prêmio
Nobel em 1980 por essa descoberta.

Três anos depois da descoberta da violação de CP, o físico russo


Andrey Sakharov escreveu um artigo muito importante. Nesse
trabalho, ele apresenta três condições necessárias para o
surgimento de um Universo feito de matéria e não de antimatéria,
três condições que eliminariam a necessidade das “condições
iniciais” do Universo primordial tão meticulosamente ajustadas.

Sakharov recebeu o Prêmio Nobel em 1975, mas não o de Física, e


sim o da Paz. Apesar de ter sido um dos pais da bomba atômica
russa, Sakharov caiu em desgraça por se tornar um crítico do
regime da então União Soviética e um ativista em favor dos direitos
humanos. Considerado um dissidente, Sakharov foi enviado para a
Sibéria, com sua mulher, onde passou seis anos confinado.

Os argumentos que apresentou em seu artigo de 1967 ficaram


conhecidos como as condições de Sakharov. A primeira condição
é que deve existir algum processo, ainda desconhecido, em que o
número de bárions não é conservado.

No capítulo 9 vimos que há uma regra de seleção observada em


toda e qualquer reação envolvendo prótons e nêutrons (os bárions
mais comuns). Cada próton ou nêutron tem número bariônico +1,
e cada antipróton ou antinêutron tem número bariônico -1. A regra
de seleção estabelece que o número bariônico total em uma reação
é conservado. A conservação do número bariônico é uma regra
empírica. Até hoje, em experimentos em laboratório, não se
verificou nenhum evento em que essa regra fosse violada.

Numa colisão entre dois prótons no LHC, o número bariônico do


estado inicial é igual a dois. No estado final há sempre muitas
partículas, mas dentre elas sempre vai haver dois bárions. Já numa
colisão entre um próton e um antipróton, como no acelerador
Tevatron do Fermilab, o número bariônico inicial é zero. Nesse

302
caso, podemos ter estados finais sem bárions. No entanto, se em
uma colisão no Tevatron um bárion for produzido, certamente
haverá um antibárion dentre as demais partículas.

Os prótons são os bárions mais leves, e por isso só poderiam decair


em mésons mais leves, o que seria uma violação da conservação do
número bariônico. Mas isso nunca acontece. Sabemos que os
prótons são partículas estáveis e que não decaem. No entanto, no
regime de densidade de energia extrema do BigB, quando nossas
teorias deixam de ser válidas, poderia ter havido algum tipo de
interação ainda desconhecido que envolvesse partículas
intermediárias com massas muito grandes, e que resultasse no
decaimento dos prótons.

Essas partículas hipotéticas só poderiam ser produzidas naquelas


condições extremas. Depois de o Universo esfriar, não teria havido
energia suficiente para que esse tipo de interação ocorresse.
Tampouco seria possível produzir diretamente partículas tão
pesadas nos laboratórios, pelo menos com a tecnologia atual.
Assim, o decaimento dos prótons seria um processo muito raro, tão
raro que a vida-média do próton seria, no mínimo, muitas vezes
maior que a própria idade do Universo.

Na segunda condição, Sakharov afirma que essas reações em que


o número bariônico não seria conservado deveriam ocorrer antes
que o Universo atingisse o equilíbrio termodinâmico. Essa
condição é necessária porque, no estado de equilíbrio, a reação em
que prótons se desintegram ocorreria na mesma taxa que a reação
inversa, em que prótons são criados.

Finalmente, a terceira condição requer que a simetria CP deva ser


violada, ou seja, que haja uma interação que afete partículas e
antipartículas de forma diferente. Imagine uma situação em que os
prótons possam decair. Seu número diminuiria com o tempo. Mas
se houvesse a mesma quantidade inicial de antiprótons, e se esses
decaíssem com a mesma probabilidade que os prótons, não seria
possível gerar um excesso de partícula sobre antipartículas.

303
E aqui retornamos à descoberta de Cronin e Fitch. Sua importância
fica mais clara agora: nossa própria existência depende do
fenômeno da violação de CP.

As interações fracas não possuem simetria CP, tratam partículas e


antipartículas de forma ligeiramente diferente. É uma diferença
muito sutil e que só aparece em circunstâncias especiais, o que faz
com que o fenômeno da violação da simetria CP seja raro. Mesmo
nas interações fracas, na maioria dos decaimentos a simetria CP é
observada.

A violação de CP é um efeito tão raro que foram necessários quase


40 anos para que ele fosse observado em decaimentos de outros
tipos de partículas que não os káons neutros. Apenas em 2001 a
violação de CP foi detectada em mésons com o quark b. No caso
de mésons com o quark c, o fenômeno é ainda mais raro, e foi
observado apenas em 2019!

O Modelo Padrão (MP) das partículas elementares, apresentado no


capítulo 9, foi construído de maneira a incluir a possibilidade de
quebra da simetria CP nas interações fracas. Curiosamente, essa
possibilidade foi levantada pelos japoneses Makoto Kobayashi e
Toshihide Maskawa. Eles propuseram um mecanismo, em 1973,
que previa a existência de uma terceira família de quarks, antes
mesmo da existência do quark c ter sido confirmada. Kobayashi e
Maskawa receberam o Prêmio Nobel de 2008 pelo seu trabalho.

Mas seria a violação de CP do MP o mecanismo proposto por


Sakharov na sua terceira condição? Em outras palavras, as
diferenças na interação fraca entre partícula e antipartículas seriam
suficientes para produzir um Universo só de matéria? A resposta é
um contundente não.

As diferenças observadas nas interações fracas são muito


pequenas, muitas ordens de grandeza aquém do que seria
necessário para explicar nosso Universo. Devem existir, com

304
certeza, outros tipos de interação ainda desconhecidos, em que a
violação de CP ocorra com muito mais intensidade.

O estudo do fenômeno da violação de CP abre uma janela para o


desconhecido, para uma nova Física. O fato de a quebra da simetria
CP no MP ser insuficiente para explicar a ausência da antimatéria
no Universo é, por si só, uma evidência de que o MP não é uma
teoria completa. Há mais coisas na estrutura da matéria, que no
momento desconhecemos.

A pesquisa de fronteira na Física de Partículas contemporânea se


concentra na procura por brechas no MP, fenômenos que não
possam ser explicados pelas teorias atuais. No início do século XX,
os fenômenos em escala atômica recém-descobertos pegaram a
todos de surpresa. Hoje, em contraste, temos a certeza de que novos
fenômenos nos aguardam, só precisamos encontrar as formas
corretas de procurá-los. Na verdade, enquanto eu escrevo esse
livro, há uma grande expectativa na comunidade dos físicos de
partículas. Temos a convicção de que estamos no limiar de grandes
descobertas, que em muito breve dobraremos a esquina e nos
depararemos com uma realidade até então desconhecida.

Existem duas estratégias nessa procura. A primeira é usar a “força


bruta”: produzir novas partículas diretamente de uma colisão
próton-próton, partículas que seriam milhares de vezes mais
pesadas que o próton. Partículas muito pesadas são produzidas
mais frequentemente em direções perpendiculares em relação ao
feixe. Os detectores que são adequados a essa estratégia devem
envolver a toda a região em torno da colisão próton-próton. Esse é
o caso dos experimentos ATLAS e CMS do CERN.

A outra estratégia é procurar por evidências indiretas, como as


deixadas pelas partículas virtuais. Não se sabe, é claro, quão
pesadas seriam as novas partículas, mas se elas de fato existirem,
produzirão efeitos indiretos que talvez possam ser observados. As
reações em que os efeitos indiretos poderiam ser detectados seriam

305
muito raras, e por isso essa estratégia requer quantidades absurdas
de dados. Essa é a abordagem do experimento LHCb.

Nas colisões entre prótons no LHC, a energia é muito alta, cerca de


13.000 vezes a massa do próton. Muitas partículas de tipos variados
são produzidas nessas colisões. Algumas são de interesse especial,
como o bóson de Higgs e os hádrons “pesados” (os que contêm os
quarks b, c). Esses hádrons são interessantes porque decaem por
interação fraca. A análise das diversas formas de decaimento
desses hádrons é a melhor maneira de estudar as interações fracas
e a violação de CP.

Os hádrons pesados são instáveis. Com uma vida-média curta, de


apenas 0,000.000.000.0001 s, eles não são detectados diretamente.
Precisamos identificar as partículas em que eles decaem para que
possam ser reconstituídos. Como são produzidos com muita
energia, a maioria dessas partículas percorre uma distância de um
ou dois centímetros ao longo do detector antes de decair. Mas esse
pequeno percurso é suficiente para que possamos identificar a
posição onde houve o decaimento. Esse é o passo crucial para isola
amostras dessas partículas.

Os hádrons pesados são produzidos majoritariamente em direções


próximas a do feixe. Por isso o detector do LHCb tem uma
geometria diferente da do ATLAS e CMS. Há vários tipos de
mésons e bárions pesados, que podem decair de muitas maneiras
diferentes. Podem se desintegrar formando outros hádrons mais
leves, léptons, ou ainda uma mistura de hádrons e léptons. O
detector do LHCb é equipado com módulos específicos para
detectar tanto hádrons “leves” (píons, káons e prótons) como
léptons.

Dos muitos modos de decaimento dos hádrons pesados, alguns são


particularmente importantes. São os modos que permitem estudar
o fenômeno da violação de CP, bem como os que seriam sensíveis
aos efeitos indiretos causados por possíveis novas interações e

306
partículas. Em ambos os casos, a estratégia é confrontar os
resultados obtidos com as previsões feitas pelo MP.

Curiosamente, o MP passou com louvor em todos os testes feitos


até agora, incluindo os estudos sobre a violação de CP. Não há um
único caso em que tenha sido observada uma discordância
significativa entre o que o MP prevê e os resultados experimentais.
Talvez os aceleradores não tenham ainda a energia necessária para
que novas partículas apareçam, ou talvez os eventos envolvendo

307
novas partículas sejam tão raros que precisemos acumular ainda
mais dados para que observá-los.

Apesar da impressionante robustez do MP, os indícios de falhas se


acumulam. Veremos a seguir dois exemplos de medidas cujos
resultados desafiam o MP.

Anomalias

Certos decaimentos de mésons B carregados (hádron formado


por um quark b e um antiquark u) apresentam características que
não são exatamente as previstas pelo MP: são as chamadas
anomalias. Aqui vamos ver, como exemplo, um caso específico em
que os mésons B se desintegram formado léptons e mésons mais
leves.

O quark b é cerca de 2.000 vezes mais pesado que o quark u. Essa


é mais ou menos a mesma relação entre as massas do próton e do
elétron. Podemos então pensar no méson B com se fosse um átomo
de hidrogênio em miniatura (o méson B é mais ou menos do
tamanho de um próton), em que o antiquark u orbita em torno do
quark b, com os glúons fazendo o papel dos fótons.

Assim como nos káons neutros, a desintegração dos mésons B


começa pelo decaimento do quark b, causado pela força fraca. O
quark b deixa de existir, dando lugar a um quark s e a duas outras
partículas, que podem ser tanto um par quark-antiquark como um
par lépton-antineutrino. O quark s se combina com o antiquark u,
formando um káon carregado.

Em alguns casos, bem mais raros, mas bem mais interessantes, o


decaimento do méson B resulta em um káon e um par lépton-
antilépton (elétron-pósitron ou múon-antimúon). Segundo o MP,

308
um par elétron-pósitron seria produzido nessa reação com
exatamente a mesma probabilidade de um par múon-antimúon.

Essa previsão pode ser testada comparando a frequência com que


o méson B decai em pares elétron-pósitron ou múon-antimúon. A
razão entre as frequências dos dois modos de desintegração deve
ser um número muito próximo de um (seria precisamente um se
elétrons e múons tivessem exatamente a mesma massa),

Esse tipo de decaimento em um káon e um par lépton-antilépton é


bastante raro. Apenas um em cada 10.000.000 de mésons B decairá
dessa forma. Por essa razão, os experimentos, em especial o LHCb,
de tempos em tempos repetem a medida da razão RK, à medida que
mais dados são acumulados. Durante a escrita desse livro, o
experimento LHCb publicou uma atualização da medida da razão
RK, encontrando o valor 0,846 com uma incerteza de 0,044.

Todo e qualquer resultado experimental, independente da sua


natureza, é expresso não só pelo valor medido como também pela
incerteza. A incerteza reflete não só a precisão da medida, que
depende do tamanho da amostra (incerteza estatística), como
também uma incerteza devida à forma como a medida é feita
(incerteza sistemática, relacionada ao método usado, qualidade do
equipamento etc.). Em geral, os dois tipos são combinados em um
único número.

A estatística é uma ferramenta fundamental no tratamento dos


dados de qualquer experimento, qualquer que seja a área. Imagine
se o experimento LHCb fosse repetido várias vezes. Em cada
repetição, utilizando exatamente o mesmo equipamento e a mesma
quantidade de colisões, um valor de RK ligeiramente diferente seria
obtido. Então dispomos em um gráfico o resultado de cada
experimento hipotético. Se o número de repetições do experimento

309
fosse muito grande, os valores de RK medidos formariam uma
distribuição normal, mais conhecida como Gaussiana.

A Gaussiana tem dois parâmetros, o valor médio e o desvio padrão.


A incerteza no valor de RK é o desvio padrão, s, que mede a
dispersão dos resultados caso o experimento fosse repetido muitas
vezes. A área sob a curva entre os valores RK - s e RK + s
corresponde a uma probabilidade de 68,3%. Em outras palavras, se
o experimento fosse repetido mais uma vez, a probabilidade de
obter um resultado dentro do intervalo [0,802 - 0,890] seria 68,3%.

O resultado experimental difere da previsão do MP por 3,1 vezes o


valor da incerteza da medida (3,1s). Do ponto de vista estatístico,
isso significa que se o experimento fosse repetido mil vezes, em
apenas três delas obteríamos o valor previsto pelo MP, RK = 1. Em
outras palavras, há 99,76% de chance de esse resultado indicar uma
falha nas previsões do MP!

A distribuição Gaussiana é caracterizada por dois parâmetros, o


valor médio e o desvio padrão. Na figura, o valor médio
corresponde ao valor de RK medido pelo LHCb, e o desvio padrão
é a incerteza total da medida. Para chegar ao “limite” 5s, será
preciso acumular mais dados e reduzir a incerteza experimental.

Três chances em mil ainda são consideradas um pouco alta. Há uma


“convenção” entre os físicos: um resultado que seja diferente do
valor esperado por mais de três desvios padrão é referido como
“evidência”. Mas se a diferença entre o valor medido e o esperado

310
for maior que cinco desvios padrão, o resultado é referido como
“descoberta”. O “limiar 5s” significa uma probabilidade de
99,997% de um resultado experimental ser diferente do previsto,
ou três chances em 100.000 tentativas.

A medida da razão RK é uma forma de testar o MP, segundo o qual


as interações fracas são idênticas para todos os léptons carregados.
O LHCb encontrou evidências de que esse não é o caso. Há outros
resultados que colocam o MP em cheque, ainda que nenhum deles
individualmente ultrapasse o “limiar 5s”. Mas quando esses vários
resultados são tomados em conjunto, formam uma indicação forte,
embora ainda não definitiva, de que há algo errado com a teoria.

g–2

Na minha infância, as crianças se divertiam com brinquedos


muito diferentes dos que existem hoje. Não havia jogos eletrônicos.
Uma das brincadeiras mais comuns era lançar pião. Um cordão era
enrolado em torno do pião, em geral uma peça feita de madeira com
simetria cilíndrica. Segurando uma ponta do cordão e fazendo um
movimento rápido com o pulso, joga-se o pião sobre o chão. O pião
executa dois movimentos: uma rotação, rápida, em torno do seu
eixo; um movimento, mais lento, de precessão em relação à
vertical. Nesse segundo movimento, o eixo de rotação do pião gira
em torno da vertical. É curioso como algo tão lúdico viria a inspirar
um experimento que coloca o MP em cheque.

O movimento do pião faz parte dos cursos universitários de


Mecânica, ilustrando os conceitos de torque e momento angular.
Nos cursos de Mecânica Quântica, é usado para ilustrar o que seria
o comportamento de um elétron, ou de um múon, na presença de
um campo magnético uniforme. É sempre bom lembrar que
elétrons e múons não são objetos “clássicos”. Fracassaram todas as

311
tentativas de construir uma teoria em que o elétron é considerado
uma minúscula esfera carregada que gira furiosamente sobre seu
eixo. Mas ainda assim, a analogia é útil e ajuda a entender a Física
envolvida.

A ilustração mostra uma esfera girando em torno do seu eixo e


executando um movimento de precessão (o giro do eixo de rotação
do objeto). O spin dos elétrons e dos múons também executam o
movimento de precessão quando estão em uma região onde há um
campo magnético uniforme.

Na teoria quântica, o momento magnético é proporcional ao spin


da partícula. A constante de proporcionalidade é o fator
giromagnético, g, cujo valor depende do tipo de partícula. Para
elétrons e múons, o valor de g é muito próximo de 2. Quando
elétrons e múons se propagam em um campo magnético uniforme,
eles não interagem apenas com o campo, mas também com as
partículas virtuais do vácuo quântico, que são criadas e destruídas
continuamente. É como se os léptons se propagassem sempre
cercados por uma nuvem de partículas virtuais. Se estas não
produzissem nenhum efeito, o fator g seria exatamente 2, tanto para
elétrons como para múons.

312
O fator g para elétrons é medido com grande precisão:
2,002.319.304.362.56(35). O número entre parêntesis é a incerteza
no valor das duas últimas casas decimais, ou seja, 35 partes em 10
trilhões. Equivale a medir o comprimento de um campo de futebol
com uma incerteza inferior a um fio de cabelo.

No Fermilab, em Chicago, o projeto Muon g-2 teve início há dez


anos, com o objetivo de testar o MP medindo o fator giromagnético
dos múons com uma precisão comparável à do valor teórico,
gµ = 2,001.165.918.10(43). Realizar medidas com esse grau de
precisão é um grande desafio, e requer enormes esforços para
controlar os menores detalhes.

O experimento consiste em injetar anti-múons em um anel circular.


O anel não é um acelerador, pois a energia dos anti-múons
permanece constante. Eles são mantidos em órbita por campos
elétricos, circulando algumas centenas de vezes no interior do anel
até decair em pósitrons e neutrinos. Dentro do anel, um campo
magnético uniforme, na direção vertical, faz com que a direção do
momento magnético dos anti-múons gire num movimento de
precessão cuja frequência depende do fator g.

Quando os anti-múons decaem, a energia dos pósitrons é medida,


assim como a contagem do número de decaimentos em função do
tempo. Com essas informações, é possível determinar a frequência
de oscilação e, portanto, o fator g.

Os primeiros resultados foram publicados em abril deste ano


(2021): o valor medido do fator g é 2,002.331.840.8(11). O
momento magnético anômalo é definido como aµ = ½ (g - 2), ou
seja, metade do que excede o fator 2. O excesso, como vimos, é
devido à interação dos anti-múons com as partículas virtuais.
Combinando esse resultado com as medidas anteriores, obtém-se o
valor aµ = 0,001.165.920.61(41).

O valor experimental é ligeiramente maior que o valor previsto


pelo MP, aµ (MP) = 0, 001.165.918.10(43). É uma diferença muito

313
pequena, 0,000.000.002.51, ou 251 partes em 10 bilhões. Não
deixa de ser assombroso que se possa realizar uma medida tão
precisa, e que um cálculo teórico chegue tão perto do resultado
experimental. Mas a diferença, apesar de pequena, é significativa:
um efeito de 4,2s, bem perto do limiar 5s. Mais dados estão sendo
analisados no momento e em breve esperamos que a incerteza no
valor experimental se reduza ainda mais. Então saberemos ao certo
se estaremos diante da primeira falha comprovada do MP.

Reidar Hahn/Fermilab

Fotografia do experimento Muon g-2, do Fermilab. Ao longo do


anel, há 24 dispositivos para detectar a energia dos pósitrons. É
um experimento pequeno comparado com os do LHC.

Que interpretação é dada a essa diferença? No cálculo teórico, as


contribuições de todas as partículas (virtuais) conhecidas são
somadas. O fato de o valor teórico ser menor que o medido indica
que a lista das partículas virtuais pode estar incompleta. O que falta
seria atribuído à contribuição de novas partículas. E o fato de a
diferença ser tão pequena significa que essas supostas novas

314
partículas teriam uma massa muito grande, o que produziria um
efeito tão sutil.

Como vemos, encontrar brechas no MP requer medidas de extrema


precisão. Isso demonstra como o MP descreve bem os fenômenos
observados nos laboratórios. Mas temos boas razões para afirmar
que o MP, apesar de todo o seu sucesso, é uma descrição
incompleta do mundo microscópico. Podemos citar três delas: a
ausência de antimatéria no Universo; os neutrinos serem partículas
com massa; e o fato de que tudo sobre o que falamos até agora se
refere a menos de 5% do conteúdo do Universo! Simplesmente,
não sabemos de que são feitos os outros 95%!

Os anti-múons são injetados no anel onde há um campo magnético


uniforme. Os anti-múons são mantidos em órbita por campos
elétricos. À medida que os anti-múons circulam, os seus spins
giram com uma frequência que depende do fator g. Os anti-múons
decaem originando pósitrons e neutrinos. A direção dos pósitrons
está diretamente relacionada à direção do spin do múon.
Combinando a direção dos pósitrons, suas energias e a contagem
dos decaimentos em função do tempo, determina-se o fator g.

315
13

O lado escuro da força

A ideia de que no Universo pode haver coisas que não vemos é


antiga. Newton levantou a hipótese de que a gravidade poderia
curvar a trajetória da luz, que para ele seria um feixe de
corpúsculos. No século XVIII, John Michell levou essa hipótese
adiante: se a gravidade afeta a luz, corpos com massa muito grande
poderiam produzir uma atração gravitacional tão intensa que nem
a luz conseguiria escapar. Esses objetos supermassivos seriam
invisíveis e detectáveis apenas pelos efeitos gravitacionais que
produziriam.

No século XIX, a ideia de que objetos astronômicos desconhecidos


poderiam ser detectados através da gravidade teve uma
comprovação espetacular. Em 1846, o astrônomo francês Le
Verrier, usando a lei da gravitação universal de Newton, concluiu
que algumas anomalias na órbita do planeta Urano só poderiam ser
explicadas se houvesse um novo planeta por perto.

Le Verrier enviou seus cálculos, com a previsão da órbita do


suposto novo planeta, ao astrônomo alemão John Galle. Os
cálculos de Le Verrier eram tão precisos que em menos de um dia
Galle encontrou o planeta Netuno, quase que exatamente na órbita
predita.

A evolução da tecnologia sempre permite descobrir fenômenos


novos. Quando os astrônomos conseguiram acoplar câmeras

316
fotográficas aos telescópios, no final do século XIX, foram
observadas áreas escuras no céu, vizinhas a áreas com grande
densidade de estrelas. Iniciou-se então um debate sobre a origem
dessas áreas escuras. Seria simplesmente espaço vazio, ou haveria
no caminho até nós algum tipo de matéria que absorveria a luz das
estrelas? Não poderia haver estrelas extintas ou com brilho muito
fraco para serem observadas?

Sabemos hoje que a matéria de que são feitas as estrelas e os


planetas corresponde apenas a uma pequena fração da energia total
do Universo. É a matéria visível. Existe uma outra forma de matéria
que não emite nem absorve radiação eletromagnética, e por isso é
chamada matéria escura. Ela corresponde a cerca de 85% da
matéria do Universo, e sua natureza e origem são dois dos grandes
mistérios da Física no século XXI.

Até o presente, a matéria escura só é detectável através dos seus


efeitos gravitacionais. A suspeita da sua existência surgiu em 1933,
graças a Fritz Zwicky, um astrônomo nascido na Bulgária, que era
cidadão suíço, mas que passou a maior parte da sua vida nos EUA.

Zwicky foi um astrônomo notável e bastante polêmico, descobridor


das estrelas de nêutrons. Ele dedicou boa parte do seu tempo ao
estudo das supernovas (termo inventado por ele). É dele a hipótese
de que as supernovas seriam uma etapa na evolução de estrelas
muito massivas que culminaria nas estrelas de nêutrons. Também
é dele a hipótese de que as nebulosas poderiam atuar como lentes
gravitacionais, um efeito que foi observado pela primeira vez
apenas em 1979.

As primeiras evidências da matéria escura surgiram quando


Zwicky estudava o aglomerado de galáxias Coma. Algumas
décadas antes, William Thomson, mais conhecido como lorde
Kelvin, propôs um método para detectar objetos celestes invisíveis.
As estrelas da Via Láctea poderiam ser representadas como
partículas de um gás unidas pela gravidade, onde cada estrela tem
uma velocidade relativa ao centro galáctico. Usando a teoria

317
cinética dos gases, Kelvin estimou como seria a distribuição de
velocidades das estrelas visíveis. A presença de objetos invisíveis
alteraria a distribuição de velocidades das estrelas. A grande
dificuldade era a estimativa da massa da Via Láctea, mas em
princípio, desvios grandes dessa previsão indicariam a existência
de objetos escuros.

Usando o método proposto por Kelvin, Zwicky encontrou uma


grande discrepância entre o valor esperado das velocidades das
galáxias no aglomerado de Coma e o que de fato observava ao
telescópio. Na interpretação de Zwicky, “Se isto for confirmado,
teremos o resultado surpreendente de que a matéria escura (termo
criado por Henri Poincaré) está presente em quantidades muito
superiores à da matéria luminosa”.

Quarenta anos de muita polêmica se passaram até que a


confirmação da hipótese de Zwicky fosse feita por uma ardorosa
defensora da participação feminina na Ciência, a astrônoma
estadunidense Vera Rubin. No início da sua carreira, Rubin não
pôde fazer observações no grande telescópio do monte Palomar,
onde até 1960 a entrada de mulheres era proibida. A Física e a
Astronomia eram universos masculinos, e a presença feminina era
vista com uma certa desconfiança. Embora isso venha mudando há
algumas décadas, ainda há uma significativa desigualdade de
gênero na Ciência.

Rubin confirmou da hipótese de Zwicky sobre a existência da


matéria escura através das curvas de rotação. São gráficos que
mostram como a velocidade com que as estrelas orbitam em uma
galáxia variam em função da distância ao centro galáctico. Rubin
trabalhava em estreita colaboração com Kent Ford, um astrônomo
estadunidense. Ford havia construído um espectrógrafo sofisticado
(ver caps. 1 e 2), com que puderam fazer medidas precisas das
velocidades usando a luz das estrelas, em vez de ondas de rádio,
que era a técnica até então disponível.

318
De acordo com a Mecânica Newtoniana, a maior parte da massa de
uma galáxia espiral, como a Via Láctea, estaria concentrada na
região central, e a velocidade orbital das estrelas e do gás
interestelar deveria diminuir à medida que a distância ao centro
galáctico aumenta. Estudando a galáxia de Andrômeda, Rubin e
Ford observaram algo bem diferente: ao contrário do esperado, a
velocidade de rotação aumenta nas bordas da galáxia.

Uma curva de rotação, mostrando o comportamento inesperado


quando a distância ao centro da galáxia aumenta. Os pontos
coloridos com barras de erro são as velocidades medidas.
Mario De Leo, https://commons.wikimedia.org/w/index.php?curid=74398525
Posteriormente, as curvas de rotação de várias galáxias e
conglomerados foram medidas. Elas são uma das principais
evidências de que as galáxias estão envolvidas por um gigantesco
halo de matéria invisível, com massa várias vezes maior do que a
matéria visível.

Há outras evidências da matéria escura, como a radiação cósmica


de fundo. No nosso passeio pelo Universo primordial (capítulo 10)
vimos como as simulações da evolução do Universo são
confrontadas com o mapa da radiação de fundo, mas passamos ao
largo do problema da matéria escura. O mapa da radiação de fundo

319
permite estimar a proporção de matéria escura no Universo, mesmo
sem saber quase nada sobre a sua natureza. O aspecto do mapa só
é reproduzido quando a quantidade correta de matéria escura é
incluída nas simulações.

Vera Rubin, em fotografia feita por Mark Godfrey

Além da radiação de fundo, na Cosmologia moderna há diversos


aspectos que devem ser confrontados com os modelos, como a
abundância relativa dos elementos químicos e a formação das
estruturas em larga escala (aglomerados de galáxias). Esse e outros
aspectos formam o modelo LCDM, que resume o que há de mais
consensual sobre a evolução do Universo. Sabemos, com boa
precisão, que no Universo, 85% da matéria é invisível. Em que
consiste essa matéria invisível? Partículas exóticas? Qual a sua
origem, de que formas ela pode interagir?

A matéria escura pode, em princípio, ser composta não por um, mas
por diversos componentes. No momento, sabemos o que a matéria
escura não é, e assim vamos eliminando as possibilidades. Por ser
invisível, e até o momento detectável apenas pela gravidade,
sabemos que ela não é feita de prótons e nêutrons. Isso não elimina
completamente a hipótese de que estrelas anãs e outros objetos que

320
não emitem luz façam parte da matéria escura, mas seriam uma
fração muito pequena.

Os neutrinos seriam candidatos naturais. Além de serem partículas


estáveis, quase não interagem com a matéria ordinária. São capazes
de atravessar a Terra sem deixar rastro. Neutrinos não têm carga
elétrica, e por isso não interagem com fótons, ou seja, não emitem
ou absorvem luz. Não sabemos ainda o valor das massas dos
neutrinos. Sabemos apenas que eles são as partículas elementares
mais leves, pelo menos mil vezes mais leves que o elétron. Apesar
de terem massas muito pequenas, os neutrinos são, depois dos
fótons, as partículas mais abundantes do Universo, e poderiam
produzir o efeito gravitacional da matéria escura.

O argumento contra os neutrinos é o seguinte. A matéria escura


pode ser “quente”, isto é, feita de partículas que se movem com
velocidades próximas à da luz, ou “fria”, feita de partículas não
relativísticas. Uma combinação de observações astronômicas
elimina a possibilidade de a matéria escura ser “quente”. E isso
exclui os neutrinos como candidatos, pois se propagam com
velocidades muito próximas à da luz. Seriam ótimos candidatos à
matéria escura “quente”. Ainda assim, é possível que os neutrinos
façam parte do cardápio da matéria escura, mas também com uma
fração muito pequena.

As possibilidades, no âmbito do Modelo Padrão (capítulo 9) se


esgotam. Como não há dúvidas de que a matéria escura existe,
podemos concluir que o MP é, de fato, uma teoria incompleta. A
composição da matéria escura deve incluir novas partículas e novas
formas de interação: grandes descobertas a serem feitas, ótimas
oportunidades para jovens talentos.

321
Neutrinos
Os neutrinos são partículas fascinantes. São como fantasmas,
quase indetectáveis. Não têm carga elétrica e só muito raramente
interagem com outras partículas. Como todas as demais, sofrem
também o efeito da gravidade. Existem neutrinos em abundância
no Universo, tanto os primordiais, que viajaram ilesos desde o
início dos tempos, como também os que são produzidos em
profusão no interior das estrelas.

Partículas carregadas produzem ionização, e graças a isso deixam


traços nos detectores de posição. Os neutrinos, ao contrário, só
podem ser detectados indiretamente. Como a probabilidade de um
neutrino interagir com a matéria é muito pequena, os detectores de
neutrinos têm que ser gigantescos.

O experimento Super-Kamiokande, no Japão, é um exemplo. Foi


construído em uma mina abandonada, a um quilômetro de
profundidade. O detector fica próximo à costa oeste do Japão, e foi
projetado para detectar neutrinos de alta energia de várias fontes.
Dentre elas, o Super-Kamiokande recebe feixes de neutrinos
vindos de um acelerador na costa leste do Japão. Até chegar ao
detector, onde raríssimos deixam registro, os neutrinos atravessam
alegremente centenas de quilômetros de subsolo.

O detector é um imenso tanque contendo 50.000 toneladas de água


ultrapura. As paredes internas são revestidas com detectores de
fótons. Nas interações dos neutrinos com a água, elétrons
relativísticos são produzidos. Ao atravessarem a água, os elétrons
provocam a emissão de luz Čerenkov, que é coletada pelos
detectores de fótons. Vale a pena uma visita ao site do experimento,
onde há uma belíssima galeria de fotos (http://www-sk.icrr.u-
tokyo.ac.jp/sk/gallery/index-e.html ).

A aparente simplicidade dos neutrinos esconde efeitos quânticos


fantásticos. Um deles é um fenômeno, previsto em 1957 pelo
italiano Bruno Pontecorvo, que se manifesta em escala

322
macroscópica: as oscilações de sabor. É um efeito muito sutil, e
por isso a sua observação foi um grande feito. Segundo o MP, as
oscilações de sabor não deveriam existir.

Vimos nos capítulos 9 e 10 que os neutrinos formam duplas com


os léptons carregados. Cada tipo de neutrino recebe uma etiqueta
exclusiva da dupla a que pertence: o número quântico sabor. Só
interagem com o lépton carregado da sua dupla. Essa é uma
diferença fundamental entre os quarks e as duplas (e,ne), (µ,nµ) e
(t,nt).

No capítulo anterior vimos um exemplo de oscilação de sabor:


durante o voo, o káon neutro torna-se a sua antipartícula e vice-
versa. No caso dos neutrinos, a oscilação de sabor é o fenômeno
diferente. Não é uma oscilação entre partícula e antipartícula, e sim
uma transição “proibida”: um neutrino do elétron, ne, se
transforma, ao longo do seu voo, em um neutrino do múon,
voltando a ser um neutrino do elétron, para novamente virar nµ, e
assim indefinidamente.

Os neutrinos mudam de identidade com uma frequência muito


pequena, o que significa que para observar as oscilações é preciso
que eles percorram grandes distâncias.

A oscilação de sabor é um fenômeno raro, puramente quântico e


notável. No momento em que um neutrino é produzido, ele tem
uma identidade bem definida. Mas à medida que ele se propaga, a
sua identidade oscila. Não é possível dizer exatamente a que
família o neutrino pertence, a não ser quando ele interage
novamente com alguma outra partícula. Nesse momento, ele
assume uma identidade definida. Dizemos que o neutrino está em
um estado bem definido em termos do sabor.

No MP existem três tipos de neutrinos. Quando eles interagem,


podemos diferenciá-los pelo sabor (ne, nµ e nt). Quando se
propagam, eles podem ter três valores de massa diferentes (n1, n2 e
n3). Nesse caso, o neutrino está em um estado bem definido em

323
termos de massa. Estados de sabor e estados de massa são formas
diferentes de tratar as mesmas partículas: os neutrinos.

O primeiro indício das oscilações de sabor apareceu na forma de


um enigma: o chamado problema dos neutrinos solares. Nos anos
1960, já havia modelos bem precisos para as reações nucleares que
ocorrem no interior das estrelas. Nessas reações, que têm
características bem conhecidas, são produzidos apenas neutrinos
do elétron, e em abundância. E eis o problema: a medição do fluxo
dos neutrinos solares encontrou apenas metade do valor esperado.
O que teria havido com a outra metade?

Hoje sabemos a resposta: a metade dos neutrinos solares que


faltava chega à Terra como neutrinos de outra família. A prova
definitiva ocorreu em 2001. Foram dois tipos diferentes de
experimento: um utilizando feixes de neutrinos produzidos em
laboratórios, apontados para detectores a centenas de quilômetros
de distância, passando por debaixo da crosta terrestre; o outro,
utilizando neutrinos produzidos no Sol e um grande detector
subterrâneo. Os coordenadores dos dois experimentos receberam o
Prêmio Nobel de 2015.

A confirmação das oscilações de sabor mostra a limitação do MP.


É uma prova clara de que há mais coisas do que conhecemos: as
oscilações de sabor só podem ocorrem com partículas massivas,
mas na estrutura matemática do MP os neutrinos são partículas sem
massa, como os fótons.

Há um outro efeito quântico envolvendo neutrinos que é bastante


singular: a quiralidade. O termo deriva da palavra em grego para
“mão”. Objetos com a propriedade da quiralidade são diferentes da
sua reflexão no espelho. A mão é o exemplo mais simples. A
imagem da mão direita no espelho é a mão esquerda. A imagem de
uma esfera é idêntica à própria esfera. As mãos são objetos quirais,
esferas não. Na Natureza há vários exemplos de objetos quirais.

324
Na Física de partículas, usamos “mão direita” e “mão esquerda”
para diferenciar os dois estados de quiralidade. Não há muito como
fazer analogias. É uma propriedade que afeta a interação entre as
partículas elementares, produzindo efeitos diferentes para os
estados de “mão direita” e de “mão esquerda”.

Exemplos de objetos que possuem a propriedade da quiralidade.

Os léptons carregados têm as duas versões da quiralidade, mas


somente os neutrinos de “mão esquerda” participam das interações
fracas. No MP, essa assimetria – somente neutrinos de “mão
esquerda” - está associada à hipótese de os neutrinos serem
partículas sem massa. A descoberta das oscilações de sabor provou
o contrário. É preciso mudar o MP para acomodar neutrinos
massivos.

325
Se os neutrinos são partículas com quiralidade “mão esquerda”, os
antineutrinos são partículas de “mão direita”. Mas a descoberta da
massa dos neutrinos leva imediatamente a novas perguntas. Que
mecanismo(s) gera a massa dos neutrinos? Se eles têm massa, não
deveria haver também neutrinos de “mão direita”? O que, de fato,
diferencia neutrinos de antineutrinos? São mesmo partículas
diferentes? São perguntas importantes para as quais ainda não
temos respostas, mas sabemos que elas nos levarão a novos
fenômenos, não previstos pelo MP.

Neutrinos de mão direita ainda não foram observados, mas se


existirem, já sabemos que não interagirão com os bósons W e Z das
interações fracas. Seriam neutrinos inertes, e não formariam duplas
com léptons carregados. Seriam partículas “solitárias”, muito
difíceis de serem detectadas.

Muitos físicos se dedicam a formular teorias para os fenômenos


que não são explicados pelo MP. As teorias alternativas preveem a
existência de novas partículas, que em geral têm uma massa muito
grande. Essas previsões motivam os experimentos a fazerem
pesquisas específicas, tentar detectar essas partículas. Os neutrinos
inertes seriam um desses tipos de partículas “exóticas”, muito
pesadas e, portanto, muito mais “frias” que os neutrinos do MP.
Seriam candidatos a compor a matéria escura.

Energia escura

O destino de uma estrela depende da sua massa. A evolução


estelar é um processo bastante complexo, mas em linhas gerais
pode ser resumido da seguinte forma. A gravidade tende sempre a
fazer a estrela colapsar, mas é impedida pela radiação emitida nas
reações nucleares. A radiação exerce uma pressão contrária,
compensando a ação da gravidade. Enquanto a estrela tem
combustível para queimar, o equilíbrio é mantido. Porém, chega

326
um momento em que as reações nucleares desaceleram, a estrela
esfria e o equilíbrio se rompe.

O Sol, dentro de alguns bilhões de anos, esgotará seu estoque de


hidrogênio, sua temperatura diminuirá, e ele começará a colapsar.
Sua massa não será muito alterada (não haverá muita matéria
ejetada no espaço sideral), mas seu diâmetro diminuirá
continuamente. A compressão aumentará a temperatura, o que será
suficiente para impedir uma implosão, mas isso não evitará que o
diâmetro continue a diminuir.

Quando o Sol chegar ao tamanho da Terra, a densidade será


centenas de milhares maior que a da água. Então, um efeito
quântico impedirá que a compressão continue. Em situações de
densidade altíssimas, os átomos estão muito compactados. Os
elétrons ficam muito próximos entre si. O princípio de exclusão de
Pauli (capítulo 2) nos diz que dois elétrons não podem ocupar o
mesmo estado quântico ao mesmo tempo, e isso implicará uma
resistência à compactação da massa do Sol, compensando a pressão
da gravidade.

O destino do Sol é se tornar uma anã branca. Ele continuará a


brilhar por muito tempo, pois mesmo que não haja mais energia
suficiente para produzir reações nucleares, ainda restará muita
energia térmica para ser irradiada. Aos poucos, a sua luz se apagará
e ele se tornará uma anã negra, um corpo celeste do tamanho da
Terra, mas com densidade milhares de vezes maior. Esse processo
de resfriamento, no entanto, durará muitos bilhões de anos.

O destino de uma estrela cuja massa fosse pelo menos três vezes
maior que a do Sol seria bem diferente. Nesse caso, pressão da
gravidade seria tão grande que o superaria o efeito quântico que
impede as anãs brancas de implodir. Sem resistência para deter o
colapso, a estrela desabaria sobre si mesma. Durante o colapso, a
temperatura aumentaria tanto e tão rapidamente que provocaria
uma explosão cataclísmica: uma supernova. A energia expelida
para o espaço seria tanta que a supernova brilharia tanto quanto a

327
própria galáxia. Ela apareceria no céu com um brilho inicialmente
muito intenso, que duraria algumas semanas, e depois diminuiria
gradativamente ao longo de alguns meses.

Existem diferentes tipos de supernovas, mas um é especialmente


importante: as supernovas 1a. São sistemas binários, isto é, duas
estrelas que orbitam em torno uma da outra. Uma das estrelas é
uma anã branca. Nos estágios finais da sua evolução, a outra estrela
expele continuamente matéria, que é absorvida pela anã branca.
Quando a massa da anã branca aumenta, o equilíbrio entre efeitos
quânticos e gravidade se rompe. A gravidade faz a anã branca
colapsar. No processo, ela se reaquece, as reações nucleares
recomeçam e a estrela explode.

De todos os tipos, as supernovas 1a são as mais brilhantes. Elas


são importantes porque seu brilho intrínseco é conhecido (no
jargão da Astronomia, são “velas padrão”). No capítulo 3 vimos
como podemos determinar a distância de uma estrela medindo seu
brilho aparente, se o seu brilho intrínseco é conhecido. Como o
brilho das supernovas é muito intenso, é possível observá-las
mesmo quando estão muito distantes.

Em 1929, Hubble mostrou que o Universo está em expansão.


Mostrou também que a velocidade com que um objeto celeste se
afasta da Terra é proporcional à sua distância. Quanto maior for a
velocidade do afastamento, maior será o desvio da luz para o
vermelho, o redshift. Assim, o redshift fornece um meio de medir
a velocidade de afastamento. A relação entre distância e velocidade
é a lei de Hubble (capítulo 3).

Os astrônomos quantificam o redshift da luz de uma galáxia


comparando a posição das linhas espectrais observadas, lobs, com
a posição medida em laboratório, llab. Mais precisamente, os
astrônomos usam a razão z = (lobs - llab) / llab para medir quanto a
luz de uma galáxia se desvia para o vermelho. Pequenos valores
de z significam redshifts pequenos, ou galáxias próximas, com

328
velocidades de afastamento pequenas. A lei de Hubble pode então
ser escrita como uma relação entre o valor de z, representando a
velocidade de afastamento, e a distância.

A lei de Hubble é comprovada quando se consideram galáxias não


muito distantes, ou seja, para as quais o redshift não é muito grande
(valores moderados de z). O fato de as supernovas 1a serem “velas
padrão” de brilho muito intenso permite medir o valor de z para
objetos muito distantes, e assim verificar se a lei de Hubble
continua válida em escalas maiores.

Duas equipes se dedicaram ao estudo sistemático do redshift de


supernovas 1a: Supernova Cosmology Project, liderado por Saul
Perlmutter, e High-z Supernova Search Team, liderado por Adam
Riess e Brian Schmidt. O grupo de Perlmutter realizou suas
medidas no observatório astronômico de Cerro Tololo, nos Andes
chilenos, enquanto o grupo de Riess e Schmidt usou dados do
satélite Hubble e do telescópio Keck, no Havaí.

329
A gravidade governa a dinâmica do Universo. A gravidade é um
efeito atrativo, e isso deveria reduzir a velocidade de expansão do
Universo de tal forma que, a partir de determinado momento, a
expansão se reverteria e o Universo passaria a se contrair. O
redshift de galáxias muito distantes indicaria uma diminuição da
velocidade de afastamento.

Os dois grupos apresentaram seus primeiros resultados em 1998.


Observaram algo muito diferente. As supernovas brilhavam com
intensidade menor do que a esperada, e isso indicava que elas
estavam mais distantes do que o previsto. Dito de outra maneira,
elas estavam mais distantes do que o esperado porque se afastavam
com velocidades acima do previsto pela lei de Hubble. O desvio da
lei de Hubble foi uma descoberta sensacional, que mostrou que a
velocidade de expansão do Universo está aumentando!

Por essa descoberta, Riess, Schmidt e Perlmutter receberam o


Prêmio Nobel em 2011. Ela se junta à descoberta da matéria escura,
da radiação cósmica de fundo e às descobertas de Hubble nos anos
1920, como as descobertas astronômicas mais importantes do
século XX.

Medidas posteriores comprovaram os resultados de 1998. Desde


então, sabemos que o Universo se expande hoje com rapidez maior
que no passado. Mas o que causa essa aceleração é um dos grandes
mistérios da Física contemporânea.

A aceleração da taxa de expansão do Universo seria impossível,


segundo a Teoria da Relatividade Geral (RG), a melhor descrição
que temos da gravidade. Em um Universo composto apenas por
matéria e radiação, a expansão do Universo deveria ser
desacelerada pela gravidade, necessáriamente. A descoberta da
aceleração da expansão do Universo significa que deve haver um
outro componente, um novo tipo de energia cuja natureza é
desconhecida, e que tenha efeito repulsivo, atuando como uma
“antigravidade”. Os físicos se referem à essa componente como a
energia escura.

330
A descoberta da aceleração da expansão do Universo pode ser
representada por esse gráfico. A lei de Hubble estabelece a
relação linear entre a velocidade de afastamento de uma galáxia e
sua distância em relação à Terra. Essa é a linha reta em azul. Cada
círculo representa uma galáxia observada. Até recentemente as
observações astronômicas se limitavam a galáxias relativamente
próximas. A supernovas 1a possibilitaram estudar a relação entre
distância e velocidade em escalas maiores. O resultado mostra que
a lei de Hubble é válida em escalas menores, mas em escalas
maiores a velocidade de expansão do Universo cresce (linha
vermelha). O que se esperava é uma diminuição da velocidade
devida à ação da gravidade (linha verde).

É possível que a RG, apesar de ser tão bem testada e tão bem-
sucedida, não descreva corretamente a gravidade em escalas
cosmológicas. Não seria a primeira vez que uma teoria sólida se
revela uma aproximação quando o nosso poder de observação
aumenta.

No modelo cosmológico “padrão” (LCDM), a energia escura


corresponde à energia do vácuo, um efeito puramente quântico. O
vácuo, na teoria quântica, não é simplesmente espaço vazio. Como
consequência do princípio de incerteza, pares de partículas e

331
antipartículas são continuamente criados e destruídos. No vácuo
quântico, os diversos campos que preenchem o Universo vibram
no seu estado fundamental, o de menor energia (que não é nula!).

A densidade de energia do vácuo é constante, tem o mesmo valor


em qualquer lugar e em qualquer momento. À medida que o espaço
expande, a energia do vácuo produziria um efeito de repulsão que
aumentaria continuamente.

Essa hipótese reintroduz a polêmica constante cosmológica, e nos


mostra como o mundo dá voltas. Os físicos, mesmo os mais
geniais, não são livres de idiossincrasias, crenças e preconceitos.
Com Einstein não foi diferente. Ele acreditava que o Universo seria
estático e eterno. Os planetas giram em torno do Sol, o Sistema
Solar, gira em torno do centro da Via Láctea, mas as galáxias não
se afastariam umas das outras. O Universo não teria um início nem
um fim.

As equações do campo gravitacional, no entanto, levavam a outro


cenário, o de um Universo em expansão ou contração. Insatisfeito,
Einstein adicionou uma constante representando a energia do
vácuo, que anularia o efeito da gravidade e tornaria o Universo
estático. Alguns anos depois, quando Hubble mostrou que o
Universo está em expansão, Einstein rejeitou a constante
cosmológica, referindo-se a ela como seu maior erro científico. Se
tivesse vivido para ver a descoberta de 1998, Einstein
provavelmente mudaria de ideia.

A combinação de diversos tipos de observações astronômicas


permite estimar a composição do Universo. Mas revela o grau da
nossa ignorância: tudo o que aprendemos ao longo dos últimos 120
anos diz respeito a menos de 5% do conteúdo do Universo!

332
Fotografia do Telescópio Espacial Hubble, visto da Estação
Espacial Internacional.

333
Epílogo
Ao longo dos últimos 120 anos aprendemos muito sobre o
microcosmo, sobre o Universo, a origem da vida, e sobre nós
mesmos e nossas origens. Desvendamos sucessivas camadas na
estrutura da matéria. Sabemos hoje que toda a matéria visível no
Universo é feita dos mesmos constituintes presentes aqui na Terra.
Sem termos ido além do entorno do nosso planeta, descobrimos o
nosso lugar na vastidão do Universo.

Aprendemos também que todos os seres vivos descendem de um


mesmo ancestral. A MQ possibilitou demonstrar a teoria da
Evolução de Darwin em nível molecular. Descobrimos que o
código da vida é comum a todos os seres vivos. E podemos afirmar
com toda a segurança que há não há diferenças genéticas entre os
humanos que sustentem a ideia de “raças”.

A revolução científica do início do século XX causou uma


mudança radical no nosso olhar sobre a Natureza, na forma como
vemos os fenômenos naturais. E essa mudança veio acompanhada
de uma transformação igualmente radical do nosso modo de viver,
um processo em pleno curso e em ritmo cada vez mais acelerado.

A Teoria da Relatividade (TR) e a Mecânica Quântica (MQ) são os


dois pilares da Física contemporânea. A TR foi obra de um homem
só. Seu ponto de partida foi um fenômeno que já era conhecido
desde Galileu: a aceleração da gravidade é a mesma para todos os
corpos. Usando apenas essa informação e experimentos mentais,
Einstein demonstrou que espaço e tempo são intimamente ligados,
assim como a matéria e a energia. O espaço-tempo é moldado pela
matéria-energia, e essa é a origem da gravidade.

A MQ, ao contrário, foi obra de muitos. Seu ponto de partida foram


fenômenos em escala atômica, inexplicáveis pelas teorias de

334
Newton e Maxwell: a radiatividade, o corpo negro, o efeito
fotoelétrico, os espectros atômicos, entre outros. Foram necessários
25 anos para que as novas ideias, introduzidas para explicar esses
fenômenos, se amalgamassem e fossem sintetizadas em uma teoria
matemática, cujos desdobramentos são explorados até os dias de
hoje.

A MQ nos permitiu entender como os átomos funcionam. Esse


aprendizado propiciou a evolução vertiginosa da tecnologia nas
décadas que se seguiram. Trouxe uma nova perspectiva para a
Química ao explicar a dinâmica das ligações entre os átomos e das
reações químicas. Possibilitou a descoberta da estrutura do DNA,
o nascimento da Biologia Molecular e da Medicina moderna. É está
no coração da novíssima Ciência dos materiais nano estruturados.

O modelo atômico da matéria talvez seja a maior conquista


científica da humanidade. O grande físico estadunidense Richard
Feynman disse certa vez que se um grande cataclismo destruísse
todo o conhecimento científico acumulado, e que se pudéssemos
transmitir apenas uma frase para as gerações futuras, essa frase
seria “todas as coisas são feitas de átomos”.

A MQ e o modelo atômico são a base do mundo moderno. Com


eles conseguimos construir “microscópios” potentes com que
podemos distinguir estruturas até 0,000.000.000.000.000.001 m.
Uma nova “tabela periódica” foi construída, onde, em vez de
átomos, temos agora quarks e léptons. Aqui, ou em qualquer outra
galáxia distante, toda a matéria é feita dos mesmos constituintes.

Toda a matéria? Aqui está a grande ironia: junto com todo o


conhecimento adquirido nos últimos 120 anos, constatamos que de
tudo o que apendemos se refere a menos de 5% do conteúdo do
Universo. Os outros 95% são um grande enigma, e nos mostram
como pode ser vã a esperança de que um dia tenhamos uma “teoria
de tudo”, que explique todos os fenômenos. A Natureza ama
esconder-se, mas nós, humanos, amamos tentar decifrá-la,
desvendar seus mistérios. É disso o que a Ciência se trata.

335
Bibliografia comentada

A bibliografia específica sobre Física de Partículas, em português,


ainda é muito escassa. Existem algumas publicações sobre pares
específicas deste livro e temas correlatos:

o “O Cerne da Matéria”, de Rogério Rosenfeld (Companhia


Das Letras)

o “Batendo à porta do céu”, de Lisa Randall (Companha Das


Letras)

Existem ótimas biografias de Einstein, que tratam tanto da sua vida


pessoal como científica, de leitura muito agradável. O livro de
Abraham Pais, um físico renomado que conviveu com Einstein em
Princeton, aborda questões científicas em um grau avançado. Eis a
lista:

o “Einstein, sua vida, seu universo”, de Walter Isaacson


(Companhia Das Letras)

o “Einstein em Berlim”, de Thomas Levenson (Objetiva)

o “Sutil é o Senhor... A Ciência e a Vida de Albert Einstein” de


Abraham Pais (Nova Fronteira)

Ainda sobre a Teoria da Relatividade, há um pequeno e precioso


livro escrito pelo próprio Einstein em 1916:

o “A Teoria da Relatividade Especial e Geral” (Contraponto)

336
Stephen Hawking é um renomado autor de vários livros sobre a
Relatividade, Cosmologia, Gravitação Quântica e buracos negros.
Em particular:

o “O Universo em uma casca de noz” (ARX)

o “Uma breve história do tempo” (Intrínseca)

O físico italiano Carlo Rovelli é autor de livros sobre a Teoria


Quântica, a Relatividade, e a união das duas, a Gravitação
Quântica. Em português há dois títulos, com publicação
relativamente recente:

o “Sete breves lições de Física” (Objetiva)

o “A realidade não é o que parece” (Objetiva)

Um livro clássico, escrito por Werner Heisenberg, trata de assuntos


ligados à teoria quântica, do qual é um dos fundadores. Aborda
também questões filosóficas relacionadas à interpretação dos
conceitos da Mecânica Quântica:

o “A parte e o todo” (Contraponto)

Li recentemente um belo livro de um matemático inglês, Ian


Stewart, sobre a Astrofísica, a Astronomia e a Cosmologia, na
visão da Matemática. É bastante acessível.

o “Desvendando o Cosmo” (Zahar)

Para os que leem em inglês, um livro excelente sobre a assimetria


entre matéria e antimatéria é:

337
o “The mystery of the missing antimatter”, de Hellen Quinn e
Yossi Nir (Princeton).

Há também muitos sites na internet que valem a pena uma visita,


infelizmente, a maioria em inglês. Mas há alguns em português:

https://www.sprace.org.br/AventuraDasParticulas/

A Wikipedia, na versão em inglês, é uma excelente fonte de


pesquisa, bastante completa e com muitas referências:

https://en.wikipedia.org/wiki

As páginas dos grandes laboratórios, CERN e Fermilab, tem vasto


material de divulgação, assim como as páginas da NASA e da ESA:

https://www.nasa.gov/

https://www.esa.int/

https://home.cern/

https://www.fnal.gov/

Há também uma revista científica online com artigos excelentes e


bem acessíveis:

https://www.quantamagazine.org/

338

Você também pode gostar