Você está na página 1de 20

Astrofísica de Altas Energias:

uma première
J.E. Horvath
IAG-USP

Na imagem: o surto gama GRB080319B produzido a uma distância de 7.5 bilhões de


anos-luz. Este evento poderia ter sido visto a olho nu por qualquer observador na
Terra que estivesse olhando na sua direção na forma de um destelho com duração
de ~segundos.
Capítulo 1
A natureza do mundo físico: partículas
elementares e interações

Partículas elementares e interações fundamentais: uma introdução


Interações elementares de alta energia
O Modelo Padrão das partículas elementares
As interações fortes e a QCD (Cromodinâmica Quântica)
A gravitação como interação fundamental
O papel das interações fracas

Partículas elementares e interações fundamentais: uma introdução

A ideia de que a Natureza está composta por “pacotes” discretos, os quais se


combinam para formar todo o universo visível originou-se no mundo clássico grego.
Esta idéia da “granularidade” elementar do mundo físico estava implícita em
Pitágoras e sua escola de Crotona, 5 séculos antes da era cristã. Os pitagóricos
deram grande importância às descobertas da relação simples entre os tons de uma
corda (números inteiros) e questões similares, intuindo assim que o mundo era
discreto, e formularam a noção de que a realidade é, em última instância, de
natureza matemática.

De forma muito mais evidente (embora motivados pela solução lógica ao problema
do movimento ilusório que tinha colocado Parménides, e não por qualquer
evidência experimental), os atomistas Leucipo e Demócrito formularam uma teoria
a respeito da natureza da matéria onde unidades discretas (𝜶𝝉𝝄𝝁𝝄𝜻, átomos) se
movimentavam na ausência de matéria (vácuo), combinando-se para produzir todo
o universo visível. Os átomos se diferenciariam entre si pela sua geometria (tal
como a diferença entre as figuras “A” e “N”), pela disposição ou ordem (como as
diferenças entre “NA” ou “AN”) e pela posição (como “N” é um “Z” deitado).
Diferentes combinações e proporções seriam responsáveis pelas diversidades de
corpos. Esta doutrina fortemente materialista (por exemplo, para os atomistas a
alma está feita de átomos...) nunca foi aceita em geral, e Aristóteles e outros filósofos
posteriores levantaram objeções contra a ideia atômica, sendo esta quase
totalmente esquecida. Porém, por muitos séculos toda esta discussão não
ultrapassou o plano das ideias, já que o desenvolvimento tecnológico não fazia
possível uma interpelação direta à natureza, e também a noção da comprovação
experimental não apareceu em absoluto no mundo antigo até pelo menos a Baixa
Idade Média.

Porém, no século 18 a teoria atômica ressurge com força nos trabalhos de John
Dalton (1766-1844) e seguidores. Dalton percebeu que as reações químicas
conhecidas são compatíveis com pacotes discretos e redefiniu o conceito de átomo
grego para estas, com o qual os átomos passaram a ter uma realidade física tangível.
Além de se basear firmemente em leis de conservação (por exemlo, da massa),
Dalton formulou a idéia de que uma reação química é basicamente um rearranjo de
átomos. As substâncias complexas estão, nesta visão, compostas de átomos, em um
paralelo muito próximo às ideias gregas dos atomistas. Depois de um longo debate e
muita experimentação e arguição, a teoria atômica “moderna” finalmente constitui-
se em paradigma físico-químico.

Mas precisou transcorrer mais um século para os átomos começarem a mostrar sua
verdadeira natureza. Com efeito, na versão original, e até pela própria etimologia, os
átomos permaneciam indivisíveis. Mas os trabalhos de Faraday e outros na teoria
eletromagnética, somados às ideias de Boltzmann e Gibbs que pretendiam
fundamentar a Termodinâmica desde a microfísica, tiveram um primeiro marco
experimental de importância com a descoberta do elétron por J.J. Thompson em
1897. Pouco tempo depois, Rutherford conduziu uma série de experimentos que
revelaram a existência do núcleo atômico; e nos começos do século 20 a descoberta
e interpretação da radioatividade em termos do núcleo levou à identificação do
próton e o nêutron como ingredientes básicos do núcleo de Rutherford.

Com estas descobertas começou uma era de caracterização das partículas que
constituem os átomos (ou seja, houve uma mudança no nível mais profundo de
elementaridade) e de construção de modelos atômicos detalhados. Aliás, um dos
primeiros modelos (o modelo de Thompson) postulava um fluído carregado
positivamente (contínuo) no qual os elétrons estavam embebidos, ou seja, a
quantidade de carga atribuída a cada componente não estava definida. Mas coube a
Robert Millikan contribuir pouco tempo depois ao problema com seus
experimentos, os quais demonstraram o caráter discreto (quantização) da carga
elétrica do elétron.
Tanto do ponto de vista teórico quanto experimental, o conceito de elementaridade
pode ser considerado de forma relativa, no sentido de que uma partícula pode ser
enxergada como elementar (sem estrutura interna) nas baixas energias, mas
revelar-se composta nas energias mais altas. Para descobrirmos se uma partícula é
composta ou elementar empregamos há bastante tempo um método que recorre à
força bruta: se arremessada contra alvos conhecidos a partícula revelará uma
subestrutura desde que a energia entregue seja suficiente. (por exemplo, arremesar
uma noz contra um muro revelará sua estrutura interna se a energia for suficiente
para quebrar a casca). Assim, nas colisões entre prótons realizadas nos
aceleradores de partículas, estes são vistos como partículas sem estrutura interna
desde que a energia da colisão seja baixa. Nas colisões de altíssimas energias
realizadas nos grandes aceleradores, os prótons mostraram que são compostos de
outras partículas mais fundamentais, os quarks. Neste modelo, 3 quarks compõem
um próton ou um nêutron. É deles que falaremos logo a seguir.

O limite da resolução que podemos atingir permite explorar o limite da


elementaridade, e a procura por uma teoria mais fundamental ainda constitui a
tentativa de achar o limite absoluto para a composição da matéria, não meramente
aquele que possa ser medido no experimento. Conforme os experimentos foram
acelerando partículas a energias cada vez maiores descobrimos estruturas cada vez
menores, de fato hoje os físicos conseguem medir distâncias de até a centésima
parte de um fermi, ou 10−15 𝑚, o limite presente da elementaridade. A hierarquia
conhecida da composição da matéria se mostra na Fig.1.1. A pergunta que paira é se
a elementaridade tem efetivamente um limite absoluto, ou se um aumento da
energia da colisão levará necessariamente a enxergar uma nova estrutura
subjacente (uma perspectiva interessante a respeito pode ser apreciada no texto
Wholeness and the Implicate Order, de David Bohm (1980)).
Fig.1.1. A estrutura da matéria. Conforme maiores energias são atingidas, a matéria
revela suas componentes mais elementares a escalas minúsculas. Não há até o
momento evidência de subestrutura dos quarks ou elétrons, até distâncias de
≈ 10−15 𝑐𝑚 ainda não foi detectada, embora algumas propostas teóricas tem sido
formuladas a exemplo das apontadas na figura.

Interações elementares de alta energia

Na Física clássica não estamos acostumados a pensar em termos de


“interações elementares” entre partículas, e sim em termos de “forças”. Na mecânica
pensamos na força entre objetos macroscópicos; por exemplo, a força da gravidade
𝐺 𝑚1𝑚2
entre duas massas 𝑚1 e 𝑚2 que adota a conhecida forma − . Também na
𝑟2
química, é freqüente a utilização de conceitos tais como forças interatomicas, forças
intermoleculares, etc., que são em geral de origem eletromagnética. Como é bem
conhecido, todas estas forças são, em princípio, deriváveis de um potencial, e
expressam como elementos de matéria se atraem ou repelem.

Todas estas imagens têm um forte fundamento clássico (de origem mecânico), mas
uma pergunta relevante é o que entendemos por interação ao nível mais elementar,
isto é, entre as próprias partículas, indo além do conceito clássico mais aplicável a
"pedaços" macroscópicos de matéria, os quais de fato reúnem um número enorme
de partículas.

No micro-mundo das partículas elementares boa parte das noções que temos a
respeito da matéria macroscópica falham de forma ostensiva. Não é que há alguma
coisa errada com a Física clássica, pelo contrário, há vários séculos que o mundo
físico é explorado utilizando-a com sucesso. Mas é temerário pensar que os
conceitos desenvolvidos no mundo clássico poderão ser aplicados no micromundo
sem mais. Aliás, esta extrapolação é motivo de inúmeros problemas e “paradoxos”
que pragam até hoje a descrição do mundo elementar. O desenvolvimento da
Mecânica Quântica no século 20 expôs muitas destas contradições sem realmente
resolver sua natureza exata, já que a chamada interpretação do formalismo quântico
requerida para que faça sentido não é satisfatória, e ainda é motivo de discusão e
pesquisa. Esta idéia de interpretação é consensual em outros casos (por exemplo, a
Mecânica clássica), onde o significado dos conceitos relevantes e seu papel na
descrição física não tem ambiguidades, mas não é este o caso do formalismo
quântico. Uma discussão deste problema nos levaria muito longe do objetivo aqui
pretendido, e somente mencionamos esta situação por completeza (vide Pessoa
2003, 2006 para uma discussão aprofundada destes problemas).
Sem precisar de um esclarecimento completo da interpretação da Mecânica
Quântica, existe um forte consenso entre os físicos para considerar que, cada vez
que a MQ foi acionada para obter uma predição quantitativa (probabilística) a
respeito de um experimento, esta forneceu soluções corretas em acordo com as
medidas efetuadas (!). Uma das características da MQ que seguramente é comum a
qualquer interpretação, e que constitui um ponto de ruptura com a física clássica, é
fornecida pelas chamadas relações de incerteza. Este conceito é importante para o
resto da nossa discussão e será descrito a seguir.

Estamos familiarizados com a existência de erros nas medidas de qualquer teoria


clássica. Por exemplo, se medirmos a posição de uma partícula teste que se
movimenta, a altura de uma montanha ou qualquer outra variável espacial 𝑥0 ,
haverá necessáriamente um erro associado para cada medida, digamos δ𝑥. Para
reduzir esse erro podemos medir repetidamente, melhorando a determinação da
posição do objeto 𝑥0 e calcular a erro estatístico ∆𝑥 (ligado ao chamado desvio
padrão, e supondo que não há erros sistemáticos que afetem a medida). Conforme
um número grande o suficiente de medidas for acumulado, o erro ∆𝑥 → 0, e não há
nenhum empecilho para reduzi-lo indefinidamente acrescentando mais e mais
medidas.

Na MQ a situação é radicalmente diferente. Variáveis tais como 𝑥0 e o momento


linear do objeto 𝑝0 (chamadas de conjugadas) não podem ser medidas
simultaneamente com erros arbitrariamente pequenos. O produto dos erros das
duas variáveis é sempre maior que o quantum de ação ℏ = ℎ/2𝜋. O objeto quântico
não se comporta como um equivalente clássico, e não pode ser localizado com
precisão crescente sem que seu momento adquira uma incerteza cada vez maior, ou
vice-versa. Em resumo, temos que

∆𝑥 ∆𝑝 ≥ ℏ (1.1)

conhecida como relação de incerteza (embora uma tradução mais exata da palavra
original em alemão seria “indeterminabilidade”). De forma similar a energia 𝐸
medida a um tempo 𝑡 deve satisfazer

∆𝐸 ∆𝑡 ≥ ℏ (1.2)

Estamos agora em condições de elaborar, com base nas relações de incerteza,


algumas das ideias básicas que utilizaremos mais adiante no curso. A primeira a ser
notada tem a ver com a possibilidade de violar a conservação da energia por um
tempo muito curto. De fato, o vácuo da teoria quântica a eq.(1.2) permite que pares
de partícula-antipartícula “pipoquem” no vácuo e voltem a se aniquilar (Fig. 1.2)
desde que o tempo transcorrido seja curto o suficiente. Este fenômeno se conhece
como flutuação do vácuo, e resulta único da teoria quântica. As partículas envolvidas
se denominam virtuais.

Fig.1.2. Flutuações quânticas do vácuo. No ponto A um par de partícula-antipartícula


aparece com energia total Δ𝐸 para se aniquilar no ponto B num tempo (A→ 𝐵)

Δ𝑡 < Δ𝐸 . Este par é chamado de virtual e não compromete a conservação da energia
no nível macroscópico, já que esta “some” num tempo muito curto, por debaixo do
limiar da incerteza da eq.(1.2).

Uma partícula deste tipo, virtual, com energia 𝐸 e massa 𝑚 pode ser trocada por
duas partículas “reais” até distâncias 𝐿 ≈ 𝑐Δ𝑡 (𝑐 é a velocidade máxima da partícula
virtual), e portanto em termos da massa teremos que


𝐿 ≈ 𝑐∆𝑡 = 𝑚𝑐 (1.3)

onde temos utilizado a arquifamosa relação 𝐸 = 𝑚𝑐 2 . A quantidade da direita,



𝜆𝐶 = 𝑚𝑐 com dimensões de comprimento é chamada de comprimento Compton, e
permite uma interpretação simples da situação física: a partícula intermediária de
massa 𝑚 está localizada em uma região da ordem de 𝜆𝐶 , ali a probabilidade de
encontrá-la não é nula. Assim, o comprimento Compton define um alcançe da
interação mediada pela partícula dessa massa. Conforme considerarmos partículas
de massas maiores, 𝜆𝐶 diminui e a interação tem um alcançe menor. Uma analogia
clássica para este comportamento é apresentada na Fig. 1.3

Embora o cálculo detalhado de cada processo elementar seja complicado, e requer


conhecimento da teoria quântica de campos, existem algumas estimativas de ordem
de grandeza que podem ser obtidas somente com análise dimensional simples. A
moderna visão das interações fundamentais é que estas são essencialmente troca de
partículas intermediárias virtuais entre duas ou mais partículas que detem uma
carga (por exemplo, o elétron com carga elétrica).

Fig.1.3. O alcançe de uma interação quântica. Os dois jogadores trocam uma bola
(partícula) virtual de massa 𝑚. Esta troca é possível para distâncias cada vez
menores conforme 𝑚 cresce. No limite 𝑚 → 0 a interação tem alcance infinito, ou
seja, os "jogadores" podem se afastar tanto quanto quiserem.

O alcançe da interação eletromagnética sugere que a partícula mediadora não tem


massa, e que se trata do quantum da “luz”, o fóton. A carga neste caso é a carga
elétrica convencional, e a intensidade da interação é medida em termos de algum
número adimensional, o qual no caso do eletromagnetismo é a chamada constante
de estrutura fina 𝛼 = 1/137, este número (constante de acoplamento) é pequeno, e
indica que o eletromagnetismo é muito mais fraco que as interações fortes que
ligam o núcleo as quais detem em unidades adequadas o valor ≈ 1. Como já vimos,
além da troca da partícula mediadora, e por efeito das relações de incerteza,
acontecem flutuações onde um par partícula-antipartícula ou coisas mais complexas
podem aparecer e se reabsorver em tempos curtíssimos. Representando os elétrons
(ou qualquer outra partícula com carga elétrica) por uma linha cheia e os fótons
com “cobrinhas” podemos escrever um “hieróglifo” que representa gráficamente o
que acontece (Fig. 1.4)
Fig. 1.4. A interação básica entre dois elétrons como soma de processos quânticos
cada vez menos importantes.

Desta soma infinita que leva em conta toda a complexidade do micromundo emerge
o limite clássico conhecido quando consideradas algumas condições. Na Fig. 1.4 o
diagrama completo da esquerda deve ser considerado como incluindo todas as
interações graficadas à direita, e se denomina “vestido”. Á esquerda vemos que o
primeiro diagrama mais simples não contém contribuições do vácuo, estas
aparecem somente na ordem seginte em potências da constante de acoplamento 𝛼.
Assim, a teoria clássica do campo eletromagnético (Maxwell !) corresponde ao
primeiro diagrama (clássico), chamado no jargão nível de árvore. As correções
quânticas aparecem na ordem 𝛼 e posteriores, daqui a importância de ter 𝛼 < 1:
embora a série não pode ser somada em geral (nem converge!), os termos são cada vez
menores nas potências de 𝛼, e assim o resultado é tão exato quanto se queira calculando
as contribuições até uma ordem dada. Tomando o limite estático da série, e ficando
somente com o nível de árvore recuperamos os potenciais clássicos de Coulomb
𝛼 𝛼 𝑟
(𝑉(𝑟) ∝ − 𝑟 ) e Yukawa (𝑉𝑦𝑢𝑘 (𝑟) ∝ exp − 𝐿 ) no caso do mediador sem massa e
𝑟
com massa 𝑚 respectivamente (vide eq. 1.3).

Quando aplicadas estas ideias ao mundo real, a construção de um quadro coerente


do universo físico precisou do reconhecimento da existência de quatro interações
elementares: o eletromagnetismo já mencionado, a gravitação (ainda sem teoria
quântica apropriada), as interações fortes (responsáveis pela ligação do núcleo) e as
interações fracas (responsáveis pelo decaimento beta e outros processos que
envolvem neutrinos. Uma mesma partícula pode ter mais de uma “carga” e assim
sofrer várias destas interações, por exemplo, os quarks dentro de um próton tem
carga elétrica, mas tambem carga forte (chamada de “cor”) e fraca. Assim, são
capazes de interagir trocando fótons, glúons e bósons massivos. Um resumo das
interações fundamentais e suas principais características se mostra na Tabela 1.

Tabela 1.1. Quadro-resumo das interações fundamentais da natureza.


Obviamente, nem sempre é a melhor estratégia tentar entender um determinado
problema físico somente a partir das quatro interações fundamentais, já que
qualquer problema pode ficar assim complicadíssimo. Assim, somos levados
novamente a considerar o conceito absoluto ou relativo de elementaridade,
dependendo das condições físicas envolvidas e da necessidade de detalhe da
descrição como já foi apontado. Como exemplo concreto desta situação, a descrição
das interações fortes (as que mantém ligados os núcleos) pode ser feita como nos
anos ‘50- ‘60 desde que a energia considerada seja baixa. Se aumentarmos a energia,
os prótons e nêutrons e também as partículas mediadoras (neste caso píons,
mésons, etc.) mostrarão que são compostos e aquela descrição simples será
insuficiente. Note-se de novo que isto não significa afirmar nada a respeito da
elementaridade absoluta do elétron ou os quarks. Uma apresentação destes tópicos
pode ser consultada em J.E. Horvath et al. (2006).

O Modelo Padrão das partículas elementares

Com base nas ideias anteriores podemos agora discutir o “zoológico” das
partículas conhecido, as quais compõem o chamado Modelo Padrão, e classificar as
interações elementares.

O mundo das partículas subatômicas expandeu-se de forma vertiginosa desde os


começos do século 20. Nas primeiras décadas daquele, somente o elétron e o próton
eram conhecidos. A descoberta do nêutron e logo depois das antipartículas trouxe
considerável perplexidade e grandes desafios para os físicos que estudavam a
estrutura da matéria. Os primeiros aceleradores idealizados e construídos por E.
Lawrence nos Estados Unidos alavancaram ainda mais a física das partículas
elementares, já que a descoberta de novas partículas se acelerou pela possibilidade
de aumentar a energia envolvida nas colisões.

Além de construir modelos para a dinâmica das interações entre elas, se fez
necessário um esquema de classificação. Depois de várias tentativas provisórias de
interesse histórico, mas cuja complexidade nos afastaria do escopo deste texto, há
um consenso hoje em torno ao esquema que ficou conhecido como Modelo Padrão.
O Modelo Padrão classifica e associa as partículas elementares em três grupos ou
gerações, levando em conta a sua participação nos processos elementares (reações
nas quais participam as partículas) detectados. A composição de uma geração é a
sempre a mesma: contém dois quarks (os quais formam bárions e mésons), um
lépton carregado (o elétron, o muon e a tau, sucessivamente) e um neutrino
associado a este último (um neutrino diferente para cada tipo de lépton). A
descoberta e identificação destas partículas, e o reconhecimento da simetria
implementada nas gerações, levou várias décadas e só ficou completa com o anúncio
da descoberta do quark t em 1995 e do bóson de Higgs (responsável das massas
observadas) em 2012. Até hoje não há qualquer evidência que indique afastamentos
importantes dos dados respeito do Modelo Padrão. A Fig. 1.5 ilustra o conhecimento
da estrutura atual das partículas do Modelo Padrão.

Fig. 1.5. O conteúdo do Modelo Padrão. Se mostram as três gerações com os dois
quarks (up e down na primeira; charm e strange na segunda e top e bottom na
terceira). Os léptons carregados (em verde) e os três neutrinos correspondentes. As
cargas elétricas das partículas estão acima e as massas (em GeV). Abaixo das chaves
se mostram exemplos de partículas observadas em laboratório (bárions) que são
compostas pelos 3 quarks elementares de cada geração. Vide Mizrahi e Galetti, 2016
para uma discussão aprofundada.

As interações fortes e a QCD (Cromodinâmica Quântica)

O reconhecimento da necessidade de uma nova força para manter ligado o


núcleo atômico nos começos do século 20 levou à introdução do já mencionado
potencial de Yukawa e à predição da existência do píon, pouco depois descoberto
como uma componente dos raios cósmicos e em experimentos dedicados, feito
alcançado pelo físico César Lattes da Universidade de São Paulo em 1947 (vide o
relato da sua autoria em http://www.ghtc.usp.br/clattesp.htm). Este
desenvolvimento é um exemplo de como se firmou a ideia de que as interações são o
resultado da troca de partículas mediadoras. Posteriormente na física nuclear ficou
claro que o píon era somente uma destas partículas mediadoras, as interações entre
núcleons (prótons e nêutrons) também precisa da troca de kaons, mésons 𝜌 e outros
mediadores, dando origem (no limite estático) ao chamado potencial de Yukawa e
correções.

Por algumas décadas este quadro foi satisfatório, mas os desenvolvimentos nos
aceleradores permitiram determinar que os prótons e nêutrons estavam longe de
ser pontuais: elétrons incidentes encima destes núcleos se espalhavam como se
houvesse pontos “duros” em escalas ≤ 10−14 𝑐𝑚. Assim, Gell-Mann e Zweig
propuseram que existem constituintes fundamentais dos núcleons que chamaram
de quarks. Rapidamente foi possível construir uma teoria de campo altamente não-
linear denominada QCD (ou Cromodinâmica Quântica), onde os quarks trocam
glúons, a partícula mediadora das interações fortes entre elas. A carga associada
vêm em três tipos, e foi chamada fantasiosamente de cor (embora nada tenha a ver
com cores reais, é claro). Porém, esta teoria tem uma característica que a faz muito
diferente de outras: apesar de procuras intensivas nunca foi possível detectar um
quark isolado, fora de um hádron (os núcleons e mésons são hádrons, os primeiros
são denominados bárions). Isto deu origem a uma ideia totalmente nova, a do
confinamento da cor, isto é, as cores dos quarks sempre se somam (tal como as
cores primárias) para produzir um hádron “branco”, isto é, sem cor. Cada vez que
um quark quer ser arrancado de um hádron, produz a quebra do tubo de fluxo que o
liga com outro e assim dois mésons ou equivalentes são produzidos (Fig. 1.6).

Fig. 1.6. Confinamento da cor. Um méson formado por um quark Q e um antiquarkQ


recebe energia para se desmanchar, mas a “corda” gluónica aproveita essa energia
para criar um par quark q e antiquark q, e assim formam-se dois mésons “brancos”,
onde a soma das cores neutraliza-se, mantendo assim a cor total invisível ao
observador externo.

Atualmente acredita-se que essa propriedade dos quarks (e glúons) está contida na
descrição teórica, já que existem simulações numéricas que demostram o
confinamento. Mas também há outra peculiaridade da teoria: em distâncias muito
curtas, dentro dos hádrons, os quarks e glúons parecem estar livres, ou seja que não
“sentem” as interações entre eles. Com efeito, podemos definir estas curtas o longas
distâncias recorrendo à definição relativística da relação momento-energia, ou seja
𝐸 = 𝑝𝑐 da partícula incidente. Da relação de incerteza eq. (1.1) temos de imediato
que as distâncias atingidas pela partícula-projétil são inversamente proporcionais a

sua energia, 𝑥 ~ . As grandes distâncias podem ser consideradas como aquelas
𝐸
maiores que o raio do próton, enquanto as pequenas são muito menores que este. O
comportamento dos quarks no primeiro caso se denomina escravidão infravermelha
(baixas energias incidentes) e no segundo liberdade assintótica (altas energias
incidentes).

Um potencial fenomenológico para simular este comportamento é dado por


𝛼
𝑉(𝑟) = − 𝑟𝑆 + 𝑘𝑟. Em distâncias curtas o primeiro termo atrativo domina, mas se
considerarmos grandes distâncias o potencial cresce e arrancar um quark será
impossível. Uma outra abordagem amplamente usada, que descreveremos a seguir,
traça um quadro físicamente razoável e resulta simples ao cálculo. É conhecida
como o modelo da sacola do MIT.

Fig. 1.7. A sacola como uma bolha no vácuo verdadeiro, caracterizada por uma
pressão negativa constante −𝐵 e abrigo dos quarks que fornecem uma energia
cinética 𝑃𝑘 para balancear a primeira.

Para simular o efeito do confinamento, o modelo admite que o vácuo é um dielétrico


perfeito à carga de cor, e as partículas que levam cor não penetram nele. Assim, o
modelo propõe considerar uma cavidade do vácuo perturbativo no vácuo
verdadeiro onde quarks e glúons podem viver. Para criar esta cavidade (bolha) é
necessário gastar energia, sua densidade é representada por um valor constante 𝐵.
A pressão da cavidade vai para dentro (é uma bolha) e resulta 𝑃𝑣𝑎𝑐 = −𝐵. O balanço
de pressões necessário para estar em equilíbrio é atingido pela pressão das
partículas que “vivem” na cavidade 𝑃𝑘 . Agora, como estamos falando de quarks
elementares, os estados de energia que podem existir na cavidade são discretos, ou
seja, estão quantizados. O cálculo completo (é necessário resolver a eq. de Dirac em
um poço esférico, o qual excede o escopo desta discussão) mostra que para 𝑁
2.04 𝑁
quarks a energia é 𝐸𝑘 = , onde 𝑅 é o raio da cavidade suposta esférica e a
𝑅
massa dos quarks foi considerada nula. A energia total é

4 2.04 𝑁
𝐸𝑡𝑜𝑡 = 𝐸𝑣𝑎𝑐 + 𝐸𝑘 = 3 𝜋𝑅 3 𝐵 + (1.4)
𝑅
e o estado de equilíbrio deve corresponder a um mínimo da energia total, ou seja

𝜕𝐸𝑡𝑜𝑡 2.04 𝑁
= − + 4𝜋𝑅 2 𝐵 = 0 (1.5)
𝜕𝑅 𝑅2

condição que determina o raio da cavidade

2.04 𝑁 1/4 1
𝑅= (1.6)
4𝜋 𝐵 1/4

Se impormos 𝑁 = 3 e inferimos o valor de 𝐵 por meio de um ajuste aos hádrons


conhecidos, emergerá o valor do raio do próton (ou nêutron)
𝐵 −1/4
𝑅𝑁 = 1.13 𝑓𝑚 , já que estes correspondem às “bolhas” com 3 quarks
145 𝑀𝑒𝑉 4
mais leves. O modelo é muito mais complexo do que explicamos aqui, mas serve
para entender o básico da constituição dos hádrons em termos da QCD (ou, mais
precisamente, um modelo fenomenológico nela baseado).

Um tratamento estatístico da QCD, considerando um conjunto muito grande de


quarks e glúons tem mostrado que esta fase confinada deve dar passagem ao
chamado quark-glúon plasma (QGP) acima de uma temperatura de uns ≈
170 𝑀𝑒𝑉 (aproximadamente 2 × 1012 𝐾). A natureza desta transição está sendo
debatida, mas parece ser uma conseqüência bastante lógica da liberdade assintótica.
O Universo primordial confinou a cor uns 10−5 𝑠 depois do Big Bang. Pelas mesmas
razões espera-se que no regime de baixa temperatura e alta densidade os hádrons
ordinários se dissolvam em quarks. A questão aqui é se a densidade é relevante para
os interiores das estrelas de nêutrons, “laboratório” natural onde o enorme campo
gravitacional provocaria essa transição “apertando” prótons e nêutrons . A situação
é resumida na Fig. 1.8.
Fig. 1.8. O diagrama de fases da QCD. O QGP ocupa a região superior, acessível nas
colisões de íons pesados (trajetórias com flechas), no Universo primordial e
possivelmente nas estrelas de nêutrons como indicado.

Em resumo, os constituintes verdadeiramente fundamentais dos hádrons (bárions e


mésons), os quarks, foram revelados por experimentos de espalhamento na década
de 1970. A teoria que os descreve, QCD, é difícil de resolver, mas parece conter os
elementos matemáticos que levam ao comportamento físico observado. Além disto,
o QGP tem sido observado nas colisões de íons pesados, enquanto existe um
consenso em torno a existência desta fase no Universo primordial e discusão em
torno aos interiores das estrelas de nêutrons. O modelo dos quarks indica que as
interações nucleares antes conhecidas são o que "sobrou" de integrar (somar) os
graus de liberdade mais fundamentais da QCD. Cada uma das contribuições
associada a um meson mediador responsável pela interação, na visão original da
física nuclear, precisa então ser entendida em termos dos quarks e glúons, o qual
constitui uma tarefa complexa que está sendo desenvolvida.

A gravitação como interação fundamental

Inúmeros livros de texto começam com a discussão da força de gravitação


clássica entre duas massas macroscópicas 𝑀1 e 𝑀2

𝑀1 𝑀2
𝐹𝐺 = −𝐺𝑁 (1.7)
𝑟2

onde 𝐺𝑁 é a constante de Newton e 𝑟 a distância entre as massas. Para avaliarmos a


descrição da gravitação como uma interação elementar, onde as partículas trocam
um "gráviton" (Tabela 1) e da qual a lei da gravitação Newtoniana deve resultar, é
importante o fato que, devido à homogeneidade dimensional da equação de Newton,
𝐺𝑁 não é adimensional (quesito fundamental para a construção de uma teoria
elementar). É por isso que comumente é definida uma "constante de estrutura fina
gravitacional" (𝛼𝐺 = 𝐺𝑁 𝑚𝑝2 /ℏ𝑐, a quantidade que aparece na Tabela 1). Mas pelo
minúsculo valor numérico de 𝛼𝐺 = 10−38 (definida à uma escala de energia igual à
massa do próton), a gravitação pode quase sempre ser ignorada perante às outras
forças da natureza, pelo menos enquanto falarmos de processos elementares. A
pergunta que cabe é: por que é justamente a gravitação a que domina a estrutura do
Universo observável, estrelas e galáxias? A resposta mais simples está enrustida na
natureza única da "carga" do campo gravitacional (a massa): se considerados
conjuntos macroscópicos de partículas, a gravitação vai se "acumulando" até que a
própria estrutura é dominada por ela, enquanto que as outras forças se cancelam
conforme consideramos mais e mais partículas. Consideremos quantitativamente N
partículas de igual massa. O raio de uma esfera formada por esse conjunto de
partículas depende de 𝑁1/3 , enquanto a energia de ligação gravitacional é
proporcional a 𝑁 2/3 . Para compensar o fator de 10−38 da constante 𝛼𝐺 , o número de
3
partículas necessário deve ser 𝑁 = 1038×2 = 1057 . Este é mais ou menos o número
de partículas (prótons) de uma estrela de 1 𝑀ʘ , e resulta a escala "natural" onde a
gravitação passa a ser mais importante do que as outras forças na escala
macroscópica (de fato sabemos que o Sol, por exemplo, não possui uma grande
contribuição à sua energia de ligação que seja produto das interações fortes, fracas e
eletromagnéticas).

Esta discussão leva à conclusão que podemos sim deixar de considerar a gravitação
em sistemas microscópicos, a menos que a escala de energia cresça tanto quanto
para 𝛼𝐺 ≈ 1. Em essas condições, a gravitação microscópica seria tão importante
quanto as outras interações fundamentais. A energia (massa) onde esta equivalência
acontece é

𝑚𝑃𝑙 = (ℏ𝑐/𝐺𝑁 )1/2 (1.8)

a chamada massa de Planck, com energia associada de 𝐸𝑃𝑙 = 𝑚𝑃𝑙 𝑐 2 = 1019 𝐺𝑒𝑉.
Como os fenômenos mais energéticos em laboratório, e até nos raios cósmicos de
Ultra-Alta energia do Capítulo 12, estão muitas ordens de grandeza abaixo deste
valor, nunca vamos nos preocupar com a gravitação como teoria elementar. Isto não
dexia de ser uma sorte, já que não possuímos uma teoria consistente da gravitação
quântica. Embora a contribuição básica deve ser o diagrama de troca de uma
partícula intermediária (ou gráviton) entre duas partículas massivas quaisquer,
nenhum cálculo quântico é muito consistente. Por outro lado, as versões clássicas
das teorias Newtoniana e relatividade geral têm tido um sucesso espetacular.
Embora gostaríamos de ter uma teoria quântica da gravitação, nunca foi possível
construir uma versão aceitável. Quando se procede da mesma forma que na
quantização das teorias de campo, existe uma divergência da teoria quântica da
gravitação acima de uma certa ordem na teoria de perturbações. Muitos físicos
acreditam que existe aqui uma forte analogia com a história das interações fracas, já
que a teoria de Fermi quantizada leva também a resultados divergentes além de
uma certa ordem perturbativa. Possivelmente a gravitação de Einstein não é uma
teoria fundamental, mas somente uma teoria “efetiva”. Assim sendo, os físicos vivem
ainda num mundo dual onde, por um lado, sabem que o mundo microscópico é
descrito pelas leis da Mecânica Quântica, e por outro a gravitação se comporta de
forma clássica até onde podemos medir e observar, e estas duas descrições são
incompatíveis. A solução deste antagonismo motiva a procura de teorias unificadas.

O papel das interações fracas

No século 19, e graças às contribuições de Maxwell, Faraday e outros, o


Eletromagnetismo tinha sido estabelecido como paradigma teórico para o estudo
dos fenômenos com cargas elétricas que acontecem em laboratório. A descoberta do
elétron por J.J. Thompson em 1897 (o quantum de carga elétrica por excelência)
permitiu depois “penetrar” no átomo arremessando elétrons, e posteriormente
descobrir o núcleo atômico com o auxílio de outros núcleos (também carregados
eletricamente) de hélio como projétis. A observação do comportamento e
composição dos núcleos abriu a seguir uma importante janela no estudo das
partículas elementares.

Na década de 1920 não só o elétron tinha sido descoberto, mas também os prótons
identificados como componentes do núcleo de Rutherford. Uma série de
experimentos específicos permitiu observar que, em certas circunstâncias, um
núcleo mudava seu estado de carga, com a expulsão de um elétron do núcleo. Assim,
havia duas possibilidades: ou o núcleo atômico continha elétrons, ou estes eram
emitidos por uma partícula que decaia num próton e um elétron. Esta última
hipótese recebeu confirmação definitiva quando Chadwick descobriu o nêutron em
1931. Constatou-se que havia uma conversão de nêutrons em prótons, tanto livres
quanto dentro do núcleo, ou seja, que a natureza mudava o tipo de núcleon
constituinte do núcleo em certas condições.

Havia também ficado claro que a conversão observada não tinha origem
eletromagnética (embora, existia conservação da carga elétrica em ela). Os físicos
procuraram assim a origem e natureza da força responsável. Em primeiro lugar,
precisava ser uma força de curto alcance porque a reação acontece principalmente
em escalas da ordem da do núcleo atômico. A caracterização da intensidade dessa
força também emergiu dos dados, e resultou várias ordens de grandeza menor do
que a eletromagnética (vide Tabela 1). Desta forma, a descoberta das forças fracas
associou o decaimento  do nêutron a uma nova interação fundamental,
responsável pelo processo

𝑛 → 𝑝 + 𝑒 − + 𝜈𝑒 (1.9)
onde o nêutron e próton continuavam ligados ao núcleo, e o elétron escapava da
região nuclear. O último “protagonista” (chamado de anti-neutrino) da reação (1.9)
não era medido ao princípio, mas tinha sido postulado por Pauli para resolver dois
sérios problemas do decaimento: a conservação da energia e do momento angular
na reação. Com efeito, nos decaimentos  espontâneos, como os observados dos
nêutrons dentro de núcleos, o momento angular total não parecia ser conservado, já
que o spin do nêutron (½) era igual à metade do spin das partículas observadas nos
produtos da reação, um próton (spin ½) e um elétron (spin ½). Também a soma da
energia das partículas que participavam da reação também não era constante.
Ninguém gostava de abandonar a conservação da energia e do momento angular na
Física, e cabia então uma solução criativa para este problema.

Fig. 1.9. O diagrama mais importante da desintegração  na teoria de Fermi. Note-


se que ele é mais simples que aquele da Fig. 1.4, já que parece ignorar a propagação
de um bóson mediador. Esta versão é válida se a energia for suficientemente baixa.

Foi assim que W. Pauli postulou uma partícula neutra, muito leve ou de massa zero,
com o spin necessário (½) para restaurar a conservação das duas quantidades. No
fundo, poderíamos dizer que esta hipótese era a da emissão de um quantum de spin.
O importante era restaurar as leis de conservação.

A descrição teórica elementar do decaimento  (correspondente a teoria mais


simples) foi formulada por Fermi a partir de 1933, e pode ser visualizada em termos
de diagramas (de Feynman). O diagrama básico é o mostrado na Fig. 1.9., e
corresponde à reação da eq.(1.9). A descrição matemática formal precisou
incorporar um termo e que leva a violação da paridade, isto é, a invariância dos
processos quando é efetuada a operação de troca de sinal das coordenadas
(𝑥, 𝑦, 𝑧) → (−𝑥, −𝑦, −𝑧) não mais é mantida. A descoberta de que algumas
interações fracas não são as mesmas quando se "observam no espelho" (tal o
significado da troca de sinal) foi confirmada experimentalmente nos anos 1950
observando alguns decaimentos de partículas específicos, e levou à concessão do
Prêmio Nobel de 1957 para T.D. Lee e C.N. Yang, embora tenha sido a pesquisadora
C.-S. Wu conduziu o experimento crucial que demonstrou positivamente este efeito
(T.D. Lee, 1987).

O processo de decaimento  inverso (𝑝 + 𝑒 − → 𝑛 + 𝜈𝑒 ), que requer a emissão de


um neutrino acontece se houver condições físicas para que os elétrons sejam
capturados por prótons com ganho de energia (por exemplo, perto do final da vida
das estrelas, vide Capítulo 4). A teoria de Fermi é simplificada, mas suficiente para
baixas energias, e ainda hoje é utilizada nesses casos. Quando emergiram as teorias
de calibre, com os trabalhos teóricos da década do 1960 em adiante, ficou claro para
os físicos que a teoria de Fermi era, na verdade, uma versão simplificada de uma
delas. Se pensarmos que para baixas energias a "resolução" espacial e de energia do
experimento não é suficiente, (ou, equivalentemente, que existe um mediador muito
mais pesado que a energia da medida...) concluímos que, de forma efetiva, o
decaimento  da Fig. pode ser pensado como um diagrama onde no "ponto"
central um mediador (𝑊 ± , 𝑍 0 da Tabela 1) e emitido e decai depois no par final.
Com esta ideia, vemos que os vértices de emissão e re-absorção convergem em este
"ponto" central e assim a teoria de Fermi funciona bem baixas energias, mas é, sim,
uma aproximação. A massa determinada para o bóson Z no CERN nos anos 1980 é
aproximadamente 90 𝐺𝑒𝑉, e este valor justifica a posteriori os dados originais a
respeito do alcance da força fraca (vide Fig. 1.3 e eq. 1.3). Utilizando o Princípio de
Incerteza Δ𝐸 × Δ𝑡 ≥ ℏ e inserindo o valor da massa (energia) do Z, obtemos um
limite para o tempo de vida médio de 3 × 10−25 𝑠, o qual corresponde a uma
distância máxima da interação de Δ𝑡 × 𝑐 = 10−14 𝑐𝑚, ou seja, resulta inferior do
que o raio de um núcleon.

O progresso da pesquisa nos anos 1970-1980 levou a considerar um variedade de


reações fracas de interesse astrofísico (e cosmológico). Porém, em todos eles, a
magnitude ínfima da seção de choque (resultado direto do valor da constante de
Fermi da Tabela 1) implica que são necessárias altas temperaturas e/ou densidades
para as interações fracas serem importantes. Em certa escala, a teoria de Fermi
deixa de ser válida, e precisa ser substituída pelas expressões correspondentes do
chamado modelo de Salam-Weinberg, a teoria de calibre desenvolvida para estes
fins, na qual a quebra de simetria joga um papel fundamental para obter o trio de
bósons massivos (𝑊 ± , 𝑍 0 ) que levam a interação fraca, enquanto o fóton 𝛾
permanece sem massa como corresponde às interações eletromagnéticas.
Já dissemos que, desde sua descoberta, as interações fracas colocaram problemas
sérios aos físicos. Por exemplo, a introdução do neutrino por Pauli foi uma hipótese
ousada, mas no fim revelou-se correta. Pela sua própria natureza "fantasma",
resultou muito difícil estudar e caracterizar o neutrino experimentalmente. O spin e
o momento (energia) são as duas características próprias, e há só duas
possibilidades dinâmicas: ora o spin 𝑠 é contrário à direção do momento 𝑘, ou está
na mesma direção (Fig.). Estas duas versões são partícula e anti-partícula, já que não
podem se converter uma na outra. Assim, no primeiro caso partícula ficou definida
como neutrino e no segundo como anti-neutrino, ambos os nomes devidos a Enrico
Fermi que utilizou os diminutivos de “nêutron” em italiano quando os batizou.

Fig.. 1.10. Os neutrinos e antineutrinos. Quando a massa é nula, não é possível


confundir neutrinos e antineutrinos, já que os primeiros têm sempre seu spin na
direção contrária à direção do momento (direita), enquanto os segundos sempre na
mesma direção deste (esquerda). As oscilações entre os dois tipos são possíveis
quando existe uma (pequena) massa, e foi identificada como a causa do problema
dos neutrinos solares que discutiremos no Capítulo 9.

É importante ressaltar que a direção relativa do spin e do momento é uma afirmação


de caráter “absoluto”, já que a projeção (chamada de helicidade) é invariante CP
(conjugação da carga seguida de inversão da paridade). Um neutrino de massa zero
é descrito por uma função de duas componentes (chamada de spinor), mas isto não
é obviamente assim para massa finita. Até hoje não foi possível determinar se os
neutrinos massivos precisam de duas ou quatro componentes na sua descrição.
Veremos no Capítulo 9 como foi possível iniciar a Astrofísica de neutrinos com um
conhecimento básico das seções de choque e fluxos das fontes, enquanto agora as
questões da massa reveladas pelas oscilações detém hoje a atenção da comunidade
(Capítulo 9).

Você também pode gostar