Escolar Documentos
Profissional Documentos
Cultura Documentos
uma première
J.E. Horvath
IAG-USP
De forma muito mais evidente (embora motivados pela solução lógica ao problema
do movimento ilusório que tinha colocado Parménides, e não por qualquer
evidência experimental), os atomistas Leucipo e Demócrito formularam uma teoria
a respeito da natureza da matéria onde unidades discretas (𝜶𝝉𝝄𝝁𝝄𝜻, átomos) se
movimentavam na ausência de matéria (vácuo), combinando-se para produzir todo
o universo visível. Os átomos se diferenciariam entre si pela sua geometria (tal
como a diferença entre as figuras “A” e “N”), pela disposição ou ordem (como as
diferenças entre “NA” ou “AN”) e pela posição (como “N” é um “Z” deitado).
Diferentes combinações e proporções seriam responsáveis pelas diversidades de
corpos. Esta doutrina fortemente materialista (por exemplo, para os atomistas a
alma está feita de átomos...) nunca foi aceita em geral, e Aristóteles e outros filósofos
posteriores levantaram objeções contra a ideia atômica, sendo esta quase
totalmente esquecida. Porém, por muitos séculos toda esta discussão não
ultrapassou o plano das ideias, já que o desenvolvimento tecnológico não fazia
possível uma interpelação direta à natureza, e também a noção da comprovação
experimental não apareceu em absoluto no mundo antigo até pelo menos a Baixa
Idade Média.
Porém, no século 18 a teoria atômica ressurge com força nos trabalhos de John
Dalton (1766-1844) e seguidores. Dalton percebeu que as reações químicas
conhecidas são compatíveis com pacotes discretos e redefiniu o conceito de átomo
grego para estas, com o qual os átomos passaram a ter uma realidade física tangível.
Além de se basear firmemente em leis de conservação (por exemlo, da massa),
Dalton formulou a idéia de que uma reação química é basicamente um rearranjo de
átomos. As substâncias complexas estão, nesta visão, compostas de átomos, em um
paralelo muito próximo às ideias gregas dos atomistas. Depois de um longo debate e
muita experimentação e arguição, a teoria atômica “moderna” finalmente constitui-
se em paradigma físico-químico.
Mas precisou transcorrer mais um século para os átomos começarem a mostrar sua
verdadeira natureza. Com efeito, na versão original, e até pela própria etimologia, os
átomos permaneciam indivisíveis. Mas os trabalhos de Faraday e outros na teoria
eletromagnética, somados às ideias de Boltzmann e Gibbs que pretendiam
fundamentar a Termodinâmica desde a microfísica, tiveram um primeiro marco
experimental de importância com a descoberta do elétron por J.J. Thompson em
1897. Pouco tempo depois, Rutherford conduziu uma série de experimentos que
revelaram a existência do núcleo atômico; e nos começos do século 20 a descoberta
e interpretação da radioatividade em termos do núcleo levou à identificação do
próton e o nêutron como ingredientes básicos do núcleo de Rutherford.
Com estas descobertas começou uma era de caracterização das partículas que
constituem os átomos (ou seja, houve uma mudança no nível mais profundo de
elementaridade) e de construção de modelos atômicos detalhados. Aliás, um dos
primeiros modelos (o modelo de Thompson) postulava um fluído carregado
positivamente (contínuo) no qual os elétrons estavam embebidos, ou seja, a
quantidade de carga atribuída a cada componente não estava definida. Mas coube a
Robert Millikan contribuir pouco tempo depois ao problema com seus
experimentos, os quais demonstraram o caráter discreto (quantização) da carga
elétrica do elétron.
Tanto do ponto de vista teórico quanto experimental, o conceito de elementaridade
pode ser considerado de forma relativa, no sentido de que uma partícula pode ser
enxergada como elementar (sem estrutura interna) nas baixas energias, mas
revelar-se composta nas energias mais altas. Para descobrirmos se uma partícula é
composta ou elementar empregamos há bastante tempo um método que recorre à
força bruta: se arremessada contra alvos conhecidos a partícula revelará uma
subestrutura desde que a energia entregue seja suficiente. (por exemplo, arremesar
uma noz contra um muro revelará sua estrutura interna se a energia for suficiente
para quebrar a casca). Assim, nas colisões entre prótons realizadas nos
aceleradores de partículas, estes são vistos como partículas sem estrutura interna
desde que a energia da colisão seja baixa. Nas colisões de altíssimas energias
realizadas nos grandes aceleradores, os prótons mostraram que são compostos de
outras partículas mais fundamentais, os quarks. Neste modelo, 3 quarks compõem
um próton ou um nêutron. É deles que falaremos logo a seguir.
Todas estas imagens têm um forte fundamento clássico (de origem mecânico), mas
uma pergunta relevante é o que entendemos por interação ao nível mais elementar,
isto é, entre as próprias partículas, indo além do conceito clássico mais aplicável a
"pedaços" macroscópicos de matéria, os quais de fato reúnem um número enorme
de partículas.
No micro-mundo das partículas elementares boa parte das noções que temos a
respeito da matéria macroscópica falham de forma ostensiva. Não é que há alguma
coisa errada com a Física clássica, pelo contrário, há vários séculos que o mundo
físico é explorado utilizando-a com sucesso. Mas é temerário pensar que os
conceitos desenvolvidos no mundo clássico poderão ser aplicados no micromundo
sem mais. Aliás, esta extrapolação é motivo de inúmeros problemas e “paradoxos”
que pragam até hoje a descrição do mundo elementar. O desenvolvimento da
Mecânica Quântica no século 20 expôs muitas destas contradições sem realmente
resolver sua natureza exata, já que a chamada interpretação do formalismo quântico
requerida para que faça sentido não é satisfatória, e ainda é motivo de discusão e
pesquisa. Esta idéia de interpretação é consensual em outros casos (por exemplo, a
Mecânica clássica), onde o significado dos conceitos relevantes e seu papel na
descrição física não tem ambiguidades, mas não é este o caso do formalismo
quântico. Uma discussão deste problema nos levaria muito longe do objetivo aqui
pretendido, e somente mencionamos esta situação por completeza (vide Pessoa
2003, 2006 para uma discussão aprofundada destes problemas).
Sem precisar de um esclarecimento completo da interpretação da Mecânica
Quântica, existe um forte consenso entre os físicos para considerar que, cada vez
que a MQ foi acionada para obter uma predição quantitativa (probabilística) a
respeito de um experimento, esta forneceu soluções corretas em acordo com as
medidas efetuadas (!). Uma das características da MQ que seguramente é comum a
qualquer interpretação, e que constitui um ponto de ruptura com a física clássica, é
fornecida pelas chamadas relações de incerteza. Este conceito é importante para o
resto da nossa discussão e será descrito a seguir.
∆𝑥 ∆𝑝 ≥ ℏ (1.1)
conhecida como relação de incerteza (embora uma tradução mais exata da palavra
original em alemão seria “indeterminabilidade”). De forma similar a energia 𝐸
medida a um tempo 𝑡 deve satisfazer
∆𝐸 ∆𝑡 ≥ ℏ (1.2)
Uma partícula deste tipo, virtual, com energia 𝐸 e massa 𝑚 pode ser trocada por
duas partículas “reais” até distâncias 𝐿 ≈ 𝑐Δ𝑡 (𝑐 é a velocidade máxima da partícula
virtual), e portanto em termos da massa teremos que
ℏ
𝐿 ≈ 𝑐∆𝑡 = 𝑚𝑐 (1.3)
Fig.1.3. O alcançe de uma interação quântica. Os dois jogadores trocam uma bola
(partícula) virtual de massa 𝑚. Esta troca é possível para distâncias cada vez
menores conforme 𝑚 cresce. No limite 𝑚 → 0 a interação tem alcance infinito, ou
seja, os "jogadores" podem se afastar tanto quanto quiserem.
Desta soma infinita que leva em conta toda a complexidade do micromundo emerge
o limite clássico conhecido quando consideradas algumas condições. Na Fig. 1.4 o
diagrama completo da esquerda deve ser considerado como incluindo todas as
interações graficadas à direita, e se denomina “vestido”. Á esquerda vemos que o
primeiro diagrama mais simples não contém contribuições do vácuo, estas
aparecem somente na ordem seginte em potências da constante de acoplamento 𝛼.
Assim, a teoria clássica do campo eletromagnético (Maxwell !) corresponde ao
primeiro diagrama (clássico), chamado no jargão nível de árvore. As correções
quânticas aparecem na ordem 𝛼 e posteriores, daqui a importância de ter 𝛼 < 1:
embora a série não pode ser somada em geral (nem converge!), os termos são cada vez
menores nas potências de 𝛼, e assim o resultado é tão exato quanto se queira calculando
as contribuições até uma ordem dada. Tomando o limite estático da série, e ficando
somente com o nível de árvore recuperamos os potenciais clássicos de Coulomb
𝛼 𝛼 𝑟
(𝑉(𝑟) ∝ − 𝑟 ) e Yukawa (𝑉𝑦𝑢𝑘 (𝑟) ∝ exp − 𝐿 ) no caso do mediador sem massa e
𝑟
com massa 𝑚 respectivamente (vide eq. 1.3).
Com base nas ideias anteriores podemos agora discutir o “zoológico” das
partículas conhecido, as quais compõem o chamado Modelo Padrão, e classificar as
interações elementares.
Além de construir modelos para a dinâmica das interações entre elas, se fez
necessário um esquema de classificação. Depois de várias tentativas provisórias de
interesse histórico, mas cuja complexidade nos afastaria do escopo deste texto, há
um consenso hoje em torno ao esquema que ficou conhecido como Modelo Padrão.
O Modelo Padrão classifica e associa as partículas elementares em três grupos ou
gerações, levando em conta a sua participação nos processos elementares (reações
nas quais participam as partículas) detectados. A composição de uma geração é a
sempre a mesma: contém dois quarks (os quais formam bárions e mésons), um
lépton carregado (o elétron, o muon e a tau, sucessivamente) e um neutrino
associado a este último (um neutrino diferente para cada tipo de lépton). A
descoberta e identificação destas partículas, e o reconhecimento da simetria
implementada nas gerações, levou várias décadas e só ficou completa com o anúncio
da descoberta do quark t em 1995 e do bóson de Higgs (responsável das massas
observadas) em 2012. Até hoje não há qualquer evidência que indique afastamentos
importantes dos dados respeito do Modelo Padrão. A Fig. 1.5 ilustra o conhecimento
da estrutura atual das partículas do Modelo Padrão.
Fig. 1.5. O conteúdo do Modelo Padrão. Se mostram as três gerações com os dois
quarks (up e down na primeira; charm e strange na segunda e top e bottom na
terceira). Os léptons carregados (em verde) e os três neutrinos correspondentes. As
cargas elétricas das partículas estão acima e as massas (em GeV). Abaixo das chaves
se mostram exemplos de partículas observadas em laboratório (bárions) que são
compostas pelos 3 quarks elementares de cada geração. Vide Mizrahi e Galetti, 2016
para uma discussão aprofundada.
Por algumas décadas este quadro foi satisfatório, mas os desenvolvimentos nos
aceleradores permitiram determinar que os prótons e nêutrons estavam longe de
ser pontuais: elétrons incidentes encima destes núcleos se espalhavam como se
houvesse pontos “duros” em escalas ≤ 10−14 𝑐𝑚. Assim, Gell-Mann e Zweig
propuseram que existem constituintes fundamentais dos núcleons que chamaram
de quarks. Rapidamente foi possível construir uma teoria de campo altamente não-
linear denominada QCD (ou Cromodinâmica Quântica), onde os quarks trocam
glúons, a partícula mediadora das interações fortes entre elas. A carga associada
vêm em três tipos, e foi chamada fantasiosamente de cor (embora nada tenha a ver
com cores reais, é claro). Porém, esta teoria tem uma característica que a faz muito
diferente de outras: apesar de procuras intensivas nunca foi possível detectar um
quark isolado, fora de um hádron (os núcleons e mésons são hádrons, os primeiros
são denominados bárions). Isto deu origem a uma ideia totalmente nova, a do
confinamento da cor, isto é, as cores dos quarks sempre se somam (tal como as
cores primárias) para produzir um hádron “branco”, isto é, sem cor. Cada vez que
um quark quer ser arrancado de um hádron, produz a quebra do tubo de fluxo que o
liga com outro e assim dois mésons ou equivalentes são produzidos (Fig. 1.6).
Atualmente acredita-se que essa propriedade dos quarks (e glúons) está contida na
descrição teórica, já que existem simulações numéricas que demostram o
confinamento. Mas também há outra peculiaridade da teoria: em distâncias muito
curtas, dentro dos hádrons, os quarks e glúons parecem estar livres, ou seja que não
“sentem” as interações entre eles. Com efeito, podemos definir estas curtas o longas
distâncias recorrendo à definição relativística da relação momento-energia, ou seja
𝐸 = 𝑝𝑐 da partícula incidente. Da relação de incerteza eq. (1.1) temos de imediato
que as distâncias atingidas pela partícula-projétil são inversamente proporcionais a
ℏ
sua energia, 𝑥 ~ . As grandes distâncias podem ser consideradas como aquelas
𝐸
maiores que o raio do próton, enquanto as pequenas são muito menores que este. O
comportamento dos quarks no primeiro caso se denomina escravidão infravermelha
(baixas energias incidentes) e no segundo liberdade assintótica (altas energias
incidentes).
Fig. 1.7. A sacola como uma bolha no vácuo verdadeiro, caracterizada por uma
pressão negativa constante −𝐵 e abrigo dos quarks que fornecem uma energia
cinética 𝑃𝑘 para balancear a primeira.
4 2.04 𝑁
𝐸𝑡𝑜𝑡 = 𝐸𝑣𝑎𝑐 + 𝐸𝑘 = 3 𝜋𝑅 3 𝐵 + (1.4)
𝑅
e o estado de equilíbrio deve corresponder a um mínimo da energia total, ou seja
𝜕𝐸𝑡𝑜𝑡 2.04 𝑁
= − + 4𝜋𝑅 2 𝐵 = 0 (1.5)
𝜕𝑅 𝑅2
2.04 𝑁 1/4 1
𝑅= (1.6)
4𝜋 𝐵 1/4
𝑀1 𝑀2
𝐹𝐺 = −𝐺𝑁 (1.7)
𝑟2
Esta discussão leva à conclusão que podemos sim deixar de considerar a gravitação
em sistemas microscópicos, a menos que a escala de energia cresça tanto quanto
para 𝛼𝐺 ≈ 1. Em essas condições, a gravitação microscópica seria tão importante
quanto as outras interações fundamentais. A energia (massa) onde esta equivalência
acontece é
a chamada massa de Planck, com energia associada de 𝐸𝑃𝑙 = 𝑚𝑃𝑙 𝑐 2 = 1019 𝐺𝑒𝑉.
Como os fenômenos mais energéticos em laboratório, e até nos raios cósmicos de
Ultra-Alta energia do Capítulo 12, estão muitas ordens de grandeza abaixo deste
valor, nunca vamos nos preocupar com a gravitação como teoria elementar. Isto não
dexia de ser uma sorte, já que não possuímos uma teoria consistente da gravitação
quântica. Embora a contribuição básica deve ser o diagrama de troca de uma
partícula intermediária (ou gráviton) entre duas partículas massivas quaisquer,
nenhum cálculo quântico é muito consistente. Por outro lado, as versões clássicas
das teorias Newtoniana e relatividade geral têm tido um sucesso espetacular.
Embora gostaríamos de ter uma teoria quântica da gravitação, nunca foi possível
construir uma versão aceitável. Quando se procede da mesma forma que na
quantização das teorias de campo, existe uma divergência da teoria quântica da
gravitação acima de uma certa ordem na teoria de perturbações. Muitos físicos
acreditam que existe aqui uma forte analogia com a história das interações fracas, já
que a teoria de Fermi quantizada leva também a resultados divergentes além de
uma certa ordem perturbativa. Possivelmente a gravitação de Einstein não é uma
teoria fundamental, mas somente uma teoria “efetiva”. Assim sendo, os físicos vivem
ainda num mundo dual onde, por um lado, sabem que o mundo microscópico é
descrito pelas leis da Mecânica Quântica, e por outro a gravitação se comporta de
forma clássica até onde podemos medir e observar, e estas duas descrições são
incompatíveis. A solução deste antagonismo motiva a procura de teorias unificadas.
Na década de 1920 não só o elétron tinha sido descoberto, mas também os prótons
identificados como componentes do núcleo de Rutherford. Uma série de
experimentos específicos permitiu observar que, em certas circunstâncias, um
núcleo mudava seu estado de carga, com a expulsão de um elétron do núcleo. Assim,
havia duas possibilidades: ou o núcleo atômico continha elétrons, ou estes eram
emitidos por uma partícula que decaia num próton e um elétron. Esta última
hipótese recebeu confirmação definitiva quando Chadwick descobriu o nêutron em
1931. Constatou-se que havia uma conversão de nêutrons em prótons, tanto livres
quanto dentro do núcleo, ou seja, que a natureza mudava o tipo de núcleon
constituinte do núcleo em certas condições.
Havia também ficado claro que a conversão observada não tinha origem
eletromagnética (embora, existia conservação da carga elétrica em ela). Os físicos
procuraram assim a origem e natureza da força responsável. Em primeiro lugar,
precisava ser uma força de curto alcance porque a reação acontece principalmente
em escalas da ordem da do núcleo atômico. A caracterização da intensidade dessa
força também emergiu dos dados, e resultou várias ordens de grandeza menor do
que a eletromagnética (vide Tabela 1). Desta forma, a descoberta das forças fracas
associou o decaimento do nêutron a uma nova interação fundamental,
responsável pelo processo
𝑛 → 𝑝 + 𝑒 − + 𝜈𝑒 (1.9)
onde o nêutron e próton continuavam ligados ao núcleo, e o elétron escapava da
região nuclear. O último “protagonista” (chamado de anti-neutrino) da reação (1.9)
não era medido ao princípio, mas tinha sido postulado por Pauli para resolver dois
sérios problemas do decaimento: a conservação da energia e do momento angular
na reação. Com efeito, nos decaimentos espontâneos, como os observados dos
nêutrons dentro de núcleos, o momento angular total não parecia ser conservado, já
que o spin do nêutron (½) era igual à metade do spin das partículas observadas nos
produtos da reação, um próton (spin ½) e um elétron (spin ½). Também a soma da
energia das partículas que participavam da reação também não era constante.
Ninguém gostava de abandonar a conservação da energia e do momento angular na
Física, e cabia então uma solução criativa para este problema.
Foi assim que W. Pauli postulou uma partícula neutra, muito leve ou de massa zero,
com o spin necessário (½) para restaurar a conservação das duas quantidades. No
fundo, poderíamos dizer que esta hipótese era a da emissão de um quantum de spin.
O importante era restaurar as leis de conservação.