Você está na página 1de 113

1

NÚCLEO DE PÓS GRADUAÇÃO


CURSO DE PÓS-GRADUAÇÃO
Coordenação Pedagógica – IBRA

DISCIPLINA

TÓPICOS ESPECIAIS EM
FÍSICA
2

Sumário
UNIDADE 01 - APRESENTAÇÃO ..............................................................................3
UNIDADE 02 - A FÍSICA MODERNA .........................................................................4
2.2 – A Física Nuclear ......................................................................................................... 7
2.3 – A Equivalência Massa-Energia................................................................................ 7
2.4 - Dimensões Nucleares ................................................................................................ 9
2.5 - Energia de Ligação................................................................................................... 11
UNIDADE 03 – ATUALIDADES NA FÍSICA.............................................................12
3.1 - Colisão recorde de prótons - Experiência para decifrar Big Bang.................... 12
3.2 - Acelerador de partículas retoma busca de mistérios cósmicos ........................ 13
21/02/2011 - 16h55 / Atualizada 21/02/2011 - 16h55.................................................. 13
3.3 - ACELERADOR DE PARTÍCULAS PODERIA SER USADO COMO MÁQUINA
TEMPO ................................................................................................................................ 14
3.4 - MAIOR ACELERADOR DE PARTÍCULAS CONQUISTA MAIS UM
RECORDE .......................................................................................................................... 15
3.5 - Acelerador de partículas continua funcionando em 2012 .................................. 15
3.6 - Maior acelerador de partículas do mundo cruza "fronteira simbólica" ............. 16
UNIDADE 04 - ARTIGO: O GERADOR ELETROSTÁTICO E SUAS APLICAÇÕES
..................................................................................................................................17
4.1 - O acelerador eletrostático ....................................................................................... 17
4.2 - A Importância dos Aceleradores Eletrostáticos ................................................... 20
UNIDADE 05 - A RELATIVIDADE DE EINSTEIN ....................................................22
5.1 - Os Postulados de EinsteIn ...................................................................................... 26
5.2 - Massa e Energia ....................................................................................................... 30
5.3 - A estrutura da matéria e do átomo ........................................................................ 31
5.4 - Estrutura do núcleo .................................................................................................. 32
5.5 - FUSÃO E FISSÃO NUCLEAR ............................................................................... 34
5.6 - Radioatividade........................................................................................................... 37
UNIDADE 06 - A FÍSICA CLÁSSICA DE CABEÇA PARA BAIXO: como Einstein
descobriu a teoria da relatividade especial1 .........................................................49
6.1. Introdução ................................................................................................................... 49
6.2. Uma conversa em maio ............................................................................................ 49
6.3. Problemas de fronteira da física clássica............................................................... 52
6.4. A fase da experimentação ........................................................................................ 55
6.5. A fase da teorização .................................................................................................. 58
6.6. A fase da reflexão ...................................................................................................... 61
6.7. O início de uma revolução ........................................................................................ 65
UNIDADE 07 - FÍSICA E REALIDADE* ....................................................................67
7.1. Generalidades acerca do método científico .......................................................... 67
7.2. Estratificação do sistema científico ......................................................................... 70
7.3. A mecânica e a tentativa de sobre ela fundamentar toda a Física .................... 71
7.4. O conceito de campo................................................................................................. 79
7.5. A teoria da relatividade ............................................................................................. 82
7.6. Teoria quântica e o fundamento da Física............................................................. 87
7.7. Relatividade e corpúsculos....................................................................................... 94
ANEXOS ...................................................................................................................98
REFERÊNCIAS UTILIZADAS E CONSULTADAS.................................................113
3

UNIDADE 01 - APRESENTAÇÃO

Esta apostila foi preparada com o intuito de apoiar e oferecer subsídios à


disciplina TÓPICOS ESPECIAIS EM FÍSICA. O objetivo do curso é fornecer um
conjunto de elementos conceituais, teóricos e empíricos que permitam, a você aluno,
desenvolver seus estudos e obter o conhecimento que você espera, com
sucesso.

Em sendo, pretendemos sugerir métodos práticos e desenvolver as


habilidades técnicas e conhecimentos necessários à difícil tarefa de ensinar. Sendo
o planejamento fator essencial na orientação eficiente de um programa de ensino e,
a partir da filosofia das escolas e dos objetivos propostos, deverão ser determinados
os métodos e técnicas que assegurarão não apenas uma utilização do tempo, mas,
fornecerão diretrizes para um melhor controle do processo ensino-aprendizagem.
Contudo, alguns temas são de aplicação geral e, em sendo, entre eles
destacamos a Física Moderna e suas atribuições, bem como, diversas descobertas
e novas perspectivas para a mesma.
Para tanto, buscamos amparo teórico em diversos autores e centros de
pesquisas, a nível mundial, objetivando a atualização dos temas postulados.
Transcrevemos, também, artigos de diversas autoridades no assunto,
buscando uma maior e melhor abordagem dos temas e de suas manifestações na
academia de ciência.
Noutro momento, discutimos a física clássica e seu posicionamento na atual
perspectiva do ensino da Física.
Por fim, tratamos da Física a partir da generalidade do método científico e da
estratificação do sistema científico.
Ao final, disponibilizamos diversos anexos para leitura, análise e possíveis
futuros estudos e aprofundamento dos temas abordados.
Por tudo isso, esperamos que você faça uma excelente leitura e que tenha
sucesso em seu curso.
4

UNIDADE 02 - A FÍSICA MODERNA

Até o início do século XX, a luz e seus fenômenos eram explicados de


acordo com a teoria ondulatória. Ou seja, luz era uma onda. Mas alguns fenômenos
que foram aparecendo não podiam ser explicados por essa teoria. Algo estava
errado...

Um desses fenômenos era a radiação que os corpos aquecidos emitem


naturalmente. Isso preocupava os físicos da época. Mas em 1900, o físico alemão
Max Planck sugeriu que a energia emitida pelos corpos vinha em ―pacotes‖, com
valores discretos, ou seja, não poderia ser qualquer valor. Isso revolucionou a física.
As leis de Newton e do eletromagnetismo já não explicavam tudo, principalmente o
mundo do muito pequeno. Era necessária outra teoria. Nascia, então, a Física
Quântica.
A idéia básica é a da quantização da energia: A energia emitida pelos corpos
(ondas eletromagnéticas) não pode ter qualquer valor. Apenas algumas energias
são permitidas. Veremos o átomo de Bohr para entendermos isso:
5

Nessa explicação do átomo de hidrogênio (postulados de Bohr)1:


• Os elétrons podem ocupar apenas posições definidas (órbitas), com energias
definidas para cada órbita;
• Em cada órbita, o elétron não emite radiação, apesar de estar acelerado;
• Quando chega uma radiação no elétron, ele poderá passar para uma órbita mais
energética (afastada), se a energia da radiação for exatamente a diferença das
energias das órbitas;
• Quando o elétron decai para uma órbita menos energética, ele emite uma radiação
com energia equivalente à diferença das energias das órbitas.

1
VIDE ANEXO 01.
6

2.1 - O EFEITO FOTOELÉTRICO

Albert Einstein, físico alemão, em 1905 divulgou cinco artigos que


revolucionaram o mundo. Dois eram sobre a Teoria da Relatividade Restrita, um era
sobre moléculas e sólidos, um sobre Movimento Browniano e o outro era sobre o
Efeito Fotoelétrico.

O efeito consiste no seguinte: radiação com uma certa freqüência incide


numa placa metálica e consegue arrancar alguns elétrons livres, que são ejetados
instantaneamente da placa. Esse fenômeno só pode ser explicado pela teoria
corpuscular da luz, sugerida por Einstein, na qual a luz (e todas as o.e.m.) são
constituídas de ―partículas‖ sem massa, chamadas de FÓTONS. São os quanta de
luz. A energia de um fóton é definida e vale:

E=hf
7

2.2 – A FÍSICA NUCLEAR

Z = número de prótons
A = número de massa
N = número de nêutrons
A=Z+N
Isótopos = mesmo Z
Isóbaros = mesmo A
Isótonos = mesmo N

2.3 – A EQUIVALÊNCIA MASSA-ENERGIA

Pela teoria da relatividade de Einstein, massa pode se transformar em


energia. Nas reações nucleares, o número de massa e a carga se conservam, mas a
massa dos reagentes é maior do que as massas dos produtos. Essa massa perdida
se transforma em energia liberada.
E = mc²
Entidades emitidas em reações nucleares e em átomos radioativos:
8

Partícula Alfa: núcleo de hélio


Partícula Beta: elétron de alta energia
Radiação gama: onda eletromagnética de alta freqüência.

O modelo atômico operacionalmente mais simples é aquele em que o


núcleo, constituído por prótons e nêutrons, é envolvido por camadas de elétrons. O
que vamos discutir aqui se refere apenas ao núcleo e aos fenômenos pertinentes a
ele.
Dada a complexidade do assunto, vários conceitos serão introduzidos
arbitrariamente, sem uma explicação mais detalhada.
O número de prótons é sempre igual ao de elétrons, e define o número
atômico, Z, do elemento em questão. Assim, o hidrogênio, cujo número atômico é
Z=1, possui um próton no núcleo. O próximo elemento na tabela periódica é o hélio,
com Z=2. Para satisfazer condições de equilíbrio, este núcleo possui 2 nêutrons. A
propósito, a existência de nêutrons no núcleo sempre se justifica pela satisfação de
uma ou outra condição de equilíbrio. Quando alguma dessas condições é violada,
ocorrem fenômenos conhecidos como decaimento nuclear.
Usualmente o número de nêutrons é representado por N, e a soma N+Z
(prótons + nêutrons) conhecida como número de massa, é representada por A.
Um fato muito comum é a existência de núcleos com mesmo número
atômico, Z, e diferentes números de massa. Tais núcleos são conhecidos pela
denominação isótopo. A descoberta dos isótopos permitiu a compreensão de um
resultado muito curioso, isto é, a massa nuclear não corresponde à soma das
massas dos nucleons (prótons e nêutrons). A verdade é que, aquilo que
conhecemos como elemento químico é constituído de diversos isótopos. Por
9

exemplo, 75% do cloro natural é constituído de 17 prótons e 18 nêutrons, e 25%


contém 17 prótons e 20 nêutrons. Esta composição resulta numa massa igual 35.45.
Uma notação freqüentemente adotada para designar determinado núcleo, é
a seguinte: ZXA.
Nessa notação, o cloro 37 é designado como 17Cl37.
Qualquer elemento químico apresenta mais de um isótopo, mas muitos
desses são muito instáveis, dificultando sua observação, ou produção. Existem duas
formas básicas de se identicar um isótopo: (a) pela sua massa; (b) pelas
características das suas radiações.

2.4 - DIMENSÕES NUCLEARES


A experiência de Rutherford originou o modelo atômico mencionado no início
deste capítulo, e que foi sistematizado por Bohr (trataremos disso no cap. 4). O
modelo anterior, proposto por Thomson, consistia numa mistura homogênea de
prótons e elétrons. Esse modelo passou a ser conhecido como modelo do pudim de
ameixa. Os prótons representavam o pudim, e os elétrons eram as ameixas.
A contração de comprimento dada pela equação IV pode ser percebida por
meio de medidas. No entanto, o aspecto visual é outra coisa. A imagem formada na
retina de um observador (ou no filme de uma máquina fotográfica) é constituída de
raios de luz que chegam praticamente ao mesmo tempo na retina (ou no filme), mas
partiram do objeto em momentos diferentes. A conseqüência disso é que a imagem
vista (ou fotografada) é levemente distorcida. Na figura a mostramos um cubo em
repouso. Quando esse cubo se move para a direita com velocidade próxima de c, a
imagem observada tem o aspecto da figura b, como mostra uma simulação feita em
computador.
10

Entre 1908 e 1911, Rutherford fez os experimentos que hoje conhecemos


como espalhamento de Rutherford. Ele lançou partículas alfa contra folhas
finíssimas de vários metais pesados, incluindo ouro, e observou alguns resultados
muito estranhos.
Várias partículas eram espalhadas em ângulos enormes, e algumas eram
até espalhadas para trás. Por tudo que se sabia da teoria eletromagnética, e se o
modelo de Thomson fosse verdadeiro, os desvios das partículas a deveriam ser bem
menores, como na animação abaixo.
A partir do espalhamento desssas partículas, Rutherford estimou o raio
nuclear, considerando que este é aproximadamente igual à distância mais próxima
ao núcleo, atingida pela partícula a. Vejamos como se faz este cálculo.
A partícula tem energia cinética Ec=7.7 Mev. Quando esta partícula é
lançada frontalmente contra o núcleo, a interação Coulombiana faz com que sua
energia cinética seja transformada em energia potencial eletrostática. Quando toda a
energia cinética é transformada em energia potencial, a partícula chega à distância
mais próxima, e pára. Nesse momento:
Ec=(1/4pe0)(2Ze2/r0).

Utilizando os valores numéricos conhecidos (1/4pe0 =9x109 Nm/C2;


e=1.6x10-19 C), obtém-se:
r0=3x10-14 m.

Portanto, o raio do núcleo de ouro deve ser menor do que 3x10-14 m, isto é,
menos do que 1/10000 do raio atômico. É razoável esperar que o volume nuclear
seja proporcional ao número de massa. Assim, considerando o núcleo como uma
esfera de raio R, tem-se:

R=R0A1/3,
Onde:
R0=1.2x10-15 m.

Para o ouro, A=197, tem-se R=7x10-15m. Com esta dimensão, resulta que a
densidade da matéria nuclear é da ordem de 2x1017 kg/m3.
As dimensões nucleares são mais convenientemente descritas através de
uma nova unidade, denominada fermi ou fentômetro (fm), definida por 1 fm = 10-15
m.
11

2.5 - ENERGIA DE LIGAÇÃO

A tabela abaixo apresenta as massas de 5 n


leves e do nêutron:

nome símbolo massa (amu)


Próton 1H1 1.007825
Nêutron 0n1 1.008665
Dêuteron 1H2 2.014102
Trítio 1H3 3.016049
Hélio 3 2He3 3.016030
Partícula alfa 2He4 4.002604

A abreviatura amu vem do inglês atomic mass units, unidades de massa


atômica, que é definida como 1/12 da massa do isótopo 6C12, i.e., 1 amu = 1.66x10-
27 kg.
Se o dêuteron contém 1 próton e 1 nêutron, por que sua massa é menor do
que a soma mp+mn? Dito de outra forma, quando dois ou mais núcleons se
combinam para formar um núcleo, a massa total do núcleo é menor do que a soma
das massas dos núcleons.
Então, para onde vai a massa restante? Esta massa transforma-se em
energia, sendo responsável pela ligação nuclear.
Essa energia de ligação, que também é necessária para separar o núcleo
em prótons e nêutrons, relaciona-se com a variação de massa através da famosa
equação proposta por Einstein:

E=DMc2
12

UNIDADE 03 – ATUALIDADES NA FÍSICA

3.1 - COLISÃO RECORDE DE PRÓTONS - EXPERIÊNCIA PARA DECIFRAR BIG


BANG2

quinta-feira, 21 de abril de 2011

O gigantesco acelerador de partículas batizado de Grande Colisor de Hádrons


(LHC, na sigla em inglês), criado para simular um Big Bang, bateu um novo recorde
nesta terça-feira ao colidir feixes gerando uma energia sem precedentes.
A complexa máquina operada por cientistas do Centro Europeu de Investigação
Nuclear (Cern, na sigla em inglês) conseguiram gerar uma energia de 7 TeV (trilhões
de eletronvolts), um nível 3,5 vezes maior do que o alcançado até hoje com um
acelerador de partículas.
A façanha, realizada em um laboratório subterrâneo na fronteira entre a Suíça e a
França, marca o início de um período de 18 a 24 meses de investigação que pode
levar à descoberta de novas leis fundamentais da física.
Cientistas do CERN comemoraram com muitos aplausos na sala de controle assim
que as primeiras colisões foram confirmadas.

Novas percepções
Os cientistas esperam que o estudo traga novas percepções sobre a natureza do
Cosmos e sua formação.
Dois feixes de prótons estavam circulando em direções opostas no túnel desde 19
de março. Depois de alcançar estabilidade, os feixes tiveram suas trajetórias
cruzadas para a colisão.

Feixes de próton colidiram a um nível de energia sem precedente no LHC.

O evento de 7 Tev, que ocorreu às 13h00 (08h00 em Brasília), foi o com maior nível
de energia já produzido em um acelerador de partícula.
Mas os cientistas alertam que levará tempo para analisar a informação reunida com
o impacto das partículas sub-atômicas e que não se deve esperar resultados
imediatos.
"As principais descobertas acontecerão somente quando formos capazes de coletar
bilhões de eventos e identificar entre eles raros eventos que podem apresentar um

2
tomdafisica.blogspot.com/2011/04/ciencia.html
13

novo estado da matéria ou novas partículas", afirmou Guido Tonelli, porta-voz do


LHC.
"Isto não acontecerá amanhã. Serão precisos meses e anos de trabalho paciente",
disse Tonelli à BBC.
O LHC é o maior e mais complexo instrumento científico já construído. Alojado em
um túnel quase-circular de 27 quilômetros de comprimento na fronteira entre a
França e a Suíça, o LHC vai provocar a colisão de partículas viajando a uma
velocidade próxima à velocidade da luz.
A liberação maciça de energia causada pelo choque das partículas simularia as
condições após a explosão que deu origem ao universo.
A expectativa é de que fenômenos antes nunca vistos sejam revelados. Um dos
objetivos é encontrar a partícula Bóson de Higgs, tida como chave para explicar a
origem da massa.

3.2 - ACELERADOR DE PARTÍCULAS RETOMA BUSCA DE MISTÉRIOS


CÓSMICOS3
21/02/2011 - 16H55 / ATUALIZADA 21/02/2011 - 16H55
GENEBRA (Reuters) - O Large Hadron Collider (LHC), acelerador de partículas do
Cern, está se preparando para retomar as colisões de partículas em plena
velocidade, no mês que vem, com o objetivo de resolver mistérios fundamentais do
universo, afirmaram cientistas e engenheiros do centro de pesquisa na segunda-
feira.
Eles reportaram que a gigantesca máquina subterrânea estava em ótimas condições
depois de 10 semanas de paralisação e que os feixes de partículas que voltaram a
circular por ela no final de semana seriam acelerados até sua velocidade máxima no
final do dia.
"Tudo está indo muito bem. O progresso vem sendo extremamente rápido desde
que voltamos a acionar o LHC na noite do sábado", disse Mike Lamont, diretor de
operações na sala de controle do LHC, perto de Genebra, em entrevista à Reuters.
O LHC foi fechado em 6 de dezembro para verificações técnicas de seu aparato
imensamente complexo, depois de oito meses de operações.
"Esperamos acelerar os feixes até sua velocidade máxima dentro de algumas
horas", disse Lamont, em referência à maior energia obtida até o momento pela
máquina --3,5 tera elétron-volts, ou TeV--, desde que entrou em operação em 31 de
março do ano passado.
"Nossas equipes de analistas estão se preparando para trabalhar com os dados de
'nova física' que começarão a fluir de novo assim que as colisões forem retomadas,
dentro de cerca de três semanas", disse Oliver Buchmüller, líder de equipe do
detector CMS do LHC, um dos quatro grandes experimentos do acelerador de
partículas.
"NOVA FÍSICA"
"Nova física", o lema do LHC, se refere ao conhecimento que conduzirá as
pesquisas para além do "modelo padrão" de como o universo funciona, surgido do

3
http://tecnologia.uol.com.br/ultimas-noticias/reuters/2011/02/21/acelerador-de-particulas-retoma-busca-de-
misterios-cosmicos.jhtm
14

trabalho de Albert Einstein e de sua Teoria da Relatividade Especial, publicada em


1905.
"Este ano nos concentraremos em superssimetria, dimensões adicionais, a criação
de buracos negros e o bóson de Higgs. Antecipamos que pela metade do ano já
teremos os primeiros resultados", disse Buchmüller.
A superssimetria, ou SUSY, é uma teoria que admite a existência de duplicatas não
detectadas das partículas elementares, e caso confirmada explicaria o mistério da
matéria escura, que supostamente responde por cerca de um quarto do universo
conhecido.

3.3 - ACELERADOR DE PARTÍCULAS PODERIA SER USADO COMO MÁQUINA


TEMPO4

Pode parecer roteiro de filme de ficção científica, mas físicos acreditam que a
viagem no tempo pode ser feita usando instalações já existentes. Segundo eles, o
maior acelerador de partículas do mundo tem chances de ser usado como uma
máquina do tempo para enviar um tipo especial de matéria ao passado.
Os cientistas estudam uma forma de usar o Large Hadron Collider (LHC), o
acelerador de partículas de 27 quilômetros de comprimento, enterrado no solo perto
de Genebra, para enviar uma partícula hipotética de volta no tempo.
A questão, porém, ainda depende de algumas condições. Entre elas, a grande
questão da existência ou não da tal partícula e a possibilidade de ela ser criada na
máquina. ―Nossa teoria é a longo prazo, mas não é nada que não viole as leis da
física ou restrições experimentais,‖ afirma o físico Tom Weiler, da Universidade
Vanderbilt.
Se a teoria se mostrar correta, os pesquisadores asseguram que o método poderia
ser usado para enviar mensagens tanto para o passado quanto para o futuro.
A hipotética partícula - Existem duas partículas relacionadas com a teoria da viagem
no tempo: a Higgs singlet e a Higgs bóson.
A busca pela bóson foi uma das principais motivações para a construção do LHC em
primeiro lugar. Desde que o acelerador começou a funcionar regularmente ano
passado, ele procura por Higgs bosons. A máquina continua trabalhando
arduamente.
Se o acelerador for bem sucedido em produzir a Higgs boson, acredita-se que a
outra partícula também seja criada ao mesmo tempo. Esta partícula pode ter uma
capacidade única de escapar das três dimensões de espaço e uma dimensão de
tempo em que vivemos e alcançar uma dimensão oculta que alguns modelos de
física avançada acreditam existirem. Ao viajar através da dimensão oculta, as Higgs
singlets poderiam entrar novamente nas dimensões em um ponto a frente ou para
trás no tempo a partir de quando eles saíram.
―Uma das coisas atraentes desta abordagem sobre a viagem no tempo é que ela
evita todos os grandes paradoxos‖, explica Weiler. ‖Porque a viagem no tempo é
limitado a essas partículas especiais. Não é possível para um homem a viajar no
tempo e assassinar um de seus pais antes que ele nasça, por exemplo‖, exemplifica.
Contudo, se os cientistas puderem controlar a produção das Higgs singlets, eles
serão capazes de enviar mensagens para o passado ou futuro.

4
http://hypescience.com/acelerador-de-particulas-poderia-ser-usado-como-maquina-tempo/
15

3.4 - MAIOR ACELERADOR DE PARTÍCULAS CONQUISTA MAIS UM


RECORDE5
| 23/05/2011 16:43
LHC multiplicou antigo recorde de luminosidade por 10
O maior acelerador de partículas do mundo, o LHC situado próximo de Genebra,
alcançou nesta segunda-feira (23) um recorde, cruzando a "fronteira simbólica" dos
"100 milhões de colisões por segundo", anunciou Michel Spiro, presidente do
conselho do Centro Europeu de Investigação Nuclear (CERN).
O recorde foi alcançado "esta noite, por volta de duas da manhã, na madrugada
desta segunda-feira", afirmou Spiro durante uma conferência em Paris.
Há um mês, o LHC (sigla em inglês para Grande Colisor de Hádrons) tinha
estabelecido um recorde de luminosidade, correspondente a "10 milhões de colisões
por segundo".
"Agora multiplicamos esta marca por 10", disse Spiro à AFP.
Fazendo colidir feixes de prótons que circulam em sentidos opostos em um anel de
27 km de circunferência, o LHC tem como objetivo recriar as condições de extrema
energia da primeira fração de segundo depois do Big Bang, há 13,7 bilhões de anos.
Os físicos buscam em particular um elo perdido da teoria de partículas, o famoso
bóson de Higgs, que seria a menor partícula que teria dado sua massa para todas
as outras.
Para demonstrar sua existência, os cientistas poderiam dispor dos elementos
necessários "a partir deste verão (no hemisfério norte)", explicou Spiro. Ao contrário,
"para dizer que não existe, terão que esperar até o final do próximo ano",
acrescentou.
Com 100 milhões de colisões por segundo, o LHC poderia produzir diariamente, em
poucas horas, um bilhão de colisões, explicou Spiro. Neste ritmo, se o bóson de
Higgs existir, poderá ser detectado "um por dia", segundo o cientista.
"Com um Higgs por dia, ou seja, centenas até fim de 2012", mesmo com o ruído de
fundo poderemos determinar se existe ou não", resumiu o físico.
"Caso o encontremos como esperamos, isso significaria que a teoria das partículas
elementares não está correta", concluiu.

3.5 - ACELERADOR DE PARTÍCULAS CONTINUA FUNCIONANDO EM 20126


01/02/2011-17h36

DE SÃO PAULO
Os experimentos no acelerador de partículas LHC (sigla em inglês de Grande
Colisor de Hádrons) continuam até o fim de 2012, sem interrupção, informou a Cern
(sigla francesa de Organização Europeia de Pesquisa Nuclear). Antes, o
encerramento das atividades estava programado neste ano.
Segundo a Cern, que administra o acelerador, há grandes probabilidades de se
chegar a novos achados físicos nos dois anos seguintes.

5
http://ultimosegundo.ig.com.br/ciencia/maior+acelerador+de+particulas+conquista+mais+um+recorde/n
1596973481137.html
6
http://www1.folha.uol.com.br/ciencia/869080-acelerador-de-particulas-continua-funcionando-em-2012.shtml
16

A maior parte dos trabalhos está centrada na colisão de partículas de prótons, a


velocidades muito próximas à da luz, de forma a revelar pistas sobre a formação do
Universo.
Um dos experimentos mais aguardados envolve a descoberta (ou não) do bóson de
Higgs, apelidado de "partícula de Deus", que se acredita tenha transformado a
massa amorfa de partículas em matéria sólida no nascimento do cosmos.
O acelerador seria desligado no fim de 2011 para ajustes técnicos e, posteriormente,
religado novamente.
No início deste mês havia um plano para prolongar o período de funcionamento do
acelerador até 2012, mas foi cancelado devido à falta de verbas. A opção, então, é
fazê-lo funcionar a baixas energias sem prejudicar o andamento das pesquisas.

3.6 - MAIOR ACELERADOR DE PARTÍCULAS DO MUNDO CRUZA "FRONTEIRA


SIMBÓLICA"7
France Presse
Publicação: 23/05/2011 16:25 Atualização:

Paris - O maior acelerador de partículas do mundo, o LHC situado próximo de


Genebra, alcançou nesta segunda-feira (23/5) um recorde, cruzando a "fronteira
simbólica" dos "100 milhões de colisões por segundo", anunciou Michel Spiro,
presidente do conselho do Centro Europeu de Investigação Nuclear (CERN).
O recorde foi alcançado "esta noite, por volta de duas da manhã, na madrugada
desta segunda-feira", afirmou Spiro durante uma conferência em Paris.
Há um mês, o LHC (sigla em inglês para Grande Colisor de Hádrons) tinha
estabelecido um recorde de luminosidade, correspondente a "10 milhões de colisões
por segundo".
"Agora multiplicamos esta marca por 10", disse Spiro à AFP.
Fazendo colidir feixes de prótons que circulam em sentidos opostos em um anel de
27 km de circunferência, o LHC tem como objetivo recriar as condições de extrema
energia da primeira fração de segundo depois do Big Bang, há 13,7 bilhões de anos.
Os físicos buscam em particular um elo perdido da teoria de partículas, o famoso
bóson de Higgs, que seria a menor partícula que teria dado sua massa para todas
as outras.
Para demonstrar sua existência, os cientistas poderiam dispor dos elementos
necessários "a partir deste verão (no hemisfério norte)", explicou Spiro. Ao contrário,
"para dizer que não existe, terão que esperar até o final do próximo ano",
acrescentou.
Com 100 milhões de colisões por segundo, o LHC poderia produzir diariamente, em
poucas horas, um bilhão de colisões, explicou Spiro. Neste ritmo, se o bóson de
Higgs existir, poderá ser detectado "um por dia", segundo o cientista.
"Com um Higgs por dia, ou seja, centenas até fim de 2012", mesmo com o ruído de
fundo poderemos determinar se existe ou não", resumiu o físico.
"Caso o encontremos como esperamos, isso significaria que a teoria das partículas
elementares não está correta", concluiu.

7
http://www.correiobraziliense.com.br/app/noticia/ciencia-e-saude/2011/05/23/interna_ciencia
_saude,253487/maior-acelerador-de-particulas-do-mundo-cruza-fronteira-simbolica.shtml
17

UNIDADE 04 - ARTIGO: O GERADOR ELETROSTÁTICO E SUAS


APLICAÇÕES8

A idéia de átomo indivisível perdeu sua significação na ciência quando Sir J.


J. Thomson mostrou que em todos os átomos existe um constituinte comum (o
elétron), de carga negativa e de massa cerca de 2000 vezes menor que o átomo de
hidrogênio.
Alguns anos depois Lord Rutherford investigando o fenômeno de difusão das
partículas alfa, emitidas por substâncias radioativas, através de folhas metálicas
extremamente delgadas, demonstrou que quase toda a massa dos átomos acha-se
concentrada numa região de diâmetro cerca de 10.000 vezes menor do que os
diâmetros atômicos. A essa região central, em torno da qual se distribuem os
elétrons, deu o nome de núcleo.
Sabe-se hoje em dia que o núcleo e constituído por protons e neutrons
ligados por uma energia cerca de um milhão de vezes maior que a energia de
ligação dos elétrons periféricos de um átomo. Em consequência, a estrutura do
núcleo só pode ser investigada submetendo-o ao bombardeio de partículas de
grande energia cinética (alguns milhões de elétron-volts*) tais como as emitidas por
processos radioativos e as (protons, deuterons, núcleos de He, elétrons, etc.)
aceleradas pelas modernas máquinas para a desintegração nuclear.
Bombardeando os núcleos atômicos com estas partículas de grande
energia, pode-se observar como as mesmas são desviadas sob o efeito das forças
nucleares ou como são absorvidas, aumentando assim a energia do núcleo, e como
este se liberta dessa enorme energia de excitação.

4.1 - O ACELERADOR ELETROSTÁTICO

Conhecem-se hoje cerca de uma dezena de instrumentos diferentes


destinados à aceleração de partículas. Entre esses aceleradores, o que apresenta
maiores vantagens, constituindo mesmo o aparelho mais importante para o estudo
do núcleo na região de energias ate cerca de 10 milhões de elétron-volts, é o
8
Ciência e Cultura - Print ISSN 0009-6725 - Cienc. Cult. vol.62 no.spe1 São Paulo 2010
OSCAR SALA - Departamento de Física, Faculdade de Filosofia Ciências e Letras de São Paulo
18

acelerador eletrostático Van de Graaff. Este aparelho apresenta consideráveis


vantagens sobre os demais, merecendo especial menção a grande homogeneidade
da energia das partículas aceleradas, a grande intensidade do feixe produzido, urna
ausência quase total de radiação de fundo (que tende sempre a confundir os
resultados e introduzir erros nas experiências) e a possibilidade de variar a energia
do feixe de partículas de uma maneira contínua. Infelizmente, a energia máxima que
pode ser obtida com um acelerador dessa natureza, de dimensões razoáveis, é
limitada a cerca de dez milhões de elétron volts.
O princípio de funcionamento do gerador eletrostático é extremamente
simples e foi desenvolvido em 1931 por Van de Graaff (1).
A máquina consiste essencialmente (fig. 1) de uma esfera metálica oca
suportada convenientemente no alto de uma coluna isolante. Uma correia em
movimento, de material também isolante, transporta cargas, de maneira continua,
entre a terra e o terminal de alta tensão. A coleção das cargas e feita utilizando-se
um pente de ago colocado no interior da esfera metálica oca onde o campo é nulo
(**), de maneira que a deposição e coleção das cargas e independente da voltagem
no terminal de alta tensão.
19

A deposição de cargas é feita estabelecendo-se uma diferença de potencial


de alguns kilovolts entre o pente de carga e a correia de transporte.
A voltagem máxima que se pode obter e limitada, unicamente, pela
qualidade dos isolantes e pelo efeito corona. À medida que a carga e transportada
ao terminal de alta tensão, a voltagem aumenta segundo a lei:

onde i é a corrente total coletada na esfera e C a capacidade da esfera em relação à


terra.
O gerador opera numa voltagem de equilíbrio em que a corrente transferida
pela correia e igual à corrente de carga; essa voltagem de equilíbrio pode ser
variada controlando-se ou a corrente transferida pela correia ou a de carga externa.
Devido principalmente ao efeito corona, as dimensões de um gerador dessa
natureza para tensões elevadas (2 ou 3 milhões de volts) seriam enormes. A
experiência mostra, no entanto, que se pode diminuir o efeito corona construindo-se
o equipamento no interior de um tanque cheio de ar, sob pressão elevada.
Herb e seus colaboradores (2) (em Wisconsin) construíram um aparelho
dessa natureza trabalhando sob pressão de 7 atmosferas. Mostraram, também, que
potenciais mais elevados podiam ser obtidos introduzindo na câmara de pressão
uma pequena porcentagem de freon (C Cl2 F2). Contribui, ainda, para a diminuição
do efeito corona, assim como das correntes de perda nos isolantes, a uniformidade
do campo no espaço ocupado pelas partes componentes do gerador — suportes
isolantes, correia para transporte de cargas e tubos aceleradores; para se conseguir
essa uniformidade é utilidade uma série de aneis metálicos (hoops) isolados entre si
e dispostos segundo a maneira indicada na fig. 2. Outro melhoramento adicional foi
conseguido pelo emprego de três esferas concêntricas em lugar de uma única na
alta tensão.
20

Com estes aperfeiçoamentos, Herb e seus colaboradores obtiveram, com


uma maquina de dimensões modestas, 4.5 milhões de volts, tensão máxima ate hoje
atingida com equipamentos dessa natureza.
O acelerador eletrostático em construção no Departamento de Física da
Faculdade de Filosofia, Ciências e Letras da Universidade de São Paulo e também
do tipo de alta pressão e horizontal, como o de Wisconsin (3) (fig. 3); esse aparelho
permitirá atingir uma tensão máxima de cerca de 4 milhões de volts. Alguns
melhoramentos serão introduzidos neste acelerador de maneira a se obter melhor
regulação de voltagem bem como correntes mais intensas no feixe e maior
homogeneidade na energia das partículas do feixe, possibilitando assim estender
consideravelmente o campo de investigação com aparelhos dessa natureza.

4.2 - A IMPORTÂNCIA DOS ACELERADORES ELETROSTÁTICOS

Os aceleradores eletrostáticos ocupam posição única nas experiências em


que são requeridas medidas de alta precisão. Sua importância na física nuclear
pode ser melhor apreciada pelo enorme interesse de alguns trabalhos já realizados
com o auxilio de aceleradores dessa natureza e pelo grande número destes
instrumentos ora em construção nos mais avançados centros de pesquisas.
Como primeiro exemplo, citaremos os trabalhos de Tuve, Hafstad,
Heydenburg (4) e Herb, Kerst, Parkinson e Plain (5) sobre a difusão de protons por
protons. Devido a precisão com que puderam ser feitas estas medidas
(incidentalmente são até hoje os trabalhos mais precisos neste assunto) pode-se
mostrar que o desvio experimental da conhecida formula de Mott para difusão de
partículas carregadas, pode ser explicada como devido a uma força atrativa de curto
21

alcance ( ~ 10–13cm) que se superpõe à força repulsiva coulomb na qual a fórmula


de Mott é baseada.
Estas experiências constituem a primeira prova, convincente, da existência
de forças atrativas, de curto alcance, responsáveis pela ligação dos neutrons e
prótons, para a formação do núcleo.
Trabalhos recentes sobre o fenômeno da ressonância, feitos na
Universidade de Wisconsin por Schoemaker e Bender (6), mostram, pela primeira
vez, o efeito de interferência entre os protons difundidos pelo potencial nuclear e os
protons difundidos pela ação de um nível de ressonância nuclear no alumínio em
985 Kev.
Utilizando um feixe de protons extremamente homogêneo, Herb, Snowdon e
Sala (7) puderam determinar com precisão as energias do limiar de certas reações
nucleares e de certos níveis agudos de ressonância.
Dada a elevada precisão dessas determinações, servem elas de padrão de
referência para calibração de outros aceleradores. Esta calibração é de grande
importância, pois a determinação de certas relações fundamentais, como a diferença
de massa entre o neutron e o proton, dependem, criticamente, da precisão com que
se conhecem as energias das partículas envolvidas.
O acelerador eletrostático é ainda de importância única onde são
necessárias fontes intensas de neutrons monocromáticos e de energia controlável.
Adair, Barschall, Bockelman e Sala (8), utilizando o acelerador eletrostático
de Wisconsin para produção de neutrons, estudaram a variação das secções de
choque dos neutrons em vários elementos variando a energia desses neutrons de
30 Kev a 1 Mev.
Estes estudos fornecem informações sobre a distribuição dos níveis de
energia nos núcleos, contribuindo assim com enorme e preciso material
experimental para uma teoria estatística do núcleo atômico.
Um aparelho dessa natureza pode ainda ser utilizado para a produção de
isótopos radioativos cujo interesse é enorme tanto em pesquisas na física nuclear
como nas varias aplicações em biologia, agricultura, metalurgia, etc.
(*) O elétron-volt é uma unidade introduzida para a medida de energia; é precisamente a energia adquirida por um elétron
acelerado por uma diferença de potencial de 1 volt. Para termos uma noção da ordem de grandeza dessa unidade basta
lembrarmos que a energia libertada nas reações químicas é da ordem de alguns elétrons volts. (**) Em virtude de um
conhecido teorema de eletrostática, a carga depositada no pente escôa para a superficie externa da esfera e o
campo no interior e nulo.
22

UNIDADE 05 - A RELATIVIDADE DE EINSTEIN

Muitos problemas estavam em voga, na década de 1900,quando do advento


da Relatividade de Einstein. A existência de referenciais não inerciais faz com que
as leis de Newton sejam invalidadas.
Porém, as leis físicas não podem mudar, devido à mudança de referencial.
Sabia-se também que as leis do eletromagnetismo não eram invariantes por uma
transformação de Galileu das coordenadas.
Ainda mais, a velocidade da luz, sabia-se ser invariante. Deste modo, por
volta de 1905, Einstein propõe a Teoria da Relatividade.

Segundo as Leis de Newton, o tempo e o espaço são tomados como


absolutos, ou seja, o tempo é algo que corre como o fluxo de um rio da mesma
forma para todo mundo, e o espaço é algo homogêneo. Mas evidências
experimentais descobertas (como um problema na órbita de Mercúrio) não eram
explicadas pelas Leis de Newton, que até então explicava de forma convincente tudo
que presenciávamos. Então o físico alemão Albert Einstein começou a modificar os
conceitos de espaço e tempo, para explicar essas evidências.
Com uma genialidade rara e uma intuição científica fenomenal, Einstein
postulou regras que explicaram os problemas encontrados. Os Postulados da Teoria
da Relatividade são:
Todas as leis da natureza são as mesmas em todos os sistemas de
referência que se movam com velocidade uniforme:
23

• A velocidade de propagação da luz no espaço livre tem o mesmo valor para todos
os observadores, não importando o movimento da fonte ou do observador; ou seja, a
velocidade da luz é uma constante.

Mas sua teoria demorou a ser aceita, pois confronta com a nossa intuição e
nosso bom senso. Coisas estranhas começam a surgir. Um exemplo é que agora
o tempo e o espaço são relativos. Dependerão do movimento do observador.
1º exemplo: velocidades relativas

2º exemplo: simultaneidade
24

3º exemplo: contração do espaço

4º exemplo: dilatação do tempo


25
26

Paradoxo dos Gêmeos

5.1 - OS POSTULADOS DE EINSTEIN

1 - As leis da Física devem ser as mesmas em todos os referenciais inerciais, tanto


para a Mecânica, quanto para o Eletromagnetismo.
2 - A velocidade da luz no vácuo, c, é constante e independente da
velocidade do observador e da fonte.

As consequências dos postulados de Einstein são a dilatação temporal e a


contração do espaço. Se considerarmos um referencial S' fixo, e outro S, que se
move com velocidade V, determinando uma certa constante ( b= [1 - (v/c)2]1/2 < 1 ),
tem-se que:

1 - t = t'/b para o tempo próprio, no referencial de repouso, o tempo medido no


referencial móvel é maior : isto é a dilatação temporal.
2 - L =bL'. para o comprimento próprio, no referencial de repouso, o
comprimento no referencial móvel é menor : isto é a contração espacial.
27

De acordo com Einstein, o segundo postulado tornou desnecessária a idéia


da existência de um éter luminoso. Na época, a maioria dos físicos acreditava que a
luz precisava de um meio para se propagar, do mesmo modo que o som precisa do
ar ou de outro meio material.
Esse meio hipotético no qual a luz se propagaria havia sido chamado de
éter. Com o segundo postulado, Einstein elimina o éter da Física; segundo ele, a luz
pode se propagar no espaço vazio (vácuo). Durante o século XX, vários
experimentos comprovaram a validade do segundo postulado.
Baseado nos dois postulados, Einstein deduziu uma série de conseqüências
e, com isso, resolveu alguns dos problemas que afligiam os físicos no fim do século
XIX. As mais importantes foram em relação ao tempo, comprimento, massa, energia,
matéria, radiação e aos campos elétricos e magnéticos.
Na Teoria da Relatividade Especial (também chamada de Relatividade
Restrita), Einstein analisa as leis da Física em referenciais inerciais. Em 1915, ele
publica sua Teoria da Relatividade Geral em que analisa as leis da Física em
referenciais acelerados e desenvolve uma nova teoria da gravitação.
Para explicar a atração gravitacional entre corpos, Einstein abandona a
noção newtoniana de força e introduz a noção de espaço curvo.

Para Einstein, os corpos produzem em torno de si uma curvatura do espaço,


sendo que, quanto maior a massa do corpo, maior será a curvatura. Podemos fazer
uma analogia com a situação representada na figura 16. Nela temos uma bola de
ferro (B) colocada sobre uma superfície elástica. A bola de ferro deforma a superfície
de modo que o corpo C vai em direção a B não porque haja uma força de atração,
mas sim porque segue a linha do espaço curvo.
28

A teoria de Einstein previa que a luz também seria atraída pelos corpos, mas
esse efeito seria pequeno e, assim, só poderia ser observado quando a luz
passasse perto de corpos de grande massa, como por exemplo, o Sol.
A confirmação dessa teoria aconteceu em 19 de maio de 1919. Nesse dia
ocorreu um eclipse do Sol que propiciou a obtenção de fotos de estrelas durante o
dia. Comparando-se a posição obtida da estrela (posição aparente) com a posição
em que ela deveria estar, seria possível constatar se o raio de luz sofre desvio ao
passar perto do Sol.

Para garantir bons resultados da observação do eclipse, uma equipe de


astrônomos ingleses foi enviada para a cidade de Sobral, no Ceará, e outra para a
ilha de Príncipe (África Ocidental). A equipe de Sobral foi mais feliz, pois na ilha de
Príncipe o céu estava um pouco encoberto, com nuvens. Desse episódio ficou
famosa uma frase pronunciada por Einstein algum tempo depois: "O problema
concebido por meu cérebro foi resolvido pelo luminoso céu do Brasil".

A relatividade do tempo: vamos supor que queiramos medir o intervalo de tempo


gasto para ocorrer um fenômeno. Uma das conseqüências dos postulados de
Einstein é que o valor desse intervalo de tempo vai depender do referencial em que
está o observador. Se tivermos dois observadores situados em dois referenciais
inerciais diferentes, um tendo velocidade constante em relação ao outro, os
intervalos de tempo medidos por esses observadores serão diferentes.
Einstein dá o exemplo dos raios e o trem. Dois indivíduos observam dois
raios que atingem simultaneamente as extremidades de um trem (que anda em
velocidade constante em linha reta) e chamuscam o chão. Um homem está dentro
do trem, exatamente na metade dele. O segundo indivíduo está fora, bem no meio
do trecho entre as marcas do raio. Para o observador que está no chão, os raios
caem simultaneamente. Mas o homem no trem dirá que os raios caíram em
momentos sucessivos, porque ele, ao mesmo tempo em que se desloca em direção
29

ao relâmpago da frente, se afasta do relâmpago que cai na parte traseira. Este


último relâmpago deve percorrer uma distância maior do que o primeiro para chegar
até o observador. Como a velocidade da luz é constante, o relâmpago da frente
"chega" antes que o de trás.
A relatividade do comprimento: suponhamos que um objeto tenha
comprimento L' quando em repouso em relação a um observador (fig. l0). Einstein
mostrou que, quando se move com velocidade V (em relação a esse mesmo
observador) na mesma direção em que foi medido o comprimento (fig. 11 ), esse
objeto apresenta um comprimento L tal que:

Observe que o comprimento h não se altera.

A contração de comprimento dada pela equação IV pode ser percebida por


meio de medidas. No entanto, o aspecto visual é outra coisa. A imagem formada na
retina de um observador (ou no filme de uma máquina fotográfica) é constituída de
raios de luz que chegam praticamente ao mesmo tempo na retina (ou no filme), mas
partiram do objeto em momentos diferentes. A conseqüência disso é que a imagem
vista (ou fotografada) é levemente distorcida. Na figura a mostramos um cubo em
repouso. Quando esse cubo se move para a direita com velocidade próxima de c, a
imagem observada tem o aspecto da figura b, como mostra uma simulação feita em
computador.
30

A relatividade da massa: Outra conseqüência dos postulados de Einstein é


que a massa inercial varia com a velocidade. Sendo Mo a massa de um corpo
quando está em repouso em relação a um referencial inercial e M a massa desse
mesmo corpo quando tem velocidade v em relação a esse mesmo referencial,
temos:

A massa aumenta com a velocidade. Porém, para que o denominador não


se anule, a velocidade v não pode atingir (nem superar) o valor c.
Atenção: massa não é matéria.
O que aumenta com a velocidade não é a quantidade de matéria do corpo,
mas sim sua massa inercial, a qual mede a inércia do corpo. Quanto maior a
velocidade, maior será a inércia, isto é, mais difícil torna-se a variação de
velocidade.

5.2 - MASSA E ENERGIA

Entre o grande público, o aspecto mais conhecido da Teoria da Relatividade


é, sem dúvida, a equação E = m . c2
que relaciona a massa (m) com a energia (E).
O significado dessa equação, contudo, é bem mais complexo do que pode
parecer à primeira vista. Antes de considerá-la, vamos analisar o significado de uma
equação parecida com ela:
DE = ( Dm ) . c2
Einstein introduziu a Teoria da Relatividade em seu trabalho "Sobre a
eletrodinâmica dos corpos em movimento", escrito em junho de 1905. Em setembro
do mesmo ano, ele publicou mais um pequeno trabalho, complementando o anterior,
intitulado "A inércia de um corpo depende de seu conteúdo de energia?".
Nesse trabalho ele mostrou que a massa inercial de um corpo varia toda vez
que esse corpo ganha ou perde energia, qualquer que seja o tipo de energia. Se um
corpo receber uma quantidade de energia DE, sua massa inercial terá um aumento
Dm dado por:
DE = ( Dm ) . c2
31

Do mesmo modo, se o corpo perder energia, sua massa inercial irá diminuir.
Assim, a massa de um tijolo quente é maior do que a de um tijolo frio; uma mola
comprimida tem massa maior do que quando não estava comprimida, pois o
acréscimo de energia potencial elástica ocasiona um aumento da massa inercial da
mola. Quando um corpo tem sua velocidade aumentada, aumenta também sua
energia cinética; é esse aumento de energia cinética que acarreta o aumento da
massa inercial do corpo.
Nas aulas de Química você deve ter aprendido a lei da conservação da
massa de Lavoisier. Segundo essa lei, a massa total dos reagentes é igual à massa
total dos produtos de uma reação química. Agora sabemos que essa igualdade é
aproximada, pois durante uma reação química em geral há absorção ou liberação de
calor (ou luz) para o ambiente. Desse modo há uma variação de massa.
Porém, como ocorreu no exemplo anterior, essa variação de massa é tão
pequena que as balanças não conseguem determiná-la. Só foi possível verificar a
validade da equação de Einstein quando os físicos conseguiram analisar as
transformações com os núcleos dos átomos, pois, durante essas transformações, as
variações de massa são muito maiores do que as que ocorrem numa reação
química e, assim, podem ser mais facilmente percebidas. É importante ressaltar que
no interior do núcleo há dois tipos de energia potencial: a energia potencial elétrica,
devida à repulsão elétrica entre os prótons, e a energia potencial nuclear,
correspondente à força nuclear que mantém os componentes do núcleo unidos.

5.3 - A ESTRUTURA DA MATÉRIA E DO ÁTOMO

Todas as coisas existentes na natureza são constituídas de átomos ou suas


combinações. Atualmente, sabemos que o átomo é a menor estrutura da Matéria
que apresenta as propriedades de um elemento químico.
A estrutura de um átomo é semelhante à do Sistema Solar, consistindo em
um núcleo, onde fica concentrada a massa, como o Sol, e em partículas girando em
seu redor, denominadas elétrons, equivalentes aos planetas.
Como o Sistema Solar, o átomo possui grandes espaços vazios, que podem
ser atravessados por partículas menores do que ele.
32

5.4 - ESTRUTURA DO NÚCLEO

O núcleo do átomo é formado, basicamente, por partículas de carga positiva,


chamadas prótons, e de partículas de mesmo tamanho, mas sem carga,
denominadas nêutrons. O número de prótons (ou número atômico) identifica um
elemento químico, comandando seu comportamento em relação aos outros
elementos.
O elemento natural mais simples, o hidrogênio, possui apenas um próton; o
mais complexo, o urânio, tem 92 prótons, sendo o elemento químico natural mais
pesado.

Elementos químicos naturais


33

Os isótopos
O número de nêutrons no núcleo pode ser variável, pois eles não têm carga
elétrica. Com isso, um mesmo elemento químico pode ter massas diferentes.
Átomos de um mesmo elemento químico com massas diferentes são denominados
isótopos.
O hidrogênio tem 3 isótopos: o hidrogênio, o deutério e o trício (ou trítio).

O que significa a palavra isótopos?

A palavra isótopos significa "no mesmo lugar", deriva do fato de que os


isótopos se situam no mesmo local na tabela periódica.

Isótopos de Hidrogênio:

Prótio: O prótio que também pode ter o nome de Monotério, Hidrogênio Leve
é um dos isótopos estáveis do hidrogênio e o seu núcleo é formado por apenas 1
próton e 1 elétron, e não contém nêutron.

Deutério: O deutério é um dos isótopos estáveis do hidrogênio, é formado por 1


próton e 1 nêutron e a sua massa é igual a 2. O deutério é usado para fusões
nucleares e Raios Laser de Alta Potência
34

Trítio: O trítio conhecido também como trício é o terceiro isótopo do hidrogênio e o


menos abundante. É formado por 1 próton e 2 nêutrons.
O urânio, que possui 92 prótons no núcleo, existe na natureza na forma de 3
isótopos:

U-234, com 142 nêutrons (em quantidade desprezível);


U-235, com 143 nêutrons, usado em reatores PWR, após enriquecido (0,7%);
U-238, com 146 nêutrons no núcleo (99,3%).

5.5 - FUSÃO E FISSÃO NUCLEAR


Como podem os prótons ficar confinados em uma região tão pequena
como é o núcleo do átomo, sendo que existe uma forte repulsão eletrostática
entre eles?
Os prótons e nêutrons do núcleo do átomo são ligados por uma energia
enorme – força nuclear forte
Força nuclear forte – força de curtíssimo alcance, mas que, dentro do seu
raio de ação, é muito mais intensa que a gravitacional e a eletromagnética.
Quando um nêutron atinge o átomo, a ligação se rompe, o núcleo se divide,
libera partículas e energia
Nas reações que envolvem núcleos, as transformações de massa em
energia e vice-versa estão sempre presentes. Assim, nestas reações, é de uso
fundamental a equação de Einstein.

5.5.1 - Fusão: Uma breve introdução

A fusão nuclear?
Dois ou mais núcleos atômicos se juntam, formando um outro núcleo maior;
É necessária muita energia cinética, que permita vencer a repulsão dos núcleos e
haja o contato e a iteração entre eles;
A energia liberada depois da fusão é geralmente muito maior que a energia
consumida;
A fusão ocorre mais facilmente entre núcleos que têm um pequeno número de
prótons.
35

5.5.2 - REAÇÕES DE FUSÃO

A principal reação de fusão que ocorre no interior do Sol.


A reação que ocorre mais facilmente é aquela em que o deutério se funde
com o trício (ou trítio) produzindo uma partícula alfa (núcleo de hélio 4) e um
nêutron, conforme a reação 3 abaixo.

D2 + D2 ? (He3 + 0,82 MeV) + (n1 + 2,45 MeV)


D2 + D2 ? (T3 + 1,01 MeV) + (h6 + 3,03 MeV)
D2 + T3 ? (He4 + 3,52 MeV) + (n + 14,06 MeV)
D2 + He3 ? (He4 + 3,67 MeV) + (h6 + 14,67MeV)

5.5.3 - Tokamaks

Aparelho que consegue suportar essas temperaturas mantendo um delgado


filete de plasma, longe das paredes, durante um curto intervalo de tempo e usando a
técnica do confinamento magnético.
36

5.5.4 - Fissão: Uma breve introdução


Fissão nuclear?
Quebra ou divisão de um núcleo atômico, instável e pesado, através de um
bombardeamento do núcleo com nêutrons lentos;
Poucos átomos podem sofrer o processo de fissão nuclear, entre eles, o urânio-
235 e o plutônio;
A energia obtida através da fissão nuclear é devida à transformação da matéria
em energia;
Geração de energia elétrica em países como Japão, França, USA, China, Brasil e
outros;

5.5.5 - Fissão Nuclear

5.5.6 - Fusão Nuclear x Fissão Nuclear


Vantagens
O processo mais limpo que a fissão ? usa núcleos atômicos leves (Trítio e
Deutério, isótopos do Hidrogênio)
Os lixos radioativos possuem vidas curtas
A quantidade de energia liberada é muito maior na fusão que na fissão
Desvantagens
Não se consegue controlar a fusão de um modo eficaz
Ocorre em temperaturas elevadíssimas (milhões de graus centígrados)
É necessário o confinamento dos núcleos por pelo menos um segundo
(câmaras magnéticas em formato toroidal ? ―tokamak‖
37

Urânio Natural (0.7% 235U, 99.3% 238U)

5.5.7 - Reação em cadeia/Sustentabilidade

Condição necessária para a sustentabilidade da reação: O número de núcleos que


capturam nêutrons e sofrem fissão tem de ser, em média, igual ao dos nêutrons
resultantes desses processos que vão ser depois capturados e induzir fissão
Consequentemente: o fator de multiplicação (razão entre o número de nêutrons de
uma geração e o correspondente número da geração seguinte) deve ser UM.

5.5.8 - História (cíclica) de 100 nêutrons numa reação em cadeia

100 nêutrons lentos são capturados por U235 a causam fissão


Resultam 200 nêutrons
40 escapam durante a termalização
20 são capturados pelo U238 durante a termalização
140 que atingem velocidades baixas (lentos/térmicos? 2200 m/s)
10 escapam como nêutrons lentos ou térmicos
130 nêutrons disponíveis para absorção térmica
30 são absorvidos (moderador, U238, contaminantes, etc.)
100 nêutrons lentos são capturados por U235 a causam fissão.

5.6 - RADIOATIVIDADE

O esquecimento de uma rocha de urânio sobre um filme fotográfico virgem


levou à descoberta de um fenômeno interessante: o filme foi velado (marcado) por
―alguma coisa‖ que saía da rocha, na época denominada raios ou radiações.
38

Outros elementos pesados, com massas próximas à do urânio, como o


rádio e o polônio, também tinham a mesma propriedade.

O fenômeno foi denominado radioatividade e os elementos que


apresentavam essa propriedade foram chamados de elementos radioativos.
Comprovou-se que um núcleo muito energético, por ter excesso de partículas ou
de carga, tende a estabilizar-se, emitindo algumas partículas.

5.6.1 - Radiação alfa ou partícula alfa


Um dos processos de estabilização de um núcleo com excesso de energia é
o da emissão de um grupo de partículas positivas, constituídas por dois prótons e
dois nêutrons, e da energia a elas associada. São as radiações alfa ou partículas
alfa, núcleos de hélio (He), um gás chamado ―nobre‖ por não reagir quimicamente
com os demais elementos.
39

5.6.2 - Radiação beta ou partícula beta


Outra forma de estabilização, quando existe no núcleo um excesso de
nêutrons em relação a prótons, é através da emissão de uma partícula negativa, um
elétron, resultante da conversão de um nêutron em um próton. É a partícula beta
negativa ou, simplesmente, partícula beta.
No caso de existir excesso de cargas positivas (prótons), é emitida uma
partícula beta positiva, chamada pósitron, resultante da conversão de um próton em
um nêutron. Portanto, a radiação beta é constituída de partículas emitidas por um
núcleo, quando da transformação de nêutrons em prótons (partículas beta) ou de
prótons em nêutrons (pósitrons).

5.6.3 - Radiação gama


Geralmente, após a emissão de uma partícula alfa ( ) ou beta ( ), o núcleo
resultante desse processo, ainda com excesso de energia, procura estabilizar-se,
emitindo esse excesso em forma de onda eletromagnética, da mesma natureza da
luz, denominada radiação gama.
40

5.6.4 - Partículas e ondas


Conforme foi descrito, as radiações nucleares podem ser de dois tipos:
a) partículas, possuindo massa, carga elétrica e velocidade, esta dependente do
valor de sua energia;
b) ondas eletromagnéticas, que não possuem massa e se propagam com a
velocidade de 300.000 km/s, para qualquer valor de sua energia. São da mesma
natureza da luz e das ondas de transmissão de rádio e TV.
A identificação desses tipos de radiação foi feita utilizando-se uma porção de
material radioativo, com o feixe de radiações passando por entre duas placas
polarizadas com um forte campo elétrico.

5.6.5 - Atividade de uma amostra


Os núcleos instáveis de uma mesma espécie (mesmo elemento químico) e
de massas diferentes, denominados radioisótopos, não realizam todas as
mudanças ao mesmo tempo.
As emissões de radiação são feitas de modo imprevisto e não se pode
adivinhar o momento em que um determinado núcleo irá emitir radiação.
Entretanto, para a grande quantidade de átomos existente em uma amostra
é razoável esperar-se um certo número de emissões ou transformações em cada
segundo. Essa ―taxa‖ de transformações é denominada atividade da amostra.
Unidade de atividade
A atividade de uma amostra com átomos radioativos (ou fonte radioativa) é
medida em:
Bq (Becquerel) = uma desintegração por segundo
Ci (Curie) = 3,7 x 1010 Bq

5.6.6 - Desintegração ou tramutação radioativa


Como foi visto, um núcleo com excesso de energia tende a estabilizar-se,
emitindo partículas alfa ou beta. Em cada emissão de uma dessas partículas, há
uma variação do número de prótons no núcleo, isto é, o elemento se transforma ou
se transmuta em outro, de comportamento químico diferente.
41

Essa transmutação também é conhecida como desintegração radioativa,


designação não muito adequada, porque dá a idéia de desagregação total do átomo
e não apenas da perda de sua integridade. Um termo mais apropriado é
decaimento radioativo, que sugere a diminuição gradual de massa e atividade.
Meia Vida
Cada elemento radioativo, seja natural ou obtido artificialmente, se
transmuta (se desintegra ou decai) a uma velocidade que lhe é característica.
Para se acompanhar a duração (ou a ―vida‖) de um elemento radioativo foi
preciso estabelecer uma forma de comparação.
Por exemplo, quanto tempo leva para um elemento radioativo ter sua
atividade reduzida à metade da atividade inicial?
Esse tempo foi denominado meia-vida do elemento. Meia-vida, portanto, é
o tempo necessário para a atividade de um elemento radioativo ser reduzida à
metade da atividade inicial.
Isso significa que, para cada meia-vida que passa, a atividade vai sendo
reduzida à metade da anterior, até atingir um valor insignificante, que não permite
mais distinguir suas radiações das do meio ambiente.
Dependendo do valor inicial, em muitas fontes radioativas utilizadas em
laboratórios de análise e pesquisa, após 10 (dez) meias vidas, atinge-se esse nível.
Entretanto, não se pode confiar totalmente nessa ―receita‖ e sim numa
medida com um detector apropriado, pois, nas fontes usadas na indústria e na
medicina, mesmo após 10 meias-vidas, a atividade da fonte ainda é geralmente
muito alta.
Um exemplo “doméstico”
Um exemplo ―caseiro‖ pode apresentar, de forma simples, o conceito de
meia-vida: uma família de 4 pessoas tinha 4 kg de açúcar para seu consumo normal.
Logicamente, a função do açúcar é adoçar o café, o refresco, bolos e sucos.
Adoçar é a atividade do açúcar, assim como a emissão de radiação é a
atividade dos elementos radioativos. Por haver falta de açúcar no supermercado, foi
preciso fazer um racionamento, até a situação ser normalizada, da seguinte forma:
na primeira semana, foram consumidos 2 kg, metade da quantidade inicial, e
―conseguiu-se‖ fazer dois bolos, um pudim, refrescos, sucos, além de adoçar o café
da manhã.
42

Na segunda semana, foi consumido 1kg, metade da quantidade anterior e ¼


da inicial. Aí, já não deu para fazer os bolos.
Na terceira semana, só foi possível adoçar os refrescos, sucos e café,
com os 500 gramas então existentes. Procedendo da mesma forma, na décima
semana restaram cerca de 4 g de açúcar, que não dariam para adoçar um
cafezinho.
Essa quantidade de açúcar não faria mais o efeito de adoçar e nem seria
percebida. No exemplo citado, a meia-vida do açúcar é de uma semana e,
decorridas 10 semanas, praticamente não haveria mais açúcar, ou melhor, a
atividade adoçante do açúcar não seria notada. No entanto, se, ao invés de 4 kg,
a família tivesse feito um estoque de 200 kg, após 10 meias-vidas, ainda restaria
uma quantidade considerável de açúcar.
Se o racionamento fosse de sal, a meia-vida do sal seria maior, por que a
quantidade de sal que se usa na cozinha é muito menor do que a de açúcar. De
fato, leva-se muito mais tempo para gastar 4 kg de sal do que 4 kg de açúcar,
para uma mesma quantidade de pessoas (consumidores).
Um exemplo prático
Vejamos o caso do iodo-131, utilizado em Medicina Nuclear para exames de
tireóide, que possui a meia-vida de oito dias. Isso significa que, decorridos 8 dias,
atividade ingerida pelo paciente será reduzida à metade. Passados mais 8 dias,
cairá à metade desse valor, ou seja, ¼ da atividade inicial e assim sucessivamente.
Após 80 dias (10 meias-vidas), atingirá um valor cerca de 1000 vezes menor.
Entretanto, se for necessário aplicar-se uma quantidade maior de iodo-131
no paciente, não se poderia esperar por 10 meias-vidas (80 dias), para que a
atividade na tireóide tivesse um valor desprezível. Isso inviabilizaria os diagnósticos
que utilizam material radioativo, já que o paciente seria uma fonte radioativa
ambulante e não poderia ficar confinado durante todo esse período.
43

Para felicidade nossa, o organismo humano elimina rápida e naturalmente,


via fezes, urina e suor, muitas das substâncias ingeridas. Dessa forma, após
algumas horas, o paciente poderá ir para casa, sem causar problemas para si e para
seus familiares. Assim, ele fica liberado, mas o iodo-131 continua seu decaimento
normal na urina armazenada no depósito de rejeito hospitalar, até que possa ser
liberado para o esgoto comum.

5.6.7 - As famílias radioativas


Na natureza existem elementos radioativos que realizam transmutações ou
―desintegrações‖ sucessivas, até que o núcleo atinja uma configuração estável. Isso
significa que, após um decaimento radioativo, o núcleo não possui, ainda, uma
organização interna estável e, assim, ele executa outra transmutação para melhorá-
la e, ainda não conseguindo, prossegue, até atingir a configuração de equilíbrio. Em
cada decaimento, os núcleos emitem radiações dos tipos alfa, beta e/ou gama e
cada um deles é mais ―organizado‖ que o núcleo anterior. Essas seqüências de
núcleos são denominadas:
SÉRIES RADIOATIVAS OU FAMÍLIAS RADIOATIVAS NATURAIS
No estudo da radioatividade, constatou-se que existem apenas 3 séries ou
famílias radioativas naturais, conhecidas como:

Série do Urânio, Série do Actínio e Série do Tório.

A Série do Actínio, na realidade, inicia-se com o urânio-235 e tem esse


nome, porque se pensava que ela começava pelo actínio-227. As três séries
naturais terminam em isótopos estáveis do chumbo, respectivamente:

chumbo-206, chumbo-207 e chumbo-208

Alguns elementos radioativos têm meia-vida muito longa, como, por


exemplo, os elementos iniciais de cada série radioativa natural (urânio-235, urânio-
238 e tório-232).

Dessa forma, é possível explicar, porque há uma porcentagem tão baixa de


urânio-235 em relação à de urânio-238. Como a meia-vida do urânio-235 é de 713
milhões de anos e a do urânio-238 é de 4,5 bilhões de anos, o urânio-235 decai
muito mais rapidamente e, portanto, é muito mais ―consumido‖ que o urânio-238.
44

Com o desenvolvimento de reatores nucleares e máquinas aceleradoras de


partículas, muitos radioisótopos puderam ser ―fabricados‖ (produzidos), utilizando-se
isótopos estáveis como matéria prima. Com isso, surgiram as Séries Radioativas
Artificiais, algumas de curta duração.

5.6.8 - O lixo atômico


Os materiais radioativos produzidos em Instalações Nucleares (Reatores
Nucleares, Usinas de Beneficiamento de Minério de Urânio e Tório, Unidades do
Ciclo do Combustível Nuclear), Laboratórios e Hospitais, nas formas sólida, líquida
ou gasosa, que não têm utilidade, não podem ser simplesmente ―jogados fora‖ ou
―no lixo‖, por causa das radiações que emitem.

Esses materiais, que não são utilizados em virtude dos riscos que
apresentam, são chamados de Rejeitos Radioativos. Na realidade, a expressão
―lixo atômico‖ é um pleonasmo, porque qualquer lixo é formado por átomos e,
portanto, é atômico. Ele passa a ter essa denominação popular, quando é
radioativo.

Tratamento de rejeitos radioativos

Os rejeitos radioativos precisam ser tratados, antes de serem liberados para


o meio ambiente, se for o caso. Eles podem ser liberados quando o nível de
radiação é igual ao do meio ambiente e quando não apresentam toxidez química.
Rejeitos sólidos, líquidos ou gasosos podem ser, ainda, classificados, quanto à
atividade, em rejeitos de baixa, média e alta atividade.

Os rejeitos de meia-vida curta são armazenados em locais apropriados


(preparados), até sua atividade atingir um valor semelhante ao do meio ambiente,
podendo, então, ser liberados. Esse critério de liberação leva em conta somente
atividade do rejeito. É evidente que materiais de atividade ao nível ambiental mas
que apresentam toxidez química para o ser humano ou que são prejudiciais ao
ecossistema não podem ser liberados sem um tratamento químico adequado.

Rejeitos sólidos de baixa atividade, como partes de maquinária


contaminadas, luvas usadas, sapatilhas e aventais contaminados, são colocados em
sacos plásticos e guardados em tambores ou caixas de aço, após classificação e
respectiva identificação.
45

Os produtos de fissão, resultantes do combustível nos reatores nucleares,


sofrem tratamento especial em Usinas de Reprocessamento, onde são separados
e comercializados, para uso nas diversas áreas de aplicação de radioisótopos.

Os materiais radioativos restantes, que não têm justificativa técnica e/ou


econômica para serem utilizados, sofrem tratamento químico especial e são
vitrificados, guardados em sistemas de contenção e armazenados em Depósitos de
Rejeitos Radioativos.

O ACIDENTE EM GOIÂNIA

O acidente de Goiânia envolveu uma contaminação radioativa, isto é,


existência de material radioativo em lugares onde não deveria estar presente.

Uma fonte radioativa de césio-137 era usada em uma clínica da cidade de


Goiânia, para tratamento de câncer. Nesse tipo de fonte, o césio-137 fica
encapsulado, na forma de um sal, semelhante ao sal de cozinha, e ―guardado‖ em
um recipiente de chumbo, usado como uma blindagem contra as radiações.

Após vários anos de uso, a fonte foi desativada, isto é, não foi mais utilizada,
embora sua atividade radioativa ainda fosse muito elevada, não sendo permissível a
abertura do invólucro e o manuseio da fonte sem cuidados especiais.

Qualquer instalação que utilize fontes radioativas, na indústria, centros de


pesquisa, medicina nuclear ou radioterapia, deve ter pessoas qualificadas em
Radioproteção, para que o manuseio seja realizado de forma adequada. Locais
destinados ao armazenamento provisório de fontes ou rejeitos devem conter tais
fontes ou rejeitos com segurança, nos aspectos físico e radiológico, até que possam
ser removidos para outro local, com aprovação da CNEN.

A Clínica foi transferida para novas instalações mas o material radioativo não
foi retirado, contrariando a Norma da CNEN. Toda firma que usa material radioativo,
ao encerrar suas atividades em um local, deve solicitar o cancelamento da
autorização para funcionamento (operação), informando o destino a ser dado a esse
material. A simples comunicação do encerramento das atividades não exime a
empresa da responsabilidade e dos cuidados correspondentes, até o recebimento
pela CNEN.
46

Duas pessoas ―retiraram sem autorização‖ o equipamento do local


abandonado, que servia de abrigo e dormitório para mendigos.

A blindagem foi destroçada, deixando à mostra um pó azul brilhante, muito


bonito, principalmente no escuro.

E o ―pozinho brilhante‖ foi distribuído para várias pessoas, inclusive


crianças... O material que servia de blindagem foi vendido a um ferro velho. O
material radioativo foi-se espalhando pela vizinhança e várias pessoas foram
contaminadas. A CNEN foi chamada a intervir e iniciou um processo de
descontaminação de ruas, casas, utensílios e pessoas.

O acidente radioativo de Goiânia resultou na morte de quatro pessoas,


dentre 249 contaminadas. As demais vítimas foram descontaminadas e continuaram
em observação, não tendo sido registrados, até o momento, efeitos tardios
provenientes do acidente. Um dos atingidos, uma senhora, deu à luz uma criança
perfeitamente sadia.

A DESCONTAMINAÇÃO EM GOIÂNIA

Como foi mencionado, o ―pó brilhante‖ foi distribuído para várias pessoas,
inclusive crianças, o que resultou em irradiação dos envolvidos. Móveis, objetos
pessoais, casas (pisos e paredes) e até parte da rua foram contaminados com césio-
137.
No caso das pessoas, procedeu-se a um processo de descontaminação,
interna e externamente, o que foi feito com sucesso, com exceção das 4 vítimas
fatais imediatas. Aquele que poderia ser a quinta vítima, por ter sido altamente
contaminado (e que foi descontaminado), morreu de cirrose hepática e não em
decorrência do acidente.
Quanto aos objetos (móveis, eletrodomésticos etc.), foram tomadas
providências drásticas, em razão da expectativa altamente negativa e dos temores
da população. Móveis e utensílios domésticos foram considerados rejeitos
radioativos e como tal foram tratados.
Casas foram demolidas e seus pisos, após removidos, passaram também a
ser rejeitos radioativos. Parte da pavimentação das ruas foi retirada. Estes rejeitos
47

radioativos sólidos foram temporariamente armazenados em embalagens


apropriadas, enquanto se aguardava a construção de um repositório adequado.
A CNEN estabeleceu, em 1993, uma série de procedimentos para a
construção de dois depósitos com a finalidade de abrigar, de forma segura e
definitiva, os rejeitos radioativos decorrentes do acidente de Goiânia. O primeiro,
denominado Contêiner de Grande Porte (CGP), foi construído em 1995, dentro dos
padrões internacionais de segurança, para os rejeitos menos ativos.
O segundo depósito, visando os rejeitos de mais alta atividade, concluído em
1997, deverá ser mantido sob controle institucional da CNEN por 50 anos, coberto
por um programa de monitoração ambiental, de forma a assegurar que não haja
impacto radiológico no presente e no futuro.

Símbolo da presença de radiação*. Deve ser respeitado, e não temido.

Contaminação e irradiação
É importante esclarecer a diferença entre contaminação radioativa e
irradiação. Uma contaminação, radioativa ou não, caracteriza-se pela presença
indesejável de um material em determinado local, onde não deveria estar.
48

A irradiação é a exposição de um objeto ou um corpo à radiação, o que


pode ocorrer a alguma distância, sem necessidade de um contato íntimo.
Irradiar, portanto, não significa contaminar. Contaminar com material
radioativo, no entanto, implica em irradiar o local, onde esse material estiver.
Por outro lado, a descontaminação consiste em retirar o contaminante
(material indesejável) da região onde se localizou. A partir do momento da remoção
do contaminante, não há mais irradiação.
Irradiação não contamina, mas contaminação irradia.
Importante: a irradiação por fontes de césio-137, cobalto-60 e similares não
torna os objetos ou o corpo humano radioativos.
* Trata-se da presença de radiação acima dos valores encontrados no meio
ambiente, uma vez que a radiação está presente em qualquer lugar do planeta.
49

UNIDADE 06 - A FÍSICA CLÁSSICA DE CABEÇA PARA BAIXO:


como Einstein descobriu a teoria da relatividade especial1
Jürgen Renn
Instituto Max Planck para a História da Ciência, Berlin, Alemanha

6.1. INTRODUÇÃO

De acordo com a teoria da relatividade especial, relógios e réguas que se


movem em relação a um referencial inercial comportam-se de maneira diferente
daqueles que se encontram em repouso em relação a este mesmo referencial.
Relógios em movimento funcionam mais devagar e réguas se encolhem ao longo da
direção do movimento. Enquanto que na física clássica espaço e tempo fornecem,
em cada teoria ou experimento, um alicerce absoluto e imutável de qualquer
processo físico, na teoria especial este alicerce depende do sistema de referência no
qual um processo físico particular é medido e, na teoria geral, ele depende até
mesmo da distribuição de massa e energia no universo. Mas a mudança dos
conceitos de espaço e tempo já na teoria especial contradiz nossas experiências do
dia-a-dia.
No entanto, foi apenas através desta mudança que foi possível a Einstein
reconciliar dois princípios que, em função de uma longa história, haviam se
mostrado irrefutáveis: o princípio da relatividade e o princípio da constância da
velocidade da luz. O princípio da relatividade diz que toda lei física não muda
quando se passa de um laboratório em repouso para outro que se mova de maneira
retilínea e uniforme com relação ao primeiro. O princípio da constância da
velocidade da luz é uma lei deste tipo; ela diz que a velocidade da luz é igual em
todos os sistemas inerciais, ou seja, um raio de luz emitido de um trem que se move
com velocidade v terá, em relação a uma pessoa parada na plataforma da estação,
uma velocidade c e não uma velocidade v + c. Só através de uma revolucionária
mudança dos conceitos clássicos de espaço e tempo esta contradição pode ser
solucionada.

6.2. UMA CONVERSA EM MAIO


50

Após a conclusão da licenciatura em física na Escola Politécnica de Zurique,


Einstein vivia e trabalhava desde 1902 em Berna. E foi ali que, numa bela manhã de
maio, ele se levantou e, como podemos depreender de relatos posteriores [3], foi
visitar seu amigo e colega do Escritório de Patentes Michelle Besso, para com ele
discutir novamente a respeito de seu assunto favorito: a eletrodinâmica dos corpos
em movimento, uma área aparentemente remota da física de então e
essencialmente voltada para os problemas das cargas em movimento e da interação
entre campos elétrico e magnético. Besso, que não era físico mas engenheiro, era
no entanto um leigo interessado em problemas da física e fazia parte de um grupo
de companheiros de discussão pelo qual Einstein tinha um especial apreço. Como
podemos imaginar este encontro entre Einstein e Besso? Einstein não se cansa de
mais uma vez explicar detalhadamente a seu amigo seu problema da eletrodinâmica
dos corpos em movimento. Ele admite que está prestes a desistir. Apesar disto ele
se motiva a mais uma vez descrever sua situação sem saída. Quem sabe Besso
tenha uma idéia. "Eu o amo pela sua inteligência afiada e sua simplicidade",
escreveu certa vez Einstein a sua esposa Mileva [4].
Besso segue, como sempre paciente e atencioso, as explicações de
Einstein, mesmo que muitos dos detalhes estejam além de seu horizonte de leigo.
Mas desta vez Besso interrompe Einstein continuamente com perguntas, mais do
que de costume, a ponto da discussão proceder num vai-e-vem e retornar sempre
ao ponto de partida. Eles discutem o comportamento de corpos em sistemas inercias
que se movem um com relação ao outro e tecem considerações sobre quais
mudanças nas grandezas elétricas e magnéticas poder-se-ia medir em tais sistemas
inerciais. Einstein não acredita, por questões de princípio, que o movimento relativo
e uniforme entre dois observadores possa ser detectado por medidas de
manifestações eletromagnéticas ou ópticas. Porém a criação de uma teoria onde
qualquer processo físico fosse em princípio equivalente para todos os sistemas em
movimento relativo mostra-se uma tarefa extremamente árdua. Não que para isto
faltasse uma teoria convincente que explicasse, para todos os referenciais em
movimento relativo uniforme, praticamente todos os processos eletromagnéticos ou
ópticos conhecidos, muito pelo contrário. Havia a teoria desenvolvida desde a
década de 80 do século XIX pelo holandês e grande mestre da física Hendrik Antoon
Lorentz, a qual porém não satisfazia a concepção de Einstein a respeito da
51

equivalência dos referenciais inerciais para processos eletromagnéticos. Justamente


por isto a teoria de Lorentz tem um importante papel na conversa entre Einstein e
Besso naquele decisivo dia de maio de 1905. Mesmo nas explanações de Einstein,
que a esmiuçou nos mínimos detalhes, a teoria era tão complexa que Besso a todo
o momento o desafiava com perguntas. O que significa esta ou aquela grandeza
exatamente? Pode-se medi-la diretamente?
Perguntas aparentemente ingênuas como esta eram típicas de Besso. Foi
ele também que, durante os anos compartilhados em Zurique, chamou a atenção de
Einstein para a obra do físico, filósofo e historiador da ciência Ernst Mach, que
pretendia excluir da física todo conceito que não fosse baseado na experiência
empírica [5]. E o que também se pode dizer de positivo a respeito da bem sucedida
teoria de Lorentz é que ela não era pobre na quantidade destes conceitos. Em
particular nela se podia encontrar aquele obscuro conceito do éter, imaginado como
sendo o portador dos fenômenos eletromagnéticos e deste modo também da luz, em
analogia aos meios portadores das ondas de som ou ondas no mar; havia também
uma variável auxiliar para o tempo, o chamado tempo local, não diretamente
acessível à verificação experimental e necessária em um teorema - e com o auxílio
da qual era possível calcular os fenômenos magnéticos em corpos em movimento.
Havia também a hipótese de um estranho encurtamento no comprimento de corpos
na direção de seu movimento em relação ao éter. Essas hipóteses tiveram que ser
incorporadas por Lorentz à sua teoria para que ele assim pudesse explicar o motivo
pelo qual o famoso experimento de Michelson e Morley não era capaz de fornecer a
menor indicação do movimento da Terra pelo éter. Einstein e Besso conversavam à
exaustão. Repentinamente, uma luz se fez no semblante de Einstein, mas ele se
cala e parte, com uma desculpa esfarrapada. Besso suspira, desconcertado, mas
ele conhece seu amigo o suficiente para não tomar aquela atitude como uma ofensa
pessoal. No dia seguinte, Einstein retorna com um sorriso maroto e, antes de
cumprimentá-lo, diz laconicamente: "- Graças a você solucionei completamente meu
problema".
Aproximadamente cinco semanas depois, no dia 30 de junho de 1905,
Einstein submeteu aos Annalen der Physik o artigo que, sob o título "Acerca da
eletrodinâmica dos corpos em movimento", inauguraria uma era e fundaria a teoria
especial da relatividade. O trabalho não traz quaisquer referências - apenas um
52

agradecimento a seu fiel amigo e colega do Escritório de Patentes Michelle Besso


[6].
Infelizmente, relatos históricos que narrem o momento da criação da teoria
da relatividade de maneira tão plástica não existem. Mas mesmo que fosse possível
reconstruir em detalhes tal conversa, quem sabe talvez dos relatos de uma
empregada, em que contribuiria tal narrativa para nossa compreensão de uma
revolução científica como foi a teoria da relatividade?
Neste trabalho procuraremos tornar essa revolução científica compreensível
através de uma abordagem que, partindo de fontes de conhecidos detalhes
biográficos, coloca-a dentro do contexto de mudanças dos sistemas de
conhecimento, como o fazemos no Instituto Max Planck para a História da Ciência.
Tais sistemas de conhecimento mudam tipicamente numa escala de tempo de longa
duração, nos quais não apenas o conhecimento científico mas também outros níveis
do conhecimento participam. Neste cenário a pergunta a respeito da criação da
teoria da relatividade deixa de ser apenas uma pergunta sobre as circunstâncias da
"Eureka" de Einstein naquele maio de 1905 mas sim uma pergunta sobre como os
insights teóricos de Einstein se relacionam com os outros níveis de conhecimento,
em particular com aquele nível que determina nossa compreensão diária dos
conceitos de tempo e espaço.

6.3. PROBLEMAS DE FRONTEIRA DA FÍSICA CLÁSSICA

Mas como teria sido possível que uma conversa entre Einstein e Besso
naquele maio de 1905 possa ter dado início a uma processo de consequências tão
amplas para a mudança dos sistemas de conhecimento? Naturalmente tal conversa
representou apenas um ponto final de um longo processo. Einstein havia se
envolvido praticamente desde sua juventude com problemas da eletrodinâmica -
afinal sua família fabricava equipamentos elétricos. Já com dezesseis anos o jovem
Albert escreve um texto acerca do éter como intermediador dos fenômenos
elétromagnéticos e ópticos [7]. No ano seguinte ele se pergunta como uma onda de
luz pareceria para um observador que se movesse ele próprio com a velocidade da
luz na direção da propagação desta onda [8].
Deveria se observar uma espécie de onda estacionária, mas algo assim
parecia não existir. Este Gedankenexperiment juvenil traz também à tona a questão
53

a respeito de qual seria a velocidade da luz medida por tal observador. A resposta a
esta pergunta parecia depender basicamente do modelo adotado como base para o
éter. Em um éter em repouso, ou seja, que não fosse arrastado pelo sistema em
movimento e pelo observador, a velocidade da luz relativa ao sistema em movimento
deveria sempre mudar.

Este Gedankenexperiment deixa claro que os problemas com os quais


Einstein se ocupou eram de um tipo muito especial e estavam relacionados com a
estrutura interna dos sistemas de conhecimento da física clássica. Problemas como
o da propagação de ondas em referenciais em movimento se encontram - como na
verdade os problemas da eletrodinâmica de corpos em movimento - na região
fronteiriça entre a eletrodinâmica e a mecânica e pertencem assim à classe de
problemas com os quais a mudança da física clássica para a moderna se
concretizou.
A física clássica divide-se primordialmente em três áreas, cada qual com
conceitos próprios: a mecânica, a teoria do calor e o eletromagnetismo. Nas
fronteiras entre estas áreas encontravam-se aqueles problemas nos quais diferentes
conceitos básicos se sobrepunham. Só através do estudo destes problemas de
54

fronteira é que se poderia saber até que ponto os diferentes conceitos das três
diferentes áreas eram coerentes entre si. Por outro lado, o descobrimento de
incoerências conceituais quando associado a um problema concreto funciona,
tipicamente, como motor de inovações científicas, pois toda tentativa de resolver um
problema concreto obriga concomitantemente a que repensemos os conceitos
envolvidos e pode, pela transformação destes conceitos ou de teorias inteiras, abrir
novos horizontes.
Por este motivo os problemas de fronteira da física clássica puderam se
tornar os pontos de partida para a superação destas mesmas fronteiras. O problema
da radiação térmica do corpo negro em equilíbrio, no qual Max Planck houvera
trabalhado, era um problema deste natureza por se encontrar na fronteira entre a
teoria do calor e a teoria da radiação do eletromagnetismo. Este problema tornou-se
um dos cernes da mecânica quântica em grande parte devido estar ele no centro de
um trabalho publicado por Einstein de 1905 além de seus outros três trabalhos
revolucionários [9].
O problema do movimento browniano, este também objeto de um trabalho
de Einstein no seu annus mirabilis [10], encontrava-se na fronteira entre a mecânica
e a teoria do calor e veio a ser um ponto de partida da moderna mecânica etatística.
Finalmente a eletrodinâmica dos corpos em movimento, o brinquedo preferido de
Einstein, engloba, como já mencionado, problemas de fronteira entre a mecânica e o
eletromagnetismo, e dela desenvolveu-se a teoria da relatividade. Em outras
palavras, todas as mudanças conceituais importantes da física do início do século
XX tiveram sua origem em problemas nas fronteiras da física clássica.
Do surgimento da teoria da relatividade especial pode-se vislumbrar um
exemplo de como tal mudança se concretiza como resultado da interação entre o
conhecimento disponível da física de então com o ponto de vista individual de um
pesquisador. Independente do que a perspectiva de Einstein em pontos específicos
possa ter determinado, ela necessariamente contribuiu para que sua atenção fosse
desviada para aqueles problemas de fronteira da física clássica.
Esta perspectiva se desenvolve, como mostraremos a seguir, em três
etapas:

Fase da experimentação
55

Fase da teorização
Fase da reflexão

Em um certo sentido todas as três fases foram revolucionárias. As duas


primeiras, no caso de Einstein especialmente, foram na verdade apenas subjetivas,
ao passo que somente a terceira fase, a fase da reflexão, foi motivo de uma
revolução na história do conhecimento na física.

6.4. A FASE DA EXPERIMENTAÇÃO

A fase da experimentação foi marcada sobretudo pelos incessantes esforços


de Einstein em corroborar, experimentalmente, o movimento da Terra pelo éter,
contribuindo assim com um ambicioso espírito de pioneirismo em uma área então no
estado-da-arte da pesquisa. Isto é um fato, embora o material disponível não permita
que tiremos conclusões sobre estes experimentos. Já no verão de 1899 ele planejou
experimentos sobre radiação com seu antigo professor Conrad Wüest em Aarau, um
dos pioneiros na pesquisa dos raios-X na Suíça [11].
Destes experimentos, em parceria com Wüest, Einstein esperava
primeiramente obter uma resposta à pergunta sobre qual das duas grandes
correntes da teoria da eletricidade de então correspondia à realidade física: a
interpretação atomística da eletricidade, como era amplamente difundida no
continente, ou a visão calcada na tradição maxwelliana que tinha por base a
existência de um meio contínuo da eletricidade.
A realização dos experimentos planejados foi, no entanto postergada. O
diretor da Escola de Aarau, o reitor Wüest, tinha aparentemente outras prioridades
[12].
Mas logo, no final do verão de 1899, Einstein teve uma idéia acerca de um
estudo: determinar a influência que o movimento relativo de corpos com relação ao
éter luminífero teria sobre a velocidade de propagação da luz em corpos
transparentes [13]. Um forte argumento a favor do repouso deste éter luminífero era
o fenômeno da chamada aberração (Fig. 5).
56

Quando se observa a posição de uma estrela ao longo do ano de diferentes


posições ao longo da órbita de nosso planeta, constata-se que ela sofre oscilações
regulares. Se a estrela observada está muito distante, estas flutuações em sua
posição aparente não podem ser resultado da paralaxe, quer dizer da variação do
ângulo sob o qual ela é observada. Ela poderia sim, como já houvera notado Bradley
no ínício do século XVIII, estar muito mais relacionada à composição da velocidade
da luz emitida pela estrela com a velocidade do movimento da Terra, de modo que a
velocidade da luz da estrela pareceria vir de diferentes direções em função do
movimento terreste [14].
Em uma análise mais pormenorizada do problema da aberração surgem no
entanto duas dificuldades: primeiro, se por hipótese toma-se a luz como sendo um
movimento ondulatório num meio como o éter, a adição de velocidades vale
somente se for feita a hipótese adicional de que este meio luminífero se encontra em
57

repouso - caso contrário surgem várias complicações. Einstein lembrar-se-á mais


tarde que considerações sobre o problema da aberração o acompanharam em seu
caminho até a teoria da relatividade especial [15]. De qualquer maneira elas
estavam em concordância com sua convicção, expressa em uma carta no verão de
1899, de que não fazia sentido falar sobre um movimento do éter [16].
A segunda dificuldade para se compreender a aberração surge do fato que,
em se considerando que para observar estrelas é necessário recorrer ao uso de
telescópios, é necessário levar em conta não apenas a propagação da luz num
pressuposto éter mas também em um meio óptico transparente como, por exemplo,
no vidro. Porém, em tais meios, a luz se propaga com uma velocidade menor que no
éter, de modo que assim o efeito da aberração deveria sofrer alterações quando um
meio transparente entrasse no processo. As observações contudo mostravam que a
aberração era totalmente independente do fato da luz ter ou não atravessado um
meio. Este fato já havia sido explicado em 1818 por Fresnel com a hipótese de que
meios que se movem com a Terra pelo éter em repouso, arrastam este junto consigo
com uma certa fração de sua velocidade.
Mas qual o significado exatamente deste "arrasto do éter" para um meio em
movimento? Seria talvez possível verificar diretamente este fato ou seria ele apenas
uma compensação hipotética para explicar a ausência das flutuações na aberração
normal? Esta pergunta guarda uma estreita relação com o experimento de Einstein
acerca da influência que o movimento de corpos em relação ao éter luminífero tem
na velocidade de propagação da luz em corpos transparentes. Um experimento
como o planejado por Einstein poderia provavelmente produzir evidências diretas
deste arrasto.
Tal experimento fora já no entanto feito algumas décadas antes, em 1851,
por Fizeau e confirmado, de maneira aproximada, a existência do coeficiente de
arrasto de Fresnel. Não sabemos o quão familiarizado Einstein estava com estes
desenvolvimentos e se era sua pretensão ele mesmo refazer os experimentos de
Fizeau de maneira mais precisa ou utilizando uma variante deste. Einstein não se
deixa abater pelas dificuldades e debruça-se, com entusiasmo, sobre um artigo de
revisão de Wilhelm Wien, no qual se discute os mais importantes experimentos a
respeito da questão da participação do éter luminífero no movimento dos corpos
[17].
58

Até aproximadamente o outono de 1901 há evidências a respeito dos


esforços experimentais de Einstein. Não há aqui praticamente quaisquer resultados
empíricos dignos de nota mas é provável que isto tenha reforçado nele a crença de
que a eletrodinâmica dos corpos em movimento continuava, como antes, uma área
com muitas questões em aberto, em particular no que tangia ao duvidoso papel o
éter, cujo movimento em relação à Terra aparentemente não era experimentalmente
corroborável. Ao final de sua fase de experimentação, Einstein se tornou ciente que
todos os fatos empíricos necessários a uma eletrodinâmica de corpos em movimento
encontravam-se sobre a mesa.

6.5. A FASE DA TEORIZAÇÃO

Ao final de sua fase de experimentação, Einstein sentiu-se encorajado a


pensar em uma eletrodinâmica sem o éter. Com este objetivo inicia-se a sua
59

segunda fase de envolvimento com a eletrodinâmica dos corpos em movimento, a


fase da teorização. A postura de Einstein é caracterizada nesta fase pela procura de
uma fundamentação conceitual de toda a física, que ele espera encontrar com o
auxílio de uma espécie de atomismo interdisciplinar [18]. Muitas das suas
elucubrações, que nos chegaram através de suas cartas, são na realidade baseadas
em tentativas de abordagens microscópicas que expliquem a interrelação de
fenômenos físicos aparentemente díspares como, por exemplo, a relação entre as
condutividades, térmica e elétrica, dos metais.
O atomismo interdisciplinar de Einstein o leva, entre os anos de 1900 e
1905, a romper radicalmente com a tradição da óptica e da eletrodinâmica do século
XIX. Este ropimento, porém não pode ser ainda comparado à revolução causada
pelos trabalhos de 1905. Ele representa acima de tudo a tentativa de concluir uma
caminhada dentro do âmbito conceitual da física clássica que havia sido em grande
parte já percorrida na fase anterior, mas que fora interrompida.
Einstein decidiu-se por trabalhar numa teoria corpuscular da radiação,
análoga àquela que Newton havia criado no século XVII - não obstante as
evidências indiscutíveis que desde o começo do século XIX apontavam para uma
teoria ondulatória da luz. A teoria corpuscular de Einstein para a radiação parecia
conter a chave para um grande número de fenômenos com os quais ele se ocupara
durante seus tempos de estudante, entre eles os processos de geração e
transformação da luz, para os quais novos resultados experimentais estavam
disponíveis. Ela coincide também com uma época na qual a questão "onda ou
partícula" se apresentava sob nova roupagem - na realidade não necessariamente
em relação à luz, mas por exemplo para os recém-descobertos processos
radioativos como a radiação de Röntgen [19].
De qualquer maneira para Einstein deve ter sido um argumento contundente
o fato que uma teoria corpuscular da luz permitiria olhar simultaneamente um grande
número de problemas por um novo ângulo, entre eles o problema da radiação do
corpo negro para o qual Planck houvera proposto sua fórmula e que, sem dúvida,
representava "o problema" da fronteira entre a teoria do calor e a teoria da radiação
eletromagnética. Partindo da hipótese que a radiação na cavidade do corpo negro
pudesse ser encarada, sob a ótica da teoria corpuscular, como um apanhado de
partículas de luz, então o equilíbrio termodinâmico desta radiação poderia ser
60

determinado pela teoria cinética dos gases de maneira a se obter uma espectro de
radiação que concordasse, com um altíssimo grau de precisão, com os resultados
experimentais.
A teoria corpuscular especulativa de Einstein para a luz foi, na realidade, a
base heurística comum aos seus trabalhos sobre a hipótese do quantum de luz e a
sua eletrodinâmica dos corpos em movimento. Foi graças ao seu interesse na
possibilidade de se construir pontes entre áreas específicas da física por meio do
atomismo que seus trabalhos do miraculoso ano de 1905 sobre o movimento
browniano e a determinação de dimensões moleculares devem sua existência.
Também a eletrodinâmica dos corpos em movimento ganha uma nova face
quanto olhada sob esta perspectiva, pois era de se esperar que para esta nova
teoria corpuscular da luz as leis da mecânica, em particular o princípio da
relatividade de Galileu e a conhecida composição de velocidades continuassem
válidas. A teoria corpuscular proporcionava também a explicação mais simples
imaginável para a aberração como consequência da composição das velocidades da
luz e da Terra, sem necessidade de recorrer à hipótese da existência de um éter,
sobre cujo movimento poder-se-ia quando muito apenas especular. Em uma teoria
corpuscular da luz, construída sobre os fundamentos da mecânica, a velocidade da
luz não pode ser mais uma constante como na teoria do éter em repouso, mas
deveria ser uma função da velocidade da fonte da mesma maneira que a velocidade
de um projétil depende da velocidade do canhão que o dispara.
Porém, ao passo que a teoria do éter em sua forma lorentziana explicava
praticamente todos os fenômenos ópticos e eletromagnéticos, a teoria corpuscular
encontrava-se, quando muito, no berço e, já quando confrontada com problemas
simples como a reflexão da luz por um espelho, se via obrigada a lançar mão das
mais estranhas premissas. Em outras palavras, também nesta segunda fase de seu
trabalho Einstein se encontrava num caminho sem saída. Enquanto o resultado
principal da primeira fase fora o de que todos os fatos experimentais relevantes
estavam dispostos sobre a mesa, o resultado da segunda fase era que, de uma
certa maneira, o mesmo se poderia dizer com relação aos insights teóricos para uma
eletrodinâmica - e estes levavam por um caminho que não passava pela teoria de
Lorentz.
61

6.6. A FASE DA REFLEXÃO

No centro da terceira e decisiva fase do nascimento da teoria da relatividade


especial se encontra a reinterpretação da teoria de Lorentz por Einstein.
Tecnicamente não havia praticamente nada em que essa teoria pudesse ser
melhorada. Até mesmo aquelas transformações com as quais os fenômenos em um
referencial em movimento podem ser deduzidos a partir das conhecidas leis num
referencial em repouso já tinham sido obtidas por Lorentz, primeiramente em 1895
de maneira aproximada e então em 1899 de maneira exata. Em 1904 Lorentz
finalmente apresentou uma teoria sistemática e abrangente e pôde, com a ajuda de
suas transformações, explicar em princípio todos os fenômenos da eletrodinâmica
de corpos em movimento [21].
O matemático francês Henri Poincaré chamou estas, que se tornariam
posteriormente uma das peças centrais da teoria da relatividade, de transformações
de Lorentz. Em sua formulação, a teoria de Lorentz abrangia uma série de estranhos
fenômenos, pelos quais a teoria da relatividade é hoje conhecida: a contração do
comprimento bem como a retardação de processos como função do sistema inercial
do observador, e até mesmo o aumento da massa de um corpo com sua velocidade.
No entanto, Lorentz associou a suas transformações uma interpretação que
difere fundamentalmente daquela da futura teoria da relatividade. Para Lorentz não
se tratavam de transformações que tinham por objetivo garantir que as leis que
valessem num referencial fixo também valessem num que se movesse com
velocidade uniforme, fazendo assim justiça ao princípio da relatividade clássica. Para
ele valiam ainda, acima de tudo, as transformações de Galileu da física clássica, que
porém só garantem o princípio da relatividade na mecânica. As transformações
criadas por Lorentz eram, para ele, de maneira alguma uma alternativa às
transformações clássicas, mas um complemento a estas. Elas pertenciam
primordialmente à eletrodinâmica e eram parte de um teorema por ele chamado
teorema dos estados correspondentes, o qual permitia, através da introdução de
certas grandezas auxiliares, a predição de processos eletrodinâmicos para corpos
em movimento. Segundo Lorentz, estes processos estavam sujeitos a leis
completamente diferentes daquelas que os mesmos processos obedeciam num éter
em repouso. Através da introdução de suas sofisticadas grandezas auxiliares lhe foi
possível porém achar uma explicação do motivo pelo qual estas outras leis não se
62

refletiam em fenômenos observáveis, como por exemplo no experimento de


Michelson e Morley. Lorentz considerava que estas grandezas auxiliares - como por
exemplo o tempo local - não eram diretamente observáveis.
A teoria de Lorentz se sobressai não apenas pelo seu excepcional sucesso
empírico com também pela sua complexidade e argumentação labiríntica, razões de
seu sucesso. Ela propiciou assim um ponto de partida natural para um processo de
reflexão, que sempre se observa em momentos decisivos da historia da ciência, e
que forma o cerne da terceira fase do desenvolvimento de Einstein. Este processo
permite que elementos periféricos de uma estrutura de conhecimento complexa e
marcada por tensões internas se tornem pontos de partida de uma reconstrução
que, embora levando ao estabelecimento de uma nova e ampla estrutura, ainda está
assentada sobre fundamentos já antes disponíveis - de maneira análoga a que
vemos na história da arquitetura ou das construções. Usando uma metáfora
histórico-filosófica pode-se caracterizar este processo como um "colocar de cabeça
para baixo" ou - numa metáfora histórico-científica - podemos descrevê-lo como um
processo coperniano, pois processos de ruptura conceitual se completam de
maneira semelhante à revolução de Copérnico, que também criou um novo sistema
de mundo a partir da colocação, no centro, de uma estrela antes periférica, o Sol,
mas que para isto fez uso do complexo maquinário da astronomia já então
desenvolvido ao invés de iniciar por uma tabula rasa.
Para a teoria lorentziana o éter era um conceito central e as novas variáveis
para o tempo e o espaço apenas grandezas auxiliares. Na teoria da relatividade, ao
contrário, o éter não desempenha qualquer papel, ao passo que as variáveis
auxiliares de Lorentz tornam-se os novos e fundamentais conceitos de tempo e
espaço. O maquinário dedutivo, em particular as transformações de Lorentz entre
sistemas inercias em movimento uniforme relativo, permaneceram intocados por
esta mudança do centro conceitual. Embora para uma geração mais jovem seja
mais fácil completar este processo de reflexão, não necessariamente o processo
está ligado a uma mudança de gerações. Em todo caso ele estabelece uma
mudança de perspectiva. Einstein tinha a seu dispor tal perspectiva nova,
principalmente pelo seu envolvimento com os problemas acima mencionados da
fronteira da física clássica. Pelo seu trabalho com o problema da radiação térmica
ele chegou neste caso á conclusão de que a hipótese de um éter contínuo era
63

incondizente com a existência de um equilíbrio térmico da radiação. Este insight teve


duas consequências revolucionárias: ele legitimou uma teoria quântica da luz,
inicialmente desenvolvida por Einstein de forma apenas especulativa e transformou
sua negação do conceito do éter, a princípio também especulativa, em uma
condição indispensável do seu modo de pensar. A teoria da relatividade especial de
1905 nasceu do encontro dos pontos de vista únicos de Einstein acerca da crise dos
fundamentos da física clássica com a abrangente resposta de Lorentz ao problema
da eletrodinâmica de corpos em movimento.
Pela perspectiva de Einstein a situação era muito mais crítica que pela de
Lorentz. Enquanto para Einstein o éter como portador dos fenômenos
eletromagnéticos não era mais uma questão a ser tratada, faltava a ele ainda - ao
contrário de Lorentz - não apenas uma base para a interpretação física das
grandezas auxiliares de Lorentz como também a fundamentação da premissa
decisiva de que a velocidade da luz no éter era uma constante. Por outro lado a
aberração e o experimento de Fizeau legitimavam o uso de um tempo local,
introduzido por Lorentz, como algo fundamentalmente correto. A perspectiva
einsteniana deslocou justamente para o centro da sua atenção estes elementos que
guardavam a chave para uma solução final. Diferentemente de Lorentz, para
Einstein o princípio da relatividade e a constância da velocidade da luz eram
igualmente importantes, embora não fossem naquele momento reconciliáveis - ao
menos enquanto se tomasse a adição clássica de velocidades como base da teoria.
Os elementos da teoria de Lorentz que se mostraram particularmente
problemáticos tinham em comum o fato de terem uma origem cinemática. Do ponto
vista de Einstein isso torna uma mudança de nível plausível - da eletrodinâmica para
a cinemática. Quais eram assim as implicações da eletrodinâmica de Lorentz no
comportamento cinemático de corpos em movimento? Evidentemente dela poderia
se concluir que corpos e processos em um referencial em movimento uniforme
comportar-se-iam de maneira diferente de quando estivessem em repouso. Se fosse
possível explicar este comportamento estranho não mais em nível da eletrodinâmica
mas sim da cinemática, talvez estivesse aí a chave para o problema.
Até este ponto praticamente cada etapa do raciocínio de Einstein foi
resultado obrigatório do encontro de seu ponto de vista especial com a teoria
eletrodinâmica de Lorentz. Mas agora uma fase de reflexão que fosse
64

substancialmente além desta teoria se fazia necessária ou, melhor dizendo,


retrocedesse para antes dela. Pois agora trata-se de lidar com a questão de como é
possível, em primeiro lugar, verificar este comportamento estranho de corpos e
processos em referencias móveis. "Como se comportam então escalas e relógios
em tais sistemas?" "O que significa exatamente quando se diz que um evento
acontece simultaneamente a outro evento ou como se pode determinar isto?" É bem
possível que tenha sido Besso quem tenha feito essas astutas perguntas de criança
para Einstein, naquela manhã de maio de 1905.
Tais perguntas permitiram a Einstein reconhecer no problema da
simultaneidade de eventos em dois sistemas em movimento relativo o passo
fundamental para a solução de seu problema. Estas perguntas encontraram
ressonância em suas leituras sobre filosofia, em particular nos escritos de David
Hume e Ernst Mach, os quais ele havia anteriormente estudado de maneira intensiva
com seus amigos da Academia Olimpia, um grupo de leitura e discussão fundado
por Einstein em Berna. Do pano de fundo destas leituras torna-se claro que o
conceito de tempo não é uma coisa que possa ser vista com algo pré-estabelecido,
mas é antes de tudo uma construção complexa - e a determinação da
simultaneidade de eventos em diferentes lugares requer uma definição baseada
num método prático. O método descoberto por Einstein - a sincronização por sinais
de luz de relógios espacialmente separados - tinham inicialmente pouco a ver com o
complicado problema físico com o qual ele se deparava. Ele é antes de tudo um
método coerente com nossa visão diária de medidas de tempo e de intervalos
temporais e era até uma prática comumente utilizada então, como Einstein bem o
sabia de suas leituras de revistas de popularização da ciência [22].
O recurso a este método prático expõe uma certa arbitrariedade na
determinação da simultaneidade em referenciais que se movem uniformemente
entre si. Pois o método pensado por Einstein valia inicialmente apenas dentro de um
referencial - estivesse ele parado ou se movendo. Partindo deste background torna-
se assim pela primeira vez concebível pensar até que ponto o comportamento de
relógios e réguas poderia depender do movimento relativo de um referencial, como
parecia dizer a teoria de Lorentz.
A arbitrariedade na relação entre as definições de tempo em diferentes
referenciais, da qual Einstein se tornou desta maneira ciente, poderia ser dirimida
65

apenas de duas maneiras. Poder-se-ia introduzir a hipótese que a determinação da


simultaneidade pelo método de Einstein deveria levar ao mesmo resultado,
independentemente do estado cinemático do referencial - e assim concluir pelo
caráter absoluto do tempo, como na física clássica - ou poder-se-ia introduzir a
hipótese que não o tempo, mas a velocidade da luz, independentemente do
movimento do referencial, deveria permanecer a mesma, uma hipótese a qual
Einstein privilegiou em função do sucesso da eletrodinâmica de Lorentz, apesar de
suas consequências não intuitivas. Pois, aceitando esta última hipótese, tem-se
como resultado a relatividade da simultaneidade como função do movimento do
referencial e todas as consequências intrigantes da teoria especial da relatividade.

6.7. O INÍCIO DE UMA REVOLUÇÃO

A partir do pano de fundo desta reconstrução pode ser que, ao final, a


conversa de Einstein com Besso em maio de 1905 tenha sido realmente o momento
decisivo da criação da teoria especial da relatividade. Ela pode ter ajudado Einstein
nas reflexões cruciais pelas quais ele conseguiu unificar dois níveis do
conhecimento - o teórico e o prático - de uma forma inovadora. Pois como pudemos
ver suas cogitações sobre os fundamentos do conceito de tempo ligaram sim um
modelo fundeado no conhecimento prático sobre a medida de tempo em diferentes
locais com uma previsão teórica sobre a propagação da luz, cujas bases se
encontravam em estudos especializados da eletrodinâmica de corpos em
movimento. Foi apenas depois desta ligação que estes estudos retroagiram sobre
nosso conceito de tempo e espaco e os trabalhos de Einstein de 1905 tornaram-se o
ponto de partida de uma revolução científica que não se restringiu a sua área
específica nas ciências. A emergência desta revolução a partir da interação entre
dois níveis de conhecimento explica também sua especificidade histórica, ou seja a
razão pela qual a reflexão sobre o tempo por um Hume ou até mesmo um Aristóteles
não levou ao reconhecimento da relatividade da simultaneidade. Pois o postulado da
constância da velocidade da luz, sobre o qual está baseado o conceito de tempo
einsteniano, foi fruto de um desenvolvimento de longa duração dos sistemas de
conhecimento da física clássica e representam a quintessência da eletrodinâmica do
século XIX e de seus problemas na fronteira com a mecânica.
66

Referências
[1] Programa no sítio www.physik.uni-ulm.de/dpg-tagung2004/veinstein.html [ Links ]
[2] Citações referem-se a J. Stachel et al. (eds.), Collected Papers of Albert Einstein (CPAE), v. 1: The
Early Years 1897-1902; v. 2: The Swiss Years: Writings 1900-1909 (Princeton University Press,
Princeton, 1987 e 1989). [ Links ]
[3] Palestra de Einstein em Kyoto no dia 14 de dezembro de 1922, cf. também a nota editorial em
CPAE 2, p. 253-274. [ Links ]
[4] A. Einstein para Mileva Maric, 30 de agosto ou 6 de setembro de 1900, em: CPAE 1, Doc. 74, p.
258; [ Links ]cf. J. Renn e R. Schulmann (eds.), Albert Einstein/Mileva Maric. As cartas de amor 1897-
1903 (Piper, Munique, 1994). [ Links ]
[5] Michelle Besso para Aurel Stodola, 22 de agosto de 1941, Biblioteca Central ETH Zurique, Hs.
496:5.
[6] A. Einstein, Annalen der Physik 17 (1905). Em: CPAE 2, Doc. 23, p. 275-317. [ Links ]
[7] A. Einstein, Verão(?) 1895, em: CPAE 1, Doc. 5, p. 6-9. [ Links ]
[8] A. Einstein , Notas Autobiográficas (Rio de Janeiro, Nova Fronteira, 1982). [ Links ]
[9] A. Einstein, Annalen der Physik 17 (1905), em: CPAE 2, Doc. 14, p. 149-169. [ Links ]
[10] A. Einstein, Annalen der Physik 17 (1905), em: CPAE 2, Doc. 16, p. 223-236. [ Links ]
[11] Albert Einstein para Julia Niggli, 28 de julho de 1899, em: CPAE 1, Doc. 48, p. 218-219. [ Links ]
Veja também de Albert Einstein para Mileva Maric, 10(?) de agosto de 1899, em: CPAE 1, Doc. 52, p.
225-227.
[12] Albert Einstein para Mileva Maric, 28(?) de setembro de 1899, em: CPAE 1, Doc. 57, p. 233. [
Links ]
[13] Albert Einstein para Mileva Maric, 10 de setembro de 1899, em: CPAE 1, Doc. 54, p. 229-231. [
Links ]
[14] Também para o que segue M. Janssen e J. Stachel, The Optics and Electrodynamics of Moving
Bodies, em: John Stachel Going Critical, Kluwer, Dordrecht (no prelo).
[15] "Mas também... o fenômeno da aberração levou-me..." Mensagem de Albert Einstein para R.S.
Shankland, em: CPAE 2, p. 253-274. [ Links ]
[16] Albert Einstein para Mileva Maric, 10(?) de agosto de 1899, em: CPAE 1, Doc. 52, p. 226. [ Links
]
[17] W. Wien, Ann. d. Phys. u. Chem. 65 (1898), n. 3 (Beilage), p. xvii. [ Links ]
[18] Albert Einstein para Marcel Grossmann, 14 de abril de 1901, em: CPAE 1, Doc. 100, p. 290-291. [
Links ]
[19] B.R. Wheaton, The Tiger and the Shark, Empirical Roots of Wave-Particle Dualism (Cambridge
University Press, Cambridge 1983), p. 17. [ Links ]
[20] J. Renn, Einstein as a Disciple of Galileo: A Comparative Study of Concept Development in
Physics, em: M. Beller, R.S. Cohen and J. Renn (eds.), Einstein in Context (Science in Context, v. 6),
Cambridge University Press, Cambridge, 1993, p. 311-341. [ Links ] Veja também J. Büttner, J. Renn
and M. Schemmel, Stud. Hist. Phil. Mod. Phys. 34, 37 (2003). [ Links ]
[21] M. Janssen e J. Stachel, The Optics and Electrodynamics of Moving Bodies, em: John Stachel
Going Critical, Kluwer, Dordrecht (no prelo). Veja também M. Janssen, PhD Dissertation, Univ. of
Pittsburgh (1995).
[22] A. Bernstein, Naturwissenschaftliche Volksbücher (Livros Populares de Ciências Naturais)
(Wohlfeile Gesammt-Ausgabe, Bd. 4, Duncker, Berlin, 1869), 3a. ed., p. 88-98. Bernstein descreve a
sincronização eletromagnética de relógios através de um "Relógio Mestre" que envia sinais elétricos
(p. 91), trazendo à tona a questão da simultaneidade de acontecimentos em locais diferentes (em
particular p. 94 e p. 96). Einstein leu os livros populares de Bernstein entre os anos de 1892 e 1894:
CPAE 1, p. 1xi-1xiii, em particular Nota 54. [Links ]
[23] M. Wertheimer, Produktives Denken (Kramer, Frankfurt/Main, 1957). [ Links ]
[24] R. Rynasiewicz, The Construction of the Special Theory: Some Questions and Considerations,
em: D. Howard and J. Stachel (eds.), Einstein - The Formative Years, 1879-1909 (Einstein Studies v.
8), (Birkhäuser, Boston, 2000), p. 159-202. [ Links ]
[25] J. Stachel, What Song the Syrens Sang: How Did Einstein Discover Special Relativity?, em: John
Stachel, Einstein from "B" to "Z" (Einstein Studies v. 9) (Birkhäuser, Boston, 2002), p. 157-171. [ Links
]
[26] P. Gallison, Einstein's Clocks, Poincaré's Maps. Empires of Time (W.W. Norton and Co., New
York, 2003).
[27] J.D. Norton, Einstein's Investigation of Galilean Covariant Electrodynamics prior to 1905
(preprint).
67

UNIDADE 07 - FÍSICA E REALIDADE*


Albert Einstein
Publicado originalmente no Journal of the Franklin Institute 221, 313-347 (1936)

7.1. GENERALIDADES ACERCA DO MÉTODO CIENTÍFICO

Foi dito frequentemente e com certeza não sem razão que o cientista seria
um mau filósofo. Por que não haveria então de ser o mais correto também para o
físico deixar o filosofar para os filósofos? Isto talvez se aplique em épocas nas quais
os físicos crêem possuir um sólido e inquestionável sistema de conceitos e leis
fundamentais, mas não nos dias atuais, quando os fundamentos da Física como um
todo se tornaram problemáticos. Nestas épocas, nas quais a experiência o obriga a
buscar uma base nova e mais sólida, o físico não pode simplesmente relegar à
Filosofia a análise crítica dos fundamentos, uma vez que apenas ele sabe e sente
melhor que ninguém onde o sapato lhe aperta; na busca por novos fundamentos é
mister que ele procure se esclarecer o melhor possível acerca da necessidade e
legitimidade dos conceitos por ele usados.
Toda ciência não é senão um refinamento do senso comum. É por este
motivo que o senso crítico do físico não pode se restringir à sua ciência em
particular, não devendo ele passar ao largo de uma reflexão crítica do senso comum,
de muito mais difícil análise.
No palco de nossas experiências mentais surgem, em colorida sucessão,
experiências sensíveis, seus quadros mnemônicos, representações e sentimentos.
Contrariamente à Psicologia, a Física ocupa-se (diretamente) apenas com as
experiências sensíveis e com a "compreensão" das relações entre elas. Mas o
conceito de "mundo externo real" do senso comum também se apóia exclusivamente
sobre as impressões sensíveis.
Antes porém devemos notar que a diferenciação entre impressões sensíveis
(sensações) e representações não é conhecida, ou ao menos não o pode ser com
segurança. Não pretendemos aqui nos ocupar com esta problemática que também
envolve o conceito de "realidade", mas tomaremos as experiências sensíveis como
tais, ou seja, um tipo especial de experiência mental existente e reconhecível.
O primeiro passo para o estabelecimento de um "mundo externo real"
repousa, em minha opinião, na construção do conceito de objeto corpóreo, ou
68

melhor, de objetos corpóreos de diferentes tipos. Certos complexos de sensações


que se repetem (em parte junto a sensações que podem ser interpretadas como
sinais das experiências sensíveis de nossos semelhantes) são mentalmente
escolhidos, de modo arbitrário, da totalidade das experiências sensíveis, e a eles é
associado um conceito - o de objeto corpóreo. Do ponto de vista lógico este conceito
não é idêntico à totalidade destas experiências, mas é uma livre criação do espírito
humano (ou animal). Por outro lado seu significado e legitimidade se devem
exclusivamente à totalidade das experiências sensíveis às quais está associado.
O segundo passo consiste no fato que atribuímos significados em grande
medida independentes ao conceito do objeto corpóreo em nosso pensamento
(determinante de nossas expectativas) e às sensações causadoras deste conceito. É
isto que queremos dizer quando associamos uma "existência real" ao objeto
corpóreo. A legitimidade desta associação repousa unicamente sobre o fato que,
com o auxílio de tais conceitos e das relações mentalmente estabelecidas entre eles,
podemos nos orientar por entre o emaranhado de sensações. É por este motivo que
estes conceitos e relações - embora livres definições do pensamento - parecem-nos
mais firmes e imutáveis que a experiência sensível única, cujo caráter nunca
poderemos com segurança deixar de atribuir à ilusão ou à alucinação. Por outro
lado, conceitos e relações, em particular o estabelecimento de objetos reais ou
mesmo de um "mundo real" , só são justificáveis na medida em que estão
associados a experiências sensíveis entre as quais criam associações mentais.
Só nos resta admirar, conquanto nunca lograremos compreender, o fato que
a totalidade das experiências sensíveis seja tal que possa ser hierarquizada através
do pensamento (o operar com conceitos e a criação e aplicação de certas
associações funcionais entre eles, bem como a ordena cão das experiências
sensíveis a conceitos). Podemos afirmar: o eternamente incompreensível no
universo é o fato de ele ser compreensível. Que o estabelecimento de um mundo
externo real sem esta compreensibilidade seria algo desprovido de sentido
representa um dos maiores achados de Immanuel Kant.
Quando falamos aqui de "compreensibilidade", referimo-nos a esta
expressão primeiramente em seu significado mais modesto, ou seja: através da
criação de conceitos gerais e relações entre eles, bem como através de relações de
algum modo pré-estabelecidas entre conceitos e experiências sensíveis, cria-se,
69

entre estas últimas, algum tipo de ordem. Neste sentido o mundo de nossas
experiências sensíveis é compreensível e, que ele o seja, é miraculoso.
Parece-me impossível afirmar algo a priori, por mínimo que seja, acerca do
método pelo qual devemos construir e relacionar conceitos e o modo pelo qual os
ordenar com experiências sensíveis. Apenas o sucesso no estabelecimento de um
ordenamento de experiências sensíveis é que pode julgar. As regras de associação
entre conceitos devem ser simplesmente definidas, pois, caso contrário, o
conhecimento, no sentido em que o almejamos, seria inatingível. Podem-se
comparar estas regras àquelas de um jogo, regras estas em si arbitrárias, mas que
só depois de definidas possibilitam que se jogue. Esta definição de regras, no
entanto nunca será definitiva, mas antes só poderá reclamar para si qualquer
validade na área na qual estiver sendo aplicado no momento (ou seja, não há
categorias finais no sentido estabelecido por Kant).
A associação entre conceitos elementares do senso comum com complexos
de experiências sensíveis só pode ser apreendida intuitivamente e é, do ponto de
vista científico, inatingível pela fixação lógica. A totalidade destas associações - em
si conceitualmente incompreensíveis - é a única coisa que diferencia o edifício da
Ciência de um esquema de conceitos lógicos desprovido de conteúdo. Graças a
elas, as leis puramente conceituais da Ciência tornam-se afirmações gerais acerca
de complexos de experiências sensíveis.
Os conceitos direta e intuitivamente associados aos complexos de
experiências sensíveis típicos serão por nós denominados "conceitos primários". Do
ponto de vista físico todos os outros conceitos apenas têm sentido na medida em
que os fizermos associar, através de leis, aos "conceitos primários". Estas leis são
em parte defini cões de conceitos (e proposições daí logicamente dedutíveis) e em
parte leis que não seguem das defini cões mas que dizem, ao menos indiretamente,
algo a respeito das relações entre "conceitos primários" e com isto entre
experiências sensíveis. Leis deste último tipo são "proposições acerca da realidade"
ou "leis da natureza", quer dizer, leis que têm que ser comprovadas por meio das
experiências sensíveis obtidas através dos conceitos primários. Quais dentre as leis
devemos chamar de defini cões e quais dentre elas de leis da natureza dependem
exclusivamente da representação escolhida; tal distinção só é realmente necessária
70

quando quisermos determinar até que ponto o sistema de conceitos com o qual
estamos lidando naquele momento tem, do ponto de vista físico, um conteúdo.

7.2. ESTRATIFICAÇÃO DO SISTEMA CIENTÍFICO

O objetivo da Ciência é, em primeiro lugar, a mais completa compreensão


conceitual de experiências sensíveis em toda sua variedade e sua interconexão
lógica. Em segundo lugar porém, atingir este objetivo através do uso de um mínimo
de conceitos e relações primárias (aspiração por uma visão de mundo unificada mais
lógica possível ou simplicidade lógica de seus fundamentos).
A Ciência necessita de toda a multiplicidade dos conceitos primários, ou
seja, daqueles diretamente ligados às experiências sensíveis bem como as leis que
os relacionam. Em seu primeiro estágio evolutivo ela não possui nada, além disto. O
senso comum também se dá por satisfeito, em linhas gerais, com este nível. Porém
para um espírito verdadeiramente engajado com Ciência isto não basta, pois a
totalidade de conceitos e relações assim haurida carece de qualquer unidade lógica.
A fim de suprir esta falta, cria-se um sistema mais pobre em conceitos e relações
que contenha, como quantidades logicamente dele dedutíveis, os conceitos
primários e relações do "primeiro estrato". Este novo "sistema secundário" adquire
uma maior unidade lógica às custas da situação na qual seus conceitos iniciais
(conceitos do segundo estrato) não mais se encontram em relação direta com
complexos de experiências sensíveis. Posteriormente, a aspiração por uma unidade
lógica ainda maior leva à criação de um sistema terciário de conceitos e relações
ainda mais pobre, para obtenção dos conceitos e relações do estrato secundário (e
assim indiretamente do primário). E assim sucessivamente, até que cheguemos a
um sistema de maior unidade concebível e pobreza conceitual dos fundamentos
lógicos, mas que ainda seja compatível com as propriedades obtidas através dos
sentidos. Se algum dia conseguiremos, por meio desta busca, chegar a um sistema
definitivo, não o sabemos. Se for colocada a pergunta, uma pessoa ver-se-á
inclinada a responder com um não; mas no embate com os problemas se é levado
pela esperança que este objetivo supremo realmente possa ser atingido em sua
plenitude.
Um adepto da teoria da abstração ou indução denominaria as camadas
supra citadas de "níveis de abstração". Porém julgo incorreto esconder a
71

independência lógica dos conceitos com relação às experiências sensíveis; não se


trata de uma relação como aquela entre a canja e a galinha, mas sim entre a roupa e
o cabide no armário. Além disso, os níveis não são claramente delimitados entre si.
Nem mesmo é possível precisar totalmente se um conceito pertence ao nível
primário. Conceitos nada mais são que construções livres, associados intuitivamente
a complexos de experiências sensíveis com um grau de segurança suficiente para
uma dada aplicação, de modo a não restar dúvidas quanto à aplicabilidade ou não
de uma lei para um particular caso vivenciado (experimento). Essencial é apenas a
tentativa de representar uma variedade de conceitos e leis próximas da experiência
como sendo deduzidas a partir de uma base de conceitos e relações fundamentais
mais reduzida1 possível. Estes são, por sua vez, de livre escolha (axiomas). Com
esta liberdade porém não se vai muito longe: não se trata aqui de algo semelhante à
liberdade de um romancista, mas sim muito mais à liberdade de um homem a quem
foi proposto um bem concebido jogo de palavras cruzadas. Ele pode, é bem
verdade, sugerir qualquer palavra como solução, mas só há uma que realmente
soluciona a charada como um todo. Que a natureza - na maneira pela qual ela é
acessível a nossos sentidos - tenha o caráter de uma bem concebida charada é uma
crença para a qual de um certo modo os sucessos até agora obtidos pela Ciência
nos impele.
A multiplicidade de níveis a qual nos referimos acima corresponde ao único
avanço que a luta pela unifica cão dos fundamentos da Física nos propiciou ao longo
do seu desenvolvimento. Do ponto de vista do objetivo final, os níveis intermediários
são apenas temporários e devem eventualmente desaparecer, por irrelevantes.
Temos porém que nos ocupar com a Ciência atual, na qual tais níveis representam
sucessos parciais problemáticos, que se por um lado se sustentam, por outro se
ameaçam, uma vez que o sistema de conceitos atuais se nos apresenta com
profundas contradições, com as quais mais tarde nos defrontaremos.
O objetivo das próximas linhas é mostrar quais caminhos o espírito humano
empreendedor trilhou para chegar a uma base conceitual da Física tão logicamente
unificada quanto possível.

7.3. A MECÂNICA E A TENTATIVA DE SOBRE ELA FUNDAMENTAR TODA A


FÍSICA
72

Uma propriedade importante de nossas experiências sensíveis, bem como


de nossas experiências em geral, é seu ordenamento temporal. Esta propriedade de
ordenamento leva à construção mental do tempo subjetivo, de um esquema de
ordenamento para as experiências. Como veremos adiante, o tempo subjetivo
conduz então, através do conceito de objeto corpóreo e de espaço, ao tempo
objetivo.
O conceito de tempo objetivo é precedido pelo conceito de espaço, que por
sua vez é precedido pelo de objeto corpóreo; este último está diretamente ligado aos
complexos de experiências sensíveis. Colocou-se como propriedade característica
do conceito "objeto corpóreo" o fato que a ele podemos associar uma "existência"
independentemente do tempo ("subjetivo") e de sua percepção através de nossos
sentidos. Fazemos isto embora percebamos nele mudanças temporais. Poincaré
corretamente chamou a atenção para o fato que distinguimos dois tipos de
mudanças em objetos corpóreos, a saber "mudanças de estado" e "mudanças de
posição". Estas últimas são aquelas mudanças que podemos reverter por meio de
movimentos arbitrários do nosso corpo.
A existência de objetos corpóreos tais que a eles podemos associar tão
somente mudanças de posição e não de estado, dentro de um certo limite de
percepção, é fundamental para a construção do conceito de espaço (e até certo
ponto mesmo para a legitimização do conceito de objeto corpóreo). Chamaremos
aqui um tal objeto de "efetivamente rígido" .
Se tomarmos simultaneamente dois corpos "efetivamente rígidos" por objeto
de nossa percepção, ou seja, como um único todo, então haverá mudanças que não
podem ser interpretadas como mudança de posição do todo, embora seja este o
caso para cada um dos objetos constituintes. Isto nos leva assim ao conceito de
"mudança de posição relativa" entre ambos e com isto ao conceito de "posição
relativa" entre os objetos. Além do mais vê-se que existe, entre as posições
relativas, uma de um tipo especial denominada "contato"2.
O contato duradouro de dois corpos em três ou mais "pontos" significa sua
união em um corpo único (quase-rígido). Pode-se dizer que o primeiro corpo será
estendido em um corpo quase-rígido por meio do segundo corpo, que por sua vez
poderá ser quase-rigidamente estendido3. A extensão quase-rígida de um corpo é
73

ilimitada. A totalidade das extensões quase-rígidas imagináveis de um certo corpo K0


representa o "espaço" infinito por ele definido.
Na minha opinião, a base empírica de nosso conceito de espaço é o fato que
todo corpo de algum modo posicionado possa ser colocado em contato com a
extensão quase-rígida de um corpo K0 apropriadamente escolhido (corpo de
referência). No pensamento pré-científico a crosta terrestre rígida desempenhava o
papel de K0 e sua extensão. O próprio nome Geometria indica que o conceito de
espaço está psicologicamente relacionado à estrutura da Terra.
A arrojada construção conceitual de "espaço" , anterior a toda geometria
científica, transformou mentalmente a totalidade das relações de posição de objetos
corpóreos em posições destes no "espaço" . Isto já implica, por si, uma grande
simplificação formal. Por meio dela se consegue que qualquer afirmação sobre
posição também seja implicitamente uma afirmação sobre contato. Dizer que um
ponto de um objeto corpóreo se encontre no ponto P do espaço significa: o ponto
observado do objeto toca o ponto P do corpo de referência K0 (que presumimos
como tendo sido apropriadamente estendido).
Na geometria dos gregos o espaço tinha, digamos, um papel qualitativo
apenas, uma vez que as posições dos objetos, embora pensadas como
estabelecidas em relação ao espaço, não eram no entanto descritas por números.
Esta tarefa coube a Descartes, em cujo linguajar todo o conteúdo da geometria
euclidiana pode ser fundamentado axiomaticamente sobre as seguintes
proposições: (1) dois pontos marcados em um corpo rígido determinam um
segmento; (2) aos pontos do espaço pode-se associar os triplos X1, X2 e X3 tais que,

para cada segmento observado P' – P'' com coordenadas ( , , ; , , ),


a expressão,
s2 = ( – )2 + ( – )2 + ( – )2
independe da posição do corpo e de quaiquer outros corpos. A grandeza s (positiva)
chama-se comprimento do segmento ou distância entre os pontos espaciais P' e P''
(coincidentes com os pontos P' e P'' do segmento).
Esta formulação foi escolhida premeditadamente de modo a permitir que não
apenas o conteúdo lógico-axiomático, mas também o conteúdo empírico da
geometria euclidiana apareça claramente. Certo é que a representação puramente
lógica (axiomática) da geometria euclidiana tem a vantagem de uma maior clareza e
74

simplicidade quando comparada à formulação acima. Porém, ela os tem à custa da


renúncia a uma representação da relação entre a construção conceitual e a
experiência sensível; mas é justa e exclusivamente sobre esta relação que reside
toda a importância da geometria para a Física. O erro fatal em fundamentar a
geometria euclideana e o conceito de espaço a ela associado sobre uma
necessidade lógica que antecede toda experiência, tem sua origem no fato que a
base empírica sobre a qual se apóia sua construção axiomática ficou perdida no
esquecimento.
Enquanto pudermos falar da existência de corpos rígidos na natureza, a
geometria euclidiana será uma ciência física que deve ser validada pelas
experiências sensíveis. Ela concerne à totalidade das leis válidas para o
posicionamento relativo de corpos rígidos independente do tempo. Como se pode
ver, o conceito físico de espaço, como usado originalmente na Física, está também
ligado à existência de corpos rígidos.
Do ponto de vista da Física, a importância central da geometria euclidiana
advém do fato que esta reivindica para si a validade de suas afirmações
independentemente da natureza particular dos corpos de cujas posições relativas
ela trata. Sua simplicidade formal é caracterizada pelas propriedades de
homogeneidade e isotropia (e existência de construtos semelhantes).
O conceito de espaço é certamente útil para a geometria em si, ou seja para
a formulação das regularidades das posições relativas de corpos rígidos, mas não é
imprescindível. Contrariamente, o conceito de tempo objetivo, sem o qual a
formulação dos fundamentos da mecânica clássica não seria possível, está atrelado
ao conceito do continuum espacial.
A introdução do tempo objetivo consiste em duas proposições mutuamente
independentes:
1) Introdução do tempo local objetivo, no qual a evolução temporal de uma
experiência é associada à leitura de um "relógio" , ou seja um sistema
fechado com evolução periódica.
2) Introdução do conceito de tempo objetivo para acontecimentos em todo o
espaço, somente através do qual o conceito de tempo local pode então ser
generalizado para o conceito de tempo da Física.
75

Comentário acerca de (1). Em se tratando da elucidação do surgimento ou


do conteúdo empírico do conceito de tempo, não me parece ser um petitio principii4
colocarmos o conceito de evolução periódica à frente do conceito de tempo. Esta
concepção é exatamente análoga à precedência do conceito de um corpo rígido (ou
quase-rígido) na interpretação do conceito de espaço.
Explicação mais detalhada de (2). A ilusão reinante, até o surgimento da
teoria da relatividade, de que do ponto de vista do observador seria claro, a priori, o
significado de simultaneidade em relação a acontecimentos espacialmente distantes
e com isto o significado de tempo físico, tinha sua origem no fato que em nossa
experiência cotidiana podemos desprezar o tempo de propagação da luz.
Costumamos assim não diferenciar o "ver simultaneamente" do "acontecer
simultaneamente", o que leva ao desaparecimento da diferença entre tempo e tempo
local.
Do ponto de vista do significado empírico, a imprecisão que o conceito de
tempo da mecânica clássica carrega consigo ficou velada pelas representações
axiomáticas, uma vez que estas trataram o conceito de espaço e tempo como fatos
independentes das experiências sensíveis. Esta "hipostatização"5 (autonomização)
de conceitos não é necessariamente desvantajosa para a Ciência, mas pelo
esquecimento da origem dos mesmos cria-se facilmente a ilusão que eles devem ser
vistos como necessários e, com isto, imutáveis, o que pode vir a representar um
sério perigo para o progresso da Ciência.
Foi uma sorte para a evolução da mecânica e com isso da Física
propriamente dita que a imprecisão associada ao conceito de tempo objetivo, no que
tange à sua interpreta cão empírica, tenha permanecido oculta para os pensadores
que nos antecederam. Totalmente seguros quanto ao real significado da construção
espaço-tempo, eles desenvolveram os fundamentos da mecânica da seguinte
maneira:
a) Conceito do ponto material: objetos corpóreos podem ser descritos, com
precisão suficiente, como um ponto de coordenadas X1, X2, X3 no que diz
respeito a suas posições e movimentos. Descrição de seu movimento (relativo
ao "espaço" K0) através da especificação de X1, X2, X3 como funções dadas
do tempo.
76

b) Princípio da inércia: desaparecimento das componentes da aceleração de um


ponto material, quando distante o suficiente de todos os outros.
c) Lei do movimento (para o ponto material): força = massa × aceleração.
d) Leis de forças (interação entre pontos materiais).
Diga-se de passagem que (b) é apenas um importante caso especial de (c).
Uma teoria de verdade só existe quando as leis de força são especificadas; para que
um sistema de pontos que estejam conectados espacialmente e de maneira
duradoura por meio de for cas comporte-se como um ponto material, as forças
devem satisfazer em primeiro lugar apenas a lei da ação e reação. Junto às leis de
força da gravitação de Newton, estas leis fundamentais constituem a base da
mecânica clássica dos corpos celestes. Na mecânica de Newton o espaço K0 surge
de tal maneira a trazer consigo um novo elemento se comparado ao conceito de
espaço definido anteriormente a partir dos corpos rígidos: (para uma dada lei de
forças) tanto (b) quanto (c) não podem ser válidas para qualquer K0, mas apenas
para aqueles K0 em um estado de movimento apropriado (sistemas inerciais). Com
isso imputa-se ao espaço de coordenadas um caráter físico independente, alheio ao
conceito puramente geométrico de espaço - um fato que causou significativa
preocupação em Newton (o experimento do balde)6.
A mecânica clássica é apenas um esquema geral; ela se torna uma teoria
somente quando as leis de força (d) são explicitadas, como o fez Newton, com
excepcional sucesso, para a mecânica celeste. Do ponto de vista do objetivo - uma
simplicação mais lógica possível dos fundamentos - o fato que as leis de força não
possam ser obtidas por uma abordagem lógico-formal, mas sua escolha seja em
grande medida arbitrária a priori representa uma deficiência deste método teórico. A
lei da gravitação de Newton se distingue devido exclusivamente a seu sucesso
quando comparada a outras leis de força concebíveis.
Embora hoje saibamos com certeza que a mecânica clássica falhou como
base reinante de toda Física, ela ainda se encontra no centro do pensar físico. A
razão disto é que não obstante os importantes avanços obtidos desde então, ainda
não nos foi possível chegar a uma nova base da Física, da qual podemos estar
seguros que a partir dela toda a multiplicidade de fenômenos pesquisados e
subsistemas teóricos bem sucedidos possam ser logicamente deduzidos. Procurarei
esboçar sucintamente nas próximas linhas em que ponto nos encontramos.
77

Primeiramente tentemos esclarecer até que ponto o sistema da mecânica


clássica se mostrou adequado como base de toda a Física. Uma vez que o que aqui
nos concerne são apenas os fundamentos da Física e suas transformações, não
precisamos nos ocupar em especial com o progresso puramente formal da mecânica
(equações de Lagrange, equações canônicas, etc.). Apenas uma observação se me
parece indispensável: o conceito de "ponto material" é fundamental para a mecânica.
Se buscamos agora uma mecânica para um objeto corpóreo que não pode ser
tratado como ponto material - o que a rigor vale para todo objeto "sensivelmente
apreensível" - então surge a questão: de que maneira devemos imaginar o objeto
como sendo formado de pontos e quais as forças que devemos supor agindo entre
eles? Se a mecânica deseja reivindicar para si uma completa descrição dos objetos,
a colocação desta pergunta é inevitável.
É da tendência natural da mecânica assumir estes pontos materiais bem
como as forças que entre eles atuam como sendo imutáveis, uma vez que uma
mudança temporal [estaria aquém de seu limite (fronteira) de interpretação teórica].
Disto se conclui que a mecânica clássica necessariamente conduz a uma construção
atomística para a matéria. Pode-se ver aqui, de maneira particularmente clara, o
quanto epistemólogos se enganam quando acreditam que a teoria advém da
experiência por caminhos indutivos, engano este do qual nem o grande Newton
pode se safar (hypotheses non fingo)7.
Do perigo de se afastar de porto seguro ao seguir esta linha de pensamento
(atomismo), a Ciência se safou da seguinte maneira: a mecânica de um sistema fica
definida ao se especificar sua energia potencial como função de sua configuração.
Se porém as forças são tais que garantam a manutenção de certas propriedades de
ordenamento da configura cão do sistema, então pode-se descrever esta configura
cão, com precisão suficiente, através de um número relativamente pequeno de
variáveis de configuração qn; considera-se assim então a energia potencial apenas
enquanto dependente destas variáveis (e.g. a descrição da configuração de um
corpo efetivamente rígido por meio de seis variáveis).
Um segundo método de aplicação da mecânica que evita a consideração da
subdivisão da matéria em seus "verdadeiros" pontos materiais é a mecânica das
chamadas massas continuamente distribuídas. Ela é caracterizada pela abstração
na qual a densidade de massa e velocidade da matéria são funções contínuas das
78

coordenadas e do tempo e que a parte das forças de interação não explicitamente


dadas podem ser entendidas como forças de superfície (tensões) que, por sua vez,
são também funções contínuas da posição. A ela pertencem a hidrodinâmica e a
teoria da elasticidade de corpos sólidos. Estas teorias evitam a introdução explícita
de pontos materiais através de abstrações às quais, dentro do espírito dos
fundamentos da mecânica clássica, podemos atribuir apenas um significado
aproximativo.
Independentemente de sua grande importância prática, através da
ampliação do mundo conceitual matemático estas disciplinas permitiram que se
criassem aqueles métodos formais (equações diferenciais parciais) que se
mostraram necessários às tentativas posteriores a Newton de buscar uma nova
fundamentação de toda a Física.
Estas duas aplicações da mecânica pertencem à chamada física
"fenomenológica", a quem é característico servir-se de conceitos os mais próximos
possíveis dos experimentos, mas às custas da ampla renúncia à unidade dos
fundamentos. Calor, eletricidade e luz são descritas por meio de variáveis de
estados especiais e constantes materiais, além de um estado mecânico. A
determinação da dependência temporal mútua de todas estas variáveis era um
problema, em sua essência, somente solucionável por métodos empíricos. Vários
contemporâneos de Maxwell viam, nesta abordagem, o objetivo final da Física, pois
acreditavam que os conceitos empregados seriam passíveis de dedução puramente
indutiva a partir das experiências, em função de sua proximidade destas. Stuart Mill
e E. Mach representavam, de certo modo, este ponto de vista epistemológico.
Para mim a maior realização da mecânica de Newton está no fato que seu
emprego de maneira conseqüente levou à supera cão deste ponto de vista
(fenomenológico), mais precisamente na área de fenômenos de calor. Isto se fez
através da teoria cinética de gases e principalmente da mecânica estatística. A
primeira juntou a equação de estado de gases ideais, a viscosidade, a condutividade
de calor, a difusão e fenômenos radioativos dos gases, proporcionando assim a
associação lógica de fenômenos que, do ponto de vista empírico, não tinham o
mínimo a ver um com o outro. A última nos proporcionou não apenas uma
interpretação mecânica dos conceitos e leis da termodinâmica clássica, mas mostrou
também o limite de aplicabilidade de suas leis e conceitos. Tal teoria cinética, que
79

em muito suplantou a física fenomenológica no que tange à unidade lógica, nos deu,
além disso, valores específicos para as verdadeiras dimensões de átomos e
moléculas, comprovadas por vários métodos independentes e portanto aquém de
quaisquer dúvidas. Este progresso decisivo foi obtido às custas de associarmos, a
pontos materiais, entidades reais (átomos ou moléculas), cujo caráter construtivo-
especulativo era notório; ninguém poderia alimentar a esperança de "perceber
diretamente" um átomo. Leis acerca de grandezas de estado observáveis (e.g.
temperatura, pressão, velocidade) foram deduzidas a partir dos conceitos
fundamentais por meio de cálculos complicados. Assim, através da fundamentação
de uma mecânica newtoniana para átomos ou moléculas, a Física inicialmente
construída mais "fenomenologicamente" foi reconduzida (ao menos parte dela) a
uma base mais distante da experiência, porém mais unificada.

7.4. O CONCEITO DE CAMPO

Se comparada às áreas acima citadas, a mecânica newtoniana foi muito


menos bem sucedida quando aplicada à óptica e fenômenos elétricos. Newton bem
que tentou explicá-los, remetendo-os, com sua teoria corpuscular da luz, a
movimentos de pontos materiais. No entanto, com a teoria sendo forçada cada vez
mais a modificações não naturais devido ao surgimento da polarização, da refração
e da interferência, a teoria ondulatória de Huygens para a luz se impôs, teoria esta
cuja origem se devia primordialmente aos fenômenos ópticos em cristais e à teoria
do som - esta última até certo ponto já então elaborada. Inicialmente a teoria
huygeniana também se baseava na mecânica clássica. Contudo, fora necessário
supor, como portador de todo movimento ondulatório, um éter que permeava todos
os corpos e cuja construção, a partir de pontos materiais, não pudera ser explicada
por qualquer fenômeno conhecido. Com respeito às forças internas que nele agiam
bem como as forças entre ele e os meios "ponderáveis", ninguém era capaz de
esclarecer algo, de modo que os fundamentos desta teoria sempre permaneceram
obscuros. A verdadeira base era uma equação diferencial parcial, cuja redução a
elementos mecânicos se mostrara problemática.
Para a compreensão teórica dos fenômenos elétricos e magnéticos foram
introduzidas massas de um tipo especial, entre as quais cogitou-se existir forças de
longo alcance, semelhantes às forças de gravitação de Newton. Mas estes tipos
80

especiais de matéria pareciam não vir ao encontro da propriedade fundamental da


inércia, e as forças que agiam entre estas massas e a matéria ponderável
permaneceram obscuras. A isto se somava seu caráter de polaridade, que não se
encaixava no esquema da mecânica clássica. Mais insatisfatória ainda se tornara a
base da teoria quando se veio a conhecer os fenômenos eletrodinâmicos, embora
estes tenham levado a uma explicação dos fenômenos magnéticos, fazendo
portanto a hipótese da massa magnética dispensável. Este avanço teve por preço a
complicação do tipo de forças de interação entre massas elétricas em movimento,
que tiveram que ser postuladas.
A salvação desta situação desagradável por meio das teorias de Faraday e
Maxwell para o campo elétrico representou, sem sombra de dúvida, a mais profunda
revolução que os fundamentos da Física experimentaram desde Newton.
Novamente foi um passo no sentido de uma especulação construtiva, aumentando a
distância entre os fundamentos da teoria e o sensivelmente vivenciado. A existência
do campo se manifesta apenas quando corpos carregados eletricamente nele são
introduzidos. As equações diferenciais de Maxwell combinam os quocientes
diferenciais de tempo e espaço dos campos elétrico e magnético. As massas
elétricas são apenas locais de divergência não nula do campo elétrico. A luz surge
como processos eletromagnéticos ondulatórios do campo no espaço.
Além disso, Maxwell tentou explicar sua teoria de campo através de um
modelo mecânico para o éter. Porém tais tentativas foram lentamente sendo
relegadas a um segundo plano com o surgimento da representação de Heinrich
Hertz, representação esta expurgada de quaisquer hipóteses desnecessárias e que
levou o conceito de campo a assumir o papel fundamental na teoria, do mesmo
modo que a massa pontual o era na mecânica newtoniana. Isto valia porém apenas
para os campos eletromagnéticos no espaço vazio.
Para o interior da matéria a teoria era, num primeiro momento, ainda
bastante insatisfatória, na medida em que aí era necessário introduzir dois vetores
elétricos ligados por meio de uma relação dependente da natureza do meio e
inacessível a quaisquer análises teóricas. Algo análogo valia para o campo
magnético bem como para a relação entre densidade de corrente elétrica e campo.
81

H.A. Lorentz achou uma saída desta situação, indicando simultaneamente o


caminho para uma eletrodinâmica de corpos em movimento até certo ponto livre de
arbitrariedades. Sua teoria era construída sobre as seguintes hipóteses básicas.
O local de definição do campo é, em todo lugar (inclusive no interior dos
corpos ponderáveis) o espaço vazio. A participação da matéria nos processos
eletromagnéticos advém apenas do fato que as partículas elementares da matéria
carregam cargas elétricas invariáveis e assim estão, por um lado, sujeitas a efeitos
ponderomotrizes e, por outro, agem criando campos. As partículas elementares
obedecem às leis de movimento de Newton para os pontos materiais.
Sobre esta base H.A. Lorentz chegou a uma síntese da mecânica
newtoniana e da teoria de campo maxwelliana. O ponto fraco desta teoria estava no
fato que ela tentava determinar os acontecimentos através da combinação de
equações diferenciais parciais (as equações de campo maxwellianas para o espaço
vazio) e equações diferenciais totais (equações do movimento de pontos), o que
obviamente não era natural. O insatisfatório desta teoria mostrou-se,
extrinsecamente, no fato que era necessário presumir que as partículas tinham um
tamanho finito, para que assim os campos em suas superfícies não se tornassem
infinitamente grandes. Esta teoria também era inconclusiva no que diz respeito à
natureza das enormes forças que mantinham as massas elétricas fixas em cada
partícula. H.A. Lorentz aceitou inicialmente estas deficiências de sua teoria, por ele
bem conhecidas, para poder assim descrever corretamente, ao menos em linhas
gerais, os fenômenos.
Além disso, a seguinte consideração apontava para além do âmbito da teoria
lorentziana: nas proximidades de um corpo eletricamente carregado existe um
campo magnético, o qual (aparentemente) contribui para a sua massa inercial. Não
deveria então ser toda a inércia de uma partícula explicada eletromagneticamente?
Uma resposta a esta pergunta só seria satisfatória se a partícula pudesse ser
interpretada como solução regular das equações diferenciais parciais
eletromagnéticas. As equações de Maxwell não admitem no entanto, em sua forma
original, tal interpretação, pois as soluções correspondentes apresentam uma
singularidade. Os teóricos procuraram então, durante um longo tempo, atingir este
objetivo através de uma modificação das equações de Maxwell. Seus esforços no
entanto não foram coroados de sucesso e o objetivo de construir uma teoria
82

eletromagnética da matéria calcada exclusivamente no conceito de campo ficou por


se cumprir, embora em princípio nada pudera ser levantado contra esta
possibilidade. O que afugentou os físicos de tentativas posteriores nesta direção foi
a falta de um método sistemático que levasse a uma solução. A mim porém parece
certo: na base de uma teoria de campos conseqüente, não pode haver o conceito de
campo ao lado do conceito de partícula; toda a teoria deve ser fundamentada
unicamente sobre equações diferenciais parciais e suas soluções livres de
singularidades.

7.5. A TEORIA DA RELATIVIDADE

Não há método indutivo que conduza aos conceitos fundamentais da Física.


O desconhecimento deste fato foi o erro filosófico básico de muitos pesquisadores
do século XIX; ele foi certamente o motivo pelo qual a teoria molecular e a teoria de
Maxwell só lograram se impor tardiamente. O pensamento lógico é necessariamente
dedutivo e baseado em conceitos hipotéticos e axiomas. Como podemos esperar
que a escolha destes últimos dependa da nossa esperança na confirmação de suas
consequências?
O caso mais propício parece obviamente ser quando as novas premissas
básicas são sugeridas pelo próprio mundo das experiências. A hipótese da não
existência de um moto perpétuo como fundamento da termodinâmica é um exemplo
de uma hipótese de partida sugerida pela experiência; do mesmo modo o princípio
da inércia de Galileu. Deste tipo também são as hipóteses fundamentais da teoria da
relatividade, a qual levou a uma ampliação e a um aprofundamento inimagináveis da
teoria de campo e à superação dos fundamentos da mecânica clássica.
Os sucessos da teoria de Maxwell-Lorentz deram grande confiança quanto à
validade das equações eletromagnéticas do vácuo e, em particular, à afirmação que
a luz se propaga "no espaço" com uma velocidade constante c definida. Mas seria
essa afirmação da constância da velocidade de propagação da luz válida para
sistemas inerciais arbitrários? Não fosse este o caso, então um sistema inercial
específico ou mais precisamente um específico estado de movimento (de um corpo
de referência) seria distinguível dentre todos os outros. Todos os fatos experimentais
mecânicos e opto-eletromagnéticos depunham, no entanto contra isto.
83

Era assim justificável elevar a validade da lei da constância da velocidade de


propagação da luz para todos os sistemas inerciais à categoria de princípio. Disto
seguia que as coordenadas espaciais X1, X2, X3 e o tempo X4, na passagem de um
sistema inercial para outro, deveriam modificar-se de acordo com as
"transformações de Lorentz", que são caracterizadas pela invariância da expressão,

(quando se escolhe a unidade de tempo de tal modo que a velocidade da luz c se


torna igual a 1).
Deste modo o tempo perdeu seu caráter absoluto e foi classificado como
uma grandeza algebricamente (quase) equivalente às coordenadas "espaciais"; o
caráter absoluto do tempo e em particular da simultaneidade foi derrubado e a
descrição quadridimensional introduzida como a única adequada.
Além do mais, para que com isto a equivalência de todos os sistemas
inerciais com respeito aos fenômenos da natureza seja válida, é necessário que todo
sistema de equações físicas que exprimam leis gerais seja invariante face às
transformações de Lorentz. A execução desta exigência forma o conteúdo da teoria
especial da relatividade.
Esta teoria, ainda que compatível com as equações de Maxwell, é
irreconciliável com os fundamentos da mecânica clássica. Na verdade as equações
de movimento de um ponto material podem ser, de tal maneira, modificadas (e com
elas as expressões para o momento e energia cinética da massa pontual) de modo a
tornar a teoria satisfatória. Mas o conceito de for ca de interação (e com ela o
conceito de energia potencial do sistema) perde seu sentido, por estar assentado
sobre o conceito da simultaneidade absoluta. No lugar da força surge o campo,
governado por equações diferenciais.
Uma vez que esta teoria só permite interações através de campos, ela
demanda também uma teoria de campos para a gravitação. E não é realmente difícil
criar tal teoria na qual, como na teoria do campo gravitacional de Newton, chega-se
a um escalar que satisfaça uma equação diferencial. Porém, os fatos experimentais
expressos na teoria da gravitação de Newton levam a um caminho diferente daquele
da teoria da relatividade geral.
É uma característica insatisfatória da mecânica clássica o fato que a mesma
constante de massa surge de duas maneiras diferentes nos fundamentos; como
84

massa inercial nas equações de movimento e como massa gravitacional na lei de


gravitação. Como conseqüência disto a aceleração de um corpo em um campo
gravitacional puro independe do material; ou, em um sistema de coordenadas
uniformemente acelerado (em relação a um "sistema inercial") os movimentos se
sucedem como num campo gravitacional homogêneo (relativamente a um sistema
de coordenadas "em repouso"). Se presumirmos que esta equivalência é completa
nestes dois casos, chega-se então a uma adequação do raciocínio teórico ao fato
que é a igualdade das massas inercial e gravitacional.
Com isto desaparece porém a preferência de princípio dos "sistemas
inerciais". Transformações não lineares das coordenadas (X1, X2, X3, X4) são
permitidas em pé de igualdade. Se aplicarmos uma transforma cão deste tipo num
sistema de coordenadas da teoria especial da relatividade, então sua métrica,

se transforma em uma métrica geral (riemanniana) da forma,


ds2 = gm n dxm dxn (somados sobre µ e n)
onde os gm n, simétricos em µ e n, são certas funções de x1...x4 que descrevem não
apenas as propriedades métricas como também o campo gravitacional do espaço
em relação ao novo sistema de coordenadas.
Este avanço na interpretação dos fundamentos mecânicos teve porém um
preço, como uma análise mais detalhada nos ensina: as novas coordenadas não
podem mais ser interpretadas diretamente como resultado de medidas em corpos
rígidos ou relógios, como o eram no sistema original (um sistema inercial com campo
gravitacional nulo).
A passagem para a teoria da relatividade geral é agora obtida com a
hipótese que a representação das propriedades do campo no espaço através de
funções gmn (ou através de uma métrica de Riemman), também se aplicam no caso
geral, no qual não existe um sistema de coordenadas relativo ao qual a métrica
assume uma simples forma quase-euclidiana.
As coordenadas exprimem agora não mais relações métricas, mas antes
apenas propriedades de vizinhança dos objetos descritos, cujas coordenadas pouco
diferem umas das outras. Todas as transformações não singulares de coordenadas
são permitidas. Apenas aquelas equações que sejam covariantes por
85

transformações deste tipo têm sentido como expressões de leis naturais gerais
(postulado da covariância geral).
O primeiro objetivo da teoria geral da relatividade era uma formulação
provisória que, através da renúncia a algumas exigências de coerência interna,
estivesse de uma maneira mais simples possível ligada aos "fatos vivenciados". Ao
nos restringirmos à mecânica gravitacional pura, a teoria da gravitação de Newton
serve como modelo. Esta versão provisória pode ser assim caracterizada:
(1) O conceito de ponto material e sua massa são mantidos. A ele é dado
uma lei de movimento que representa a tradução da lei de inércia na linguagem da
teoria geral da relatividade. Esta lei é um sistema de equações diferenciais totais, o
sistema da linha geodésica.
(2) No lugar da lei de interação gravitacional newtoniana entra um sistema
de equações diferenciais covariantes escrito da forma mais simples possível para o
tensor gmn. Este sistema surge ao igualarmos a zero o tensor de curvatura de
Riemann contraído uma vez (Rmn = 0).
Esta formulação nos permite tratar do problema dos planetas, ou mais
precisamente do problema do movimento de pontos materiais de massa
praticamente nula na presença de um campo gravitacional (com simetria central)
gerado por uma massa pontual imaginada como estando em "repouso". Ela não
considera a reação dos pontos materiais "móveis" sobre o campo gravitacional, nem
como a massa central o gera.
É a seguinte analogia com a mecânica clássica que nos mostra o o caminho
para completar a teoria: coloca-se como equação de campo,

onde R é o escalar da curvatura de Riemann e Tik é o tensor de energia da matéria


em uma representação fenomenológica. O lado esquerdo é escolhido de tal forma
que sua divergência seja identicamente nula. O desaparecimento da divergência do
lado direito que daí segue nos fornece assim as "equações de movimento" da
matéria na forma de equações diferenciais parciais, no caso em que o Tik introduz a
mais apenas quatro funções independentes entre si para a descrição da matéria (por
exemplo densidade, pressão e componentes da velocidade, onde entre as últimas
existe uma identidade e entre pressão e densidade uma equação de estado).
86

Nesta formulação, toda a mecânica gravitacional é reduzida à solução de um


único sistema de equações diferenciais parciais covariantes. Esta teoria evita todas
as deficiências internas que imputamos aos fundamentos da mecânica clássica; ela
é suficiente - até onde sabemos - para a representação dos fatos observados na
mecânica celeste. Ela se assemelha porém a um edifício no qual uma ala é feita de
primoroso mármore (lado esquerdo da equação) enquanto a outra foi construída com
madeira inferior (lado direito da equação). A representação fenomenológica da
matéria é de fato apenas uma tosca substituta de uma representação que faça juz a
todas as propriedades conhecidas da mesma.
Não há dificuldade alguma em conectar a teoria do campo eletromagnético
de Maxwell com a teoria do campo gravitacional se nos limitarmos ao espaço sem
matéria ponderável e sem densidade elétrica. Basta substituir o tensor Tik no lado
direito da equação acima pelo tensor de energia do campo eletromagnético no
vácuo e associar o sistema de equações assim modificadas às equações gerais
covariantes de Maxwell para o campo no vácuo. Haverá então entre todas estas
equações várias identidades diferenciais em número suficiente para garantir sua
compatibilidade. Devemos aqui acrescentar que esta propriedade formal necessária
de todo o conjunto de equações deixa em aberto a escolha do sinal de Tik, o que se
mostrou posteriormente ser importante.
A aspiração pela maior unidade possível dos fundamentos da teoria deu
origem a inúmeras tentativas de trazer, sob um único ponto de vista formal, o campo
eletromagnético e gravitacional. Aqui devemos citar em especial a teoria penta-
dimensional de Kaluza e Klein. Depois de criteriosa ponderação sobre esta
possibilidade eu creio ser no entanto mais correto aceitar a citada falta de coerência
interna da teoria original, pois a mim a totalidade das hipóteses na base da teoria
penta-dimensional não parecem conter menos arbitrariedades que a teoria original.
O mesmo vale para a versão projetiva da teoria, desenvolvida de maneira cuidadosa
principalmente por von Dantzig e Pauli.
As últimas discussões relacionaram-se exclusivamente à teoria dos campos
livres de matéria. Como obter daqui agora uma teoria completa da matéria
constituída por átomos? Tal teoria não deve ter singularidades, pois caso contrário
as equações diferenciais não definiriam completamente o campo total. A
representação teórica da matéria por meio de campos constitui-se num problema
87

para a teoria de campos da relatividade geral, tanto quanto ela o foi originalmente
para a teoria de Maxwell.
Aqui também a tentativa de uma construção teórica de campos para
partículas aparentemente leva a singularidades. Aqui também se procura superar
essa situação desagradável pela introdução de novas variáveis de campo bem como
ao se ampliar e tornar mais complexo o sistema de equações. Há pouco porém
descobri, junto ao Sr. Rosen, que a combinação mais simples de equações de
campo gravitacional e elétrico acima indicada produz soluções de simetria central,
que admitem representações livres de singularidades (as conhecidas soluções de
Schwarzschild com simetria central para o campo gravitacional puro e as soluções
de Reissner para o campo elétrico considerando-se seu efeito gravitacional). Sobre
isto reportaremos brevemente no próximo parágrafo. Uma teoria de campos pura
para a matéria e suas interações, livre de hipóteses adicionais e para cuja
verificação frente aos experimentos nada se contrapõe, a não ser, entretanto sérias
complicações puramente matemáticas, parece-nos factível.

7.6. TEORIA QUÂNTICA E O FUNDAMENTO DA FÍSICA

Os físicos teóricos da geração atual têm esperança na construção de um


novo alicerce teórico da Física através do emprego de conceitos fundamentais que
se desviem consideravelmente daqueles das teorias de campo, até o momento,
consideradas. A razão disto está no fato que se toma por necessário empregar
novos pontos de vista para a representação matemática dos chamados fenômenos
quânticos.
Enquanto que a falha da mecânica clássica desvendada pela teoria da
relatividade está relacionada à finitude da velocidade da luz (o não ser "¥"),
descobriu-se, no início de nosso século, outros tipos de incongruências entre as
conseqüências da mecânica e os fatos experimentais que estavam relacionados à
finitude (o não ser "0") da constante de Planck h. Enquanto que a mecânica
molecular exigia, essencialmente, uma diminuição da densidade de radiação
(monocromática) e do calor específico dos sólidos proporcional à queda da
temperatura absoluta, a experiência mostrava uma diminuição muito mais abrupta
destas grandezas energéticas com a temperatura. Para explicar teoricamente este
comportamento, foi necessário admitir que a energia de sistemas mecânicos não
88

pode assumir valores quaisquer mas antes certos valores discretos, cujas
expressões matemáticas sempre dependiam da constante h de Planck. Também
para a teoria dos átomos (teoria de Bohr) esta concepção era essencial. Para a
transição entre estes estados - com ou sem emissão ou absorção de radiação - não
era possível estabelecer leis causais, mas tão somente leis probabilísticas. O
mesmo valia para os processos de decaimento radioativo de átomos, estudados
aproximadamente na mesma época de maneira mais minuciosa. Durante mais de
duas décadas os físicos tentaram em vão encontrar uma explicação unificada para o
caráter quântico de sistemas e processos. Tal explica cão só foi obtida, porém há
aproximadamente uma década, por dois métodos teóricos que, aparentemente,
eram diferentes em tudo. Um destes nos conduz a Heisenberg e Dirac e o outro a de
Broglie e Schrödinger. A equivalência matemática de ambas as teorias foi logo
reconhecida por Schrödinger. Procurarei aqui esboçar a linha de pensamento de
Schrödinger e de Broglie, que é mais próxima da linha de pensamento do físico, e aí
tecer algumas considerações gerais.
A primeira pergunta é: como podemos associar uma sequência discreta de
valores de energia Hs a um sistema definido no sentido da mecânica clássica (a
função energia é uma função dada das coordenadas qr e dos momentos
canonicamente conjugados pr)? A constante de Planck h associa ao valor de energia
Hs a freqüência Hs/h. Basta então associar ao sistema uma seqüência discreta de
valores de freqüência. Isso nos lembra que na acústica surge o caso onde
associamos uma seqüência discreta de valores de freqüências a uma equação
diferencial parcial linear (para condições de contorno dadas), a saber, as soluções
periódicas senoidais. Schrödinger colocou-se assim a tarefa de associar a uma dada
função da energia E(qr,pr) uma equação diferencial parcial na variável Y, e na qual
os qr e t são as variáveis independentes. E isto ele logrou conseguir (para uma
função complexa Y) de tal maneira que os valores teóricos da energia (Hs) que
seguiam da teoria estatística surgiam de maneira satisfatória a partir das soluções
periódicas da equação.
Além disso, mostrou-se impossível associar um movimento de um ponto
material no sentido que a mecânica lhe atribuía a uma solução específica Y(qr ,t) da
equação de Schrödinger, ou seja, a função Y não representa, ou ao menos nunca
precisamente, os qr como função do tempo t. Porém se mostrou factível interpretar a
89

função Y, segundo Born, da seguinte maneira: Y (o quadrado do valor absoluto da


função complexa Y) é a densidade de probabilidade, para o ponto observado, no
espaço de configuração dos qr, para o valor de tempo t. Embora um tanto
imprecisamente, mas ao menos de maneira mais palpável, podemos caracterizar o
conteúdo da equação de Schrödinger assim: ela determina como a densidade de
probabilidade de um ensemble de sistemas estatísticos varia com o tempo no
espaço de configurações. Em poucas palavras: a equação de Schrödinger determina
a variação temporal de Y como função dos qr.
Deve-se dizer que os resultados da teoria contêm a mecânica de pontos
como caso limite, quando o comprimento da onda que surge da solução da equação
de Schrödinger é em todo o lugar tão pequeno, que a energia potencial praticamente
permanece inalterada pelo deslocamento de um comprimento de onda. Neste caso
pode-se demonstrar o seguinte: escolhemos uma região G0 no espaço de
configuração de tal modo que embora grande (em todas as direções) se comparada
ao comprimento de onda, ela é ainda pequena em relação às dimensões do espaço
de configurações, que é quem determina a escala. Isso nos permite escolher uma
função Y para um tempo inicial t0 de tal modo que ela se anule fora de G0 e, de
acordo com a equação de Schrödinger, comporte-se de modo a manter esta
propriedade de maneira aproximada em tempos futuros, enquanto que a região G0
desloca-se para uma outra região G no tempo t. Pode-se assim falar do "movimento"
da região G como um todo e aproximá-lo do movimento de um ponto no espaço de
configurações. Este movimento coincide então com aquele que sai das equações da
mecânica clássica.
Experimentos de interferência com feixes de partículas nos fornecem uma
brilhante prova de que o caráter ondulatório do movimento, como supõe a teoria,
condiz com a realidade. Além disso, a teoria conseguiu, com facilidade, representar
as leis estatísticas de transição de um estado quântico para outro, em um sistema
sob ação de forças externas, fato que do ponto de vista da mecânica clássica
assemelha-se a um milagre. As forças externas são representadas por pequenas
adições à energia potencial dependentes do tempo. Ao passo que na mecânica
clássica tais adições permitem apenas pequenas mudanças no sistema, na
mecânica quântica elas podem provocar variações arbitrariamente grandes, mas
com probabilidade proporcionalmente menor - na mais perfeita harmonia com a
90

experiência. Até mesmo uma compreensão das leis do decaimento radioativo nos é
fornecida, ao menos em linhas gerais, por esta teoria.
Jamais deve ter sido criada uma teoria que nos tenha proporcionado uma
chave para a interpretação e cálculo de um tão variado conjunto de observações
experimentais como a mecânica quântica. Apesar disto, acredito ser ela propensa a
nos conduzir ao erro na busca por uma fundamentação unificada da Física; ela é, na
minha opinião, uma representação incompleta das entidades reais que podem ser
construídas a partir dos conceitos fundamentais de ponto material e força (correções
quânticas da mecânica clássica), ainda que a única apropriada. O caráter estatístico
(incompleteza) das leis advém obrigatoriamente da incompleteza da representação.
Quero agora fundamentar esta minha opinião.
Primeiro pergunto: até que ponto a função Y representa um estado real de
um sistema mecânico? Sejam Yr soluções periódicas da equação de Schrödinger
(ordenadas de acordo com valores crescentes de energia). Deixarei
momentaneamente em aberto a pergunta até que ponto os Yr, individualmente, são
descrições completas de estados físicos. Imaginemos primeiramente um sistema no
estado Y1 de energia e1. Então, sobre o sistema atua, por um tempo limitado, uma
pequena força perturbadora. Obtém-se então a partir da equação de Schrödinger,
para um tempo posterior, uma equação Y da seguinte forma,

onde os cr são constantes (complexas). Se os Yr forem "normalizados" , então |c1|


será praticamente igual a 1, |c2| e os demais pequenos quando comparados a 1.
Pode-se agora perguntar: Y descreve um estado real do sistema? Se sim, então não
podemos fazer outra coisa a não ser associar uma energia definida a este estado8,
e na verdade uma que seja tal a superar em um pouco 1 (de qualquer modo 1 < <
2). Esta hipótese no entanto contradiz os experimentos de colisões de elétrons
conduzidos primeiro por J. Franck e G. Hertz, se considerarmos ainda a nosso favor
a prova de Millikan a respeito da natureza discreta da eletricidade. Destas
experiências segue que, para um dado sistema, não existem estados de energia que
se encontrem entre valores quânticos. Daí segue que nossa função Y não descreve
em absoluto um estado único do sistema, mas representa uma afirmação estatística
91

na qual os cr têm o significado de probabilidades dos valores de energia individuais.


Por isso me parece claro que a interpretação estatística de Born acerca das
afirmações da teoria quântica é a única possível: a função Y não descreve, em
absoluto, um estado que poderia ser aquele de um sistema individual. Ela está antes
relacionada a vários sistemas, a um "ensemble de sistemas" no sentido da mecânica
estatística. Se a função Y, exceto em casos especiais, só nos proporciona
afirmações estatísticas a respeito de grandezas mensuráveis, então isso não ocorre
apenas devido ao fato que o processo de medição introduz elementos
desconhecidos e apenas estatisticamente apreensíveis, mas antes pelo fato que a
função Y não descreve, em hipótese alguma, o estado de um único sistema. A
equação de Schrödinger determina as mudanças temporais que o ensemble de
sistemas experimenta, seja ele com, seja ele sem influência externa sobre o sistema
individual.
Esta interpretação também elimina um paradoxo que eu, junto a dois
colegas, recentemente apresentei e que está relacionado à seguinte situação9:
Seja um sistema mecânico formado por dois subsistemas A e B que
interagem apenas durante um período limitado de tempo e seja a função Y, anterior
à interação, conhecida. Então a equação de Schrödinger nos dá a função Y depois
da interação. Determina-se subseqüentemente o estado físico do subsistema A
através da medição mais completa possível. A mecânica quântica permite então que
determinemos a função Y do sistema parcial B a partir do resultado da medida e da
função Y do sistema total. Isto produz porém um resultado que depende de qual
grandeza de estado de A foi medida (e.g. coordenadas ou momenta). Uma vez que
apenas um estado físico de B pode existir após a interação, o qual não seria
razoável imaginar como dependente do tipo de medida que faço no sistema A dele
separado, conclui-se que a função Y não pode ser associada univocamente a um
estado físico. Essa associação de várias funções Y ao mesmo estado físico do
sistema B mostra, novamente, que a função Y não pode ser interpretada como uma
descrição (completa) de um estado físico (de um sistema individual). A associação
da função Y a um ensemble de sistemas elimina aqui também qualquer
dificuldade10.
Que a mecânica quântica permita deduzir de maneira tão simples resultados
a respeito de transições (aparentemente) descontínuas de um estado total para
92

outro, sem na verdade fornecer uma representação dos processos em si, está
relacionado ao fato que na verdade a teoria não opera com o sistema individual, mas
sim com um ensemble de sistemas. Os coeficientes cr de nosso primeiro exemplo
variam realmente muito pouco sob a ação de forças externas. Entende-se, através
desta interpretação da mecânica quântica, como ela facilmente esclarece o fato que
forças perturbativas fracas podem levar a mudanças arbitrariamente grandes no
estado físico de um sistema. Na verdade estas forças perturbativas criam apenas
mudanças relativamente pequenas na densidade estatística do ensemble de
sistemas, ou seja, apenas uma mudança infinitamente pequena da função Y, cuja
descrição matemática nos oferece dificuldades muito menores que a representação
matemática das mudanças finitas que uma parte do sistema individual sofre.
Seguramente nesta abordagem o processo que ocorre no sistema individual fica
totalmente indeterminado; ele é completamente eliminado da representação através
da abordagem estatística.
Agora no entanto eu pergunto: algum físico realmente acredita que nós
nunca conseguiremos perscrutar estas importantes mudanças nos sistemas
individuais, em sua estrutura e relação causal, não obstante o fato de que estes
processos singulares tornaram-se tão experimentalmente próximos de nós graças às
maravilhosas descobertas da câmara de Wilson e do contador Geiger? Acreditar
nisto sem cair em contradição é, na verdade, possível, mas se contrapõe tão
vivamente ao meu instinto científico, que não posso deixar de lado a procura por
uma interpretação mais completa.
A estas considerações juntam-se outras de diferentes tipos, que por sua vez
também depõem contra o fato que o método trilhado pela mecânica quântica seja
apropriado para propiciar um fundamento útil a toda a Física. Na equação de
Schrödinger o tempo absoluto ou a energia potencial desempenham um papel
chave, conceitos, porém que a teoria da relatividade mostrou serem inadmissíveis,
por princípio. Se quisermos nos libertar disto devemos, no lugar das forças de
interação, tomar por base os campos e suas leis. E isto nos leva a transportar os
métodos estatísticos da mecânica quântica para os campos, ou seja, sistemas com
infinitos graus de liberdade. Embora as tentativas até o momento tenham se
restringido a equações lineares, que pelos resultados da relatividade geral não
devem bastar, as complicações surgidas nos engenhosos esforços empreendidos
93

até agora são assustadoramente grandes. E elas devem se acumular, se as


exigências da teoria da relatividade geral tiverem que ser obedecidas, exigências
cuja legitimidade de princípio ninguém questiona.
Foi, porém chamado a atenção o fato que a introdução de um continuum
espaço-temporal seria provavelmente antinatural em virtude da estrutura molecular
de todos os eventos em pequena escala. Talvez o sucesso do método de
Heisenberg aponte para uma descrição da natureza puramente algébrica, através da
eliminação de funções contínuas na Física. Mas então se deve por princípio abrir
mão do emprego do continuum espaço-tempo. Não é de todo impensável imaginar
que a engenhosidade humana um dia achará métodos que tornem possível a
transposição deste caminho. Por ora, no entanto, este projeto assemelha-se à
tentativa de respirar no vácuo.
Não resta dúvida que a mecânica quântica capturou uma belíssima porção
da Verdade e que ela será um banco de provas de uma futura fundamentação
teórica da Física. Ela também terá que ser obtida como limite destes fundamentos -
mais ou menos como a eletrostática o é das equações do campo eletromagnético de
Maxwell ou a termodinâmica, da mecânica clássica. Mas acredito que na procura por
este fundamento a mecânica quântica não sirva como ponto de partida, tanto quanto
não se pode chegar aos fundamentos da mecânica fazendo o caminho inverso, ou
seja, partindo da termodinâmica e da mecânica estatística.
Em face desta situação parece-me totalmente justificável considerar
seriamente a pergunta, se os fundamentos da Física de campos não pode sim
compatibilizar-se com os fenômenos quânticos. Afinal, com o aparato matemático
que hoje dispomos, este é o único fundamento que se deixa compatibilizar com o
postulado da relatividade geral. A crença entre os físicos contemporâneos na
inutilidade de tal tentativa provavelmente deve estar relacionada à crença não
fundamentada que esta teoria deveria levar, em primeira aproximação, às equações
da mecânica clássica para o movimento de partículas, ou pelo menos a equações
diferenciais totais. Na verdade porém, do ponto de vista da teoria de campos, não se
conseguiu até hoje qualquer representação para corpúsculos11 que seja livre de
singularidades, além do que não podemos dizer nada a respeito do comportamento
de tais objetos. Uma coisa porém é certa: se uma teoria de campos nos der uma
94

representação de corpúsculos livre de singularidades, então o comportamento


temporal destes será determinado somente por equações diferenciais do campo.

7.7. RELATIVIDADE E CORPÚSCULOS

Quero agora mostrar que segundo a teoria geral da relatividade há soluções


das equações de campo livres de singularidades e que podem ser interpretadas
como representações de corpúsculos. Restringir-me-ei aqui a partículas neutras,
uma vez que recentemente, junto com o Sr. Rosen, tratei deste assunto em outro
lugar de maneira minuciosa e porque também é possível representar o essencial
com este exemplo.
O campo gravitacional é descrito de maneira completa pelo tensor gmn. Nos
símbolos de três índices também aparecem as componentes do tensor
contravariante gmn, as quais são definidas pelos subdeterminantes dos gmn
normalizados pelo determinante g (= |gab|). Para que os Rik possam ser construídos
e permaneçam finitos, não basta que na vizinhança de qualquer ponto do continuum
haja um sistema de coordenadas no qual os gmn e seus primeiros quocientes
diferenciais sejam contínuos e diferenciáveis, mas também que o determinante g
nunca se anule. Esta última limitação desaparece, no entanto, se substituirmos a
equação diferencial Rik = 0 por g2 Rik = 0, cujo lado esquerdo é constituído de
funções racionais inteiras dos gik e suas derivadas.
Estas equações têm, como solução, aquelas de simetria central descobertas
por Schwarzschild,

Esta solução tem uma singularidade em r = 2m, pois o fator de dr2 (g11) se
torna ¥ nesta hipersuperfície. Se substituirmos porém a variável r por r de acordo
com

2
= r – 2m
obtém-se,
95

Esta solução comporta-se regularmente para todo r. O desaparecimento do


fator de dt2 (g44) para r = 0 faz com que o determinante de g se anule naquele ponto
mas, em função da expressão escolhida para as equações de campo, isto não
implica numa singularidade.
Ao variar r entre -¥ e +¥, r varia entre +¥ até r = 2m e depois de volta a ¥,
enquanto todos os r para os quais r < 2m correspondem a valores imaginários de r.
A solução de Schwarzschild transforma-se assim numa solução regular, que se pode
representar como um espaço físico composto de duas "cascas" idênticas que se
tocam na hipersuperfície r = 0 ou r = 2m, sobre a qual o determinante g é nulo.
Chamaremos uma conexão deste tipo entre as duas cascas (idênticas) de "ponte" 12.
A existência de uma "ponte" entre duas cascas em uma região finita do espaço
corresponde à descrição de uma partícula material livre de singularidades.
A solução do problema do movimento de partículas neutras parece
evidentemente recair no problema de determinar soluções das equações
gravitacionais (escritas livres de denominadores) que apresentem várias pontes.
A teoria há pouco esboçada só é compatível desde seu princípio com a
estrutura atômica da matéria se a "ponte" for, em sua natureza, um elemento
discreto. Também entende-se que a constante de massa m de uma partícula neutra
deva ser obrigatoriamente positiva, uma vez que as equações de Schwarzschild não
possuem soluções livres de singularidade para valores de m negativos. Só após um
estudo do problema-das-muitas-pontes poder-se-á mostrar se o método teórico
fornece uma explicação para a igualdade das massas das partículas da natureza
verificada empiricamente e se ele fará juz aos fatos explicados de maneira tão
maravilhosa pela mecânica quântica.
De modo análogo pode-se mostrar que as equações combinadas da
gravitação e eletricidade (com a escolha apropriada do sinal do termo elétrico nas
equações gravitacionais) reproduzem uma representação-de-ponte livre de
singularidades para o corpúsculo elétrico. A solução mais simples deste tipo é
aquela para uma partícula elétrica sem massa gravitacional.
96

Enquanto não conseguirmos superar as dificuldades matemáticas para a


solução do problema-das-muitas-pontes, é impossível afirmar algo a respeito da
utilidade da teoria do ponto de vista físico. Esta é porém de fato a primeira tentativa
de construção conseqüente de uma teoria de campos para a qual existe a
possibilidade de que ela descreva as propriedades da matéria. A favor desta
tentativa deve-se também afirmar que, sob o ponto de vista de nosso conhecimento
matemático contemporâneo, ela se apóia sobre as mais simples equações de
campo da relatividade geral.

Sinopse
A Física é um sistema de pensamento lógico em desenvolvimento, cuja base
não pode ser destilada das experiências por um método indutivo mas só pode ser
obtida através da livre invenção. A legitimidade (valor de veracidade) do sistema
reside na confirmação, pela experiência sensível, das afirmações deduzidas, onde a
relação entre a primeira e a última só pode ser apreendida intuitivamente. O
desenvolvimento se dá em direção à crescente simplificação do fundamento lógico.
Para nos aproximarmos deste objetivo, devemos aceitar que a base lógica se torne
cada vez mais distante das experiências e o caminho do raciocínio desde os
fundamentos até às conseqüências deles deduzidas, que têm nas experiências
sensíveis seus correlatos, se torne cada vez mais difícil e longo.
Nosso objetivo foi esboçar, da maneira mais breve possível, o
desenvolvimento dos conceitos fundamentais através de sua dependência no
material da experiência, e o esforço na busca pela perfeição interna do sistema. A
mim parece que o estado atual seria clarificado através desta abordagem (uma
apresentação histórico-esquemática tem as cores pessoais de quem a escreve; isto
é inevitável).
Procurei mostrar como o conceito de objeto corpóreo, espaço, tempo
subjetivo e objetivo dependem uns dos outros e da natureza da experiência. Na
mecânica clássica os conceitos de tempo e espaço são autônomos; o conceito de
objeto corpóreo é substituído, nos fundamentos, por aquele de ponto material,
através do qual a mecânica torna-se, em suas bases, atomística. Ao tentar fazer da
mecânica, fundamento de toda a Física, luz e eletricidade introduzem dificuldades
insuperáveis. Isto leva à teoria de campos para a eletricidade e mais além à tentativa
97

de fundamentar a Física sobre o conceito de campo (depois de uma tentativa de


compromisso com a mecânica clássica). Esta tentativa leva à teoria da relatividade
(a sublimização do conceito de espaço e tempo para um continuum com estrutura
métrica).
Procurei ainda demonstrar o porquê, em minha opinião, da mecânica
quântica não parecer apta a nos fornecer um alicerce útil da Física: chega-se a
contradições quando se aceita a descrição quântica como uma descrição completa
de sistemas físicos individuais e de processos.
Por outro lado a teoria de campos não foi ainda capaz de nos propiciar uma
teoria da estrutura molecular da matéria e dos fenômenos quânticos. Mostrou-se,
porém que a crença na incapacidade da teoria de campo em solucionar estes
problemas com seus métodos está assentada sobre preconceitos.
1 No sentido de estreita, limitada. O termo original utilizado por Einstein é eng, ou seja, estreito (cf.
narrow).
2 É da natureza das coisas que só podemos falar destes assuntos por meio de conceitos por nós
elaborados, mas que em si não são passíveis de dedução. O essencial porém é que apenas
utilizemos tais conceitos caso nos sintamos seguros a respeito de sua associação ao material
experimental. [A.E.]
3 No original fortgesetzt, do substantivo Fortsetzung (continuação ou extensão). Embora ainda se
encontre comumente o termo "continuação analítica", para citar um exemplo, este termo tem sido
preterido em favor de extensão, motivo pelo qual optou-se pelo último.
4 Literalmente petição de princípio. Diz-se, em filosofia, do paralogismo que consiste em basear a
dedução sobre a tese que se deseja provar, ou seja de incluir a tese entre as premissas adotadas.
5 Do grego hipóstase, abstração ou ficção falsamente consideradas como providas de significado
real.
6 Esta imperfeição da teoria só poderia ser derrimida através de uma formulação que fosse válida
para todo K0. Este foi um dos passos que levou à teoria geral da relatividade. Um segundo defeito, do
mesmo modo só removido após a teoria da relatividade geral, é que não existe dentro da mecânica
uma razão [que justifique] a igualdade da massa inercial e massa gravitacional de um ponto material.
[A.E.]
7 Não crio hipóteses.
8 Pois a energia total de um sistema (em repouso) é, de acordo com um bem estabelecido resultado
da teoria da relatividade, igual a sua inércia, e esta deve ter um valor certo e bem definido. [A.E.]
9 Einstein refere-se aqui a seu famoso trabalho com Boris Podolski e Nathan Rosen - O paradoxo
EPR - publicado na Physical Review 47, 777 (1935).
10 A tomada de uma medida de A significa então a transição para um ensemble de sistemas mais
estreito. Este (e também sua função Y) depende do modo como este estreitamento do ensemble de
sistemas foi feito. [A.E.]
11 Einstein usa "Korpuskel" (corpúsculo) e também "Teilchen" (partícula). Decidiu-se manter a
diferenciação no texto traduzido.
12 A ponte aqui citada é também conhecida na literatura especializada como Ponte de Einstein-
Rosen ou, mais recentemente, como buraco de minhocas (wormholes).
98

ANEXOS
9
ANEXO 01 – A EVOLUÇÃO DO MODELO ATÔMICO
Idéia filosófica sobre a constituição da matéria
A preocupação com a constituição da matéria surgiu por volta do século V a.C., na Grécia.
O filósofo grego Empédocres, estabeleceu a ―Teoria dos Quatro Elementos Imutáveis‖ onde acreditava que toda
matéria era constituída por quatro elementos: água, terra, fogo e ar, que eram representados pelos seguintes
símbolos:

Esses 4 elementos básicos eram aliados às quatro qualidades: quente, frio, seco e úmido:

Tudo na natureza seria formado pela combinação desses quatro elementos, em diferentes proporções.
Leucipo de Mileto (aprox. 500 a.C) nos deu a primeira noção de átomo, partindo da própria semântica da palavra:
ÁTOMO vem do grego "A-TOMOS" e significa INDIVISÍVEL. Ele acreditava também que o vácuo não existia
somente no mundo em que vivemos, mas muito além, no infinito espaço do cosmos. Achava, ainda, que existia
um número infinito de mundos, todos compostos de um número infinito de átomos.
Demócrito de Abdera (aprox. 460 a.C), discípulo de Leucipo, explicou que a matéria era constituída de partículas
em pérpetuo movimento e dotadas das seguintes qualidades: indivisibilidade, invisibilidade (pelo seu tamanho
extremamente pequeno), solidez, eternidade (por ser perfeita, segundo ele), cercada por espaços vazios (o que
explicava o seu movimento e diferentes densidades) e dotada de um infinito número de formas (explicando a
diversidade na natureza).
Com isso, os filósofos gregos Leucipo e Demócrito desenvolveram a seguinte idéia filosófica: no universo há
duas coisas, os átomos e o vácuo, o mundo é, portanto, composto de montes de matéria em um mar de vazio
total. Os átomos são substâncias sólidas, infinitos em número e forma e, a maioria deles, se não todos, muito
pequenos para serem vistos. Um átomo não poderia ser cortado ou dividido de qualquer maneira, e é
completamente sólido. Todos os átomos estão em perpétuo movimento no vácuo.
Especula-se que o "nascimento" do conceito de átomo não ocorrera na Grécia, como normalmente aprendemos,
mas sim, na Índia, com a filosofia Vaiseshika, a qual já falava que a matéria era formada de átomos
indestrutíveis. A matéria, para os indianos, seria composta de partículas invisíveis e poderia ser degradada (no
final dos tempos), quando os "laços" entre um átomo e o outro iriam se romper. Aí, então, eles se reorganizariam
em um novo mundo. Consideravam a idéia de partícula e anti-partícula, as entidades da vida, que formavam o
completo e todos os tipos de incompleto. Juntos, formariam o conhecimento pleno (yin - yang)

Modelo atômico de Dalton

Em 1808, John Dalton a partir da idéia filosófica de átomo estabelecida por Leucipo e Demócrito, realizou
experimentos fundamentados nas Leis Ponderais, propôs uma Teoria Atômica, também conhecido como
modelo da bola de bilhar, a qual expressa, de um modo geral, o seguinte:
O átomo é constituído de partículas esféricas, maciças, indestrutíveis e indivisíveis.
A combinação de átomos de elementos diferentes, numa proporção de números inteiros, origina substâncias
químicas diferentes.

9
VER: http://www.profpc.com.br/evolu%C3%A7%C3%A3o_at%C3%B4mica.htm
99

Numa transformação química, os átomos não são criados nem destruídos: são simplesmente rearranjados,
originando novas substâncias químicas.
Elementos químicos diferentes apresentam átomos com massas, formas e tamanhos diferentes.
Um conjunto de átomos com as mesmas massas, formas e tamanhos apresenta as mesmas propriedades e
constitui um elemento químico.
Na época de Dalton haviam sido isolados apenas 36 elementos químicos e ainda se utilizavam símbolos vindos
da alquimia para representar tais elementos. O próprio Dalton foi autor de uma destas simbologias. Veja a
ilustração a seguir adaptada de um de seus livros:

Os símbolos de Dalton não eram muito diferentes dos símbolos mais antigos da alquimia, porém traziam uma
inovação. Cada átomo possuía um símbolo próprio e a fórmula de um composto era representada pela
combinação destes símbolos. Veja os exemplos:

A nomenclatura utilizada por Dalton, que é basicamente a mesma utilizada até hoje, foi introduzida pelo Francês
Antoine Lavoisier, em 1787, no livro Methods of Chemical Nomenclature. Antes de ser decapitado, em 1794 na
revolução francesa, entre outras coisas, Lavoisier escreveu o livro Reflexions sur le Phlogistique (1783), que
terminou com a teoria do flogistico e também escreveu o livro Traité Élémentaire de Chimie, em 1789, que é
considerado como o primeiro livro da Químicamoderna.
O uso de símbolos abstratos só terminou por volta de 1813-1814, com Berzelius, que, além de ter isolado o
cálcio, bário, estrôncio, silício, titânio e o zircônio, também descobriu o selênio, o tório e o césio. Quando
100

Berzelius decidiu que era hora de mudar as coisas ele realmente mudou. Tendo em vista que os símbolos
antigos não eram fáceis de escrever, desfiguravam os livros e não colaboravam em nada para a sua
memorização, Berzelius propôs que os símbolos fossem representados por letras, baseadas na letra inicial do
nome em Latim de cada substância elementar.
Com algumas alterações, os símbolos dos elementos continuam os mesmos até hoje. Por exemplo, Oxigênio =
O, Chumbo = Pb....

A Descoberta do Elétron

Tubos de raios catódicos

Com o aparecimento das ampolas de Crookes (tubos especiais com as quais consegue-se reduzir a pressão
-9
interna até 10 atm) em 1897, J. J. Thomson dedicou-se a pesquisar a natureza dos raios catódicos (feixe que
sai do cátodo), concluindo que:
1) Os raios catódicos são corpusculares, pois quando interceptam um molinete de mica, este entra em rotação:

2) Os raios são constituídos de partículas com carga elétrica, pois são desviados por um campo elétrico e
magnético e, pelo sentido do desvio, as partículas são negativas sendo denominadas de elétrons:

3) Pela medida do desvio dos raios catódicos sob ação de um campo magnético, ele pode determinar a relação
e/m entre a carga do elétron (e) e sua massa (m).

Modelo atômico de Thomson

No final do século XIX (1874), Joseph John Thomson, através de experimentos de descargas elétricas em alto
vácuo, sugeriu um modelo de átomo em que o átomo fosse maciço, esférico, descontínuo, formado por um fluido
com carga elétrica positiva, no qual estariam dispersos os elétrons com carga negativa, que neutralizam
totalmente as cargas positivas do fluido. O próprio Thomson associou o seu modelo a um ―pudim de passas‖.
101

Modelo atômico do pudim de passas

A Descoberta do Próton
Em 1886, Goldstein obteve os raios canais, que se propagam em sentido oposto ao dos raios catódicos.
Experiências posteriores mostram que:
1) Os raios canais são constituídos por partículas positivas denominadas prótons;
2) A massa das partículas constituintes dos raios canais é aproximadamente igual à massa das moléculas do
gás residual (gás contido no interior da ampola de Goldstein);
3) Quando o gás residual é o hidrogênio, a massa das partículas dos raios canais é a menor e aproximadamente
1836 vezes maior que a massa do elétron, e a carga dessas partículas é igual à do elétron, com sinal contrário.

A experiência de Rutherford
Em 1911, Ernest Rutherford, cientista nascido na Nova Zelândia, realizou um experimento, para comprovar o
modelo proposto atômico por Thomson, que consistiu em bombardear uma fina folha de ouro (0,0001 cm) com
partículas positivas e pesadas, denominadas partículas alfa (α), emitidas por um elemento radioativo chamado
polônio.

Durante a realização da experiência, Rutherford observou que:


a) a maioria das partículas α atravessaram a folha de ouro sem sofrer desvios e sem alterar a superfície da folha
de ouro.
b) algumas partículas α sofreram desvios ao atravessar a folha de ouro.
c) muito poucas partículas α não atravessaram a folha de ouro e voltaram.

O modelo atômico de Rutherford


102

Em função dos resultados obtidos, Rutherford concluiu que:


1- como a maioria das partículas α atravessaram a folha de ouro sem sofrer desvios, pode-se concluir que o
átomo é descontínuo, ou seja, predominam grandes espaços vazios denominados eletrosfera onde estariam
localizados os elétrons.
2- como algumas partículas α sofreram desvios ao atravessar a folha de ouro, pode-se concluir que o átomo é
constituído por uma pequena região maciça, denominada de núcleo, onde estaria concentrada a massa do
átomo.
3- como muito poucas partículas α, carregadas positivamente, não atravessaram a folha de ouro, sabendo-se
que cargas de mesmo sinal se repelem, pode-se concluir que o núcleo do átomo é positivo.
4- a contagem do número de partículas que atravessam e que sofreram desvio permite fazer uma estimativa de
que o raio de átomo de ouro (núcleo + elestrofera) é da ordem de 10 mil a 100 mil vezes maior do que o seu
próprio núcleo. Por efeito de comparação, podemos imaginar se o núcleo atômico como sendo uma formiga, o
átomo teria a dimensões comparáveis á extensão do maracanã.

Modelo atômico semelhante ao sistema solar: elétrons em orbitas circulares na eletrosfera

O experimento da folha de ouro, permitiu a criação de um modelo atômico semelhante ao Sistema Solar, onde o
átomo seria constituído de duas regiões distintas:
I) Um núcleo, pequeno e positivo, que contém praticamente toda a massa do átomo.
II) Uma região negativa, praticamente sem massa, que envolve o núcleo, apresentando carga negativa,
denominado eletrosfera.

ILUSTRAÇÃO DO MODELO ATÔMICO PLANETÁRIO DE RUTHERFORD.

A CONTRIBUIÇÃO DE MAX PLANCK E EINSTEIN

Em 1900, Max Planck, físico alemão, descobriu que átomos ou moléculas absorviam ou emitiam energia apenas
em quantidades discretas, ou seja, em parcelas pequenas e muito bem definidas. Definiu o conceito de
QUANTUM como sendo a quantidade de energia que pode ser emitida ou absorvida na forma de radiação
eletromagnética. Acabara de conceber a idéia de energia DESCONTíNUA, ou quantizada. Albert Einstein, em
1905, chamou os quanta de Planck de photons (fótons) e estabeleceu, ainda, que energia tem massa.
103

NOTA: A importância de se ter uma noção de energia quantizada é utilizada para compreendermos o próximo
avanço no estudo do átomo: o Modelo Atômico de Böhr. Lembrar, então, que a energia é descontínua ( idéia de
pacotinhos de energia ).

Modelo atômico de Niels Böhr

Em 1913, Niels Böhr, por meio de pesquisas e análise das teorias da época, como a do efeito Zeeman, do efeito
fotoelétrico, das séries espectrais dos elementos químicos e, principalmente, a teoria de Planck, Böhr percebeu
que deveria haver alguma relação entre as energias dos elétrons em suas órbitas atômicas e as correspondentes
freqüências, conforme sugeria a teoria da radiação de Max Planck.
Por que a luz comum forma o arco-íris ao passar por uma nuvem? Por que certos átomos quando aquecidos,
emitem luz de uma só cor, como acontece com as ―lâmpadas de sódio‖ (luz amarela) existentes em nossas
estradas?
Böhr propôs a seguinte explicação para estes fenômenos:
―Os elétrons giram ao redor do núcleo em um número limitado de órbitas bem definidas, que são denominadas
de órbitas estacionárias, com determinados níveis de energia.
Quando um elétron absorve uma determinada quantidade de energia do exterior (luz, calor ou eletricidade) ele
salta para uma órbita (nível) mais energética (estado excitado).

Salto do elétron
Ao retornar para a órbita original, o elétron perde energia na forma de ondas eletromagnéticas (luz de cor bem
definida).

Retorno do elétron
Esses saltos se repetem milhões de vezes por segundo, produzindo assim uma onda eletromagnética, que nada
mais é do que uma sucessão de ondas emitidas.

POSTULADOS DE BÖHR
1. A energia radiada não é emitida ou absorvida de maneira contínua, somente quando um elétron passa
de uma órbita estacionária para outra diferente ( salto quântico ).
2. Os elétrons giram em torno do núcleo em órbitas circulares e bem definidas (fixas) que são as órbitas
estacionárias. Mais tarde, seriam as chamadas "camadas eletrônicas" (K,L,M,N,O,P e Q).
3. O equilíbrio dinâmico dos sistemas nos estados estacionários se dá pelas leis da mecânica clássica, o
que não é verificado quando um elétron passa para um diferente estado estacionário.
4. Ao passar de um estado estacionário para outro, um elétron absorve uma radiação bem definida, que é
o quantum, dado pela relação E = h.v , onde v é a freqüência e h é a constante de Planck.
104

Simplificando, observamos que:

Quando um elétron RECEBE energia, ele salta para uma órbita MAIS EXTERNA. A quantidade de energia
absorvida é bem definida (quantum) e equivale à diferença energética entre as camadas.
Quando um elétron volta para o seu estado estacionário (órbita mais interna), ele LIBERA ou IRRADIA
energia sob a forma de raio X, ultravioleta ou luz, que seria o fóton. Essa energia também é muito bem
definida (quantum).
Cuidado com os conceitos de ELÉTRON ESTACIONÁRIO (girando em sua órbita normal, em seu estado
estacionário) e ELÉTRON ATIVADO ou EXCITADO aquele que saltou para um nível mais externo pela
absorção de energia).

APLICAÇÕES DO MODELO DE BOHR


-Teste da chama

Teste da chama com CuSO4: uma das mais importantes propriedades dos elétrons é que suas energias são
"quantizadas",ou seja, um elétron ocupa sempre um nível energético bem definido e não um valor qualquer de
energia. Se no entanto um elétron for submetido a um fonte de enrgia adequada (calor, luz, etc.), pode sofrer
uma mudança de um nível mais baixo para outro de energia mais alto (excitação). O estado excitado é um
estado meta-estável (de curtíssima duração) e, portanto, o elétron retorna imediatamente ao seu estado
fundamental. A energia ganha durante a excitação é então emitida na forma de radiação visível do espectro
eletromagnético que o olho humano é capaz de detectar ou não. Como o elemento emite uma radiação
característica, ela pode ser usada como método analítico
105

-Fogos de artificio

FOGOS DE ARTIFÍCIO: Os fogos de artifício modernos empregam perclorato, substâncias orgânicas como
amido ou açúcar, produtos do petróleo e pequenas quantidades de metais para dar cor. O funcionamento
fundamenta-se na excitação dos elétrons que, ao retornarem a sua órbita original, emitem luz com cores
diferentes. Aqui, uma exibição de fogos de artifício na cidade de Nova York.
-Luminosos e lâmpadas (neônio e lâmpadas de vapor de Na ou Hg)

LUMINOSOS: A imagem mostra como brilham as luzes de néon na noite de Las Vegas (EUA). As lâmpadas de
néon são usadas na arte, na publicidade e até em balizas de aviação. Para fabricá-las, enche-se com gás néon,
a baixa pressão, tubos de vidro dos quais todo o ar foi retirado. Ao aplicar eletricidade, uma corrente flui através
do gás entre os dois eletrodos fechados dentro do tubo. O néon forma uma banda luminosa entre os dois
eletrodos. (Neônio – luz vermelha, Argônio – luz azul, Neônio + gás carbônico – luz violeta).
-Fluorescência e Fosforescência: Luminescência é a emissão de luz causada por certos materiais que
absorvem energia e podem emiti-la em forma de luz visível. Se o intervalo entre absorção e emissão é curto
(ocorre imediatamente), o processo se denomina fluorescência; quando o intervalo é longo (ocorre em alguns
segundos ou algumas horas), fosforescência. As telas das televisões são recobertas por materiais
fluorescentes, que brilham ao serem estimulados por um raio catódico. A fotoluminescência se produz quando
determinados materiais são irradiados com luz visível ou ultravioleta.

Fluorescência se define como as propriedades das substâncias de adquirirem luminescência ao serem


submetidas aos raios ultravioletas, ou seja, quando são iluminadas.

O melhor exemplo prático da aplicação da fluorescência é a sinalização de trânsito, você já reparou que nas
rodovias existem placas que se iluminam quando os faróis do carro vão de encontro a elas. Este efeito permite
visualizarmos o que está escrito nas placas, imagine se não existisse esta propriedade? Como as placas seriam
"
106

lidas à noite? Mas quais substâncias são responsáveis por este fenômeno químico? O Tetracianoplatinato de
Bário e Sulfeto de Zinco (ZnS). A excitação dos elétrons produz energia capaz de gerar luz.

Os interruptores feitos com material fosforescente são visíveis no escuro graças ao retorno gradual dos elétrons
excitados.

Fosforescência é observada quando uma substância possui luminescência própria, por exemplo, os mostradores
de relógio
-Raio Laser

O raio laser é um tipo de radiação eletromagnética visível ao olho humano. O laser hoje é muito aplicado como,
por exemplo, nas cirurgias médicas, em pesquisas científicas, na holografia, nos leitores de CD e DVD como
também no laser pointer utilizado para apresentação de slides. Na indústria o laser de dióxido de carbono tem
sido muito utilizado, pois possibilita um processo rápido de corte e solda de materiais
-Bioluminescência: a luz dos vaga-lumes.

O vaga-lume é um inseto coleóptero que possui emissões luminosas devido aos órgãos fosforescentes
localizados na parte inferior do abdômen. Essas emissões luminosas são chamadas de bioluminescência e
acontecem devido a reações químicas onde a luciferina é oxidada pelo oxigênio nuclear produzindo oxiluciferina
que perde energia fazendo com que o inseto emita luz. Na reação química, cerca de 95% aproximadamente da
energia produzida transforma-se em luz e somente 5% aproximadamente se transforma em calor. O tecido que
emite a luz é ligado na traquéia e no cérebro dando ao inseto total controle sobre sua luz.

ELETROSFERA

As idéias estabelecidas por Böhr contribuíram para estabelecer que no moderno modelo atômico, os elétrons
devem se distribuir na eletrosfera do átomo em determinados níveis de energia (n), sendo conhecidos
atualmente 7 níveis de energia (n = 1, 2, 3, 4, 5, 6, 7) ou, ainda, 7 camadas eletrônicas (K, L, M, N, O, P, Q).
Em cada camada ou nível de energia existe um número máximo de elétrons determinado experimentalmente.
A seguir temos os níveis (camadas) e o número máximo de elétrons permitidos para os atuais elementos:
Camada Nível de energia Número máximo de
(n) elétrons
K 1 2
L 2 8
M 3 18
N 4 32
O 5 32
P 6 18
Q 7 8
107

Descoberta do nêutron

Em 1932, o físico inglês James Chadwick constatou que os núcleos dos átomos, assim como as próprias
partículas alfa, continham em sua estrutura, além dos prótons que lhes conferiam carga positiva, outras
partículas, de carga elétrica neutra e massa aproximadamente igual à do próton, que evitam a repulsão dos
prótons, denominadas de nêutrons. (leia mais sobre a descoberta do nêutron).

O MODELO DE SOMMERFELD

O físico alemão Arnold Johannes Wilhelm Sommerfeld em 1916 apresentou um novo modelo atômico baseado
na mecânica quântica, sobre o qual afirmava que os elétrons descreviam órbitas circulas e ELÍPTICAS ao redor
do núcleo. Considerou, ainda, que a energia liberada como fóton era pelo fato de as camadas eletrônicas
possuírem certas subdivisões, os subníveis energéticos - s, p, d, f. Para ele, uma órbita era circular (s) e as
demais, elípticas.

Utilizando a Teoria da Relatividade Restrita, Sommerfeld foi capaz de explicar o desdobramento da série clássica
de Balmer relativa ao átomo de Hidrogênio.

A série de Balmer corresponde às transições entre o nível 2 e os níveis 3,4,5...

DE BROGLIE E SCHRÖDINGER
108

O físico austríaco Erwin Schrödinger (1887-1961) foi o primeiro a introduzir o conceito de ORBITAL como sendo
uma região de máxima probabilidade de encontrarmos um elétron, baseado nas teorias de Einstein, Planck e De
Broglie.

O orbital s possui forma esférica ...................

e os orbitais p possuem forma de halteres. ............

O francês Louis de Broglie (1892-1987) foi o primeiro cientista a falar sobre mecânica ondulatória e admitir o
comportamento dual do elétron, ora partícula, ora onda, em um movimento contínuo, o que o caracteriza como
partícula-onda. Modernamente, aceita-se esse modelo. O elétron apresenta caráter duo por apresentar massa
(partícula) e movimento ondulatório na eletrosfera (onda).

O PRINCÍPIO DA INCERTEZA DE HEINSENBERG

Segundo o Princípio da Incerteza do alemão Heisenberg (1901-1976), não se pode conhecer com precisão
absoluta a posição ou o momento (e, portanto, a velocidade) de uma partícula. Isto acontece porque para medir
qualquer um desses valores acabamos os alterando, e isto não é uma questão de medição, mas sim de física
quântica e da natureza das partículas.
O princípio da incerteza é equacionado através da fórmula:

No seu nível mais fundamental, o princípio da incerteza é uma conseqüência da dualidade partícula-onda e do
princípio de Broglie. Se uma partícula encontra-se em uma região com erro ∆x, então seu comprimento de onda
natural deve ser menor que ∆x, o que requer um momento elevado, variando entre -h/Δx e h/Δx. Aí está a
incerteza! O raciocínio é análogo para a indeterminação do momento.

O PRINCÍPIO DA EXCLUSÃO DE PAULI


O princípio de exclusão de Pauli é um princípio da mecânica quântica formulado por Wolfgang Pauli em 1925.
Ele afirma que dois férmions idênticos não podem ocupar o mesmo estado quântico simultaneamente. Uma
forma mais rigorosa de enunciar este princípio é dizer que a função de onda total de um sistema composto por
dois fermions idênticos deve ser anti-simétrica. Para elétrons de um mesmo átomo, ele implica em que dois
elétrons não podem ter os mesmos quatro números quânticos. Por exemplo, se os números quânticos n, l, e ml
são iguais nos dois elétrons, estes deverão necessariamente ter os números ms diferentes, e portanto os dois
elétrons têm spins opostos.

TRITURADORES DE ÁTOMOS
O nome próprio é portentoso: Grande Colisor Elétron-Pósitron. O nome de família não é menos respeitável:
superacelerador de partículas. Trata-se do maior instrumento de pesquisa do mundo. Serve para estudar a vida
íntima do átomo e a origem do Cosmo.
Cerca de 100 metros abaixo do solo, na periferia da cidade de Genebra, na Suíça, funciona o maior complexo
científico já construído no planeta. Na superfície, a paisagem da região de fronteira com a França é de um
sossegado cartão-postal de outros tempos: pequenos bosques, pastagens e a cordilheira do Jura, que separa os
dois países. Mas, ao tomar num dos oito pontos de acesso construídos no campo o que em circunstâncias
normais seria apropriadamente chamado elevador, o visitante mergulha de repente num mundo de vertigem - uma
espécie de catedral subterrânea feita de aço e governada por dispositivos eletrônicos. São os controladores do
109

LEP, iniciais em inglês de Grande (Colisor) Elétron-Pósitron, um túnel em formato de anel de 27 quilômetros de
circunferência e 7 metros de diâmetro.

Acelerador de partículas.
Trata-se da jóia da coroa de um dos mais renomados estabelecimentos de pesquisa do século, o CERN, sigla que
originalmente designava em francês o Centro Europeu de Investigações Nucleares, depois rebatizado Laboratório
Europeu de Física de Partículas, exemplo de bem-sucedida colaboração internacional em ciência. Inaugurado há
apenas quatro meses, o LEP nasceu para ajudar a conhecer mais de perto algumas das frações ínfimas de
matéria do Universo. É um paradoxo: para devassar essas partículas que não medem mais de 1 bilionésimo de
milésimo de milímetro, os físicos europeus tiveram de construir uma estrutura gigantesca.
A instalação pode ser comparada a um autódromo, por onde os elétrons, componentes dos átomos com carga
elétrica negativa, se precipitam em desvairada corrida. Em sentido contrário precipitam-se as antipartículas
pósitrons - elétrons com carga positiva. Nesse proposital curso de colisão, milhares e milhares de partículas e
antipartículas, deslocando-se quase à velocidade da luz, acabam por se aniquilar mutuamente, liberando energia
equivalente à fissão de quinhentos núcleos de átomos de urânio. Mas esse é apenas um valor teórico: não se
trata ali de experiências atômicas, ao menos no sentido comum da expressão. O que os físicos pretendem com os
choques que planejaram é servir-se depois de uma salada de partículas básicas, coisa ainda menor que o elétron
e que sua imagem espelhada, o pósitron.
De fato, com a ajuda dos aceleradores se descobriu que tudo o que existe - rigorosamente tudo - é feito apenas
de três famílias de partículas elementares indivisíveis: quarks, léptons e bósons. Os quarks fazem os nêutrons e
prótons no núcleo dos átomos. Os léptons fazem os elétrons, entre outras coisas. Os bósons formam uma classe
especial de partículas mensageiras, responsáveis pelas interações entre as outras famílias.
Essas mensageiras ajudam grupos de quarks e outros de léptons a se combinar com as quatro forças básicas que
regem o Universo, criando todos os corpos compostos. Tais forças, como se sabe, são a gravitacional, o
eletromagnetismo e as interações forte (responsável pela coesão do núcleo atômico) e fraca (que rege os
fenômenos da radioatividade). Desde Einstein, na década de 30, os físicos acreditam que essas forças são
manifestações de uma força única que agiu somente nos instantes que se seguiram ao Big Bang, a explosão que
teria originado o Universo.
A descoberta do elétron inaugurou a era das partículas elementares. Depois de 100 anos de pesquisa,
conhecemos cerca de 10 diferentes partículas elementares e temos um modelo, como Modelo Padrão, que
descreve com extraordinária precisão o comportamento dessas partículas.
110
111

Famílias das partículas elementares, segundo o chamado Modelo Padrão.


Os quarks são considerados as partículas fundamentais da matéria porque constituem os prótons e os nêutrons, o
núcleo do átomo. Mas, fora do núcleo, existe outra família de partículas — a dos léptons
A família dos quarks:
Existem seis. Mas apenas dois, o up e o down, conseguem se manter inteiros na natureza, hoje. Os outros
precisam de muito mais energia para sobreviver. Parece esquisito, mas todos eles têm carga elétrica de (- 1/3) ou
(+ 2/3)
Up (pra cima) - O menor dos quarks tem um longo tempo de vida. Cada próton possui dois ups e cada nêutron,
um.
Charm (charmoso) - Só é criado dentro dos aceleradores e tem um tempo de vida brevíssimo: 10 -13 segundos.
Top (topo) - O mais obeso dos quarks equivale a 237 quarks up e down. Vive apenas 10 -23 segundos.
Down (pra baixo) - É o irmão do up e também parte fundamental da matéria. Cada próton tem um down e cada
nêutron, dois.
Strange (estranho) - O irmão do charm também não existe mais. Sobrevive muito pouco tempo nos aceleradores.
Bottom (fundo) - Pesado demais para sobreviver no Universo de hoje. Nos aceleradores, dura só10 -13segundos.
Os léptons são partículas constituintes da eletrosfera que participam na interação eletromagnética e na interação
fraca.
A família dos léptons:
O pai-de-todos, o elétron, tem duas versões mais pesadas: o muon e o tau — todos com carga elétrica de (+1) ou
(–1). Seus irmãos neutrinos são partículas mais exóticas: não possuem carga elétrica e não se sabe ainda se têm
massa.
Elétron - Presente em toda matéria comum, é responsável pela eletricidade e pelas reações químicas.
Múon - Primo mais pesado do elétron, sobrevive nos aceleradores apenas dois milionésimos de segundo.
Tau - O mais pesado de todos os léptons sobrevive por um período de tempo curtíssimo.
Elétron neutrino - Possivelmente não tem nenhuma massa. A cada segundo, bilhões dessas partículas
atravessam nosso corpo.
Múon neutrino - Surge sempre junto com o múon, só nos raios cósmicos ou nos aceleradores de partículas.
Tau neutrino - O irmão mais magro do tau ainda não foi descoberto, mas a teoria garante que ele existe.
Os Bósons são partículas mediadoras entre os quarks e léptons, que transmitem as forças da natureza.

Partículas de matéria que transmitem forças.


A família dos Bósons:
112

Grávitons: transmitem a força da gravidade.


Glúons: carregam a força forte que mantém os quarks juntos.
Fótons: partículas quânticas de luz, transmitem a força eletromagnética entre os elétrons e o núcleo atômico.
Bósons vetores: transmitem força entre os nêutrons e prótons no núcleo atômico.
Modelo atômico clássico
Podemos concluir que a matéria é constituída por pequenos núcleos, altamente densos onde concentra-se a
massa do átomo, carregados positivamente, constituídos de prótons (p) e nêutrons (n), cercados por regiões
praticamente vazias denominadas de eletrosfera, onde encontram-se os elétrons (e), de carga negativa.

Modelo atômico Atual

Modelo atômico da nuvem eletrônica


Os cientistas abandonaram a idéia de que o elétron descrevia uma trajetória definida em torno do núcleo e
passaram a admitir que existem zonas onde há maior probabilidade de encontrar os elétrons, designadas por
orbitais.
Visite também: http://newton.cnice.mec.es/materiales_didacticos/el_atomo/index.html
113

REFERÊNCIAS UTILIZADAS E CONSULTADAS


BBC Brasil. Grande Colisor de Hádrons é reativado. Atualizado em 21 de
novembro, 2009. Disponível em:
<http://www.bbc.co.uk/portuguese/noticias/2009/11/091121_colisor_ativa_np.shtml>
< HTTP://www.cnem.gov.br (Comissão Nacional de Energia Nuclear)
BOHR, N. Física Atômica e Conhecimento Humano: ensaios 1932-1957. Rio de
Janeiro: Contraponto, 1995.
FIOLHAIS, C.; TRINDADE, J. Física no computador: o computador como uma
ferramenta no ensino e na aprendizagem das ciências físicas. Rev. Bras. Ens.
Fis. 25, 259 (2003).
FUCHS, W.R. Física Moderna. São Paulo: Editora Moderna (1972).
HALLIDAY, D., RESNICK, R., MERRILL, J. Fundamentos de Física 4. Ótica e
Física Moderna. Rio de Janeiro: Livros Técnicos e Científicos (1991).
HEINECK, R; VALIATI, E. R. A; ROSA, C. T. W. Software educativo no ensino de
Física: análise quantitativa e qualitativa. Revista Ibero Americano de Educaión, nº
42/6, 10 de maio de 2007.
HEWITT, P. Física Conceitual. 9 ed. São Paulo: Ed. Bookman, 2002.
LITTO, F. M. Repensando a educação de midanças sociais e tecnológicas e o
advento de novas formas de comunicação. Oliveira, V.B. de (org). Informática em
Psicopedagogia. São Paulo: SENAC (1996).
LORENTZ, H. A.; EINSTEIN, A.; MINKOWSKI, H. Os fundamentos da teoria da
relatividade geral. Textos fundamentais da física moderna, O princípio da
relatividade. Ed. Fundação Calouste Gulbenkian,2004 Volume I.
OLIVEIRA, I. S. Mundo de ciência. Ciência hoje. Vol. 35, nº 207.
RAMALHO; NICOLAU; TOLEDO. Os fundamentos da física 1. 8 Ed. São Paulo:
Ed. Moderna, 2003.
RAMALHO; NICOLAU; TOLEDO. Os fundamentos da física 2. 8 Ed. São Paulo:
Ed. Moderna, 2003.
ROSA, Cleci W.; ROSA, Álvaro B. Ensino de Física: objetivos e imposições no
ensino médio. Revista Electrónica de Enseñanza de las Ciencias Vol. 4, Nº 1, 2005.
SILVA, J. B. P. ; CUNHA, M. M. Para compreender o modelo atômico quântico.
Instituto de Química da UFBA, 40.170-115 - Salvador-BA.
R. J. VAN DE GRAAFF — Phys. Rev. 38, 1919 (1931).
R. G. HERB, C. TURNER, C. HUDSON e R. WARREN — Phys. Rev. 53, 579
(1940).
O. SALA e R. G. HERB — Boletim da «American Physical Society - Madison Meeting
- Nº 4 Vol. 23.
TUVE, HEYDENBERG e HAFSTAD — Phys. Rev. 50, 807 (1936).
HERB, KERST, PARKINSON e PLAIN — Phys. Rev. 55, 998 (1939).

Você também pode gostar