Você está na página 1de 238

Machine Translated by Google

ENTENDENDO A FÍSICA
O elétron, o próton e o nêutron

Por Isaac Asimov

As descobertas da física do século XX tiveram uma influência decisiva no pensamento do homem moderno. Com a exploração
do átomo veio uma visão impressionante da complexidade do mundo físico. Ao mesmo tempo, a busca de fatores ainda
intrigantes como o elusivo elétron, o misterioso múon e a estranha multiplicidade de bárions nos deu apenas uma dica de quanto
ainda está para ser conhecido. No volume final de seu celebrado COMPREENDIMENTO DA FÍSICA, Isaac Asimov transmite
brilhantemente esse vasto novo conhecimento e incrível senso de desafio. Tratando as ideias mais avançadas com clareza soberba,
seu livro é o complemento perfeito para o livro didático formal do aluno, além de oferecer uma iluminação inestimável ao leitor
geral.

Capítulo 1

O Átomo

Nos dois primeiros volumes deste livro, lidei com os aspectos da física em que a estrutura sutil da matéria
podia ser ignorada.

Discuti a gravitação, por exemplo, uma vez que qualquer esfera que possua a massa da Terra exibiria o efeito
gravitacional da Terra, independentemente do tipo de matéria de que fosse composta. Além disso, a questão
da estrutura final das partículas mais finas da matéria não precisa ser considerada ao elaborar as leis que
governam a interação gravitacional dos corpos.

O mesmo vale para as leis do movimento. Um tijolo se move como uma unidade e não precisamos nos preocupar com a composição de
o tijolo estudando seu movimento. Podemos estudar muitas fases da carga elétrica de uma bola de medula ou o
campo magnético de um ímã e derivar leis úteis que governam os efeitos eletromagnéticos sem sondar as estruturas submicroscó
Machine Translated by Google

os ímãs. Mesmo o calor pode ser considerado um fluido sutil que flui de um objeto para outro, e as leis da termodinâmica
podem ser deduzidas desse tipo de conceito.

No entanto, no decorrer desses dois volumes, tornou-se claro de vez em quando que uma compreensão mais profunda do
fenômeno do que a oferecida pelo mundo cotidiano dos objetos comuns pode ser alcançada se nos aprofundarmos no ultra-pequeno.

Por exemplo, as propriedades dos gases são melhor compreendidas se os considerarmos compostos de partículas minúsculas.

A temperatura pode ser melhor compreendida se for considerada como representando a energia cinética média de minúsculas partículas de matéria.
em movimento. A energia, assim como a matéria, parece fazer mais sentido se for considerada como constituída de minúsculas partículas.

Neste terceiro volume, portanto, entrarei em detalhes sobre a estrutura sutil da matéria e da energia. Tentarei mostrar como a
experimentação física revelou um mundo além do alcance direto de nossos sentidos e como o conhecimento desse mundo, por sua vez,
deu mais significado ao mundo comum que podemos sentir diretamente.

Origem do atomismo

A noção de atomismo (um nome que podemos dar à teoria de que a matéria é composta de partículas minúsculas) surgiu primeiro
entre os gregos – não como resultado de experimentos, mas como resultado de dedução filosófica.

O atomismo não é de forma alguma auto-evidente. Se pudermos confiar em nossos sentidos, a maioria dos tipos de matéria parece
“todos um pedaço”.

Isso, no entanto, não é conclusivo. A areia que forma uma praia, vista de longe, parece ser uma só peça. É apenas olhando de perto que
podemos distinguir os pequenos grãos de que a areia realmente consiste. Talvez, então, o papel ou a água sejam feitos de partículas
pequenas demais para serem vistas.

Uma maneira de testar o assunto é considerar a divisibilidade de uma substância. Se você tivesse um punhado de areia e ignorasse a
evidência de seus olhos, buscando algum outro critério de atomismo, você poderia começar dividindo o punhado em duas porções com o
dedo, dividindo cada uma delas em duas porções ainda menores, e assim por diante. . Eventualmente, você se encontraria na posse de uma
porção tão pequena que consistia em um único grão, e essa porção final não poderia mais ser
Machine Translated by Google

dividido pelo dedo. Podemos considerar o atomismo, então, como implicando que a matéria não pode ser dividida e subdividida
indefinidamente. Em algum momento, uma unidade não mais divisível por um método que antes era suficiente deve ser obtida.

Se isso for verdade para papel ou água, no entanto, as peças finais são pequenas demais para serem vistas. Nenhuma unidade indivisível limitante em
a matéria geralmente pode ser sentida diretamente. A existência de tais unidades ultra pequenas pode ser deduzida apenas pela razão?

A oportunidade surgiu no século V aC com os paradoxos levantados por Zenão de Elea. Zeno apontou que um
podia chegar a conclusões pela razão que pareciam contradizer a evidência dos sentidos e que era necessário, portanto, buscar falhas
seja no processo de raciocínio ou na percepção sensorial. Seu paradoxo mais famoso é chamado de "Aquiles e a Tartaruga".

Suponha que o herói grego Aquiles, famoso por sua agilidade de pés, possa correr dez vezes mais rápido que uma tartaruga. A tartaruga
agora tem uma vantagem de cem jardas, e os dois correm. Quando Aquiles percorre as cem jardas que o separavam da tartaruga, a tartaruga
avançou dez jardas. Quando Aquiles completa essas dez jardas, a tartaruga avançou uma jarda; quando Aquiles salta por aquela jarda, a
tartaruga avançou um décimo de jarda, e assim por diante. Por essa linha de raciocínio, parece claro que Aquiles nunca poderá alcançar a tartaruga,
que sempre permanece à frente (embora por uma margem cada vez menor). E, no entanto, em qualquer corrida, certamente sabemos que Aquiles,
em pés reais, ultrapassará e ultrapassará a tartaruga.

Hoje em dia, os matemáticos entendem que as margens sucessivas da tartaruga - 100 jardas, 10, 1, 0,1 e assim por diante -
compõem uma "série convergente". Uma série convergente pode ter um número infinito de termos, mas estes, no entanto, chegarão a uma
soma definida e finita. Assim, a série convergente que consiste em 100 +10 + 1 + 0,1 + 0,01, etc., tem a soma finita de 111-1/9. Isso significa que,
depois de Aquiles ter corrido 111-1/9 jardas, ele estará exatamente empatado com a tartaruga e, a partir de então, seguirá em frente.

Os gregos, no entanto, não sabiam nada de séries convergentes e tiveram que encontrar outras razões para conciliar o argumento de Zenão
com os fatos da vida. Uma saída foi considerar que Zenão dividiu a distância entre Aquiles e a tartaruga em porções cada vez menores, sem
nenhuma indicação de que alguma porção fosse tão pequena que não pudesse mais ser dividida em nada menor.

Talvez não fosse assim que o universo funcionasse. Talvez houvesse unidades tão pequenas que não pudessem ser divididas
Machine Translated by Google

mais longe. Se essa noção de divisibilidade limitada fosse adotada, talvez os paradoxos de Zenão, baseados na divisibilidade ilimitada,
pudessem desaparecer.

Pode ter sido um raciocínio como esse que levou alguns filósofos gregos a sugerir que o universo era composto de minúsculos
partículas que eram indivisíveis. O mais proeminente desses filósofos foi Demócrito de Abdera, que apresentou suas teorias por
volta de 430 aC Ele chamou essas partículas últimas de "atomos", de uma palavra grega que significa "indivisível". e é disso que
deriva nossa palavra, átomo.

Demócrito passou a interpretar o universo em termos atômicos e apresentou uma série de sugestões que soam bastante
modernas. No entanto, tudo se baseava no raciocínio puro. Ele não poderia sugerir nenhuma evidência para a existência do átomo além
de “é assim que deve ser”.

Outros filósofos gregos da época poderiam oferecer argumentos para a inexistência de átomos em um "é assim que deve ser
Em geral, os filósofos mais antigos concordaram com o não-atomismo, e as opiniões de Demócrito foram enterradas sob o peso de
opiniões adversas. nenhum de seus volumosos escritos sobreviveu até os tempos modernos.Tudo o que sabemos dele são observações
improvisadas nas obras de filósofos que sobreviveram, quase todos os quais são não-atomistas e, portanto, mencionam as opiniões de
Demócrito apenas com desprezo.

No entanto, seus pontos de vista, embora esmagados, não morreram completamente. Epicuro de Samos (341-270 aC), que começou
ensinando em Atenas em 306 aC, incorporou o atomismo de Demócrito em seu sistema filosófico. Embora o epicurismo tenha
se mostrado bastante influente nos séculos seguintes, nenhuma das obras de Epicuro também sobreviveu.

Felizmente, porém, as obras de um filósofo epicurista sobreviveram. O poeta romano Lucrécio (96?-55 aC)
escreveu um longo poema De rerum nature ("Sobre a natureza das coisas") no qual interpretava o universo à maneira epicurista,
fazendo uso de um ponto de vista atomístico. Uma cópia deste poema sobreviveu e, quando a impressão foi inventada no século XV,
foi um dos primeiros clássicos antigos a ser impresso.

À medida que a ciência moderna nasceu, então, visões atomísticas estavam presentes para a colheita. Um filósofo francês, Pierre
Gassendi (1592-1655), adotou as visões epicuristas de Lucrécio e foi influente na divulgação da doutrina do atomismo.
Machine Translated by Google

Um dos que ficaram sob a influência de Gassendi foi o cientista inglês Robert Boyle (1627-1691) e com ele o atomismo entra numa nova fase;
não é mais uma questão de filosofia e dedução, mas sim de experimento e observação.

Os Elementos Químicos

Boyle estudou o ar e descobriu que ele poderia ser comprimido ou expandido. Em outras palavras, o volume de um gás pode ser alterado
sem alterar sua massa. É difícil imaginar como isso poderia acontecer se a matéria fosse realmente contínua.
A borracha pode ser esticada, com certeza, mas à medida que um elástico cresce, também fica mais fino; o volume não é
perceptivelmente alterado.

O comportamento do ar é muito mais parecido com o de uma esponja, que pode ser comprimida em todas as direções ou separada em todas as direções.
direções - seu volume mudou consideravelmente sem uma mudança na massa. No caso de uma esponja, a explicação envolve as inúmeras
cavidades cheias de ar. A esponja pode ser comprimida porque as cavidades podem ser forçadas a fechar espremendo o ar. Ele pode se
expandir mais uma vez se o ar entrar novamente nas cavidades.

É possível, então, que existam cavidades invisíveis no próprio ar, cavidades que podem ser espremidas quando o ar é comprimido
e abertas quando ele é expandido? Isso pode, de fato, ser visualizado se for suposto que o ar é composto por uma miríade de partículas ultra-
minúsculas separadas por um vazio absoluto. A compressão envolveria o movimento mais próximo dessas partículas; expansão, o movimento
mais longe. O volume mudaria enquanto a massa (que dependeria meramente do número de partículas e não da distância entre elas) não mudaria.
Outras propriedades dos gases também podem ser facilmente explicadas pelo raciocínio atomístico.

O atomismo certamente pode ser transferido de gases para sólidos e líquidos, já que estes podem ser facilmente convertidos por
calor, a gases ou vapores. Assim, a água fervente (ou mesmo a água parada no ordi
Machine Translated by Google

lidar com objetos de tamanho infinitesimal e indetectáveis por qualquer dispositivo então conhecido - era muito grande.

O que finalmente estabeleceu o atomismo com firmeza foi a lenta coleta de uma quantidade de evidências químicas a seu favor. Para
descrever isso, começarei com o conceito de elemento.

Os gregos foram os primeiros a especular sobre a natureza da substância ou substâncias fundamentais (elementos) das quais
o universo foi composto. Suas especulações, na ausência de experimentação química real, eram realmente apenas suposições,
mas como os pensadores gregos eram homens altamente inteligentes, eles produziam suposições extraordinariamente sensatas.

Aristóteles (384-322 aC) resumiu os trabalhos de Greet nessa direção listando quatro elementos no próprio mundo: terra,
água, ar e fogo; e um quinto elemento, compondo os céus incorruptíveis acima: éter. Se, para os quatro elementos
terrestres, usássemos as palavras intimamente relacionadas: sólido, líquido, gás e energia - veríamos que as suposições eram
realmente sensatas.

Por dois mil anos, a noção grega dos quatro elementos terrestres sobreviveu. Em 1600, porém, a noção de experimentação
começava a preocupar os cientistas, em grande parte graças ao trabalho de Galileu Galilee (1564-1642).
Um elemento, ao que parecia, deveria ser definido em termos experimentais; deveria ser definido como algo que era capaz de fazer
algo (ou incapaz de fazer algo) ao invés de meramente ser algo. Ele precisa do que agora é chamado de definição operacional.

Em 1661, Robert Boyle escreveu um livro chamado The Skeptical Chymist , no qual explicava sua noção de elemento. Se um
elemento fosse de fato uma das substâncias simples das quais o universo foi composto, então certamente não deveria ser capaz de
ser decomposto em substâncias ainda mais simples ou de ser produzido pela união de substâncias ainda mais simples. Assim que
uma substância era decomposta em substâncias mais simples, ela não era, de uma vez e para sempre, um elemento.

Como a terra é facilmente separada em diferentes substâncias, a terra não é um elemento. Um século depois da época de Boyle, o ar e
a água foi separada em substâncias mais simples e, assim, mostrou-se não ser elementos. Quanto ao fogo, os químicos
perceberam que não era matéria, mas uma forma de energia e, portanto, caiu completamente fora do mundo dos elementos.

Por um tempo considerável depois de Boyle, os químicos nunca puderam saber com certeza se uma dada substância era um
elemento, pois nunca se poderia dizer quando novas técnicas experimentais poderiam ser desenvolvidas que tornariam possível
decompor uma substância anteriormente intocável.
Machine Translated by Google

Como exemplo, a substância conhecida como "cal" (ou, em latim calx) teve que ser considerada um elemento ao longo do século
XVIII, pois nada que os químicos pudessem fazer a decomporia em substâncias mais simples. Havia razões, porém, para suspeitar que
se tratava de um metal desconhecido combinado com um gás, o oxigênio. No entanto, isso não foi comprovado até 1808, quando o químico
inglês Humphry Davy (1778-1829), conseguiu decompor a cal e isolar um novo elemento metálico, o cálcio (do nome latino da cal). Para isso,
no entanto, ele teve que fazer uso de uma corrente de eletricidade, uma nova descoberta na época.

Para facilitar a referência aos elementos, um símbolo químico para cada um foi introduzido em 1814 pelo químico sueco Jons
Jakob Berzelius (1779-1848). Essencialmente, esses símbolos consistem na letra inicial do nome latino (geralmente, mas nem sempre,
muito semelhante ao nome em inglês) mais (novamente, geralmente, mas nem sempre) uma segunda letra do corpo do nome.
Os símbolos usados são em quase todos os casos tão lógicos que, depois de muito pouca prática, seus significados não oferecem
nenhuma dificuldade.

No decorrer do século XIX, os químicos passaram a compreender a natureza dos elementos e, nas primeiras décadas do século XX,
os elementos podiam ser definidos com notável precisão. A maneira como isso aconteceu será descrita mais adiante neste livro, mas, enquanto
isso, listarei (em ordem alfabética), junto com os símbolos químicos de cada uma, as substâncias agora reconhecidas como elementos (veja a
Tabela I).

A Teoria Atômica Moderna

É claro que nem todas as substâncias encontradas na natureza são elementos. A maioria das substâncias é composta por dois ou elementos mãe, não
meramente misturados, mas intimamente ligados de tal maneira que a substância final tem propriedades próprias que não são
necessariamente semelhantes às de nenhum dos elementos que a compõem. Tal substância, formada por uma união íntima de
elementos, é chamada de composto.

Na última parte do século XVIII, os químicos que formavam seus compostos começaram a estudar mais do que a natureza meramente
qualitativa dos produtos formados em suas reações. Não era mais suficiente apenas notar que um gás havia borbulhado ou que um material
floculante de uma determinada cor havia se depositado no fundo de um recipiente. Químicos apostam na medição -
-para determinar a quantidade real de substâncias consumidas e produzidas em suas reações.

O mais proeminente no estabelecimento dessa nova tendência foi o químico francês Antoine Laurent Lavoisier (1743-1794),
Machine Translated by Google

quem para este e outros serviços é comumente chamado de "o pai da química moderna". Lavoisier reuniu dados suficientes em
1789 para ser capaz de sustentar que em qualquer reação química em um sistema fechado (isto é, um do qual nenhuma substância
material pode escapar e no qual nenhuma substância material pode entrar) a massa total permanece inalterada. Esta é a baixa da
conservação da matéria, ou a lei da conservação da massa.

Foi um passo fácil disso para a medição separada da massa de cada componente de um composto. Importante trabalho a
este respeito foi feito pelo químico francês Joseph Louis Proust (1754-1826). Ele trabalhou, por exemplo, com um certo composto
hoje chamado de carbonato de cobre, que é formado por três elementos: cobre, carbono e oxigênio. Proust começou com uma
amostra pura de carbonato de cobre, dividiu-a nesses três elementos e determinou a massa de cada elemento separadamente. Ele
encontrou os elementos sempre presentes em certas proporções fixas: para cada cinco partes de cobre (em peso) havia quatro
recipientes de oxigênio e uma parte de carbono. Isso foi verdade para todas as amostras de carbonato de cobre que ele testou,
não importando como foram preparadas. Era como se os elementos se encaixassem em certas proporções definidas e em nenhuma
outra.

Roust descobriu que isso era verdade para outros compostos que ele testou e anunciou sua descoberta em 1797.
chamada lei de Proust, às vezes a lei das proporções fixas e às vezes a lei das proporções definidas.

É a lei das proporções fixas que forçou o conceito de atomismo a surgir de considerações puramente químicas.
Suponha que o cobre consiste em minúsculos átomos de cobre; oxigênio, de átomos de oxigênio; e carbono, de átomos de carbono.
Suponha ainda que o carbonato de cobre é formado quando um átomo de cobre, um átomo de oxigênio e um átomo de carbono se unem em uma união e
(A verdade da questão é mais complicada do que isso, mas agora estamos apenas competindo para observar as consequências
de uma suposição atomística.) Uma união firme de átomos, como a que estou sugerindo, é chamada de molécula (de um palavra
latina que significa "uma pequena massa"). O que estou dizendo, então, é suponha que o carbonato de cobre é composto de
moléculas, cada uma contendo um átomo de cobre, um átomo de carbono e um átomo de oxigênio.

TABELA I - Elemento e seu símbolo

Actínio E
Alumínio Al
Amerício Sou
Antimônio Sb
Argônio Com
Machine Translated by Google

Arsênico Como

Astatine No
Bário Não
Berquélio Bk
Berílio Ser
Bismuto Com um

Boro B
Bromo Br
Cádmio Cd
Cálcio Este
Californium Cf
Carbono C
Cério este
Césio C
Cloro Cl
Cromo Cr
Cobalto Companhia

Cobre Com

Curium Cm
Disprósio Dy
Einsteinium Isso é

Érbio É
Európio UE
Férmio Fm
Flúor F
Frâncio Fr
Gadolínio D'us
Gálio Aqui
Germânio Ge
Ouro No
Háfnio Hf
Hélio Ele
Machine Translated by Google

Hólmio Para

Hidrogênio H
índio Dentro

Iodo EU

Irídio E
Ferro Fe
Krypton Kr
Lantânio o
Lourenço Lw
Conduzir Pb
Lítio Li
Lutécio Lu
Magnésio Mg
Manganês Mn
Medelevio Md
Mercúrio Hg
Molibdênio Mo
Neodímio Nd
Néon Sim
Netuno Por exemplo

Níquel Dentro

Nióbio Nb
Azoto N
premio Nobel Não
Ósmio Os
Oxigênio O
Paládio Pd
Fósforo P
Platina PT
Plutônio Poderia

Polônio Depois

Potássio K
Machine Translated by Google

Praseodímio Pr
Promécio Pm
Protactínio Nós iremos

Rádio Rá
Radônio Rn
Rênio Ré
Ródio Rh
Rubídio Rb
Rutênio Ru
Samário Sm
Escândio Sc
Selênio Se
Silício E
Prata No
Sódio N/D

Estrôncio Sr
Enxofre S
Tântalo Por
Tecnécio Tc
Telúrio Te
Térbio Tb
Tálio Tl
Tório º
Túlio Tm
Acreditar Sn
Titânio Do
Tungstênio Dentro

Urânio DENTRO

Vanádio DENTRO

Xenon Carro

Ytterrium Yb
Ítrio S
Machine Translated by Google

Zinco Zn
Zircônio Zr

*Nome ainda não oficial.

E agora, se acontecer de um átomo de cobre ter cinco vezes a massa de um átomo de carbono, e um átomo de oxigênio ter
quatro vezes a massa de um átomo de carbono? Seria então esperado que o cobre por carbonato tivesse que conter cinco panelas de
cobre (em peso) para quatro partes de oxigênio para uma parte de carbono. Para termos 5,1 partes de cobre para uma parte de carbono,
ou 3,9 partes de oxigênio para uma parte de carbono, precisaríamos trabalhar com frações de átomos.

Mas isso nunca acontece. Apenas certas proporções existem dentro de um composto e estas não podem ser variadas através de
pequenas quantidades nesta ou naquela direção. Isso mostra que, a partir da lei das proporções fixas de Proust, podemos não
apenas falar razoavelmente de átomos, mas que devemos chegar à decisão de que os átomos eram indivisíveis, como Demócrito
havia imaginado tantos séculos antes.

Esses pensamentos ocorreram, em particular, com um químico inglês, John Dalton (1766-1844). Com base na lei do fixo
proporções e outras generalizações de natureza semelhante, ele avançou a teoria atômica moderna (assim chamada para
distingui-la da antiga avançada por Demócrito) em 1803. Dalton reconheceu a honra devida a Demócrito, pois ele manteve
cuidadosamente o termo do filósofo antigo "átomo ."

Dalton poderia ir muito além de Demócrito, é claro. Ele não precisava se limitar à afirmação de que
átomos existiam. Pela lei das proporções fixas ficou bem claro que:

(1) Cada elemento é composto de um número de átomos, todos com a mesma massa fixa.

(2) Diferentes elementos se distinguem por serem compostos de átomos de massa diferente.

(3) Os compostos são formados pela união de um pequeno número de átomos em moléculas.

Da lei das proporções fixas é até possível chegar a conclusões sobre a massa relativa dos diferentes
tipos de átomos. Esta massa relativa é comumente referida como peso atômico.
Machine Translated by Google

Por exemplo, a água é composta de hidrogênio e oxigênio, e na formação da água verifica-se que uma parte de hidrogênio
(em peso) combina com oito partes de oxigênio. Dalton estava convencido de que os compostos eram formados pela união do
menor número possível de átomos, então ele considerou uma molécula de água como sendo composta de um átomo de
hidrogênio combinado com um átomo de oxigênio. Nesse caso, foi fácil para ele decidir que um átomo de oxigênio deveria ter
oito vezes a massa de um átomo de hidrogênio.

Isso não nos diz qual é a massa real do átomo de oxigênio ou do átomo de hidrogênio, mas não representa
xeque-mate por qualquer meio. Dalton decidiu usar o átomo de hidrogênio como referência porque suspeitava que fosse
o átomo mais leve (e aqui, por acaso, ele provou estar certo), e estabeleceu sua massa arbitrariamente igual a 1. Nessa base
hidrogênio = 1 , ele poderia definir a massa do átomo de oxigênio em 8.

Mas um refinamento se fez necessário neste momento. Descobriu-se que, mais ou menos na época em que Dalton estava
elaborando sua teoria atômica, a água estava sendo dividida em hidrogênio e oxigênio pela ação de uma corrente elétrica.
Quando isso foi feito, descobriu-se que para cada litro de oxigênio evoluído, dois litros de hidrogênio eram produzidos. A
proporção (em volume) era de duas partes de hidrogênio para uma parte de oxigênio. Foi um tumulto muito antes de se mostrar
que isso significava que a molécula de água era composta de dois átomos de hidrogênio e um átomo de oxigênio (embora o próprio Dalton n

A molécula pode ser representada por uma fórmula química na qual um átomo de cada elemento contido é representado por
seu símbolo químico. Desta forma. A concepção de Dalton da molécula de água seria HO. Quando mais de um átomo de um
determinado elemento está presente na molécula, o número é indicado por um subscrito numérico. Portanto, a molécula de água,
como aceita agora, teria uma fórmula de H 2O.

Mudar as deduções não muda a natureza das observações experimentais. A água permanece composta por um
parte de hidrogênio (em peso) para oito partes de oxigênio. Sob a nova interpretação da estrutura molecular da água, no
entanto, um átomo de oxigênio na molécula deve agora ter oito vezes a massa dos dois átomos de hidrogênio juntos e
dezesseis vezes a massa, portanto, como um único átomo de hidrogênio. Portanto, se definirmos o peso atômico do hidrogênio
arbitrariamente igual a 1, o peso atômico do oxigênio deve ser igual a 16.

Este sistema pode então ser usado para saltar de elemento para elemento. Por exemplo, o dióxido de carbono é produzido
quando três partes de carbono são combinadas com oito partes de oxigênio (em peso). A molécula de dióxido de carbono contém
um átomo de carbono e dois átomos de oxigênio (CO2). Isso significa que um átomo de carbono tem 3/8 da massa de dois átomos de oxigên
Machine Translated by Google

Como o peso atômico do oxigênio é 16, dois átomos de oxigênio devem ter uma massa de 32. Se o átomo de carbono tem uma
massa 3/8 vezes 32, seu peso atômico é 12.

A molécula de cianogênio (C 2N 2) contém seis partes de carbono (em peso) a sete de nitrogênio. Os dois átomos de
carbono têm uma massa de 24; portanto, os dois átomos de nitrogênio têm uma massa de 24 vezes 7/6, ou 28, e um único átomo de
nitrogênio tem número atômico de 14.

Parece a partir disso que os números atômicos podem ser expressos como números inteiros em uma base de hidrogênio = 1, e Dalton foi
realmente convencido de que isso era verdade. No entanto, nas décadas seguintes, outros químicos, notadamente Berzelius,
fizeram determinações mais precisas e descobriram que alguns pesos atômicos não eram inteiros. O peso atômico do cloro é
aproximadamente 35,5, por exemplo, e o peso atômico do magnésio é 24,3.

De fato, mesmo alguns dos pesos atômicos que parecem inteiros acabam não sendo bem inteiros se forem feitas
medições muito precisas. Por exemplo, as proporções de oxigênio e hidrogênio na água não são exatamente 8 para 1 em peso, mas
sim 7,94 para 1. Isso significa que se definirmos o peso atômico do hidrogênio arbitrariamente igual a 1, então o peso atômico ou
oxigênio é 15,88 . Mas o oxigênio combina facilmente com muitos elementos. De todos os elementos prontamente disponíveis para os
químicos do início do século XIX, o oxigênio combinava-se mais facilmente com outros elementos. (Era quimicamente ativo) Sua
prontidão para combinar oxigênio tornou particularmente útil no cálculo de pesos atômicos e ter seu peso atômico definido em algum
valor fracionário significava complexidade desnecessária de cálculos aritméticos. Os químicos acabaram decidindo, portanto, definir o
peso atômico do oxigênio exatamente igual a 16,0000 e deixar isso servir como padrão. O peso atômico do hidrogênio seria então 1,008.

Isso serviu satisfatoriamente por quase um século. Em 1920, no entanto, novos fatos sobre os átomos foram descobertos, o
que tornou o padrão de Oxigênio = 16,00 inadequado. No entanto, o padrão tornou-se tão fixo na literatura e na consciência
química que era difícil mudar. Em 1961, no entanto, foi adotado um novo e melhor sistema que envolveu uma mudança tão leve
que poderia ser tolerada, pelo sistema de 1961. O peso atômico do oxigênio, por exemplo, é 15,9994.

Dos 103 elementos conhecidos, 83 ocorrem na crosta terrestre em uma extensão apreciável. Na Tabela II, esses 83 elementos
estão listados em ordem crescente de peso atômico, e o peso atômico de cada um, pelo sistema de 1961, é dado. A questão das
massas dos 20 elementos restantes será considerada em outro capítulo.
Machine Translated by Google

A tabela periódica

Em meados do século XIX, duas definições de um elemento estavam disponíveis. Uma era a definição de Boyle (a de
uma substância que não podia ser decomposta em duas ou mais substâncias ainda mais simples) e a outra era a definição
de Dalton (a de uma substância composta inteiramente de átomos de um dado peso atômico). Não houve conflito entre os
dois, para a mesma lista de substâncias qualificadas como elementos por qualquer definição. No entanto, havia um embaraço
de riquezas - muitos elementos para conforto. Na década de 1860, mais de sessenta elementos eram conhecidos.

Estes vinham em uma ampla variedade de propriedades: alguns eram gases em temperaturas normais, alguns eram
líquidos e a maioria eram sólidos; alguns eram não-metais, alguns metais leves, alguns metais pesados e alguns semi-metais;
alguns eram muito ativos, alguns moderadamente ativos e alguns bastante inativos; alguns eram coloridos e outros não.

Tudo isso foi bastante perturbador. Os cientistas devem tomar o universo como o encontram, é claro, mas há uma fé profunda
(nenhuma outra palavra será suficiente) que remonta aos tempos gregos de que o universo exibe ordem e é basicamente simples.
Sempre que qualquer faceta parece ficar emaranhada e complexa, os cientistas não podem deixar de procurar alguma ordem
subjacente que possa estar escapando deles.

Tentativas foram feitas em meados do século XIX para encontrar tal ordem entre os elementos. À medida que a tabela de
pesos atômicos se tornava cada vez mais precisa e à medida que o conceito de peso atômico se tornava mais claro para os
químicos em geral, começou a parecer lógico organizar os elementos em ordem crescente de peso atômico (como na Tabela II) e
ver o que poderia ser feito com isso.

Tabela II Os Pesos Atômicos do Elemento.

Hidrogênio 1,00797
Hélio 4,0026
Lítio 6,939
Berílio 9,0122
Boro 10,811
Carbono 12,01115
Machine Translated by Google

Azoto 14.0067
Oxigênio 15.9994
Flúor 18.9984
Néon 20.183
Sódio 22.9898
Magnésio 24.312
Alumínio 26.9815
Silício 28.086
Fósforo 30.9738
Sulpur 32.064
Cloro 35.453
Potássio 39.102
Argônio 39.948
Cálcio 40.08
Escândio 44.956
Titânio 47.90
Vanádio 50.942
Cromo 51.996
Manganês 54.9380
Ferro 55.847
Níquel 58.71
Cobalto 58.9332
Cobre 63.62
Zinco 65.37
Gálio 69.72
Germânio 72.59
Arsênico 74.9216
Selênio 78.96
Bromo 79.909
Krypton 83.80
Rubídio 85.47
Estrôncio 87.62
Machine Translated by Google

Yttrium 88,905
Zirconium 91,22
Niobium 92,906
Molybdenum 95,94
Ruthenium 101,07
Rhodium 102,905
Palladium 105,4
Silver 107,870
Cadmium 112,40
Indium Tin 114,82
Antimony 118,69
Iodine 121,75
Tellurium 126,9044
Xenon 131.30 127,60
Cesium 132.905 Barium
137.34 Lanthanum 138.91
Cerium
140.12 Praseodymium140.907
Neodymium 144.24 Samarium
150.35
Europium 151.96 Gadolinium
157.25
Terbium 158.924 Dysprosium
162.50 Holmium 164.930
Erbium
167.26 168.934 Thulium
Ytterbium
173.04 Lutetium 174.97
Hafnium
178.49
Machine Translated by Google

Tântalo 180,948
Tungstênio 183,85
Rênio 186,2
Ósmio 190,2
Irídio 192,2
Platina 195,09
Ouro 196,967
Mercúrio 200,59
Tálio 204,37
Conduzir 207,19
Bismuto 208,980
Tório 232,038
Urânio 238,03

Vários esforços desse tipo falharam, mas um conseguiu. O sucesso foi marcado em 1869 por um químico russo,
Dmitri Ivanovich Mendeleev (1834-1907). Tendo listado os elementos em ordem de peso atômico, ele os organizou em
uma tabela de linhas e colunas, de tal forma que elementos de propriedades semelhantes caiam na mesma coluna (ou
linha, dependendo de como a tabela estava orientada). Ao longo da tabela de elementos, propriedades de um certo tipo
apareceriam após períodos fixos. Por esta razão, o produto de Mendeleev era uma tabela periódica.

As dificuldades surgiram do fato de que a lista de elementos, por mais extensa que fosse, ainda estava incompleta. Para arranjar
os elementos conhecidos de tal forma que os de propriedades semelhantes caiam na mesma coluna, Mendeleev
achou necessário deixar lacunas. Essas lacunas, ele anunciou em 1871, devem conter elementos ainda não
descobertos. Ele anunciou as propriedades dos elementos ausentes com algum detalhe, julgando-os comparando-
os com os elementos da mesma coluna, acima e abaixo da lacuna, e tomando valores intermediários.

Dentro de quinze anos, todos os três elementos previstos por Mendeleev foram descobertos, e suas propriedades foram encontradas.
precisamente aqueles que ele havia previsto. Como resultado, a tabela periódica foi, na década de 1880, aceita como
um guia válido para ordenar dentro da selva de elementos, e nunca mais foi abandonada. De fato, descobertas
posteriores serviram apenas para fortalecê-lo e aumentar seu valor. A descoberta de Mendeleev tinha sido meramente
empírica - isto é, descobriu-se que a tabela periódica funcionava, mas nenhuma razão para seu funcionamento era conhecida. O século
Machine Translated by Google

A Tabela III é uma versão da tabela periódica, conforme aceita atualmente. Os elementos estão organizados em ordem de peso
atômico (com três exceções menores a serem mencionadas em breve) e são numerados em ordem de 1 a 103. O significado
desse "número atômico" será discutido mais adiante.

Se você comparar a Tabela III com a Tabela II, descobrirá que, para colocar os elementos nas linhas apropriadas, três pares de
elementos devem ser colocados fora de ordem. O elemento 18 (argônio), embora em número menor que o elemento 19 (potássio),
tem um peso atômico mais alto. Novamente, o elemento 27 (cobalto) tem um peso atômico maior que o elemento 28 (níquel),
enquanto o elemento 52 (telúrio) tem um peso atômico maior que o elemento 53 (iodo). Em cada caso, a diferença no peso
atômico é bem pequena e os químicos do século XIX tendiam a ignorar essas poucas e pequenas exceções à regra geral. O século
XX, no entanto, encontraria essas exceções particularmente significativas.

A tabela periódica contém várias famílias de elementos muito unidas, com muitas semelhanças entre suas
propriedades. Por exemplo, os elementos 2, 10, 18, 36, 54 e 86 (hélio, neônio, argônio, criptônio, xenônio e radônio) são os gases
inertes, assim chamados devido à sua pequena tendência a reagir com outras substâncias. Até 1962, de fato, pensava-se que
nenhum deles sofreu qualquer reação química. Desde 1962, percebeu-se que pelo menos três deles, criptônio, xenônio e radônio,
participarão de reações químicas com flúor.

Novamente, os elementos 9, 17, 35, 53 e 85 (flúor, cloro, bromo, iodo e astato) são os halogênios (do grego
palavras que significam "formadores de sal"). São não-metais ativos que recebem seu nome de família pelo fato de um deles,
o cloro, combinar-se com o sódio para formar o sal de mesa comum, enquanto os outros se combinam com o sódio para formar
compostos bastante semelhantes ao sal.

Os elementos 3, 11, 19, 37, 55 e 87 (lítio, sódio, potássio, rubídio, césio e frâncio) são macios, facilmente derretidos,
metais alcalinos muito ativos. A palavra "álcali" vem de uma frase árabe que significa "cinzas". Foi das cinzas de certas
plantas que os "álcalis" originais, soda e potassa ("potash") foram derivados. Destes, sódio e potássio, os primeiros metais
alcalinos a serem descobertos, foram obtidos por Davy.

Os elementos 4, 12, 20, 38, 56 e 88 (berílio, magnésio, cálcio, estrôncio, bário e rádio) são mais duros, menos facilmente
fundidos e menos ativos que os metais alcalinos. São os metais alcalino-terrosos. (Uma "terra" é um nome antiquado dado a
óxidos que são insolúveis em água e resistentes à mudança sob a influência do calor. Duas dessas terras, cal e magnésia, tinham
certas propriedades semelhantes às da soda e da potassa e, portanto, foram chamadas as “terras alcalinas”.
Machine Translated by Google

Foi da cal e da magnésia que Davy obteve cálcio e magnésio, os dois primeiros metais alcalino-terrosos a serem descobertos.)
chamados de lantanídeos, do primeiro elemento do grupo, lantânio. Os elementos 89 a 103 inclusive são os actinídeos do actínio,
primeiro elemento desse grupo.

Outras famílias também existem dentro da tabela periódica, mas essas. Eu listei são os mais conhecidos e os mais
frequentemente referidos pelo sobrenome.

A realidade dos átomos

Uma vez que tenhamos o peso atômico, é fácil ver o que se entende por peso molecular: é a soma do peso atômico
peso dos átomos que compõem uma molécula. Comecemos, por exemplo, com oxigênio, peso atômico 16, e hidrogênio, peso
atômico 1.

Há fortes evidências químicas de que, em condições normais, o oxigênio e o hidrogênio elementares não ocorrem como átomos
únicos e separados. Em vez disso, dois átomos se combinam para formar uma molécula estável, e o gás consiste nessas duas
moléculas de átomos. Por esta razão, as fórmulas químicas para oxigênio gasoso e hidrogênio gasoso são respectivamente, 0 2
eH
2. Se O e H são escritos, eles se referem a átomos individuais de oxigênio e hidrogênio. Você pode ver, então, que o peso
molecular do oxigênio é 32 e o do hidrogênio é 2.

Novamente, considere o ozônio, uma forma de oxigênio na qual as moléculas são compostas por três átomos cada (O 3). Seu molecular
O peso é 48. O da água (H 2 O) é 18. Então, como o peso atômico do carbono é 12, o peso molecular do dióxido de carbono (CO
2) é 44.

É útil para um químico considerar uma quantidade de substância com massa igual ao seu peso molecular em gramas em outros
palavras, ele pode lidar com 2 gramas de hidrogênio, 32 gramas de oxigênio, 18 gramas de água ou 44 gramas de dióxido de carbono.
Tal massa é o peso grama-molecular, que muitas vezes é referido, de forma abreviada, como uma toupeira. Podemos dizer que
um mol de dióxido de carbono tem uma massa de 44 gramas, enquanto um mol de ozônio tem uma massa de 48 gramas.

Às vezes, os elementos existem na forma de átomos únicos e separados. Isso é verdade para os gases inertes, como hélio e
Machine Translated by Google

argônio, por exemplo. Elementos sólidos, como carbono e sódio, são, por conveniência, muitas vezes considerados compostos de unidades de
um único átomo. Lá podemos falar de um peso grama-atômico. Como o peso atômico do hélio é 4 e o do sódio é 23, o peso grama-atômico do
hélio é 4 gramas e o do sódio é 23 gramas. Freqüentemente, a forma abreviada "mole" é usada para cobrir pesos grama-moleculares e pesos
grama-atômicos.

A conveniência da toupeira nos cálculos químicos deriva de um ponto percebido pela primeira vez em 1811 pelo químico italiano Amedeo
Avogadro (1776-1856) e, portanto, é chamado de hipótese de Avogadro. Expresso em termos modernos, isso afirma: Volumes iguais de todos
os gases contêm números iguais de moléculas sob condições de temperatura e pressão fixas.

Em anos posteriores, isso foi considerado correto, pelo menos como uma primeira aproximação.

Um mol de hidrogênio (2 gramas) à pressão do ar normal e a uma temperatura de 0°C ocupa um volume de aproximadamente 22,4
litros. Um mol de oxigênio (32 gramas) é dezesseis vezes mais massivo que um mol de hidrogênio, mas é composto de moléculas que são
individualmente dezesseis vezes mais massivas que as do hidrogênio. Portanto, um mol de oxigênio contém o mesmo número de moléculas que
um mol de hidrogênio. Pela hipótese de Avogadro (tomada ao contrário), isso significa que 32 gramas de oxigênio devem ocupar tanto espaço
(22,4 litros) quanto 2 gramas de hidrogênio – e ocupam. A mesma linha de raciocínio também se aplica a outros gases.

Em suma, se lidarmos com gases diferentes por mol, acabamos com quantidades que diferem em massa, mas são iguais em
volume! O número de moléculas presentes em um mol de gás (qualquer gás) é chamado de número de Avogadro.

A regra do volume igual vale apenas para gases, mas o número de Avogadro é de uso mais difundido. Um mol de qualquer substância
- sólida ou líquida, bem como gasosa - contém o número de moléculas de Avogadro (quando uma substância é composta de átomos individuais
como no caso do hélio, o número de átomos de Avogadro está contido em um peso e não em uma toupeira, propriamente falando, mas isso é
apenas um detalhe.)

Se apenas os químicos soubessem o valor exato do número de Avogadro, eles poderiam ter determinado imediatamente a massa de uma
molécula individual. Isso daria aos átomos e moléculas um ar de realidade. Enquanto fossem apenas objetos "pequenos demais para serem
vistos" e nada mais, eles seriam considerados formas meramente convenientes (e possivelmente fictícias) de explicar as reações químicas. Dê a
um átomo ou molécula individual uma massa fixa, no entanto, encontre um número fixo em um copo de água ou em uma onça de ferro; e os
pequenos objetos começam a parecer reais.
Machine Translated by Google

Infelizmente, não foi por mais de meio século após a introdução da teoria atômica moderna que o valor do número de Avogadro
poderia ser determinado mesmo aproximadamente. Até então, tudo o que os químicos podiam dizer era que o número de Avogadro era
muito grande.

Em 1865, o escocês James Clarke Maxwell (1831-1879) e o físico austríaco Ludwig Boltzmann (1844-1906) descobriram as propriedades
dos gases analisando matematicamente os movimentos aleatórios dos átomos ou moléculas que compõem esse gás. A partir das
equações derivadas de Maxwell e Boltzmann, foi possível, fazendo algumas suposições razoáveis, calcular qual poderia ser o número de
Avogadro. Isso foi feito por um químico alemão, J. Loschmidt, e resultou em aproximadamente seiscentos bilhões de trilhões - um número
grande, de fato.

Uma série de métodos mais precisos foram usados no século XX para determinar o valor de Avogadro
número. Estes renderam um acordo virtual entre si e mostraram que a primeira tentativa de Loschmidt foi notavelmente boa. O
valor do número de Avogadro atualmente aceito como mais preciso é 602.300.000.000.000.000.000.000 ou, em notação
exponencial, 6,023 x 1023.

Se um mol de oxigênio pesa 32 gramas e contém 6,023 x 1023 moléculas de oxigênio, então a molécula de oxigênio individual deve
ter uma massa de 32 dividida por 6,023 x 1023, ou cerca de 5,3 x 10-23 gramas. Como uma molécula
átomos dedeoxigênio,
oxigêniocada
é composta detem
um deles dois
uma
massa de cerca de 2,65 X 10-23 gramas. Se a massa do átomo de oxigênio for conhecida,
a partirada
detabela
todos de
os pesos
outrosatômicos.
átomos pode ser calculada

Por exemplo, como o peso atômico do hidrogênio é cerca de 1/16 da massa do oxigênio, a massa do átomo de hidrogênio deve ser
cerca de 1/16 da massa do átomo de oxigênio. De fato, a massa do átomo de hidrogênio (o mais leve de todos os átomos) é, para usar a
figura agora aceita como mais exata, 1,67343 x 10-24 gramas ou, na forma não exponencial, 0,0000000000000000090000167343 gramas.

A partir do número de Avogadro, também é possível calcular o diâmetro dos átomos se assumirmos que eles são esféricos em
forma e que, em líquidos e sólidos, eles são embalados em contato virtual. Acontece então que o diâmetro dos átomos é de
aproximadamente 10-8 centímetros. Em termos comuns, isso significa que 250 milhões de átomos colocados lado a lado fariam uma linha
de uma polegada de comprimento.

Com átomos tão pequenos e tão leves, não é de admirar que a matéria pareça contínua aos nossos sentidos e que os homens gostem
Machine Translated by Google

Demócrito, que postulou os átomos em bases puramente filosóficas, achou tão difícil persuadir os outros do valor de sua sugestão.

Mas mesmo as determinações da massa e do tamanho do átomo se baseiam em evidências indiretas. Na vida comum, a realidade é
julgado pela evidência direta dos sentidos - especialmente a visão. "Ver para crer", diz o velho brometo.

É claro que é bem possível argumentar que ver não é necessariamente acreditar; que alucinações e ilusões de ótica são
possíveis; e que nem sempre é fácil interpretar o que se vê (como quando se "vê" que a terra é plana). Segue-se, então, que o
raciocínio lógico e cuidadoso baseado em um grande acúmulo de dados precisos, mas indiretos, pode ser um guia mais confiável
para conclusões úteis do que os sentidos podem ser.

No entanto, sendo os preconceitos humanos o que são (mesmo entre os cientistas), é bastante excitante saber que os átomos
tornaram-se visíveis, pelo menos de certa forma. Isso aconteceu através da invenção pelo físico germano-americano Erwin
Wilhelm Mueller (1911- ) de formas especializadas de microscópios poderosos.

O primeiro deles, concebido em 1936, foi o microscópio de emissão de campo. Isso começa com uma ponta de agulha muito fina
fechada em alto vácuo. Sob um campo elétrico intenso, tal agulha pode ser feita para disparar partículas muito pequenas. Se apenas
essas partículas viajassem em linhas perfeitamente retas e invariáveis para uma tela que envolve o tubo de vácuo, elas produziriam
um padrão que retrataria a composição atômica real da ponta da agulha. Mas, infelizmente, mesmo nos melhores vácuos existem
moléculas de gás aqui e ali. As partículas voadoras que atingem essas moléculas são desviadas. O resultado é uma imagem difusa
e fora de foco.

Na década de 1950, Mueller fez uso de partículas mais pesadas e introduziu pequenas quantidades de átomos de hélio. Quando
qualquer um deles atingiu a ponta da agulha, eles foram modificados pelo campo elétrico em íons de hélio, que então se afastaram
da ponta da agulha em linha reta.

Os íons pesados de hélio não são facilmente desviados mesmo por colisões com moléculas de gás, e uma imagem muito
mais nítida é obtida em tal microscópio de íons de campo. Os átomos na ponta da agulha são então representados como pontos
redondos dispostos de forma ordenada e bem compactada. Este dispositivo é aplicável apenas a um número limitado de metais
de alto ponto de fusão, mas tem o efeito de tornar os átomos visíveis e, portanto, "reais". Várias fotografias dos padrões atômicos
revelados dessa forma já se tornaram clássicos científicos.
Machine Translated by Google

Capítulo 2
Íons e Radiação

Eletrólise

Com 103 elementos diferentes agora conhecidos e, portanto, 103 tipos diferentes de átomos, há boas razões para se
sentir desconfortável. A tabela periódica impõe uma ordem sobre eles, com certeza, mas por que essa ordem específica existe?

Por que há tantos elementos? Por que pequenas diferenças de massa entre dois conjuntos de átomos fariam tanta
diferença? Por exemplo, o argônio tem um peso atômico de 39,9 e o potássio de 39,1, e ainda assim essa pequena diferença
torna o primeiro um gás muito inerte e o segundo um metal muito ativo.

Para obter uma compreensão das propriedades atômicas, pode-se tentar mergulhar dentro do átomo. Pode-se perguntar
se os próprios átomos não têm uma estrutura e se o átomo não pode ser melhor entendido em termos dessa estrutura.

Algo desse tipo ocorreu em 1816, bem cedo no jogo, a um médico inglês, William Prout (1785-1850).
Na época, a teoria atômica era muito nova e os únicos pesos atômicos conhecidos eram alguns que haviam sido
determinados (não com muita precisão) por Dalton. Esses pesos atômicos, baseados em um padrão de hidrogênio = 1, eram todos inteiros.

Para Prout, isso parecia mais do que se poderia esperar de coincidência. Se todos os átomos tivessem massas que
fossem múltiplos inteiros da massa do átomo de hidrogênio, então não seria razoável supor que os átomos mais massivos
fossem compostos de átomos de hidrogênio? Se o oxigênio tivesse um peso atômico de 16, por exemplo, não poderia ser
porque ele era composto de 16 átomos de hidrogênio fortemente misturados?

Prout publicou essa sugestão anonimamente, mas sua autoria ficou conhecida e sua explicação foi chamada de
A hipótese de Prout desde então.

Por um século depois, numerosos químicos fizeram determinações precisas de peso atômico com o propósito (em parte,
pelo menos) de verificar se todos eram ou não múltiplos inteiros do peso atômico do hidrogênio. Eles provaram que não
Machine Translated by Google

ser. Como afirmado anteriormente, o átomo de oxigênio não era 16 vezes mais massivo que o átomo de hidrogênio, a julgar
pelas determinações de peso atômico, mas 15,88 vezes. O peso atômico do níquel é 58,24 vezes o do hidrogênio e assim por diante.

Repetidas vezes, a hipótese de Prout foi refutada e, no entanto, com o início do século XX, os químicos ainda estavam
inquietos com isso. Cerca de metade dos elementos tinham pesos atômicos bastante próximos dos valores integrais. Isso ainda
era pedir muita coincidência. Certamente tinha que haver significado neste fato.

Houve, é claro, e esse significado foi descoberto de maneira muito indireta através de uma linha de investigação
que começou com eletricidade.

Foi em 1807 e 1808 que Humphry Davy produziu uma série de elementos (sódio, potássio, cálcio, magnésio, estrôncio
e bário) passando uma corrente elétrica através de compostos fundidos que continham átomos desses elementos em suas
moléculas. O trabalho foi desenvolvido com mais detalhes pelo químico inglês Michael Faraday (1791-1867), que em sua juventude
havia sido assistente e protegido de Davy.

Imagine duas hastes de metal conectadas a uma bateria, uma no polo positivo e outra no polo negativo. Essas hastes são
eletrodos (das palavras gregas que significam "o caminho da eletricidade"). Faraday chamou aquele ligado ao pólo positivo de
"nod~" ("caminho superior") e aquele ligado ao pólo negativo de catodo ("caminho inferior"). o pólo negativo, como a água fluindo
de um nível superior para um inferior.)

Se os dois eletrodos forem colocados juntos e se tocarem, a eletricidade fluirá através deles. No entanto, se eles estiverem
separados por um espaço de ar, o circuito será interrompido e a eletricidade não fluirá. Se os eletrodos não estiverem em contato,
mas estiverem imersos no mesmo recipiente de líquido, a eletricidade pode ou não fluir, dependendo da natureza do líquido.
Imerso em uma solução diluída de ácido sulfúrico ou de cloreto de sódio, a corrente fluirá; imerso em uma solução diluída de
açúcar ou em água destilada, a corrente não fluirá. Os primeiros líquidos são condutores de eletricidade, os últimos são não
condutores. Faraday chamou os condutores líquidos de eletrólitos e os líquidos não condutores; não eletrólitos.

A passagem de uma corrente elétrica através de um eletrólito induz mudanças químicas. Muitas vezes essas mudanças
consistem na decomposição de algumas das moléculas contidas na solução e na produção de elementos (eletrólise), como no
caso dos metais produzidos por Davy a partir de seus compostos.

Os elementos, quando produzidos, aparecem nos eletrodos. Se forem gases, eles borbulham. Se forem metais
Machine Translated by Google

permanecer agarrado ao eletrodo (galvanização).

Os elementos podem aparecer em qualquer eletrodo. Se a eletricidade passar pela água contendo um pouco de ácido sulfúrico, o hidrogênio
aparece no cátodo e oxigênio no ânodo. Se uma corrente elétrica passa através do sal fundido (cloreto de sódio), sódio metálico
aparece no cátodo, cloro gasoso no ânodo.

Faraday não se permitiu especular muito livremente sobre a maneira exata pela qual um elemento era transportado através do
corpo da solução para um eletrodo ou outro. Pode-se pensar em átomos à deriva, mas Faraday era bastante morno na teoria atômica
(ainda nova na época de seus experimentos) e preferiu não se comprometer. Ele falou simplesmente de íons (de uma palavra grega
que significa "errante") passando pela solução, e não disse nada sobre sua natureza.

Alguns íons, como aqueles que terminam em sódio ou hidrogênio, são atraídos pelo cátodo; são cátions (pronunciados em três
sílabas). Outros, como aqueles que terminam em cloro ou oxigênio, são atraídos pelo ânodo e são ânions (novamente três sílabas).

Faraday mediu cuidadosamente a massa do elemento produzido pela ação da corrente elétrica e, em 1832 e 1833,
propôs o que desde então ficou conhecido como as leis da eletrólise de Faraday.

A primeira lei da eletrólise afirma: A massa do elemento formado pela eletrólise é proporcional à quantidade de corrente
elétrica que passa por um eletrólito. A unidade de quantidade de eletricidade no sistema metro-quilograma-segundos mks) é o
coulomb, e um coulomb de eletricidade formará 0,001118 gramas de prata metálica quando passado por uma solução de um composto
de prata. Pela primeira lei de Faraday, dois coulombs de eletricidade produziriam o dobro dessa massa de prata e, em geral, x coulombs
produziriam 0,001118x gramas de prata.

Um peso grama-atômico de prata é igual a 107,87 gramas. Quantos coulombs seriam necessários para depositar tantos
gramas? Só é necessário definir 0,0011 18x 107,87 e resolver para x, que é igual a cerca de 96.500 coulombs. Por esta razão, a
quantidade de eletricidade representada por 96.500 coulombs é igualada. ,nem aroday. O faraday pode ser definido como a
quantidade de eletricidade que liberará um peso grama-atômico de prata metálica de um composto de prata.

Para entender a segunda lei da eletrólise de Faraday, primeiro é necessário compreender o significado de peso equivalente.
Machine Translated by Google

Um peso grama-atômico de gás cloro (35 gramas) se combinará com um peso grama-atômico de hidrogênio (i grama)
para formar cloreto de hidrogênio (HCI). A molécula é composta de um átomo de cada elemento e, como um peso grama-
atômico de hidrogênio e um peso grama-atômico de cloro contêm o mesmo número de átomos desses elementos, as duas
quantidades de gás combinam perfeitamente. (O fato de que no caso do hidrogênio e do cloro os átomos estão distribuídos na
forma de moléculas de dois átomos não altera o caso.) Pelo mesmo raciocínio, um peso grama-atômico de cloro se combinará com
um grama -peso atômico de sódio (23 gramas) para formar cloreto de sódio (NaCl.)

No entanto, um peso grama-atômico de cloro se combinará com apenas metade de um peso grama-atômico de cálcio para formar
cloreto de cálcio (CaCl 2) porque cada átomo de cálcio ocupa dois átomos de cloro; consequentemente, apenas metade dos
átomos de cálcio dos átomos de cloro são necessários para a reação. O peso grama-atômico do cálcio é 40 gramas, e meio peso
grama-atômico é 20 gramas. Isso significa que 20 gramas representam o peso equivalente de cálcio: o peso que é equivalente, ou
seja, a um peso grama-atômico de cloro ou de hidrogênio ou de sódio em compostos formadores. (Geralmente é o peso grama-
atômico do hidrogênio, que é tomado como padrão.)

Da mesma forma, um peso grama-atômico de cloro se combinará com metade de um peso grama-atômico de magnésio para
formar cloreto de magnésio (MgCl 2) e com um terço de um peso grama-atômico de alumínio para formar cloreto de alumínio (AlCI
3). . O peso equivalente do magnésio é seu peso grama-atômico (24 gramas) dividido por 2, ou 12 gramas, enquanto o do alumínio é
seu peso grama-atômico (27 gramas) dividido por 3 ou 9 gramas.

Agora podemos retornar à segunda lei da eletrólise de Faraday, que pode ser formulada de forma mais simples, como segue: Um faraday
de eletricidade formará um peso equivalente de um elemento ao passar por um composto desse elemento.

Se um faraday de eletricidade forma 108 gramas de prata, também forma 23 gramas de sódio, 35,5 gramas de cloro ou 1 grama
de hidrogênio (em cada caso igual ao peso grama-atômico). Formará 20 gramas de cálcio ou 12 gramas de magnésio (em cada
caso igual a metade do peso grama-atômico). Ele formará 9 gramas de alumínio (igual a um terço do peso grama-atômico).

Partículas de eletricidade

Diante dessas leis da eletrólise, é extremamente tentador começar a se perguntar se a eletricidade não pode ser
Machine Translated by Google

particulado na natureza. Assim como a matéria consiste em unidades indivisíveis (átomos), a eletricidade

Vamos supor que seja assim, e vamos supor ainda que tais unidades vêm em duas variedades. Existe uma unidade positiva que é
atraídos pelo cátodo carregado negativamente (cargas elétricas opostas se atraem). É uma unidade tão positiva que pode transportar átomos de
hidrogênio e sódio na direção do cátodo. Da mesma forma, haveria uma unidade negativa que é atraída pelo ânodo carregado positivamente e que pode
transportar átomos de oxigênio e cloro com ele. As duas unidades podem ser simbolizadas como +(mais) e –(menos).

Se imaginarmos um átomo de hidrogênio sendo transportado em direção ao cátodo por uma unidade elétrica positiva, podemos simbolizar o uso do
+
átomo de hidrogênio em trânsito como Htermo de Faraday, podemos chamá-lo de íon de hidrogênio. Da mesma forma, podemos ter um íon sódio

(Na+) ou um íon potássio (K+). Todos os três são exemplos de íons positivos (ou cátions).

Um faraday de eletricidade pode ser visto como contendo o número de unidades elétricas de Avogadro. Permitindo uma unidade por átomo, um
faraday de eletricidade transportaria o número de átomos de hidrogênio de Avogadro para o cátodo. Em outras palavras, um faraday de eletricidade
produziria um peso grama-atômico de hidrogênio no eletrodo. Também, por raciocínio semelhante, produziria um peso grama-atômico de átomos de
sódio ou átomos de potássio ou átomos de prata.

Uma vez que um faraday de eletricidade nunca, sob quaisquer condições, produziu mais do que um peso grama-atômico de qualquer elemento, parece
razoável concluir que a unidade elétrica com a qual estamos lidando é muito provavelmente a menor unidade possível – que é uma unidade indivisível e
que uma unidade não pode transportar mais do que um átomo.

Os átomos de cloro são transportados para o eletrodo positivo, ou ânodo, e, portanto, devem ser transportados por uma unidade elétrica
negativa. Podemos simbolizar o átomo de cloro em transporte como CI- e chamá-lo de íon cloreto. Como um faraday de eletricidade produz
exatamente um peso grama-atômico de cloro, devemos concluir que a unidade negativa é exatamente igual em tamanho à unidade positiva.

E o cálcio? Um faraday de eletricidade produzirá apenas metade do peso grama-atômico desse elemento. Isso é mais facilmente explicado
assumindo que o átomo, em suas viagens em direção ao cátodo, deve ser transportado por duas unidades positivas.
Nesse caso, o fornecimento de unidades em um faraday de eletricidade transportará apenas metade do número de átomos de cálcio que se esperaria

se estivesse lidando, digamos, com sódio. Podemos escrever o íon cálcio como Ca++, portanto, por raciocínio semelhante, podemos escrever o íon

magnésio como Mg'++, o íon bário como Ba++, o íon alumínio como Al+++, o íon óxido
Machine Translated by Google

como O--, e assim por diante.

O primeiro a sustentar, com detalhes completos e lógicos, que os íons de Faraday eram na verdade átomos carregando uma
carga elétrica positiva ou negativa, foi o químico sueco Svante August Arrhenius (1859-1927). Esses pontos de vista, apresentados
pela primeira vez em 1887, foram baseados não apenas no trabalho de Faraday, mas também em outras evidências químicas.

De acordo com Arrhenius, quando uma corrente elétrica passava pelo cloreto de sódio fundido, a molécula (NaCl) se desfazia ou
dissociava-se não em átomos, mas em íons carregados, Na+ e CI-, os íons de sódio então derivavam em direção ao cátodo e ao cloro.
íons em direção ao ânodo (Esta é a teoria da dissociação iônica.) No cátodo e no ânodo, os íons são descarregados e os átomos não
carregados são produzidos; sódio metálico no cátodo, cloro gasoso no ânodo.

O átomo carregado, sustentou Arrhenius (corretamente, como se viu), não tinha necessariamente propriedades que se
assemelhassem às do átomo não carregado. Os átomos de sódio, por exemplo, reagiriam violentamente com a água, mas os íons de
sódio, de caráter muito mais suave, não. Os átomos de cloro formariam moléculas de cloro e borbulhariam da solução: os íons de
cloreto não o fariam.

Seguiu-se ainda da análise de Arrhenius que grupos de átomos, assim como átomos individuais, podem carregar uma carga
elétrica. Assim, o cloreto de amônio (NH4CI) se dissociará para formar NH4 (+) e Cl (-), sendo o primeiro o íon amônio. Novamente, o
nitrato de sódio (NaN03) se decompõe em Na(+) e NO3(-), sendo este último o íon nitrato. Outros desses íons compostos (os
compostos de mais de um átomo) são o íon hidroxil[ (OH-), o íon sulfato (SO4--), o íon carbonato (CO3--) e o íon fosfato (PO4--- )

Estava tão no ar essa noção de uma unidade indivisível de eletricidade que o físico irlandês George Johnstone Stoney
(1826-1911) até lhe deu um nome em um artigo publicado em 1881. Ele o chamou de elétron.

Apesar da lógica dos pontos de vista de Arrhenius (especialmente em retrospectiva), sua teoria da dissociação iônica foi recebida
com grande reserva. A noção de um átomo como um objeto sem características, sem estrutura e indivisível datava de Demócrito e se
tornara uma parte firme do pensamento científico. A ideia de tais átomos carregando unidades indivisíveis de carga elétrica ("átomos
de eletricidade", por assim dizer) era difícil de aceitar sem evidências pesadas a seu favor.
Machine Translated by Google

Tal evidência não foi obtida de forma completamente aceitável por uma década depois de Arrhenius, mas estava a caminho
na época de Arrhenius e mesmo antes.

A principal dificuldade em detectar partículas de eletricidade em condições normais era que, mesmo supondo que existissem,
elas se perderiam entre as partículas comuns de matéria no caminho da corrente elétrica.

O que era claramente necessário era a passagem (se possível) de uma corrente elétrica através de um bom vácuo. Então as partículas
de eletricidade (se houver) pode aparecer desmascarado. O primeiro a realmente forçar uma corrente de eletricidade através
do vácuo foi o próprio Faraday, em 1838. No entanto, o melhor vácuo que conseguiu obter não foi muito bom, e suas
observações, portanto, careciam de importância.

Em 1854, um soprador de vidro alemão, Heinrich Geissler (1814-1879), desenvolveu um método melhor para produzir vácuos do que
qualquer obtido até agora. Ele fabricou tubos Geissler contendo esses bons vácuos. O físico alemão Julius Plucker
(1801-1868) fez uso desses tubos Geissler nos quais dois eletrodos foram selados.

Plucker forçou a eletricidade a atravessar o vácuo de um eletrodo para o outro e notou que uma luminescência esverdeada
revestia o cátodo quando a corrente se curvava. Essa luminescência esverdeada parecia exatamente a mesma qualquer que
fosse o metal com o qual o cátodo foi construído e qualquer que fosse a natureza dos fios de gás que ainda permaneciam no
tubo depois de sua evacuação. Qualquer que fosse essa luminescência, então, era uma propriedade da eletricidade e não da
matéria comum.

Plucker também mostrou que a luminescência mudava de posição quando um ímã era aproximado. Um pólo do ímã o
deslocou em uma direção; o outro pólo, na direção oposta. Isso também parecia marcar a luminescência como um fenômeno
elétrico, já que a eletricidade e o magnetismo estão intimamente ligados.

Logo ficou óbvio que o fenômeno não se limitava apenas à vizinhança próxima do cátodo, mas que
alguma coisa estava viajando por todo o espaço do cátodo ao ânodo. Além do mais, esse algo viajava em linhas retas. Se o
ânodo fosse colocado de lado, o que quer que estivesse viajando errasse o ânodo e atingisse o vidro do tubo, criando um
ponto de luminescência verde no local.

Dois pesquisadores, o físico alemão Johann Wilhelm Hittorf (1824-1914) e o físico inglês William
Crookes (1832-1919), trabalhando de forma independente, mostrou que se em tal tubo um objeto fosse incluído no caminho do
Machine Translated by Google

entidade viajante, esse objeto projetava uma sombra contra a luminescência do vidro de liras. Hittorf publicou seus resultados pela
primeira vez em 1869.

Ficou claro, então, que os físicos estavam diante de uma espécie de radiação que viajava em linhas retas e projetava sombras
nítidas. O físico alemão Eugen Goldstein (1850 – 1930) não se comprometendo além disso e tomando nota da origem aparente da radiação,
chamou-a de raios catódicos em 1876. Esse nome foi geralmente adotado.

Surgiu então uma controvérsia quanto à natureza dos raios catódicos. O fato de os raios viajarem em linhas retas e não parecerem
afetados pela gravidade fazia parecer provável que fossem uma forma de onda à moda da luz. O grande argumento contra isso era que
os raios catódicos eram desviados por um ímã, enquanto os raios de luz (ou qualquer forma de radiação semelhante à luz) não eram

A sugestão alternativa era que os raios catódicos eram partículas eletricamente carregadas, os "átomos de eletricidade" na verdade.
Eles seriam naturalmente afetados por um ímã, e sua falta de resposta à gravitação seria explicada por sua pequena massa e movimento
rápido. A resposta estaria lá, mas seria muito pequena para detectar.

O espectro de radiação

A controvérsia sobre a natureza dos raios catódicos dividiu-se quase em linhas nacionais, com muitos físicos alemães defendendo
a interpretação das ondas e muitos físicos ingleses mantendo a sugestão de partículas carregadas.

Essa foi uma divisão natural, talvez, pois foi na Alemanha que indiscutivelmente novas formas de onda foram descobertas nas últimas
décadas do século XIX - embora a primeira dessas descobertas tenha sido inspirada na teoria de um inglês, James Clerk Maxwell.

A análise de Maxwell dos fenômenos elétricos e magnéticos mostrou que os dois devem ser tão próximos e indissoluvelmente
relatou que só se poderia falar propriamente de eletromagnetismo. Ele passou a mostrar, além disso, que uma carga elétrica oscilante
deveria produzir um tipo de forma de onda de radiação eletromagnética que viajaria à velocidade da luz. Parecia quase inevitável, portanto,
que a própria luz fosse uma radiação eletromagnética – caso contrário, a coincidência de sua velocidade ser igual à de tal radiação seria
grande demais para ser aceita.

Mas se Maxwell estava certo, então não havia razão para que o homem não pudesse produzir deliberadamente uma radiação eletromagnética
Machine Translated by Google

oscilando uma corrente elétrica. Não podia oscilar rápido o suficiente para produzir os minúsculos comprimentos de
onda da luz (que exigiriam cerca de um quatrilhão de oscilações por segundo), mas a teoria de Maxwell não estabeleceu
limite para o período de oscilação Uma oscilação comparativamente lenta de, digamos, mil vezes por segundo produziria
mil ondas de radiação eletromagnética por segundo. Como o trem de ondas viajaria 300.000 quilômetros por segundo, cada
onda individual teria 300 quilômetros de comprimento (muito maior que os comprimentos de onda da luz), mas essas ondas,
no entanto, existiriam.

A tentativa de formar radiação de comprimento de onda longo foi feita em 1887 por um físico alemão. Heinrich Rudolf Hertz (1857-
1894). Ele montou um circuito elétrico que produziria uma faísca através de um pequeno espaço de ar sob condições que
provocariam uma oscilação elétrica do tipo que Maxwell disse que produziria radiação eletromagnética. Para detectar a
radiação, se alguma foi produzida, Hertz usou um simples retângulo de fio quebrado por um pequeno entreferro. A radiação
eletromagnética que atravessa o receptor de fio faria com que uma corrente elétrica fluísse e produzisse uma faísca através do entreferro.

Tal faísca foi encontrada e Hertz soube que havia detectado a radiação eletromagnética prevista por Maxwell - um
resultado que serviu como forte evidência a favor da validade da teoria de Maxwell. A princípio, a radiação descoberta por
Hertz foi chamada de "ondas hertzianas". No entanto, o título evasivo de ondas de rádio ("ondas que irradiam") é agora geralmente usado

A descoberta das ondas de rádio deu aos físicos sua primeira noção da extensão verdadeiramente ampla do
espectro eletromagnético. A faixa de comprimento de onda da luz visível é de 380 a 760 milimícrons, representando
uma única oitava de radiação. (Um milimícron é igual a um bilionésimo de um metro, e uma oitava representa uma faixa na
qual o comprimento de onda dobra.)

Não foi até 1800 que esse espectro foi ampliado para além do visível. Naquele ano, o astrônomo alemão-inglês William
Herschel (1738-1822) estava medindo o efeito do espectro solar sobre um termômetro. Ele descobriu que o efeito de aumento
da temperatura do espectro era mais acentuado em um ponto um pouco além do vermelho, onde o olho não podia ver nada.
Herschel concluiu corretamente que a luz estava presente ali - luz, que era incapaz de afetar a retina do olho.

A princípio, devido à maneira eficiente como o vidro e o mercúrio do termômetro absorviam essa luz invisível, ela era
chamada de "raios de calor". Mais tarde, o termo mais evasivo, radiação infravermelha ("abaixo do vermelho") foi usado.
Com o estabelecimento da teoria ondulatória da luz, entendeu-se que a radiação infravermelha era de comprimento de
onda maior do que a luz visível.
Machine Translated by Google

Hoje em dia, a faixa de radiação infravermelha é considerada como estendendo-se do limite de 760 milimícrons de luz visível até
um limite superior bastante arbitrário colocado em 3.000.000 milimícrons. Ao expressar o comprimento de onda da radiação infravermelha,
a unidade de comprimento mais conveniente, o mícron (igual a 1000 milimícrons), pode ser usada. A faixa de radiação infravermelha
pode então se estender de 0,76 mícrons a 3.000 mícrons, um trecho de cerca de 12 oitavas.

Além da radiação infravermelha mais distante estão as ondas de rádio. A radiação encontrada na região de comprimento de onda
imediatamente adjacente ao infravermelho veio nos últimos anos a ser conhecida como micro-ondas ("pequenas ondas" - isto é,
pequenas para ondas de rádio). A região de micro-ondas se estende de 3.000 a 300.000 mícrons. Novamente podemos mudar as unidades
para milímetros (um milímetro é igual a mil mícrons) e dizer que o alcance é de 3 a 300 milímetros, ou cerca de 6,5 oitavas.

Além das microondas estão as ondas de rádio, propriamente ditas. Para eles não há limite superior definido. Ondas de rádio de maior
e comprimentos de onda mais longos podem ser facilmente produzidos até que se tornem muito baixos em energia para serem
detectados pelos meios atualmente disponíveis. (Quanto maior o comprimento de onda da radiação eletromagnética, menor seu
conteúdo de energia, como a teoria quântica deixa claro.) Ondas de rádio de até 30.000.000 milímetros de comprimento de onda têm
sido usadas na tecnologia, de modo que podemos dizer que ondas de rádio úteis se estendem por uma faixa de 300 a 30.000.000
milímetros (0,3 a 30.000 metros), ou 16,5 oitavas.

O espectro eletromagnético também se estende além da extremidade violeta da região da luz visível. Isso foi descoberto
pela primeira vez em 1801 pelo físico alemão Johann Wilhelm Ritter (1776-1810), que estudava a ação da luz sobre o nitrato de prata.
O nitrato de prata, de cor branca, se decompõe na presença de luz, liberando partículas pretas de prata metálica e tornando-se
visivelmente cinza. Este efeito é mais acentuado onde a luz de ondas curtas incide sobre o nitrato de prata (o que não é surpreendente
para nós agora, já que a luz de ondas curtas é conhecida por ser mais energética, de modo que naturalmente inicia uma reação química
que consome energia mais prontamente). Ritter descobriu que o efeito sobre o nitrato de prata era ainda mais pronunciado quando o
composto era colocado além da extremidade violeta do espectro solar, onde nada podia ser visto.

Como Herschel, Ritter concluiu que a luz invisível estava presente. Por causa de seu efeito sobre o nitrato de prata, foi
inicialmente chamado de "raios químicos". Isso logo deu lugar, no entanto, à radiação ultravioleta ("além do violeta"), e veio a ser
entendido que tal radiação era mais curta em comprimento de onda do que a luz visível.

Hoje em dia, a radiação ultravioleta é considerada como cobrindo uma faixa de 360 milimícrons (o limite do visível
Machine Translated by Google

violeta) até um limite arbitrário de 1 milimícron, um pouco mais de oito oitavas. dos quais apenas um era luz visível.

Mesmo assim, o espectro eletromagnético não foi totalmente preenchido. O passo seguinte foi dado pelo alemão
físico Wilhelm Konrad Roentgen (1845-1923). Ele estava interessado em raios catódicos e, em particular, na
luminescência que eles provocavam quando colidiam com certos produtos químicos.

A fim de observar a tênue luminescência, ele escureceu a sala e colocou o tubo de raios catódicos em papelão
preto fino. Em 5 de novembro de 1895, ele colocou o tubo de raios catódicos em ação, e um raio de luz que não vinha do
tubo chamou sua atenção. Ele olhou para cima e a uma certa distância do tubo notou uma folha de papel que havia sido
revestida com platinocianeto de bário (um composto que brilha sob o impacto da radiação energética) brilhando.
Roentgen não ficaria surpreso ao vê-lo brilhar e raios catódicos estavam atingindo-o, mas os raios catódicos
estavam completamente protegidos.

Roentgen desligou o tubo; o papel revestido escureceu. Ele o ligou novamente; ele brilhou. Ele entrou na sala ao
lado com o papel revestido, fechou a porta e baixou as persianas. O papel continuou a arar enquanto o tubo estava em
operação.

Parecia a Roentgen que algum filho de radiação estava emergindo do tubo de raios catódicos, uma radiação produzida
pelo impacto dos raios catódicos no material sólido com o qual colidiu. A energia cinética perdida pelos raios catódicos
quando parados foi convertida, aparentemente, nesta nova forma de radiação; uma radiação tão enérgica que poderia
atravessar consideráveis: espessuras de papel terminam mesmo através de finas camadas de metal. Roentgen publicou
seu primeiro relatório sobre o assunto em 28 de dezembro de

A radiação às vezes é conhecida como "raios Roentgen" em homenagem ao descobridor, mas o próprio Roentgen honrou seu desconhecido
natureza usando o símbolo matemático do fim desconhecido chamado de radiação de raios X. O nome se apegou
firmemente, embora a natureza da radiação não seja mais misteriosa

Mencionei o experimento com algum detalhe porque a descoberta dos raios X é geralmente considerada como o início da
"Segunda Revolução Científica" (a primeira tendo sido iniciada pelos experimentos de Galileu).
Machine Translated by Google

De certa forma, isso pode ser considerado muito dramático, pois o experimento de Roentgen não representou realmente
uma ruptura acentuada com o trabalho anterior. Surgiu em conexão com o problema dos raios catódicos, que ocupava
muitos físicos da época. A nova radiação havia sido observada por Crookes e Hertz antes mesmo do anúncio de Roentgen
(embora eles não tivessem compreendido o significado do que estavam observando), de modo que a descoberta era
inevitável. Se Roentgen não tivesse conseguido, outra pessoa o teria feito, talvez dentro de semanas. Além disso, a
existência de raios X estava implícita na teoria da radiação eletromagnética de Maxwell, e a importante descoberta nesse
sentido; a que validou a teoria, foi a das ondas de rádio, oito anos antes.

No entanto, depois que tudo isso foi permitido, os raios X conquistaram tanto os cientistas quanto o público leigo
com uma intensidade sem precedentes. Sua capacidade de penetrar na matéria era fascinante. Em 23 de janeiro de 1896,
em uma palestra pública, Roentgen tirou uma fotografia de raios X da mão do biólogo alemão Rudolf Albert von Kolliker
(1817-1905), que se ofereceu para o efeito. As maldições apareceram lindamente, pois paravam os raios X onde a carne e o sangue nã
O filme fotográfico atrás dos tecidos moles foi embaçado pelos raios X que o atingiram, enquanto a porção do filme
atrás do osso não. Os ossos apareciam, portanto, brancos contra cinza.

A utilidade para a medicina era óbvia e os raios X foram aplicados ali e na odontologia. (Os perigos dos raios X
como os agentes cancerígenos não foram compreendidos por vários anos.) Seguiu-se uma tempestade de experimentos
envolvendo raios X e, como resultado, foram feitas descobertas que resultaram em uma melhoria tão rápida e rápida
da compreensão do homem sobre o universo que parecia uma revolução científica de fato.

CAPÍTULO 3

O elétron

A descoberta do elétron

Dado que os novos tipos de radiação, as ondas de rádio eram conhecidas como formas de onda, e os raios X eram
fortemente suspeitos de serem formas de onda (a prova final de que eram foi obtida em 1912), parecia ainda mais
natural continuar a suspeitar que os raios catódicos também eram formas de onda,
Machine Translated by Google

Por um lado, Hertz mostrou em 1892 que os raios catódicos podiam realmente penetrar em finas folhas de metal. Isso parecia uma
propriedade bastante improvável para as partículas possuírem, enquanto alguns anos depois a descoberta dos raios X deixou bem claro
que as formas de onda poderiam possuir essa propriedade. O físico alemão Philipp Lenard (1862-1947), assistente de Hertz, chegou a montar
um tubo de raios catódicos contendo uma fina "janela" de metal. Os raios catódicos que atingiram aquela janela passaram e emergiram ao
ar livre. (Tais raios catódicos emergentes foram por um tempo chamados de "raios Lenard".)

Se os raios catódicos fossem partículas eletricamente carregadas, eles deveriam ser afetados não apenas por uma retenção magnética, mas também por uma
campo eletrostático. Hertz passou um feixe de raios catódicos entre duas placas paralelas, uma carregando uma carga elétrica
positiva e outra negativa. Ele não detectou nenhum desvio no fluxo de raios catódicos e concluiu que os raios catódicos
eram ondas

Isso, no entanto, marcou o auge da teoria das ondas. Outro experimentador estava em cena, um membro do grupo inglês de físicos,
Joseph John Thomson (1856-1940). Parecia-lhe que o experimento envolvendo o campo eletrostático não funcionaria a menos que os raios
catódicos estivessem passando por um vácuo particularmente bom. Caso contrário, os finos fiapos de gás presentes, pelo raciocínio de
Thomson, agiriam para reduzir o efeito do campo eletrostático sobre os raios catódicos. Em 1897, ele então repetiu o experimento de Hertz
(Hertz morreu prematuramente três anos antes), usando um tubo de raios catódicos com um vácuo particularmente bom. Foi detectada uma
deflexão no caminho dos raios catódicos.

Esta observação foi a gota d'água. Com raios catódicos desviados por um campo magnético e um campo eletrostático, o
evidência em favor de partículas era forte demais para ser resistida. A partir da direção da deflexão, pode-se ver que as partículas
carregavam uma carga negativa,

Parecia claro que essas partículas de raios catódicos deveriam representar unidades de eletricidade, talvez a unidade negativa indivisível,
que alguns físicos do século XIX vinham postulando. As partículas receberam, portanto, o nome de "elétron" de Stoney, e é por causa
do experimento crucial de Thomson que geralmente se diz que ele "descobriu o elétron" em 1897.

Mas Thomson fez mais do que simplesmente descobrir o elétron. Ele passou a determinar um de seus esmagadoramente
propriedades importantes.

Quando um elétron passa por um campo magnético, ele é desviado por esse campo e se afasta de seu
Machine Translated by Google

curso de linha para tomar um caminho curvo. (Isso é análogo à maneira pela qual a lua, quando exposta ao campo
gravitacional da Terra, se afasta do que seria um curso em linha reta para seguir um caminho curvo.)

A deflexão do elétron é o resultado da força magnética exercida sobre ele. A quantidade dessa força é proporcional,
primeiro à força do campo magnético (H), depois ao tamanho da carga elétrica no elétron (e) e, finalmente, à velocidade do
elétron (v), pois é a velocidade que determina quantas linhas de força magnética serão cortadas pelo elétron em movimento. (Um
elétron estacionário, ou um viajando paralelo a essas linhas de força, não seria afetado pelo campo magnético.) A força que produz
a deflexão é, portanto, igual a (Hev).

Um efeito centrífugo deve ser exibido por um elétron viajando em um caminho curvo. Este efeito é igual a mv 2/r, onde
(m) é a massa do elétron, (v) sua velocidade e (r) o raio da trajetória curva que ele está seguindo.

O elétron, ao seguir um determinado caminho curvo, deve ter a força magnética exatamente equilibrada pelo efeito centrífugo.
Se assim não fosse, percorreria uma curva mais apertada ou mais solta, encontrando uma curva na qual os dois efeitos se
equilibrassem. Para o caminho curvo realmente seguido, podemos dizer que

Co = mv 2/r (Equação 3-1)

Isso pode ser reorganizado e simplificado para

e/m = v/h (Equação 3-2)

A força do campo magnético é conhecida e o raio de curvatura do feixe de partículas de raios catódicos pode ser facilmente
determinado pelo deslocamento na posição do ponto luminescente na parede do tubo de raios catódicos. Agora, se pudéssemos
determinar o valor de v (a velocidade das partículas), seria possível determinar imediatamente o valor de e/m (a razão entre a carga
do elétron e sua massa).

Thomson descobriu a velocidade fazendo com que os raios catódicos estivessem sob a influência de um campo eletrostático e um
campo magnético, mas sob tais condições que as duas deflexões estavam em direções opostas e apenas equilibradas. A
deflexão do campo eletrostático dependia de sua força (F) e da carga do elétron (e). Não dependia da velocidade do elétron,
pois sempre há atração entre cargas elétricas opostas, se elas estiverem estacionárias uma em relação à outra.
Machine Translated by Google

Consequentemente, quando os campos magnéticos e eletrostáticos são ajustados em intensidade de modo que os efeitos sobre
os elétrons se cancelam:

Co = Fe (Equação 3-3)

Ou:

v = F/H (Equação 3-4)

Como a força de ambos os campos pode ser medida facilmente, (v) pode ser determinado e resulta em cerca de 30.000
quilômetros por segundo, cerca de um décimo da velocidade da luz. Esta foi de longe a maior velocidade já medida para objetos
materiais até aquele momento e imediatamente explicou por que os raios catódicos pareciam não ser afetados por um campo
gravitacional. mostram uma resposta mensurável ao campo gravitacional da Terra.

Com o valor de (v) conhecido, a Equação 3-2 torna possível determinar imediatamente e/m para o elétron, e Thomson ficou surpreso
ao descobrir que essa razão acabou tendo um valor muito maior do que para qualquer íon. (que também são partículas carregadas).

+
Considere os íons H +, Na e K+. Todos os três carregam uma carga de igual magnitude, já que um faraday de eletricidade é
suficiente para produzir um peso grama-atômico de cada um. No entanto, a massa do íon potássio é 39 vezes maior que a do átomo de
hidrogênio e a massa do átomo de sódio é 23 vezes maior que a do átomo de hidrogênio. Se (e) for fixo, então a razão e/m aumenta quando
+ +
diminui. Assim, a razão e/m para H (m) deve ser 23 vezes maior que a de Na + e 39 vezes maior que a de K .

De fato, uma vez que o íon hidrogênio é o íon menos massivo conhecido, a razão e/m para ele pode muito bem ser maior do que para
qualquer outro íon que possa existir. E, no entanto, a razão e/m para o elétron é (usando o valor agora aceito) 1836 vezes maior que a do
íon hidrogênio.

Nenhuma quantidade de carga elétrica menor do que a do íon de hidrogênio já havia sido observada, e parecia razoável supor que o
elétron carregava essa menor carga observada. Se é assim, se e é igual no caso do elétron e do íon hidrogênio, e e/m é 1836 vezes maior
no primeiro caso do que no segundo, deve seguir-se que a diferença é
Machine Translated by Google

encontrar na massa. A massa do elétron deve ser apenas 1/1836 da massa do íon hidrogênio.

Como a massa do átomo de hidrogênio é conhecida e a massa do íon de hidrogênio é apenas um pouco menor, é fácil
calcular a massa do elétron. A melhor determinação moderna é 9,1091 x 10-28 gramas,gramas.
ou 0,00000000000000000000000000091091

De um lado, os átomos, que desde o tempo de Demócrito foram considerados a menor partícula de matéria,
foram subitamente transformados em gigantes. Ali estava algo muito menor do que o menor átomo; algo realmente
tão pequeno que poderia ser facilmente visualizado abrindo caminho pelos interstícios entre os átomos da matéria comum.
Essa parecia uma explicação razoável para o fato de que os raios catódicos compostos de partículas podiam penetrar em
finas folhas de metal. Também explicava por que as correntes elétricas podiam fluir através de fios de cobre.

Thomson, portanto, não apenas descobriu o elétron, ele também descobriu a primeira das partículas subatômicas,
e abriu um novo reino de pequenez além do átomo.

A carga do elétron

O conhecimento da massa exata do elétron não forneceu automaticamente aos físicos uma estimativa do tamanho exato
da carga sobre o elétron. A princípio, só se poderia dizer que a carga do elétron era exatamente igual à carga do íon
cloreto, por exemplo, ou exatamente igual (mas de sinal oposto) à carga do íon hidrogênio. Mas então, o tamanho exato
da carga em qualquer íon não era conhecido até a primeira década do século XX.

Os experimentos que determinaram o tamanho da carga elétrica do elétron foram conduzidos pelo físico americano
Robert Andrews Millikan (1868-1953) em 1911.

Millikan utilizou duas placas horizontais, separadas por cerca de 1,6 centímetros, em um recipiente fechado contendo ar em baixa
pressão, a placa superior tinha vários orifícios finos e estava conectada a uma bateria que poderia colocar uma carga
positiva sobre ela. Millikan pulverizou gotas finas de óleo não volátil no recipiente fechado acima das placas.
Ocasionalmente, uma gota passava por um dos orifícios da placa superior e aparecia no espaço entre as placas. Lá podia
ser visto através de uma lente de aumento porque foi feito para brilhar como uma estrela através do reflexo de um poderoso
feixe de luz que entrava de um lado.
Machine Translated by Google

Deixada a si mesma, a gota de óleo cairia lentamente, sob a influência da gravidade. A taxa dessa queda em resposta à gravidade,
contra a resistência do ar (que é considerável para um objeto tão pequeno e leve como uma gota de óleo), depende da massa da gota.
Fazendo uso de uma equação desenvolvida pela primeira vez pelo físico britânico George Gabriel Stokes (1819-
1903), Millikan pôde determinar a massa das gotículas de óleo.

Millikan então expôs o recipiente à ação dos raios X. Isso produziu íons na atmosfera interna (consulte a página 110).
Ocasionalmente, um desses íons se ligava à gota. Se fosse um íon positivo, a gota, com uma carga positiva subitamente adicionada,
seria repelida pela placa carregada positivamente acima, e se precipitaria para baixo a uma taxa maior do que poderia ser explicada
apenas pela ação da gravidade. Se o íon fosse negativo, a gota seria atraída para a placa carregada positivamente e poderia até começar a
subir, desafiando a gravidade.

A mudança na velocidade da gota dependeria da intensidade do campo elétrico (que Millikan conhecia) e da
carga na gota, que ele agora podia calcular.

Millikan descobriu que a carga na gota variava de acordo com a natureza do íon que foi adsorvido e com o número de íons que
foram adsorvidos. Todas as cargas eram, no entanto, múltiplos de alguma unidade mínima, e essa unidade mínima poderia razoavelmente
ser tomada como a menor carga possível de um íon e, portanto, igual à carga do elétron.
A determinação final de Millikan desta carga mínima foi bastante próxima do valor agora aceito, que é 4,80298 x 10 -
10
unidades eletrostáticas ("esu"), ou 0,000000000480298 esu.

Até onde sabemos agora, essa carga de 4,80298 x 10-10 esu é o único tamanho em que a carga elétrica vem, embora possa vir em
duas variedades desse tamanho, positiva e negativa. Suponha que consideremos esta unidade de carga como 1, para simplificar. Nesse
caso, todos os objetos podem ser colocados em uma das três classes:

(1) Objetos com carga elétrica líquida de 0. Isso inclui átomos e moléculas comuns.

(2) Objetos com carga líquida de -1, ou algum múltiplo disso. Exemplos são alguns íons negativos e, claro, o elétron.

(3) Objetos com carga líquida de +1 ou algum múltiplo disso. Exemplos disso são alguns íons positivos.
Machine Translated by Google

Ninguém ainda descobriu um objeto com uma carga de +0,5 ou -1,3 ou, de fato, com uma carga que se desvie de um
valor integral, mesmo que minimamente. Tais objetos ainda podem ser descobertos no futuro, mas as perspectivas para tal
eventualidade parecem muito pequenas no momento.

Eletrônicos

Foi a existência de elétrons, e de partículas subatômicas em geral, que traria um novo grau de ordem ao
tabela de elementos. Antes de prosseguir nessa direção, no entanto, vamos considerar algumas das mudanças na tecnologia
que surgiram do uso de fluxos de elétrons no vácuo. (O estudo do comportamento de tais elétrons livres e das técnicas para
controlá-los e manipulá-los é chamado de eletrônica.)

O fluxo de elétrons através do vácuo foi observado em circunstâncias interessantes em 1883 pelo inventor americano
Thomas Alva Edison (1847-1931). Quatro anos antes, ele havia desenvolvido uma luz elétrica prática e ainda estava trabalhando
para melhorá-la. A luz, na época, consistia em um filamento de carbono encerrado em uma lâmpada evacuada. (O vácuo foi
necessário para manter o filamento de carbono, elevado a temperaturas incandescentes pela corrente que passa por ele, de
queimar a nada em um flash - como faria se o ar estivesse presente.)

Edison observou na superfície interna do bulbo um escurecimento que presumivelmente resultou porque parte do carbono
vaporizou da superfície do filamento quente e se depositou no vidro. Isso enfraqueceu o filamento e reduziu a transparência
do vidro, então Edison procurou contrariar o efeito. Um de seus esforços para fazer isso consistiu em selar uma pequena tira de
metal na lâmpada perto do filamento, esperando que talvez o metal escurecesse em vez do vidro.

Isso não aconteceu, mas Edison notou outra coisa. Quando ele prendeu esse pedaço de metal (chamado de placa pelos
trabalhadores posteriores) ao pólo positivo de uma bateria, de modo que ele assumisse uma carga positiva em relação ao filamento,
uma corrente fluiu mesmo que houvesse uma lacuna no circuito entre o filamento e a placa. Se a placa recebeu uma carga negativa,
isso não aconteceu. Edison descreveu esse fenômeno (o efeito Edison) e então, como não tinha uso imediato para o assunto, o
deixou de lado.

O efeito Edison não era mistério, uma vez que os raios catódicos foram compreendidos. O filamento aquecido tinha uma tendência a dar
elétrons desligados; eles "ferveram". por assim dizer. Normalmente, isso resultaria em não mais do que uma fina nuvem
de elétrons ao redor do filamento.
Machine Translated by Google

Se, no entanto, uma placa carregada positivamente fosse colocada na vizinhança, os elétrons seriam atraídos por ela. Um fluxo
de elétrons passariam continuamente do filamento aquecido para a placa, e isso equivale a um circuito elétrico completo.
Se a placa estiver carregada negativamente, a nuvem de elétrons é repelida e o circuito não é concluído; não há fluxo de
eletricidade.

Um engenheiro elétrico inglês, John Ambrose Fleming (1849-1945), que havia servido como consultor de Edison na
década de 1880, lembrou-se do efeito Edison vinte anos depois, em 1904. Suponha que a placa estivesse ligada a um circuito
de corrente alternada. Quando a corrente flui em uma direção, a placa recebe uma carga positiva, quando flui na outra, recebe
uma carga negativa. A natureza da carga mudaria cerca de sessenta vezes por segundo em corrente alternada de sessenta
ciclos. No entanto, somente quando a placa estivesse carregada positivamente o circuito estaria realmente completo.

Metade do tempo, então, quando a corrente estava fluindo em uma direção, ela realmente fluiria. Na outra metade do
tempo, quando normalmente se espera que flua na outra direção, não flui de forma alguma, pois o circuito é interrompido.

O efeito Edison possibilitou que o circuito fosse aberto e fechado no tempo exato com a alternância da corrente. O
que seria uma corrente alternada sem a combinação filamento-placa no circuito torna-se uma corrente contínua com ela.
A corrente poderia fluir apenas de forma intermitente e com intensidade flutuante, com certeza, mas sempre curvaria
(quando fluía) na mesma direção. A combinação filamento-placa atuou como um retificador.

Fleming chamou o dispositivo de "válvula" porque abria e fechava o portão para o arco de eletricidade como uma válvula comum
poderia fazer para um fluxo de água. Nos Estados Unidos, o nome muito menos significativo de tubo de vácuo entrou
em uso. Um nome melhor do que qualquer um é diodo ("dois eletrodos"), já que dois elementos selados - o filamento e
a placa - servem como eletrodos dentro do bulbo.

Dois anos depois, em 1906, o inventor americano Lee De Forest (1873-1961) adicionou um terceiro elemento selado ao
tubo e o transformou em um triodo. O terceiro elemento consistia em uma rede de fios finos colocados entre o filamento e a placa.
Essa rede é a grade.

A grade serve para tornar o controle do fluxo de elétrons muito mais delicado. No diodo, a corrente flui ou não; a válvula
está praticamente aberta ou bem fechada. A mera presença mecânica da grade teria pouco efeito sobre isso, pois quase
todos os elétrons passariam pelos buracos. Uma proporção muito pequena atingiria
Machine Translated by Google

os próprios fios e ser parado.

Suponhamos, porém, que a rede fosse parte de um circuito elétrico separado e que uma pequena carga negativa fosse
mantida sobre ela. Cada fio da grade repeliria os elétrons, que seriam desviados se chegassem muito perto.
Além da obstrução mecânica do próprio fio, cada fio seria engrossado, por assim dizer, por uma camada de obstrução elétrica.
Os buracos pelos quais os elétrons poderiam passar sem serem devolvidos se tornariam menores, de modo que menos elétrons
chegariam à placa. Se a grade fosse um pouco mais negativa, o efeito se tornaria mais pronunciado; não seria necessária muita
carga negativa na grade para cortar completamente a corrente, apesar da carga positiva na placa atrás da grade. A ação ordinária
da válvula agora podia permanecer aberta enquanto a grade assumia o controle.

O resultado seria mais importante se a rede fizesse parte de um circuito no qual uma corrente muito fraca e variável fosse definida
acima. A carga negativa na grade variaria ligeiramente, em perfeita sintonia com a variação do potencial de corrente, e esta variação
abriria e fecharia a válvula entre o filamento e a placa. A variação muito pequena no potencial negativo na rede resultaria em uma
variação muito grande na corrente que passa pela rede. A grande corrente, no entanto, manteria o passo exato com o potencial fraco da
grade e também imitaria exatamente suas variações. A característica de uma corrente fraca seria imposta a uma forte, e o triodo atuaria
como um amplificador.

Os inventores agora tinham um método de produzir efeitos alterando o movimento de elétrons minúsculos, quase sem massa, em vez de
alterando o movimento de alavancas e engrenagens comparativamente grandes e maciças. Os elétrons, com tão pouca massa,
tinham uma inércia equivalentemente pequena, de modo que as mudanças podiam ser impostas a eles em minúsculas frações de
segundo. O proverbial "piscar de olho". rápido em comparação com o comportamento dos dispositivos mecânicos, tornou-se a própria
lentidão em comparação com a ação rápida dos instrumentos eletrônicos.

Rádio

Diodos, triodos e vários descendentes mais complicados foram colocados para trabalhar em conexão com um dispositivo ainda mais
dramático do que a luz elétrica que os deu à luz.

Isso remonta à descoberta das ondas de rádio por Hertz, que produziu ondas de rádio em um ponto e detectou
eles em outro. Era fácil imaginar que, se as ondas de rádio pudessem ser produzidas com bastante facilidade e detectadas com
bastante sensibilidade, a distância entre o ponto de produção e o ponto de detecção poderia ser de milhas em vez de pés.
Machine Translated by Google

Consequentemente, se as ondas de rádio fossem produzidas em rajadas que imitassem o código Morse, por exemplo, uma forma de
comunicação se estabeleceria. O efeito do telégrafo seria duplicado, com acres de ondas de rádio, espaço substituindo as correntes
elétricas ao longo dos fios.

O resultado pode ser chamado de "telegrafia sem fio" ou "radiotelegrafia". Na verdade, os britânicos chamam-lhe o primeiro,
encurtando-o para “sem fio”, enquanto os americanos o chamam de último, encurtando-o para rádio.

Um engenheiro elétrico italiano, Guglielmo Marconi (1874-1937), depois de ler uma descrição do experimento de Hertz em 1894,
começou a tornar realidade a comunicação por meio de ondas de rádio. Ele fez uso do método de Hertz para produzir as ondas de rádio
e de um dispositivo chamado "coherer" para detectá-las. O coesor consistia em um recipiente de limalhas de metal frouxamente
embaladas. Normalmente, isso conduzia pouca corrente, mas conduzia bastante quando ondas de rádio caíam sobre ele. Desta forma,
as ondas de rádio podem ser convertidas em uma corrente elétrica facilmente detectada.

Gradualmente, Marconi adicionou dispositivos que facilitavam tanto o envio quanto o recebimento. Em 1895, ele enviou um sinal
a uma milha; em 1896, nove milhas; em 1897, doze milhas; e em 1898, dezoito milhas. Ele até estabeleceu uma empresa comercial para
o envio de "Marconigramas".

Em tudo isso apareceu um aparente paradoxo. As ondas de rádio, como qualquer outra forma de radiação eletromagnética, devem
viajar apenas em linhas retas e, portanto, como a luz, não devem ser capazes de penetrar além do horizonte. Além do horizonte, a
protuberância da terra esférica deveria ter interferido.

Marconi observou, no entanto, que as ondas de rádio pareciam seguir a curva da Terra. Ele não tinha explicação para isso, mas
ele não hesitou em fazer uso do fato. Em 12 de dezembro de 1901, Marconi conseguiu enviar um sinal de ondas de rádio da ponta
sudoeste da Inglaterra, ao redor do bojo da Terra, para a Terra Nova. Ele havia enviado um sinal através do Oceano Atlântico, e isso
pode ser considerado uma data conveniente para a "invenção do rádio".

Dentro de um ano, uma explicação para a comunicação de rádio em torno do bojo da Terra foi oferecida independentemente pelo
engenheiro elétrico britânico-americano Arthur Edwin Kennelly (1861-1939) e pelo físico inglês Oliver Heaviside (1850-1925). Na alta
atmosfera, ambos apontaram, deve haver regiões ricas em partículas eletricamente carregadas. Tais partículas, ambos mostraram,
serviriam para refletir ondas de rádio, que então cruzariam o Oceano Atlântico, não em um caminho curvo direto, mas em uma série de
reflexões em linha reta entre o céu e a terra.
Machine Translated by Google

Essas regiões de partículas carregadas foram realmente detectadas em 1924 pelo físico inglês Edward Victor Appleton (1892-1965).
Em homenagem aos teóricos originais, a região às vezes é chamada de camada Kennelly-Henviside. As partículas carregadas são,
naturalmente, íons, e essa porção da atmosfera superior é, portanto, chamada de ionosfera.

O uso de ondas de rádio para possibilitar a telegrafia sem fio foi apenas o começo. Eles não podem ser usados para
transmitir sons, e não apenas pulsos? Suponha que as ondas de rádio pudessem ser feitas para puxar um diafragma para dentro e
para fora e, assim, criar ondas sonoras no ar?

A princípio, esse pensamento pode parecer impraticável. As ondas de rádio, embora muito mais baixas em frequência do
que as ondas de luz, são, no entanto, muito mais altas em frequência do que as ondas sonoras. Uma onda de rádio típica pode ter uma
frequência de 1.000.000 ciclos por segundo (ou 1.000 quilociclos por segundo) e não seria útil forçar um diafragma a vibrar nessa frequência.
O som seria muito agudo para o ouvido humano ouvir. Para produzir sons dentro do alcance da audição humana, um diafragma
deve ser feito para vibrar entre 20 e 20.000 ciclos por segundo. Estas são as radiofrequências.
Usar ondas de rádio de tais frequências seria envolver-se com uma radiação tão baixa em energia que seria inutilizável.

O ataque foi feito de forma diferente. A própria onda de rádio pôde ser uniforme e sem características, e com uma
frequência muito acima da faixa de áudio. Era uma onda portadora, que servia apenas para transportar a mensagem que deveria ser
impressa nela. Os sons captados por um microfone poderiam então ser usados para estabelecer uma corrente que alteraria a intensidade
da onda portadora no passo exato com as flutuações das ondas sonoras, como no caso de um bocal de telefone. Essa corrente flutuante
é então feita para alterar a energia da onda portadora, cuja amplitude aumentará e diminuirá com a ascensão e queda das ondas sonoras.

A onda portadora assim regulada é dita modulada. Uma vez que a modulação assume a forma de alterações na amplitude
para corresponder à variabilidade de uma onda sonora, diz-se que é modulação de amplitude, muitas vezes abreviada AM.

Quando uma onda de rádio modulada é recebida, ela é primeiro retificada de modo que apenas a metade superior da onda seja
permitida. Essa metade da onda então age sobre um diafragma estabelecendo uma força magnética flutuante, como no caso de um
receptor de telefone. O diafragma não pode reagir às flutuações rápidas da própria onda portadora, mas apenas às variações muito
mais lentas de sua amplitude. Desta forma, as ondas sonoras são reproduzidas exatamente como aquelas que foram originalmente
impressas na onda portadora.

Em 1906, o físico canadense-americano Reginald Aubrey Fessenden (1866-1932) fez uso


Machine Translated by Google

onda portadora para enviar uma mensagem apropriada que permitisse que os receptores realmente captassem música. Assim, rádio
significava não apenas "tadiotelegrafia", mas também "radiofonia".

Nada disso seria realmente prático sem o uso de tubos de vácuo para manipular adequadamente os excessivamente fracos
correntes elétricas geradas por ondas de rádio. De fato, esses dispositivos eram tão importantes para o rádio que passaram a ser
comumente chamados de tubos de rádio.

Cada estação transmissora de rádio faz uso de uma onda portadora de frequência distinta. O aparelho de rádio pode ser sintonizado
ajustando um condensador variável (consulte a página II-172) para um ponto que permita que o aparelho responda a uma determinada
frequência. Nas duas primeiras décadas do rádio, essa não era uma tarefa fácil, e os entusiastas do rádio tiveram que desenvolver uma habilidade consid

Durante a Primeira Guerra Mundial, no entanto, o engenheiro elétrico americano Edwin Howard Armstrong (1890-1954) inventou o que
passou a ser chamado de receptor super- heteródino. Armstrong havia tentado desenvolver um sistema para detectar aviões à distância
captando as ondas eletromagnéticas enviadas por seus sistemas de ignição. Essas ondas eram muito altas em frequência para serem
recebidas facilmente; Armstrong, portanto, providenciou para produzir uma segunda onda eletromagnética de frequência um tanto diferente
daquela que ele estava tentando detectar. Os dois combinados para produzir "batidas" exatamente como as ondas sonoras fariam. As
batidas eram de frequência muito mais baixa do que qualquer uma das ondas originais e podiam ser facilmente detectadas. A Primeira
Guerra Mundial terminou antes que Armstrong pudesse aperfeiçoar seu dispositivo, mas depois foi aplicado a aparelhos de rádio de forma
a simplificar a sintonização de estações com o giro de um dial. Rádio mudou-se para a casa em consequência.

Nos últimos anos, Armstrong abordou outro problema envolvido na recepção de rádio - o da "estática". As ondas eletromagnéticas são
criadas por descargas de faíscas em sistemas de ignição de automóveis, nas escovas de motores elétricos, em termostatos e em todos os
tipos de aparelhos elétricos. (Eles também são configurados em descargas de raios - faíscas gigantes - durante tempestades.) Essas ondas
interferem com toda a gama de ondas portadoras, modulando-as de maneira aleatória para que se ouçam ruídos agudos e crepitantes que
podem ser muito perturbadores e não podem ser sintonizado.

Armstrong desenvolveu circuitos que modulavam não a amplitude de uma onda portadora, mas sua frequência. Essa modulação
de frequência, ou FM, não é afetada pelas ondas eletromagnéticas que pulsam aleatoriamente ao nosso redor; consequentemente, a estática
é amplamente abolida. Além disso, o FM permite uma melhor reprodução nas partes extremas da faixa de frequência de áudio.

Televisão e Radar
Machine Translated by Google

O próprio tubo de raios catódicos entrou em uso direto em um instrumento eletrônico que estava destinado a substituir o rádio no público
coração. O começo aqui veio quando os físicos aprenderam a aproveitar a baixa inércia dos elétrons para mover a corrente com
grande rapidez.

Imagine, por exemplo, um tubo de raios catódicos com seu ânodo na forma de um cilindro oco. O feixe de elétrons, correndo
na direção do ânodo, passaria pelo cilindro até a outra extremidade do tubo, que se estenderia até um pedaço de vidro
circular e plano revestido por dentro com algum produto químico fluorescente. Onde o feixe de elétrons atinge, haveria um ponto
brilhante de fluorescência.

Suponha, porém, que em seu caminho para a tela, o feixe de elétrons passasse entre dois eletrodos verticais. O elétron
feixe será desviado, naturalmente, na direção do eletrodo positivo. Se um eletrodo carrega uma forte carga positiva para
começar, o feixe de elétrons seria fortemente desviado naquela direção, e o ponto fluorescente apareceria na borda da tela.

Se a carga positiva for gradualmente enfraquecida, a deflexão do feixe diminui e o ponto se move em direção ao centro.
da tela. Eventualmente, à medida que a carga positiva é reduzida a zero e o eletrodo em questão torna-se negativo (com o
outro eletrodo sendo positivo), o ponto passa pelo centro e se move até a outra extremidade da tela. Se a carga positiva máxima é
então colocada mais uma vez no primeiro eletrodo, o feixe pisca para trás e o ponto aparece em sua posição original novamente.

Isso pode ser repetido várias vezes, o ponto fluorescente flutuando pela tela várias vezes. Isso pode
ser feito com rapidez suficiente para fazer com que o ponto se torne uma linha horizontal brilhante - o olho sendo incapaz de vê-
lo como um ponto em movimento (é um efeito semelhante que permite ao olho ver as fotos sucessivas de um filme como
representando objetos em movimento.)

A seguir imagine o feixe de elétrons passando também entre um segundo par de placas, um par orientado horizontalmente. Esse
segundo par agindo sozinho, poderia ser usado para fazer o feixe de elétrons marcar nossa linha vertical.

Se ambas as placas funcionarem juntas, no entanto, os resultados podem ser mais úteis. A primeira placa pode ter sobreposto
a ela a mudança de voltagem necessária para produzir uma linha horizontal constante. O segundo par de placas pode ser
conectado a uma corrente alternada comum de modo que a carga nas placas oscile rápida e uniformemente. A ação dos dois
juntos formaria uma onda senoidal.
Machine Translated by Google

Se a corrente que passa pelo segundo par de placas variasse de acordo com um conjunto particular de ondas sonoras, o
feixe de elétrons traçaria uma curva variável que imitaria as propriedades da onda sonora (traduzindo a onda sonora
longitudinal em uma onda transversal análoga, no entanto). Por esta razão, quando o físico alemão Karl Ferdinand Braun
(1850-1918) introduziu tal dispositivo. passou a ser chamado de oscilógrafo de raios catódicos ("gravador de ondas")

O oscilógrafo de raios catódicos pode fazer mais imaginar que o segundo par de placas aumenta sua voltagem em etapas,
de modo que depois que o feixe de elétrons marca uma linha horizontal, ele se move um pouco para cima e marca outra
linha horizontal, depois sobe e marca fora ~ outra, e assim por diante. A tela inteira pode, portanto, ser dividida em centenas
de linhas, mas as voltagens mudam tão rápido, e os elétrons mudam com elas, que a tela inteira pode ser varrida muitas
vezes por segundo. Aos olhos, então, a tela inteira aparecerá iluminada, embora um olhar mais atento mostre que a
iluminação consiste em linhas horizontais separadas por estreitos espaços escuros que representam o passo através do qual
o segundo par de placas levantou o feixe de elétrons.

Isso, em essência, é um tubo de televisão. Para imprimir uma imagem nele, o feixe de elétrons deve ser reforçado e
enfraquecido de acordo com algum padrão fixo, de modo que o ponto fluorescente fique mais claro e mais escuro,
produzindo o padrão claro-escuro que reconheceríamos como uma imagem.

O primeiro a produzir um método prático para fazer isso foi o físico russo-americano Vladimir Kosma Zworykin (1889-). a
superfície traseira foi revestida não com filme fotográfico, mas com um grande número de minúsculas gotículas de uma liga
de césio e prata. O césio emite elétrons prontamente quando a luz incide sobre ele, sendo a intensidade da emissão de
elétrons proporcional à intensidade da luz Quando o padrão claro-escuro da cena na frente da câmera é focalizado na
superfície traseira de césio-prata, um padrão análogo de muitos elétrons/poucos elétrons é produzido.

Este padrão de elétrons pode ser feito para influenciar o feixe de elétrons emitido no tubo da televisão, o que faz com
que o ponto fluorescente na tela da televisão ilumine e escureça em analogia exata com o padrão claro-escuro sendo visto
pelo iconosoope. A imagem inteira é reproduzida na tela; e como isso é feito várias vezes por segundo, cada vez em um
padrão ligeiramente diferente (à medida que a cena que está sendo vista muda, o olho parece perceber movimento.

O oscilógrafo de raios catódicos também é usado em conexão com um dispositivo que faz uso de ondas eletromagnéticas para
Machine Translated by Google

julgar a distância, assim como as ondas sonoras são usadas na localização do eco.

As ondas eletromagnéticas se movem a uma velocidade muito alta e precisamente conhecida de 300.000 quilômetros por
segundo. Imagine um pulso curto de ondas eletromagnéticas movendo-se para fora, atingindo algum obstáculo e sendo
refletido para trás e recebido em todo o ponto de onde havia saído um instante antes. O que é necessário é uma forma de onda
de frequência baixa o suficiente para penetrar neblina; névoa e nuvem, mas de frequência alta o suficiente para ser refletida
com eficiência. A faixa ideal encontrada foi na região de micro-ondas, com comprimentos de onda de 0,5 a 100 centímetros.

A partir do lapso de tempo entre a emissão do pulso e o retorno do eco, pode-se estimar a distância do objeto refletor. E,
claro, a direção dos objetos refletores seria aquela em que a reflexão fosse mais nítida.

Vários físicos trabalharam em um dispositivo que me guiava para esse princípio, mas o físico escocês Robert
Alexander Watson-Wat (1892-) foi o primeiro a torná-lo totalmente prático. Em 1935, ele tornou possível seguir um avião
pelos reflexos de micro-ondas que ele enviava de volta. O sistema foi chamado de "detecção de rádio e alcance" (para "obter
um alcance" em um objeto é determinar sua distância), e isso foi abreviado para "ra. dar" ou radar.

O pulso de microondas enviado no radar pode ser feito para desviar o feixe de elétrons de um oscilógrafo de raios
catódicos para cima, produzindo um pico agudo no que seria uma linha horizontal. O eco de retorno (muito mais fraco do que
o pulso original, uma vez que apenas uma parte do pulso atinge o objeto visado, e parte do pulso que atinge é espalhado em
outras direções) produz um pico menor O feixe de elétrons se move lateralmente com tamanha rapidez que, embora o eco
chegue apenas uma fração de milissegundo depois que o pulso foi enviado, ainda há um amplo espaço na linha fluorescente
entre o pulso e o eco – um espaço que pode ser medido e transformado em distância.

Outra maneira pela qual um feixe de elétrons pode ser feito para fazer esse trabalho é fazê-lo começar no centro da tela e
mover-se para a borda ao longo de cada raio. O raio escolhido é governado pela direção em que a grande antena de
radar (projetada para receber e ampliar ecos fracos) está apontando.

Os ecos de retorno se tornam evidentes não por desvios acentuados no próprio feixe, mas pelo brilho do feixe
consequentemente, um objeto obstruindo, retornando ecos, aparece como um ponto brilhante na tela. A tela é revestida
com uma substância cuja fluorescência dura alguns segundos, a forma do objeto pode ser escaneada grosseiramente à
medida que o feixe completa sua varredura. De um avião, a tela do radar pode até apresentar um mapa grosseiro do solo abaixo,
Machine Translated by Google

uma vez que terra, água, folhas verdes e concreto refletem microondas em diferentes intensidades

Não são apenas as micro-ondas produzidas pelo homem que agora podem ser detectadas com a ajuda de instrumentos
eletrônicos. Os vários corpos celestes e os fenômenos aos quais estão associados produzem entre si toda a extensão do
espectro eletromagnético. Pouco desse espectro, no entanto, pode penetrar na atmosfera da Terra. Entre esse pouco, felizmente,
está a região da luz visível na qual a radiação do nosso sol é particularmente rica.

Outra região, porém, para a qual a atmosfera é transparente é aquela em que se encontram as micro-ondas. Em 1931,
o engenheiro de rádio americano Karl Jansky (1905-1950) estava engajado no problema de rastrear causas 04 estáticas.
Tendo eliminado a estática causada por distúrbios conhecidos, ele encontrou um novo tipo de estática fraca de uma fonte que, a
princípio, ele não conseguiu identificar. Vinha de cima e movia-se com firmeza de hora em hora. A princípio, pareceu a Jansky que
a fonte se movia com o sol. No entanto, ele ganhou um pouco no sol até a extensão de 60m minutos por dia. Uma vez que esta é
apenas a quantidade pela qual as abóbadas das estrelas ganham no sol, a fonte deve estar em algum lugar entre as estrelas fora do
sistema solar.

Em 1932, Jansky decidiu que a fonte era mais forte na direção da constelação de Sagitário – em que direção, os astrônomos
decidiram, ficava o centro da Galáxia.

O centro 61 da Galáxia, escondido da visão óptica por nuvens de poeira que absorvem eficientemente toda a luz, é, no entanto,
aparente através de suas emissões de micro-ondas, que penetram nas nuvens de poeira. Radiotelescópios construídos para
receber e focalizar os sinais muito fracos (especialmente após a Segunda Guerra Mundial, quando os avanços na tecnologia de
radar puderam ser usados para esse uso), e a nova ciência da radioastronomia ganhou força.

CAPÍTULO 4

Elétrons dentro dos átomos

O Efeito Fotoelétrico

Por um breve período após a descoberta do elétron, pode ter sido tentador sentir que o universo continha
Machine Translated by Google

menos dois conjuntos de partículas finais sem conexão necessária entre si. Um conjunto consistia de átomos de matéria,
sendo estes objetos comparativamente massivos existentes em dezenas de variedades. O outro conjunto consistia de elétrons
associados a uma corrente elétrica que, ao que parece, era de uma única variedade.

No entanto, havia motivos para duvidar da independência desses dois conjuntos de partículas. Quando uma corrente elétrica
foi produzida pela primeira vez por Volta um século antes da descoberta do elétron, isso foi feito combinando certos metais e soluções.
Desde aquela época qualquer número de células químicas - dispositivos pelos quais uma corrente elétrica se origina como resultado
de alguma reação química - foi inventada a "bateria de lanterna" comum e a bateria de armazenamento presente em todos os
automóveis são os exemplos mais conhecidos deles.

Se um grupo de substâncias químicas, cada uma eletricamente neutra quando tomada isoladamente, pode dar origem a uma
corrente elétrica composta de miríades de elétrons, então certamente os mundos dos átomos e dos elétrons devem ter alguma
conexão. da corrente foram formados no processo de junção atômica, e separações atômicas que compõem uma reação química,
ou que os elétrons estavam presentes nas substâncias químicas o tempo todo, e foram meramente liberados no decorrer da
reação.

Ambas as visões tiveram suas dificuldades. Se os elétrons foram formados, isso significava que a massa foi criada, e
isso parecia impossível à luz da lei de conservação da massa, uma generalização que, durante a década de 1890, foi
completamente aceita pelos cientistas. Por outro lado, se os elétrons estavam sempre presentes nos produtos químicos, por que
então não havia evidência de sua existência ou, particularmente, da carga elétrica associada a eles?

O dilema tornou-se mais agudo por meio de um fenômeno que já era conhecido pelos físicos na época do
descoberta do elétron.

Quando Hertz estava experimentando com ondas de rádio durante a década de 1880, ele descobriu que poderia obter uma
faísca de seu detector de ondas de rádio mais facilmente se a luz caísse sobre os pontos de metal que emitiam a faísca. A luz extraía
eletricidade do metal, por assim dizer, e isso veio a ser chamado de efeito fotoelétrico.

Em 1888, o físico alemão Wilhelm Hallwachs (1859-1922) descobriu que a luz afetava as duas variedades de carga elétrica de
forma diferente. Uma placa de zinco carregada negativamente perde sua carga se for exposta à luz ultravioleta, sendo a carga atraída
pela luz. Por outro lado, uma placa de zinco carregada positivamente não foi afetada pela luz ultravioleta.
Machine Translated by Google

Uma vez que o elétron foi descoberto, uma explicação razoável do fenômeno imediatamente ofende a si mesma. Aqueles eram
elétrons que foram ejetados do metal através do impacto da luz. Foram esses elétrons que formaram a faísca. Era de uma placa de
zinco carregada negativamente, contendo um excesso de elétrons, que essas partículas eram facilmente ejetadas. Tais partículas
não foram ejetadas de uma placa carregada positivamente, que claramente não continha um excesso de elétrons.

Em 1899, Thomson testou essa noção medindo a razão (e/m) das partículas sendo ejetadas de metais sob a influência da luz; revelou-
se virtualmente idêntico ao das partículas de raios catódicos. Eles foram aceitos como elétrons daquela época.

Novamente o mesmo problema surgiu. Quando a luz forçou os elétrons para fora de uma superfície metálica eletricamente neutra,
esses elétrons foram formados à medida que foram emitidos ou existiram dentro do metal o tempo todo? Em 1901, Einstein havia
mostrado que a lei de conservação da massa estava incompleta na forma que era geralmente aceita durante o século XIX. Ele mostrou
que energia e massa podem ser interconvertidas e que se deve falar da lei da conservação da massa-energia. No entanto, a contabilidade
envolvida na interconversão de massa e energia era rigorosa, e não havia energia suficiente na luz comum - e mesmo na luz ultravioleta
- para servir ao propósito de fabricar elétrons.

Os elétrons, então, devem existir no metal o tempo todo, e pode-se fazer outra pergunta. Os elétrons existiam no
interstícios entre os átomos, ou eles realmente ocorreram dentro dos próprios átomos? Era difícil aceitar a última visão, pois isso
significaria que o átomo não era o objeto inexpressivo e indivisível que Demócrito e Dalton haviam proposto e que o mundo científico
finalmente aceitara.

No entanto, havia fenômenos que pareciam tornar necessária essa visão antidemócrita, talvez. Philipp Lenard havia observado
que a energia com que os elétrons eram ejetados dependia da frequência da luz, e que a luz com menos de uma certa frequência (o
valor limite) não ejetava elétrons. A teoria quântica, que estava começando a ser aceita na primeira década do século XX, deixou claro
que a luz consistia em fótons que aumentavam em conteúdo de energia à medida que a frequência aumentava.

O valor limite representava quanta de energia suficiente para quebrar as ligações que prendem os elétrons à matéria. o
a força dessas ligações varia de substância para substância, uma vez que os elétrons são forçados para fora de alguns metais
apenas pela luz ultravioleta energética, enquanto eles são forçados para fora de outros metais por uma tensão tão não-energética
quanto o vermelho visível. Se os elétrons estão ligados à matéria, deve ser aos átomos que estão ligados, e com diferentes forças de ligação, por ass
Machine Translated by Google

dependendo da natureza do átomo particular. Parece sensato considerar algo sempre presente próximo ao átomo, sempre
ligado ao átomo com uma força característica, como parte do átomo.

Além disso, uma vez que a visão é aceita, há vantagens para ela. Existem muitas variedades de átomos e apenas um tipo de
elétron (já que as partículas emitidas por todos os metais pelo efeito fotoelétrico têm propriedades idênticas). Talvez a variedade
problemática dos átomos pudesse ser explicada em termos do número de elétrons que cada um continha, de seu arranjo, da força
com que eram mantidos e assim por diante. Talvez a ordem imposta empiricamente aos elementos pela tabela periódica pudesse
agora ser mais sistemática. Nesse caso, o átomo indivisível de Demócrito estava bem perdido.

De fato, havia algumas facetas do efeito fotoelétrico que se encaixavam bem com a tabela periódica. Por exemplo, os
elementos que mais prontamente cedem elétrons em resposta à luz são os metais alcalinos. Estes cedem elétrons com
facilidade crescente à medida que o peso atômico aumenta, ou seja, à medida que se desce na coluna na tabela periódica.
Assim, o césio, o metal alcalino de ocorrência natural com o maior peso atômico, libera seus elétrons mais facilmente do que
todos - daí o uso do metal por Zworykin em seu iconoscópio.

Aqui está uma indicação de como a tabela periódica de Mendeleev estabeleceu uma espécie de ordem em relação a
uma propriedade completamente inimaginável no tempo de Mendeleev. Este é um exemplo de como uma generalização científica
verdadeiramente útil pode ser superior ao estado de conhecimento que a gerou, e como um grande cientista deve quase
necessariamente produzir mais do que imagina.

O efeito fotoelétrico pode ser bem utilizado. Um tubo de vácuo pode ser concebido que não requer um filamento aquecido
para a produção de elétrons - apenas um filamento (se escolhermos os metais certos que podem ser expostos à luz. Quando a luz
incide sobre um cátodo capaz de mostrar um efeito fotoelétrico em Em resposta a essa luz, os elétrons são ejetados e uma
corrente se curva.A corrente pode ser usada para ativar um eletroímã que pode abrir portas ou realizar outras tarefas.Esta é uma
célula fotoelétrica .

Uma versão comum de tal célula a coloca em um poste com uma fonte de luz de outro poste brilhando constantemente na
célula, mantendo uma corrente constantemente curvando e uma porta constantemente fechada contra um puxão que, de outra
forma, a abriria. Uma pessoa caminhando entre os postes intercepta o feixe de luz, a corrente na cela cessa e a porta se abre.

O átomo nuclear
Machine Translated by Google

A aparente existência de elétrons dentro do átomo levantou algumas questões importantes.

Os átomos eram eletricamente neutros; se elétrons carregados negativamente existiam ao redor ou dentro do átomo, tinha que haver uma
carga positiva em algum lugar para neutralizar a carga negativa dos elétrons. Se sim, onde estava? Por que a luz nunca provocou a ejeção de
partículas muito leves e carregadas positivamente? Por que havia apenas raios catódicos, nunca raios anódicos análogos?

Thomson ofereceu uma resposta a essas perguntas. Em 1898, ele sugeriu que o átomo era uma esfera sólida, carregada positivamente,
na qual apenas elétrons suficientes estavam embutidos (como passas em bolo de libra, por assim dizer) para trazer uma neutralidade elétrica
geral.

Esta era uma sugestão atraente, pois parecia explicar um acordo de assento. Os quanta de luz soltariam um ou mais desses elétrons,
mas dificilmente poderiam mover a grande esfera atômica de carga positiva. Mais uma vez, o calor em um filamento de tubo de vácuo
realmente "fervia" os elétrons, pois à medida que os átomos vibravam mais fortemente com o aumento da temperatura (de acordo com a
teoria cinética), os elétrons seriam soltos, enquanto o próprio átomo não seria essencialmente afetado. explicaria por que só apareceram
partículas negativas e nunca positivas.

Além disso, a teoria de Thomson explicava os íons perfeitamente. Um átomo que perdesse um ou mais elétrons manteria um resultado líquido positivo
carga -- o tamanho da carga dependendo do número de elétrons perdidos. Um íon hidrogênio (H+), um íon sódio B (Na+) seria um átomo
de hidrogênio ou um átomo de sódio que tivesse perdido um único elétron. Um íon de cálcio (Ca++) seria um átomo de cálcio menos dois
elétrons, e um íon de alumínio (Al+++) seria um átomo de alumínio menos três elétrons.

Por outro lado, e se mais do que a quantidade normal de elétrons pudessem ser espetados no átomo carregado positivamente ---) e um
substância? O íon cloreto (Cl -) seria um átomo de cloro com um elétron extra, enquanto um íon sulfato (SO 4

o íon fosfato (PO4 ---) representaria grupos de átomos possuindo entre si dois e três elétrons extras, respectivamente.

Nesta visão, o elétron carregado negativamente é a única partícula subatômica, mas por meio dele os íons de ambos os tipos de carga
elétrica podem ser explicados.
Machine Translated by Google

A teoria de Thomson, embora tão atraente, tinha uma falha fatal. Lenard havia notado que os raios catódicos podiam
passar por pequenas espessuras de matéria Para ter certeza; os elétrons que compunham os raios catódicos eram muito
pequenos e podiam ser retratados como se rastejando entre os átomos. Se assim for, eles provavelmente emergiriam muito
dispersos. Em vez disso, os raios catódicos passavam por pequenas espessuras de matéria ainda viajando em um feixe
essencialmente paralelo, como se tivessem passado por átomos sem muita interferência.

Em 1903, portanto, Lenard sugeriu que o átomo não era uma massa sólida, mas sim um espaço vazio. O átomo, em sua
opinião, consistia em minúsculos elétrons e partículas equivalentes de carga positiva, existindo em pares, de modo que o átomo
como um todo era eletricamente neutro.

Mas, nesse caso, por que havia apenas raios catódicos e nunca raios anódicos?

A reconciliação das visões de Thomson e Lenard coube ao físico neozelandês Ernest Rutherford (1871-1937). A
partir de 1906, ele conduziu experimentos cruciais nos quais bombardeou finas folhas de ouro com partículas alfa. Atrás da folha
de ouro havia uma placa fotográfica.

O fluxo de partículas alfa passou direto pela folha de ouro como se não estivesse lá e embaçou a chapa
fotográfica atrás dela. A folha de ouro tinha apenas 1/50.000 de um centímetro de espessura, mas isso ainda significava uma
espessura de 20.000 átomos. O fato de as partículas alfa poderem passar por 20.000 átomos de ouro como se não estivessem
ali era fortemente a favor da noção de Lenard de um átomo vazio (um átomo, isto é, composto de nada mais do que uma
dispersão de partículas de luz).

Mas o ponto realmente interessante foi que nem todas as partículas alfa passaram sem serem afetadas. A mancha de neblina
na placa teria, na ausência da folha de ouro, sido nítida; mas com a folha de ouro no lugar, o limite do ponto enevoado era
bastante difuso, desaparecendo gradualmente. Era como se algumas das partículas alfa fossem, afinal, ligeiramente desviadas de
seu caminho. Na verdade, Rutherford foi capaz de mostrar que alguns foram desviados mais do que ligeiramente! Cerca de uma
partícula alfa em cada 8.000 foi desviada em um ângulo reto ou até mais.

Isso foi incrível. Se tantas partículas alfa passaram por milhares de átomos intocadas ou quase intocadas, por que
devem muito poucos ser torcidos em seu caminho tão mal? A partícula alfa não é uma partícula de luz como o elétron. É
7350 vezes mais massivo que um elétron; quatro vezes mais massivo que um átomo de hidrogênio. Se a partícula alfa encontrou
Machine Translated by Google

elétrons dentro de um átomo, ele os afastaria como um homem poderia afastar um pardal. Para uma partícula alfa ser colocada de
volta em seus calcanhares, ela deve, no mínimo, encontrar algo quase tão massivo quanto ela – algo em suma, da massa do
tamanho de um átomo. E, no entanto, essa massa do tamanho de um átomo só raramente foi encontrada na jornada da partícula
alfa através da matéria, por isso deve acumular um volume muito pequeno.

Era como se estivéssemos confrontados com o contato de bolas fofas de espuma com uma bolinha de chumbo no centro
de cada uma. Se as pelotas de chumbo fossem lançadas em tal barreira, a maioria passaria pela espuma como se nada estivesse
lá, mas ocasionalmente uma pelota lançada atingiria uma das pelotas enterradas e ricochetearia. A partir da frequência com que
esses saltos ocorreram, você pode calcular o tamanho comparativo da bola de espuma e do pellet central.

Para ter certeza, as partículas alfa não estavam realmente ricocheteando no objeto massivo dentro do átomo. Em vez disso,
pela natureza do espalhamento, Rutherford pôde mostrar que havia uma interação elétrica. As próprias partículas alfa são
carregadas positivamente (cada uma carregando uma carga de +2), e o objeto massivo dentro do átomo também é carregado
(positivamente, como se vê), de modo que a partícula alfa é repelida por forças elétricas mesmo que atinja um ponto próximo. senhorita.

Em 1911, Rutherford estava pronto para descrever sua imagem do átomo. Em sua opinião, a enorme carga positiva de Thomson
o átomo ainda estava lá no que dizia respeito à massa, mas foi drasticamente reduzido em volume. Ele havia se reduzido a um
objeto extremamente pequeno no centro do átomo. Esse objeto central maciço era o núcleo atômico, e o que Rutherford estava
propondo era o átomo nuclear, um conceito que permaneceu válido desde então e que é mais firmemente aceito agora do que
nunca.

O núcleo atômico, como pode ser visto a partir do padrão de deflexões das partículas alfa, era realmente minúsculo, não mais
do que 10-13 a 10-12 centímetros de diâmetro, ou apenas 1/100.000 a 1/10.000 do diâmetro do átomo. um todo. Os volumes do
núcleo e do átomo são proporcionais ao cubo do diâmetro, de modo que o volume do núcleo é bem menos de um trilionésimo
(1/1.000.000.000.000) do átomo como um todo.

No entanto, praticamente toda a massa do átomo está concentrada nesse minúsculo núcleo. Mesmo o núcleo mais leve,
o do átomo de hidrogênio, tem 1836 vezes a massa de um elétron, enquanto os núcleos dos átomos realmente massivos são
quase meio milhão de vezes mais maciços. Tal núcleo seria muito menos móvel do que os elétrons seriam, e não é surpreendente
que a luz ejete elétrons carregados negativamente e não núcleos carregados positivamente dos metais – que filamentos aquecidos
emitam elétrons e não núcleos.
Machine Translated by Google

Fora do núcleo, o resto comparativamente vasto do átomo é composto de nada além de elétrons ultraleves.
Esses elétrons oferecem pouco obstáculo para partículas de raios catódicos em alta velocidade e praticamente nenhum obstáculo
para partículas alfa; consequentemente, o átomo nuclear de Rutherford é tão vazio quanto o modelo de Lenard.

E, claro, o átomo nuclear pode explicar íons em termos de perda ou ganho de elétrons tão facilmente quanto a passa de Thomson
átomo de bolo poderia explicá-los. Em suma, o átomo nuclear mostrou-se completamente satisfatório; apenas os detalhes
exigiam elaboração.

Raios X característicos

Graças a Rutherford, os físicos agora viam o átomo como um núcleo minúsculo, mas maciço, carregado positivamente,
cercado por elétrons. O núcleo, se contivesse virtualmente toda a massa do átomo, como sustentava Rutherford, deveria variar em
massa com o peso atômico.

Parecia razoável supor que quanto maior a massa do núcleo, maior o tamanho da carga positiva que carregava e maior o
número de elétrons carregados negativamente necessariamente presentes fora do núcleo para equilibrar essa carga positiva. Se
fosse assim, isso significaria que os físicos estavam começando a investigar perto do que poderia provar a diferença crucial entre
os átomos de um elemento e outro. Não era apenas a diferença de massa, que era tudo o que Dalton, e as camisas do século XIX em
geral, conseguiam apontar. Uma possível nova diferença estava surgindo, uma diferença elétrica que se manifestava de duas
maneiras: primeiro no tamanho da carga positiva no núcleo e segundo, no número de elétrons fora do núcleo.

Esses dois aspectos das diferenças elétricas entre os átomos estão intimamente relacionados, mas a carga nuclear é
mais fundamental que o número de elétrons. Os elétrons podem ser removidos dos átomos pelo calor ou pela luz, deixando íons
positivos para trás. Elétrons adicionais podem ser forçados a átomos em reações químicas, formando íons negativos. Embora
esses íons tenham propriedades que diferem radicalmente daquelas do átomo neutro, eles não estão completamente divorciados
do átomo neutro; não constituem um elemento novo. Em outras palavras, o íon sódio é muito diferente do átomo de sódio, mas
um pode ser transformado no outro por procedimentos químicos ou físicos reconhecidos no século XIX. Nenhum deles pode ser
transformado em um átomo de potássio ou um íon potássio, pelo menos não por esses procedimentos. Portanto, as mudanças no
número de elétrons em um átomo não são necessariamente cruciais, e não é por meio do número de elétrons dentro de um átomo
que os elementos são melhor distinguidos.
Machine Translated by Google

Por outro lado, a carga nuclear não podia ser alterada por nenhum método conhecido pelos químicos e físicos de 1900;
nenhuma alteração do número de elétrons, de uma forma ou de outra, alteraria essa carga nuclear. Foi o tamanho da carga nuclear,
então, que melhor caracterizou as diferentes variedades de átomos e, portanto, os diferentes elementos.

Mas se tudo isso é assim, como se pode encontrar o tamanho exato da carga nuclear dos átomos de uma determinada
elemento? A resposta a essa pergunta foi alcançada através dos raios X.

Quando Röntgen descobriu os raios X, ele os produziu como resultado do impacto de partículas de raios catódicos no vidro
na extremidade do tubo de raios catódicos. Elétrons em alta velocidade podem penetrar em pequenas espessuras de matéria, mas
são mais lentos; se a matéria obstrutiva for suficientemente espessa, eles são parados completamente e absorvidos. A
desaceleração de partículas eletricamente carregadas resultará, de acordo com a teoria do eletromagnetismo de Maxwell, na
produção de radiação eletromagnética, e isso realmente aparece na forma de raios X.

É de se esperar que o material composto de átomos massivos desacelere de forma mais eficaz e rápida os elétrons em
velocidade e produza feixes de raios X mais intensos. Por essa razão, os físicos passaram a colocar placas de metal diretamente
opostas ao cátodo dentro de tubos de raios catódicos. Esta placa de metal, às vezes chamada de anticátodo ("oposto ao cátodo")
é submetida à emissão de raios X. Esse tubo de raios catódicos é geralmente chamado de rube de raios-X.

Os raios X produzidos a partir do anticátodo variaram em propriedades de acordo com a natureza do material que compõe o
anticátodo. O primeiro a mostrar isso foi o físico inglês Charles Clover Barkla (1877-1944). Em 1911, Barkla mostrou que
entre os raios X produzidos em um determinado anticátodo, certos grupos predominavam. Ele só podia julgar a diferença entre
os grupos de raios X produzidos por sua capacidade de penetrar espessuras de matéria. Um grupo penetraria uma espessura
relativamente grande, outro grupo uma espessura menor e assim por diante. Quanto maior a espessura penetrada, mais "mais
duros" os raios X. Tornou-se costume chamar os raios X mais duros produzidos em um determinado anticátodo de série K, o
próximo de série L, depois de série M e assim por diante. Estes são os raios X característicos de um determinado elemento.

A dureza desses conjuntos de raios X característicos varia com a natureza do metal que compõe o anticátodo. Em geral,
quanto maior o peso atômico do metal, mais duros são os raios X produzidos. Parecia razoável supor que se a dureza pudesse ser
medida com precisão, informações interessantes sobre os núcleos atômicos poderiam ser obtidas.

Infelizmente, medir a dureza dos raios X por sua penetrabilidade é bastante impreciso. Algo melhor foi
Machine Translated by Google

precisava. Suspeitava-se fortemente, por exemplo, que os raios X eram radiação eletromagnética (embora quando Barkla fez seu trabalho
isso ainda não havia sido demonstrado de forma conclusiva). Nesse caso, quanto menor o comprimento de onda de um determinado
feixe de raios X, mais enérgico ele seria e mais penetrante. A medição do comprimento de onda dos raios X (ou de sua frequência)
ofereceria assim um método possivelmente preciso para estimar sua dureza.

No entanto, como seu comprimento de onda poderia ser medido? Em princípio, o melhor método seria usar uma grade de difração
(consulte a página II-65). Uma grade de difração, feita de uma série de arranhões paralelos em uma superfície de transmissão clara; só
pode funcionar em determinadas circunstâncias. A distância entre os arranhões deve se aproximar do tamanho do comprimento de onda
medido. O comprimento de onda dos raios X era muito menor que o da radiação ultravioleta, tão curto, de fato, que era impraticável
esperar que os arranhões fossem produzidos com espaçamento suficientemente próximo.

Uma saída para esse dilema ocorreu em 1912 com o físico alemão Max von Laue (1879-1960). Cristais, ele percebeu,
eram grades de difração naturais muito mais finamente espaçadas do que qualquer homem poderia fazer. Nos cristais, os átomos
existiam em fileiras e arquivos ordenados. Os núcleos dos átomos, que desviariam os raios X assim como os arranhões desviariam a
luz comum, estão separados por cerca de 10 a 8 centímetros (sendo aproximadamente o diâmetro de um átomo típico), e isso pode muito
bem ser do tamanho de um X. comprimento de onda do raio.

Laue usou um cristal de sulfeto de zinco, permitindo que um feixe de raios X caísse sobre ele e, passando por ele, atingisse
uma chapa fotográfica. Os raios X foram de fato difratados, produzindo um padrão de pontos, em vez de um único ponto localizado
centralmente. Esta foi a prova definitiva, finalmente, de que os raios X eram de natureza ondulatória.

Essa abordagem foi levada adiante naquele mesmo ano por um par de físicos, o inglês William Henry Bragg (1862-
1942) e seu filho, o australiano William Lawrence Bragg (1890-). Eles analisaram a maneira pela qual os raios X seriam refletidos pelos
planos dos átomos dentro de um cristal e mostraram que essa reflexão seria mais intensa em certos ângulos, cujos valores dependiam
da distância entre os planos dos átomos dentro de um cristal e no comprimento de onda do raio X. Se a distância entre os planos dos
átomos fosse conhecida, o comprimento de onda poderia ser calculado.

Verificou-se que por este método o comprimento de onda pode ser calculado com um grau de precisão satisfatório. Os raios X,
produzidos pela desaceleração de elétrons em alta velocidade, foram encontrados em toda a faixa de 1 milimícron (o limite inferior
arbitrário dos comprimentos de onda da radiação ultravioleta) até um pouco menos de 0,01 milimícron, uma faixa de cerca de sete oitavas.
Machine Translated by Google

Número atômico

Com a técnica de Bragg em mãos, agora era possível recorrer aos raios X característicos de Barkla e estudá-los com cuidado e precisão.
Isso foi feito em 1913 pelo físico inglês Henry Gwyn-Jeffreys Moseley (1887-1915).

Moseley trabalhou com a série K de raios X característicos para cerca de uma dúzia de elementos consecutivos na tabela periódica,
do cálcio ao zinco, e descobriu que o comprimento de onda dos raios X diminuía (e a frequência, portanto, aumentava) à medida que o
peso atômico aumentava. Ao tirar a raiz quadrada da frequência, ele descobriu que havia um aumento constante à medida que se
passava de um elemento para o próximo.

Moseley decidiu que havia algo sobre o átomo, que aumentava em passos regulares à medida que se subia na tabela periódica.
Foi possível demonstrar que esse "algo" era provavelmente a carga positiva do núcleo.
A conclusão mais direta que Moseley pôde chegar foi que o átomo mais simples tinha uma carga de +1 em seu núcleo; a próxima, uma
carga de +2; no próximo, uma carga de +3, e assim por diante. Moseley chamou o tamanho dessa carga de número atômico.

Isto acabou por ser correcto. O hidrogênio é agora considerado como tendo um número atômico de l, hélio, um de 2, lítio, um de 3 e
assim por diante. Na tabela periódica, os elementos recebem números atômicos de 1 a 103, e o número atômico de cada elemento
conhecido foi determinado.

O número atômico é muito mais fundamental para a tabela periódica do que o peso atômico. Mendeleev foi forçado a colocar alguns
elementos fora da ordem de peso atômico para que eles se encaixassem em suas famílias apropriadas. Por exemplo, o cobalto se encaixa
melhor na mesa se for colocado à frente do níquel. No entanto, o cobalto, com um peso atômico de 58,93, deve ficar atrás do níquel, que
tem um peso atômico de apenas 58,71.

Moseley, no entanto, descobriu que o cobalto, apesar de seu peso atômico mais pesado, produzia raios X com frequência mais baixa.
que os de níquel. O cobalto, portanto, tem o menor número atômico, 27, e o número atômico do níquel é 28.
A intuição química de Mendeleev, trabalhando sem o guia dos dados de raios-X, o havia conduzido corretamente.

Para resumir, existem três pares de elementos na tabela periódica (argônio-potássio, cobalto-níquel e telúrio iodo), que estão fora
de ordem se o aumento do peso atômico for tomado como critério. Se o aumento do número atômico for tomado como critério, nenhum
elemento na tabela está fora de ordem.
Machine Translated by Google

O conceito de número atômico também trouxe um novo poder à tabela periódica de outra maneira. Não só os químicos
prever elementos ausentes (como Mendeleev fez), mas agora eles também podiam prever a inexistência de elementos.

Enquanto o peso atômico fosse o único guia, nunca se poderia ter certeza de que famílias inteiramente novas de elementos não
descobertos poderiam não existir. Na década de 1890, por exemplo, a família de gases inertes - hélio, neônio, argônio, criptônio e xenônio -
foi descoberto e encaixado em uma nova coluna na tabela periódica, uma coluna que ninguém suspeitava que existisse anteriormente.
Mais uma vez, os lantanídeos foram descobertos um a um no espaço de um século, e até a época de Moseley nenhum químico podia ter
certeza de quantos restavam a serem encontrados - milhares, pelo que se podia dizer então.

Com os números atômicos, tais incertezas foram esmagadas. Desde que se pudesse supor a inexistência de cargas elétricas
fracionárias no núcleo, poder-se-ia ter certeza de que não havia elementos desconhecidos entre o hidrogênio (número atômico 1) e o hélio
(número atômico 2), ou entre o fósforo (número atômico 15) e o enxofre. (número atômico 16).

De fato, pela primeira vez os químicos puderam dizer quantos elementos restaram a serem descobertos. O primeiro elemento da
tabela periódica era o hidrogênio (número atômico i), e não poderia haver nenhum elemento precedendo-o. O elemento com o átomo mais
massivo conhecido (no tempo de Moseley) era o urânio (número atômico 92). Entre esses dois limites, todos os números atômicos,
exceto sete, foram preenchidos, e apenas sete elementos desconhecidos permaneceram para serem descobertos. As sete lacunas eram
aquelas com números atômicos 43, 61, 72, 75, 85, 87 e 91.

A análise de raios-X também pode ser usada para verificar a identidade de elementos possivelmente recém-descobertos. Por exemplo, os franceses
o químico Georges Urbain (1872-1938) isolou em 1911 o que pensava ser um novo elemento e o chamou de "celtium". Quando o
trabalho de Moseley foi publicado, Urbain decidiu que seu novo elemento deveria se encaixar na lacuna da tabela periódica no número
72 e trouxe uma amostra para Moseley para teste. Moseley analisou os raios X característicos e descobriu que o "novo elemento" era uma
mistura de itérbio e lutécio (elementos número 70 e 71), ambos já conhecidos. Um trabalho químico meticuloso confirmou isso e Urbain,
muito impressionado, trabalhou arduamente para popularizar o conceito do número atômico.

Dentro de uma dúzia de anos, três das lacunas foram preenchidas. O protactínio (número atômico 91) foi descoberto em 1917; háfnio
(número atômico 72), em 1923; e rênio (número atômico 75), em 1925. Depois disso, mais de uma década se passou antes que as últimas
quatro lacunas (43, 61, 85 e 87) fossem preenchidas. Estes últimos elementos serão retomados oportunamente.
Machine Translated by Google

Uma vez que a carga nuclear de um elemento era conhecida, algo também era conhecido sobre o número de elétrons nos
átomos desse elemento. no átomo neutro, o número de elétrons tinha que ser precisamente o suficiente para neutralizar a carga
nuclear.
Se, no átomo de oxigênio, o núcleo tem uma carga de +8, deve haver oito elétrons (cada um com carga de -1) para equilibrar isso.
Podemos dizer então que o número de elétrons em um átomo neutro é igual ao número atômico do elemento. O átomo de hidrogênio
neutro possui 1 elétron, o átomo de sódio neutro possui 11 elétrons e o átomo de urânio neutro possui 92 elétrons.

Conchas de elétrons

A próxima pergunta geral foi esta: Como os elétrons em um átomo estão organizados? Thomson, em seu modelo de bolo de
passas do átomo, sugeriu que os elétrons embutidos na substância carregada positivamente do átomo estavam dispostos em
círculos. Se houvesse um grande número de elétrons, poderia haver um número de círculos.

Depois que o modelo de Thomson foi abandonado e substituído pelo átomo nuclear de Rutherford, permaneceu possível que os
elétrons possuíssem algum arranjo regular fora do núcleo. Esta noção parecia ser apoiada pelas várias séries de raios X
característicos produzidos por vários elementos. Talvez cada série tenha sido produzida por um grupo separado de elétrons
envolvendo o núcleo central. O grupo mais próximo do núcleo seria mais firmemente mantido e produziria os raios X mais duros, a
série K. O próximo grupo produziria a série L, e assim por diante. Se os elétrons fossem retratados como dispostos esfericamente ao
redor do núcleo (como as cascas que formam uma cebola), poderíamos falar da camada K, da camada L, da camada M e assim por
diante, à medida que se trabalha para fora do núcleo. .

Então, considere os gases inertes - hélio, neônio, argônio e criptônio, xenônio e radônio. De todos os elementos, eles foram os
menos aptos a se envolver em reações químicas. (Até 1962, era dado como certo que eles não poderiam se envolver em nenhuma
reação química. Foi então descoberto que o criptônio, o xenônio e o radônio poderiam se envolver em muito poucas.) Por que isso acontece?

Uma razão é que as reações químicas devem envolver as interações dos elétrons dentro dos átomos. Por exemplo, quando o
sódio metálico reage com o cloro gasoso, o cloreto de sódio é formado e este consiste em íons sódio e íons cloreto.
Na reação de sódio e cloro, então, o átomo de sódio perde um elétron para se tornar Na+, e o átomo de cloro ganha um elétron
para se tornar Cl.

Talvez, se os gases inertes não se envolvem facilmente em reações químicas, é porque seus átomos já possuem um
Machine Translated by Google

arranjo particularmente estável de elétrons e têm apenas a menor tendência de perturbar esse arranjo, entregando-
se à perda ou ganho de elétrons.

Parecia lógico supor que esse arranjo estável fosse representado pelo preenchimento completo de uma camada
particular de elétrons.

Por exemplo, o hélio tem número atômico 2 e é inerte. Pode-se supor que, como o átomo de hélio neutro possui
dois elétrons, ele requer apenas dois elétrons para preencher a camada mais interna, ou camada K. O próximo gás
inerte é o neônio, que tem peso atômico 10 e que, em seu estado neutro, possui dez elétrons em seus átomos. Com dois
elétrons preenchendo a camada K, os oito restantes devem ser suficientes para preencher a camada L. O próximo gás
inerte é o argônio, que tem número atômico 18 e tem dezoito elétrons por átomo. Com dois elétrons na camada K e oito
na camada L, os oito restantes devem preencher a camada M. Com base nesse raciocínio, a Tabela IV contém a distribuição
dos elétrons entre as camadas dos primeiros vinte elementos. (Apenas os primeiros vinte são incluídos porque a
distribuição se torna mais complicada para os elementos superiores.)

Logo após o trabalho de Moseley, foi feita uma tentativa de racionalizar as reações químicas com base nas
distribuições de elétrons dentro do átomo. Uma tentativa relativamente bem-sucedida foi feita, independentemente, pelos
químicos americanos Gilbert Newton Lewis (1875-1946) e Irving Langmuir (1881-1957). A essência de seus pontos de vista
era que em qualquer reação química um elemento ganhava ou perdia elétrons de forma a ganhar uma “configuração de gás
inerte” que era o arranjo mais estável.

Assim, o sódio, com seus elétrons divididos em 2/8/1, tinha uma forte tendência a ceder um elétron e tornar-se íon sódio.
(Na +) com seus elétrons divididos em 2/8. O íon sódio tem a configuração neônio dos elétrons, mas, é claro, não se
torna neônio, pois a carga nuclear do íon sódio (propriedade característica de um elemento particular) permanece
+11, enquanto a do neônio é +10. O mesmo argumento vale para o cloro. O átomo de cloro, com arranjo eletrônico de
2/8/7, tem forte tendência a ganhar um elétron e formar o íon cloreto (Cl -), que tem arranjo 2/8/8, como o do argônio.

A facilidade com que o sódio e o cloro interagem pode ser vista como consequência da maneira pela qual seus
tendências de deslocamento de elétrons se complementam. O elétron do qual um átomo de sódio cederá tão
facilmente será aceito com a mesma facilidade por um átomo de cloro. Os íons de cargas opostas resultantes se
unem para formar o cloreto de sódio.
Machine Translated by Google

Da mesma forma, o cálcio (2/8/8/2) cederá facilmente dois elétrons para formar o íon cálcio (Ca++) com configuração 2/8/8, a do
argônio; enquanto o oxigênio (2/6) aceitará prontamente dois elétrons para formar íon óxido (0--) com uma configuração 2/8, a do neônio.
Assim, o óxido de cálcio (CaO) é formado.

Tabela IV - Arranjos de Elétrons

Elemento Atomic K-Shell L M-Shell N-Shell


Não.

- - -
Hidrogênio
Hélio 1 - - -
Lítio 2 12212 - -
3 22324 - -
Berílio
Boro 45 2 5 2 6 27 - -
Carbono 6 28282 - -
7 8 2 8 2 82 - -
Azoto
8 88888 - -
Oxigênio
Flúor 9 - -
Néon 10 - -
Sódio 11 -
12 1 -
Magnésio
Alumínio 13 2 -
Silício 14 3 -
15 48 5 -
Fósforo
Enxofre 16 2 6 -
Cloro 17 2 78 -
18 2 88 -
Argônio
Potássio 19 2
Cálcio 20 2 12
Machine Translated by Google

Ou o cálcio pode ceder um elétron a um átomo de cloro e um segundo elétron a outro átomo de cloro para formar cloreto
de cálcio (CaCl2). Desta forma, o cálcio se combina com dois átomos de cloro, de modo que um peso grama-atômico de
cloro combina com apenas metade de um peso grama-atômico de cálcio. A existência de pesos equivalentes (com o peso
equivalente do cálcio sendo apenas metade do seu peso grama-atômico) pode assim ser explicada eletronicamente.

Qualquer teoria desse tipo tinha que explicar por que os átomos de dois cloro se unem fortemente para formar uma molécula de cloro.
Cada átomo de cloro tem uma forte tendência a aceitar um elétron, mas virtualmente nenhuma tendência a ceder um. A
sugestão de Lewis Langmuir era que cada um dos dois átomos de cloro poderia contribuir com um elétron para um "pool
compartilhado" de dois. Esses dois elétrons estariam dentro da camada eletrônica mais externa de ambos os átomos (desde que
estivessem tão próximos um do outro a ponto de estarem em contato virtual), e cada átomo teria então a configuração 2/8/8 do argônio.

Qualquer coisa que separasse os átomos de cloro perturbaria esse arranjo estável de elétrons, impossibilitando a
existência do pool compartilhado. Por esta razão, a molécula de cloro de dois átomos é muito estável, e uma energia considerável
é necessária para decompô-la em átomos de cloro individuais.

Argumentos semelhantes explicarão por que flúor, hidrogênio, oxigênio e nitrogênio formam moléculas estáveis de dois átomos.

A configuração eletrônica do átomo de carbono é 2/4. Pode contribuir com um elétron para formar um pool compartilhado
de dois elétrons com um átomo de hidrogênio, contribuir com um segundo elétron para um segundo átomo de hidrogênio e assim
por diante. No final, haverá quatro pools compartilhados, de dois elétrons cada, com cada um dos quatro átomos de hidrogênio.
configuração de néon. Cada átomo de hidrogênio possui uma participação em dois elétrons para atingir a configuração de hélio.
Assim, a molécula de metano (CH 4) é estável.

De fato, a imagem de Lewis-Langmuir de elétrons sendo transferidos e compartilhados acabou sendo uma maneira muito útil de
imaginando como as moléculas de muitos dos compostos químicos mais simples são mantidas juntas.

Além disso, a teoria de Lewis-Langmuir deixou claro por que a tabela periódica era periódica (algo que Mendeleev, é
claro, não conseguira explicar). Para começar, todos os gases inertes têm seus elétrons dispostos em uma
Machine Translated by Google

forma que lhes proporcione a máxima estabilidade. Eles são todos quimicamente inertes, portanto, e formam uma família química
natural de elementos muito semelhantes.

Os metais alcalinos estão todos localizados em posições um número atômico acima dos gases inertes. Assim, o lítio (um após o
hélio) tem a configuração eletrônica 2/1; sódio (um após neon) é 2/8/l; potássio (um passado de argônio) é 2/8/8/1, e assim por diante.
Todo metal alcalino tem apenas um elétron em sua camada mais externa e tem uma forte tendência a perdê-lo. Por isso, todos são
elementos muito ativos, com propriedades semelhantes, formando uma família natural.

Os elementos alcalino-terrosos formam uma família semelhante na qual cada um tem dois elétrons na camada mais externa do átomo.
Berílio é 2/2, magnésio é 2/8/2, cálcio é 2/8/8/2 e assim por diante.

Novamente, todos os halogênios devem ser encontrados um número atômico antes que a configuração do gás inerte flúor seja 2/7, cloro seja
08/02/07, e assim por diante. Todos têm uma forte tendência a aceitar um elétron e também formam uma família natural de elementos
de propriedades químicas semelhantes.

E assim, por meio de elétrons e camadas eletrônicas, a tabela periódica foi racionalizada meio século depois de sua criação.

CAPÍTULO 5

Elétrons e Quanta

Série Espectral

Por mais útil que seja a visão de Lewis-Langmuir do átomo para explicar a estrutura de muitos dos compostos químicos
mais simples, ela não explica tudo. Não descreve, por exemplo, de maneira satisfatória a estrutura dos hidretos de boro (compostos
de boro e hidrogênio) nem explica as propriedades peculiares do conhecido composto benzeno (C
6H 6). Além disso, não explica adequadamente o comportamento de muitos dos elementos com pesos atômicos
além do cálcio. A visão de Lewis-Langmuir não explica, por exemplo, por que os lantanídeos, com números atômicos de 57 a 71
inclusive, deveriam ser tão semelhantes em propriedades.
Machine Translated by Google

Uma falha óbvia na visão de Lewis-Langmuir é que ela considera os elétrons como partículas estacionárias distribuídas ao
redor do átomo em certas posições fixas. De fato, os oito elétrons da camada L e da camada M eram geralmente descritos como
localizados nos oito cantos de um cubo, de modo que moléculas simples podiam ser apresentadas em diagramas como sendo
compostas de cubos interligados.

Esta é uma imagem conveniente do ponto de vista químico, mas é inaceitável para os físicos e deve ser substituída por outra coisa
para que a visão de Lewis-Langmuir seja mais útil. Afinal, se o elétron carregado negativamente é estacionário em relação ao núcleo
carregado positivamente, então a teoria eletromagnética exige que ele caia no núcleo (assim como a Terra cairia no sol se estivesse
estacionária em relação ao sol) .

Consequentemente, os físicos tendiam a supor que os elétrons estavam circulando o núcleo em grande velocidade para não cair
nele. Em 1904, um físico japonês, Hantaro Nagaoka, sugeriu especificamente que os elétrons circulavam em órbitas dentro do átomo,
assim como os planetas circulavam em órbitas dentro do sistema solar.

Há, no entanto, uma dificuldade fundamental que teve que ser enfrentada por todos os modelos que envolviam elétrons girando em torno de um
núcleo. Um elétron giratório sofre uma aceleração contínua em direção ao centro e, pela teoria eletromagnética de Maxwell; tal carga
acelerada deve estar constantemente emitindo radiação eletromagnética.

De fato, Nagaoka fez essa parte de seu modelo. O elétron em seu movimento circular em torno do núcleo atuou como uma carga
oscilando de uma extremidade de sua órbita para a outra, e isso deve criar radiação de frequência correspondente (como no caso
das oscilações de descarga de faísca de Hertz). Se o elétron fizesse quinhentos trilhões de rotações por segundo em sua órbita (o que
faria se viajasse na velocidade não impossível de 150 quilômetros por segundo), ele produziria radiação com uma frequência de
quinhentos trilhões de ciclos por segundo; isso estaria na faixa de luz visível. Aqui estava uma explicação da luz como uma radiação
eletromagnética.

Esta foi uma sugestão tão atraente que quase dói quebrá-la, mas é preciso. Se o elétron giratório emite
radiação eletromagnética continuamente, ele deve perder energia, e energia cinética (a energia do movimento) é tudo o que o
elétron pode perder, até onde sabemos. Consequentemente, seu movimento em torno do núcleo central deve diminuir
constantemente e o elétron deve espiralar para dentro do núcleo.

Como os elétrons, de fato, não espiralam para dentro do núcleo, outro modelo deve ser encontrado. Esse modelo deve levar em conta
não apenas pelo fato de que os átomos irradiam luz (e também a absorvem), mas que eles apenas irradiam e absorvem luz de certas
Machine Translated by Google

comprimentos de onda característicos (ou frequências). Ao estudar as inter-relações desses comprimentos de onda característicos,
podem ser encontradas dicas sobre o que essa estrutura pode ser. O hidrogênio seria o elemento a ser combatido, pois produz o
espectro mais simples e ordenado.

Assim, a linha mais proeminente no espectro de hidrogênio tem um comprimento de onda de 656,21 milimícrons. Ao lado está um
em 486,08 milimícrons; depois um de 434,01 milimícrons; depois um de 410,12 milimícrons; depois um al 396,81
milimícrons e assim por diante. Se os comprimentos de onda dessas linhas forem plotados em escala, eles serão vistos separados
por intervalos cada vez mais curtos. Aparentemente, alguma ordem existe aqui.

Em 1885, um matemático alemão, Johann Jakob Balmer (1825-1898), mexeu com a série de números que representavam
os comprimentos de onda das linhas do espectro de hidrogênio e encontrou uma fórmula simples que expressava o
comprimento de onda (lambda) das linhas. Este foi:

2
Lambda = (364,56m 2) / (m – 4) (Equação 5-1)

Onde (m) pode ter valores de números inteiros sucessivos começando com 3. Se m=3, então (lambda) pode ser calculado como igual
para 656,21 milhões de mícrons, que é o comprimento de onda da primeira linha. Se m for igual a 4, depois a 5 e depois a 6,
os comprimentos de onda da segunda, terceira e quarta linhas do espectro de hidrogênio aparecem no valor calculado para lambda.
Esta série de linhas veio a ser chamada de série Balmer.

Eventualmente, à medida que m se torna muito alto, (m2 - 4) torna-se muito pouco diferente de m2, de modo que os dois termos
se cancelam na Equação 5-1. Nesse caso, lambda se tornaria igual a 364,56 milimícrons (constante de Balmer), e este seria o limite
para o qual tenderiam todas as linhas da série.

Alguns anos após o trabalho de Balmer, o físico sueco Johannes Robert Rydberg (1854-1919) colocou a fórmula em um
forma mais conveniente. Ele começou tomando a recíproca de ambos os lados da Equação 5-1, e isso lhe deu

1/(lambda) = (m2 - 4) / 364,56 m2 (Equação 5-2)


Machine Translated by Google

Multiplicando o numerador e o denominador do lado direito da Equação 5-2 por quatro:

1/(lambda) = (m2 - 4) / 364,56 m2 = 0,0109 [(m2 - 4) / 4 m 2] (Equação 5-3)

Vamos pegar cada parte da porção da extrema direita da Equação 5-3 separadamente. O valor 0,0109 é obtido através
a divisão de 4 pela constante de Balmer, que é 364,56 milimícrons. As unidades do quociente são, portanto, "por
milimícron". Rydberg optou por usar a unidade "por centímetro". Existem 10.000.000 de milimícrons em um centímetro, então há dez
milhões de rimes por centímetro como por milimícron. Se multiplicarmos 0,0109 por dez milhões, obtemos 109.000. O valor exato,
conforme determinado por medições modernas, é de 109.737,31 por centímetro. Isso é chamado de constante de Rydberg e é
simbolizado por R. Em termos de centímetros, então, podemos expressar a Equação 5-3 da seguinte forma:

1/ lambda = 109.737,31[(m2 - 4) / 4 m 2] = R [(m2 - 4) / 4 m 2] Equação 5-4

O valor de (lambda) determinado pela Equação 5-4 é, obviamente, expresso em centímetros, de modo que o comprimento de onda do
linha principal sai para 0,000065621 centímetros.

Agora considere essa parte da equação, que é escrita [(m2 - 4) / 4 m 2]. Isto pode ser escrito reduzindo-se ao menor
22
termos, 1/4 - 1/ m 2. Para tornar isso mais simétrico, agora podemos expressar 4 como um quadrado também e torná-lo 1/2 - 1/m .
Agora a Equação 5-4 se torna:

2 1/ lambda = R[1/2 – 1/m2] (Equação 5-5)

onde m pode ser igual a qualquer inteiro de frente 3 para cima.

É possível imaginar séries semelhantes como:

2
1/ lambda = R[1/1 – 1/m2] (Equação 5-6)

2 1/ lambda = R[1/3 – 1/m2] (Equação 5-7)


Machine Translated by Google

1/ lambda = R[1/42 – 1/m2] (Equação 5-8)

e assim por diante. Na Equação 5-6, os valores de m devem ser inteiros maiores que 1; na Equação 5-7, inteiros maiores que
3; e na Equação 5-8, inteiros maiores que 4.

Os comprimentos de onda dados pela Equação 5-6 seriam mais curtos que os da série de Balmer e existiriam apenas na
faixa ultravioleta. Esta série foi realmente descoberta em 1906 pelo físico americano Theodore Lyman (1874-1954) e
consequentemente é conhecida como a série Lyman.

Os comprimentos de onda dados pela Equação 5-7 seriam mais longos que os da série de Balmer e existiriam apenas na
faixa do infravermelho. Estes foram observados em 1908 pelo físico alemão Friedrich Paschen. Os comprimentos de onda
dados pela Equação 5-8 seriam ainda mais profundos no infravermelho, e estes foram descobertos pelo físico americano Frederick S.
Brackett. As equações 5-7 e 5-8 representam, portanto, a série de Paschen e a série de Brackett, respectivamente. Outras
séries também foram descobertas.

O átomo de Bohr

Um modelo útil do átomo de hidrogênio deve, portanto, não apenas levar em conta o fato de que o elétron circulante
emite radiação sem entrar em espiral no núcleo, mas também emite radiação de comprimentos de onda altamente
específicos, de modo a torná-los adequados aos equações de Rydberg simples.

O modelo necessário foi sugerido em 1913 pelo físico dinamarquês Niels Bohr (1885-1962). Parecia-lhe que um
deveria aplicar a teoria quântica então recém-estabelecida ao problema.

Se a teoria quântica for aceita, então qualquer objeto que esteja convertendo energia cinética em radiação deve irradiar
energia apenas em quanta inteiros. Isso seria verdade se a Terra, por exemplo, perdesse energia constantemente à medida
que girava em torno do sol. Os quanta de energia irradiados pela Terra dessa maneira seriam. No entanto, ser tão
incrivelmente pequeno em comparação com a energia cinética total do planeta que mesmo as observações mais delicadas
não seriam suficientes para detectar qualquer irregularidade no movimento da Terra. Parece estar espiralando gradual e suavemente em d

Não é assim para os elétrons. A energia cinética total de um corpo tão pequeno como um elétron não é muito maior do
que os quanta individuais de luz visível. Portanto, se um quantum de luz visível é irradiado pelo elétron girando em torno do núcleo, um
Machine Translated by Google

uma fração considerável de sua energia cinética é perdida de uma só vez. Em vez de espiralar gradualmente em direção ao núcleo
(como seria de esperar de acordo com os princípios dos tempos pré-quânticos - isto é, da "física clássica"), o elétron de repente
assumiria uma nova órbita mais próxima do núcleo. Por outro lado, se a luz fosse absorvida por um elétron, ela seria absorvida apenas
um quantum inteiro de cada vez. Com a absorção de um quantum inteiro, um elétron teria uma fração considerável da energia que já
possuía e subitamente assumiria uma nova órbita mais distante do núcleo.

Bohr sugeriu que o elétron tinha uma certa órbita mínima, uma que representava seu estado fundamental; em que momento
estava o mais próximo possível do núcleo e possuía energia mínima. Tal elétron simplesmente não poderia irradiar energia (embora
a razão para isso não tenha sido explicada adequadamente por mais de uma década). Fora do estado fundamental havia uma série de
órbitas possíveis que se estendiam cada vez mais longe do núcleo. Nessas órbitas, os estados excitados, o elétron poderia ser elevado
pela absorção de uma quantidade apropriada de energia.

Bohr organizou as órbitas em torno do núcleo do átomo de hidrogênio de modo a dar ao elétron uma série de valores particulares
para seu momento angular. Esse momento tinha que envolver a constante de Planck, pois era essa constante que ditava o tamanho dos
quanta. Bohr elaborou a seguinte equação:

p = nh / 2(pi) (Equação 5-9)

Na Equação 5-9 (p) representa o momento angular do elétron, (h) é a constante de Planck e (pi) é, obviamente, a razão familiar entre
a circunferência de um círculo e seu diâmetro. Quanto a n, esse é um inteiro positivo que pode assumir qualquer valor de 1 para cima. Ao
trazer a constante de Planck e tornar o elétron capaz de assumir apenas certas órbitas nas quais n é um número inteiro, diz-se que o átomo
está quantizado.

A expressão (h/2pi) é comumente usada em cálculos envolvendo o átomo quantizado e geralmente é expressa pelo único símbolo
h, que é referido como "h bar". Uma vez que o valor de h é aproximadamente 6,6256 x 10-27 erg-segundos e o de (pi) é aproximadamente
3,14159, o valor de h é aproximadamente 1,0545 X 10-27 erg-segundos.

Podemos, portanto, expressar a Equação 5-9 como:

p = n (1,0545 x 10-27) (Equação 5-10)


Machine Translated by Google

O símbolo n às vezes é chamado de "número quântico" ou, mais apropriadamente, o número quântico principal, pois existem
outros. Pode ser imaginado para representar as várias órbitas. Onde n é igual a 1, refere-se ao estado fundamental; onde n é igual
a 2, 3, 4 e assim por diante, refere-se aos estados excitados cada vez mais altos.

Se o único elétron do átomo de hidrogênio caiu da órbita 2 para a órbita 1, ele emite um quantum de tamanho fixo, e isso é
equivalente a um pouco de radiação de frequência fixa. Isso apareceria como uma linha espectral brilhante em uma posição fixa.
(Se o único elétron subisse da órbita 1 para a órbita 2, isso seria através da absorção de um quantum de mesmo tamanho fixo, e
isso produziria uma linha escura contra um fundo claro na mesma posição.)

Se o único elétron do átomo de hidrogênio caísse da órbita-3 para a órbita-1, isso representaria uma diferença maior
em energia, e a luz de maior frequência seria emitida. A luz de frequência ainda mais alta resultaria na queda de um elétron da
órbita 4 para a órbita 1, e frequência mais alta ainda na queda da órbita 5 para a órbita 1.

A série de possíveis quedas de várias órbitas para a órbita 1 produziria uma série de frequências sucessivamente mais altas
(ou comprimentos de onda sucessivamente mais baixas) que corresponderiam às da série de Lyman. Uma série de possíveis
quedas de várias órbitas externas para a órbita 2 daria origem à série de Balmer; de várias órbitas externas para a órbita 3 para a
série de Paschen, e assim por diante.

Nas equações que definem os comprimentos de onda das linhas espectrais incluídas nas várias séries (Equações 5-5, 5-6, 5-7.
e 5-8), o número inteiro no denominador da primeira fração ou o lado direito da equação acaba sendo o número quântico
principal da órbita na qual os elétrons caem (ou da qual eles sobem).

Se considerarmos átomos que são mais complicados que o hidrogênio e contêm mais elétrons, devemos lembrar que eles
também contêm núcleos de maior carga positiva. Os elétrons mais internos são mantidos progressivamente mais firmemente à
medida que a carga nuclear aumenta. São necessários incrementos maiores de energia para mover esses elétrons do núcleo para
estados excitados. Por outro lado, quanta maiores de energia são liberados quando um elétron cai mais perto de seu estado
fundamental. Enquanto os comprimentos de onda mais curtos que o hidrogênio pode produzir são aqueles representados pela
série de Lyman no ultravioleta, átomos mais complicados podem produzir radiação na região dos raios X. O comprimento de onda
dos raios X diminui com o aumento do número atômico, como Moseley havia notado.

Até agora tudo bem. Se as linhas do espectro de hidrogênio fossem linhas simples, o modelo de Bohr do átomo de
hidrogênio poderia ter sido razoavelmente satisfatório. No entanto, à medida que a análise espectral foi refinada, descobriu-se que cada linha t
Machine Translated by Google

estrutura; isto é, consistia em várias linhas distintas próximas umas das outras. Era como se um elétron caindo para a órbita 2, por
exemplo, pudesse cair em qualquer uma das várias órbitas muito próximas.

Isso ameaçou a interpretação quântica do átomo, mas em 1916 o físico alemão Arnold Sommerfeld (1868-
1951) ofereceu uma explicação. Bohr havia imaginado as órbitas dos elétrons como uniformemente circulares, mas Sommerfeld sugeriu
que elas também poderiam ser elípticas. Órbitas elípticas de apenas certas excentricidades podiam ser ajustadas aos requisitos quânticos
e, para qualquer número quântico principal, uma família fixa de órbitas - uma circular e as demais elípticas - era permitida, sendo os
momentos angulares entre as órbitas ligeiramente diferentes. Uma gota em cada um dos vários membros da família produzia radiação de
frequência ligeiramente diferente.

Para levar em conta as órbitas elípticas, Sommerfeld introduziu o número quântico orbital, para o qual podemos usar o símbolo L.
O número quântico orbital pode ter qualquer valor de número inteiro de zero até um a menos que o valor do número quântico principal.
Assim, se n = 1, então L só pode ser igual a 0; se n = 2, então L pode ser igual a 0 ou 1; se n = 3, então L pode ser igual a 0, 1, ou 2, e assim
por diante.

Mas as linhas espectrais podem ser ainda mais complicadas, pois em um campo magnético, linhas que parecem únicas se dividem ainda mais.
Para explicar isso, um terceiro número, o número quântico magnético, teve que ser introduzido, e esta guerra, simbolizada como (m).

O número quântico magnético foi visualizado como estendendo a família de órbitas através do espaço tridimensional. Não
apenas uma órbita poderia ser elíptica em vez de circular, mas também poderia ser inclinada para a órbita principal em quantidades variáveis.
Os valores possíveis de (m) são os mesmos de L, exceto que valores negativos também são incluídos. Assim, se n = 2 - de modo que
L pode ser 0 ou 1 - pode ser 0, 1 ou - 1. Ele n = 3 - de modo que L pode ser 0, 1 ou 2 - m pode ser 0, 1, 2, -1 ou -2 e assim por diante.

Finalmente, um quarto e último número quântico teve que ser introduzido, o número quântico de spin, simbolizado como (s). Isso
foi visualizado como representando a rotação do elétron (análoga à rotação da Terra em torno de seu eixo). Esse giro pode ser no
sentido horário ou anti-horário, de modo que em conexão com qualquer valor de (n) pode haver apenas dois valores de (s), 1/2 e - 1/2.

Subconchas
Machine Translated by Google

As órbitas descritas pelos números quânticos são todas as que estão disponíveis. Quando um átomo contém mais de um
elétron (como acontece com todos os átomos, exceto os de hidrogênio), eles devem ser distribuídos entre essas órbitas, preenchendo-
as da mais próxima ao núcleo para fora.

Mas quantos elétrons podem ser permitidos em cada órbita? Em 1925, o físico austríaco Wolf gang Pauli (1900-1958) sugeriu que,
para explicar as várias características espectrais dos diferentes elementos, deve-se supor que dois elétrons em um determinado átomo
não podem ter todos os quatro números quânticos idênticos. Isso significa que em qualquer órbita (circular, elíptica ou inclinada) no
máximo dois elétrons podem estar presentes e desses dois, um deve girar no sentido horário e o outro no sentido anti-horário. Assim, a
presença de dois elétrons de spins opostos em uma dada órbita exclui outros elétrons, e isso é chamado de princípio de exclusão de Pauli.

Podemos agora determinar o número de elétrons que podem ser incluídos em cada uma das diferentes famílias de órbitas
representadas pelos números quânticos principais.

Suponha n: 1. Nesse caso, L=0 e m = 0. Nenhuma outra combinação é possível, e a única órbita é 1/0/0. Este pode conter dois
elétrons de spins opostos. O número total de elétrons que podem estar contidos na primeira família de órbitas (n = 1) é, portanto, 2.

Em seguida, suponha que n = 2. Nesse caso, L pode ser igual a 0 ou 1, e m pode ser igual a 0, 1 ou – 1. Para ser mais específico, se n
= 2 e L = 0, então m deve ser igual a 0 também. Se n = 2 e L = 1, então m pode ser igual a 0, 1 ou -1. Portanto, existem quatro órbitas
possíveis para n -- 2. Estas são 2/0/0, 2/1/0, 2/1 /1 e 2/1/-1. Em cada uma dessas órbitas podem existir dois elétrons de spins opostos;
consequentemente, a segunda família de órbitas (n - 2) pode conter oito elétrons no total.

Por raciocínio semelhante, o número total de elétrons que podem estar presentes na próxima família de órbitas (n = 3) faz com que
nosso seja dezoito. De fato, pode-se mostrar que o número máximo de elétrons em qualquer família de órbitas é igual a 2n 2. Portanto,
para a família de órbitas n = 4, pode-se encontrar um total de trinta e dois elétrons; para a família de órbitas n = 5, um total de cinquenta
elétrons pode ser encontrado, e assim por diante.

As famílias de órbitas, representadas pelo número quântico principal n e deduzidas de dados físicos, correspondem ao
diferentes camadas de elétrons deduzidas de dados químicos e usadas no modelo de átomo de Lewis-Langmuir.

O número de elétrons em cada família de órbitas ou camada eletrônica pode ser dividido em subcamadas, de acordo com o valor de
Machine Translated by Google

L. Assim, onde n = 1. L pode ser igual a apenas 0, de modo que a primeira camada eletrônica consiste em apenas uma única subcamada, que
pode conter dois elétrons.

Onde n = 2, por outro lado, L pode ser igual a 0 ou 1. Onde L = 0, apenas uma órbita (2/0/0), contendo no máximo dois
elétrons, é possível; mas onde L = 1, três órbitas (2/1/0, 2/1/1 e 2/1/-1) contendo, no máximo, um total de seis elétrons são possíveis.
Os oito elétrons da segunda camada podem, portanto, ser divididos em duas subcamadas, uma de 2 elétrons e outra de 6.

Da mesma forma, pode-se mostrar que os dezoito elétrons da terceira camada eletrônica podem ser divididos em três
subcamadas, capazes de conter 2 elétrons, uma de 6 e outra de 10. Em geral, a camada eletrônica de O número quântico principal n
pode ser dividido em n subcamadas, onde a primeira pode conter elétrons, e cada uma depois pode conter quatro r do que a anterior
(6, 10, 14, 18 e assim por diante).

Os subgrupos são simbolizados como s, p, d, f, g, h e i. W pode, portanto, dizer que a primeira camada eletrônica contém apenas
a subcamada 1s, que a segunda camada eletrônica contém uma subcamada 2s e uma subcamada 2p, e assim por diante.

Agora vamos ver como tudo isso se aplica aos elementos individuais. Os dois primeiros não apresentam problemas. O hidrogênio tem um
elétron hélio dois, e ambos podem ser acomodados na única camada da primeira camada eletrônica.

Número de elétrons em 1s Número atômico

Hidrogênio 1
Hélio 12 2

Todos os elementos de número atômico maior que 2 contêm elétrons na primeira camada e distribuem o restante entre as camadas
externas. Os elementos imediatamente após o hélio utilizam a segunda camada eletrônica, que é composta pelas subcamadas 2s
(capacidade eletrônica, dois) e 2p (capacidade eletrônica, seis).

Número de elétrons em Número atômico

1s 2s 2p
Machine Translated by Google

Lítio 21222 -
22222 - 34
Berílio
Boro 222222 5
Carbono 1 6
Azoto 2 7
Oxigênio 3

Flúor 4 8
Néon 56 9 10

No neônio, a segunda camada eletrônica está cheia, e os elementos de maior número atômico devem colocar os elétrons
na terceira camada eletrônica. A terceira camada tem três subcamadas, 3s, 3p e 3d com capacidades eletrônicas de dois, seis e dez, respectivam

Número de elétrons Número atômico


1s 2s em 3s 3p 3d

2p

Sódio 28 1 - - 11

28 2- - 12
Magnésio

Alumínio 28 21 - 13

Silício 2822 - 14

2823 - 15
Fósforo

Enxofre 2824 - 16

Cloro 2825 - 17
Machine Translated by Google

2826 - 18
Argônio

Observe as semelhanças nas configurações eletrônicas desses átomos e os da lista anterior. A configuração 2s/2p do
lítio é como a configuração 3s/3p do sódio. Há a mesma comparação a ser feita entre berílio e magnésio, entre boro e alumínio,
e assim por diante. Não é à toa que a tabela periódica é como é.

O argônio, que tem uma combinação 3s/3p de 2/6, assim como o néon tem uma combinação 2s/2p de 2/6, também é um gás
inerte. No entanto, o argônio não tem sua camada externa completamente preenchida. Ainda há espaço para mais dez elétrons na subcamada 3d
A conclusão deve ser que as propriedades do gás inerte são provocadas não por uma camada de elétrons verdadeiramente
completa, mas apenas pelo preenchimento completo das subcamadas s e p. Essas duas subcamadas sempre contêm um total
de oito elétrons; consequentemente, esse total de oito na camada mais externa é a marca registrada do gás inerte. A única
exceção é o hélio. Que contém elétrons apenas na primeira camada de elétrons, que é composta apenas pela subcamada.
Portanto, contém apenas dois elétrons em sua camada eletrônica mais externa (e única).

Você pode supor que os elementos imediatamente após o argônio possuem elétrons na subcamada 3d. Não é assim, no
entanto. Podemos entender isso vendo as subcamadas de uma determinada camada de elétrons ocupando espaço. À medida que
um sai do núcleo, cada camada de elétrons sucessiva tem mais subcamadas e, eventualmente, as subcamadas externas de uma
começarão a se sobrepor às subcamadas internas da próxima. Neste caso, 3d, a subcamada mais externa de n = 3 se sobrepõe a
4s, a subcamada mais interna de n = 4 e é 4s que é, portanto, o próximo a ser preenchido. Desta forma:

Número de elétrons em Número atômico


1s 2s 3s 3d 4s 2p 3p

Potássio 2 8 8 - 19
Cálcio 2 8 8 - 12 20

O potássio, com um único elétron na subcamada 4s, é como o sódio com um único elétron na subcamada 3s e o lítio, com
um único elétron na subcamada 2s. O cálcio também se assemelha ao magnésio e ao berílio.

Elementos de Transição
Machine Translated by Google

Se o escândio, o elemento depois do cálcio, possuísse um elétron na subcamada 4p, ele teria uma combinação s/p de 2/1 e se
assemelharia ao alumínio em suas propriedades. No entanto, não é isso que acontece. Com a subcamada 4s preenchida no caso do
cálcio, os elétrons adicionais dos próximos elementos são adicionados à subcamada 3d da seguinte forma:

Número de elétrons em 1s Número atômico


2s 3s 3d 4s
2p 3p

Escândio 2 8 8 12223 21
Titânio 2 8 8 25152 22
Vanádio 2 8 8 62728 23
Cromo 2 8 8 2 10 1 10
2 24
Manganês 2 8 8 25
Ferro 2 88 88 26
Cobalto 2 88 88 27
Níquel 2 8 8 28
Cobre 2 29
Zinco 2 30

A sobreposição das subcamadas 3d e 4s não é muito pronunciada, então não há muita diferença entre um arranjo 3d/4s de
5/1 e 4/2, ou de 10/1 e 9/2. No caso do cromo e do cobre há razões para preferir atribuir apenas elétron a 4s, mas isso é um mero
detalhe.

O que é importante nos dez elementos do escândio ao zinco, inclusive, é que a diferença no arranjo de elétrons se concentra em
uma subcamada interna, 3d. A subcamada mais externa, 4s, é a mesma (ou praticamente a mesma), em todos. Essa série de elementos
compõe um grupo de elementos de transição, e a diferença progressiva entre eles nas propriedades químicas é
Machine Translated by Google

não tão nítido quanto entre a sucessão de elementos do hidrogênio ao cálcio, onde é a subcamada mais externa na qual a diferença na
distribuição de elétrons aparece.

De fato, os três elementos sucessivos – ferro, cobalto e níquel – se assemelham tanto que formam um
grupo familiar de elementos.

O modelo do átomo de Lewis-Langmuir não permite mudanças no conteúdo de elétrons das camadas internas, e
é por esta razão que este modelo não funciona bem para elementos de transição (e, como acontece, cerca de três quintos de todos
os elementos são elementos de transição).

Com o zinco, a terceira camada de elétrons é completamente preenchida e contém um total geral de dezoito elétrons. A subcamada 4s é
também preenchido e elétrons adicionais devem ser adicionados a 4p e além. A subcamada 4p tem capacidade de seis elétrons.

Número de elétrons em 1s Número atômico


2s 3s 4s 4p 2p 3p

3d

Gálio 2 8 18 2 18 31
Germânio 2 8 2 1 32
Arsênico 22 88 2 18 2 3 18 2 418 33
Selênio 2 88 2 5 18 2 6 34
Bromo 2 35
Krypton 36

Esses seis elementos têm a mesma configuração eletrônica s/p, assim como a série de elementos do alumínio ao argônio ou
do boro ao neon. Assim, o gálio se assemelha ao alumínio e ao boro em suas propriedades; germânio assemelha-se ao carbono e
silício, e sc on. O criptônio com uma combinação 4s/4p de 2/6 é, obviamente, um gás inerte.

A quarta camada tem duas subcamadas adicionais: 4d, que pode conter dez elétrons, e 4f, que pode conter quatorze. Ambas as
subcamadas se sobrepõem à subcamada mais interna da quinta casca, 5s:
Machine Translated by Google

Número de elétrons em 1s Número atômico


2s 3s 4s 4d 4f 2p 3p 4p 3d 5s

Rubídio 2 8 18 8 18 - - 1 37
Estrôncio 2 8 8 - - 2 38

Os próximos elementos possuem elétrons na subcamada 4d para que uma nova série de elementos de transição seja produzida como aqueles
de escândio a zinco, inclusive. Assim, temos:

Número de elétrons em É 2s 3s 4s 4d 4f 5s 2p 3p 4p 3d

Número de elétrons em 1s Número atômico


2s 3s 4s 4d 4f 2p 3p 4p 3d 5s

Ítrio 2 8 18 8 18 - 2 39
Zircônio 2 8 8 18 8 - 2 40
Nióbio 2 8 18 8 18 1 - 1 41
2 8 8 18 8 2 - 1 42
Molibdênio
Tecnécio 2 8 18 8 18 4 - 2 43
Rutênio 2 8 8 18 8 5 - 1 44
Ródio 2 8 18 8 5 - 1 45
Paládio 2 8 7 8 10 - - 46
Prata 22 88 10 - 10 - 47
Cádmio 12 48

Em seguida, voltamos à coluna 5p e produzimos meia dúzia de elementos com a combinação s/p semelhante à do
Machine Translated by Google

elementos da série de boro a neon. Estes não são elementos de transição

Número de elétrons em 1s Número atômico


2s 3s 4s 4d 4f 2p 3p 4p 3d 4d 5s

índio 2 8 18 18 18 - 2 49
Acreditar 2 8 18 18 1818 - 2 1 50
2 8 18 18 18- - 2 2 51
Antimônio
Telúrio 2 8 18 18 - - 2 3 52
Iodo 22 88 22 45 53
Xenon 6 54

O xenônio é outro gás inerte.

Resta a subcamada 4f, capaz de conter quatorze elétrons. Existem também subcamadas 5d, 5f e 5g capazes de conter 10, 14 e 18
elétrons, respectivamente. Todos eles se sobrepõem ao sub-shell 6s, no entanto.

Número de elétrons em Número atômico


1s 2s 3s 4s 4f 5s 5d 5f 5g 6s 2p 3p 4p 5p 3d 4d

Césio 2 8 18 18 - 18 18 - 8-8- - - 55
Bário 2 8 - - 12 56

Com o lantânio, o elemento além do bário, os elétrons começam a entrar na subcamada 4f ou 5d, e isso nos dá um novo tipo de
elemento de transição. Nos elementos comuns de transição de escândio para zinco ou de ítrio para cádmio, a subcamada à qual os elétrons
estavam sendo adicionados era coberta apenas por um ou dois elétrons na subcamada s imediatamente superior. Aqui,
Machine Translated by Google

no entanto, onde 4f está envolvido, os elétrons que estão sendo adicionados são cobertos não apenas por dois elétrons em 5s,
mas por seis elétrons em 5p e por dois elétrons em 6s. Nesses elementos, os elétrons estão sendo adicionados a uma subcamada
que é mais profunda dentro do átomo, por assim dizer, do que era verdade no caso dos elementos de transição considerados
anteriormente. A subcamada na qual ocorre a diferença eletrônica é mais eficientemente coberta por elétrons externos. Por esta
razão, esses elementos (os lantanídeos) se assemelham particularmente.

Número de elétrons em 1s Número atômico


2s 3s 4s 4f 2p 3p 4p 3d 4d 5s 5d 5f 5g 6s 5p

Lantânio 2 8 18 18 8 - - - 2 57 2
Cério 2 8 18 18 8 1 11 - - 58
- - - 2 59
Praseodímio 2 8 18 18 3 8
- - - 2 60
Neodímio 2 8 18 18 4 8
Promécio 2 8 18 18 5 8 - - - 2 61
Samário 2 8 18 18 6 8 - - - 2 62
- - - 2 63 2
Európio 2 8 18 18 7 8
Gadolínio 2 8 18 18 7 8 1 - - 64
Térbio 2 8 18 18 8 8 1 - - 2 65
- - 2 66
Disprósio 2 8 18 18 9 8 1

Hólmio 2 8 18 18 10 8 1 - - 2 67
Érbio 2 8 18 18 11 8 1 - - 2 68
Túlio 2 8 18 13 8 8 2 70 18 - - - 269 Itérbio 2 8 18 18 14
- - -
Lutécio 2 18 18 14 8 8 1 - - 2 71
Machine Translated by Google

Os elementos após o lutécio adicionam mais elétrons à subcamada 5d, que pode conter até dez elétrons. Esta subcamada é
ainda coberto pelos dois elétrons na subcamada 6s, de modo que continuamos após o lutécio com um conjunto de elementos
de transição comuns:

Número de elétrons em 1s Número atômico


2s 3s 4s 5s 5d 5f 5g 6s 2p 3p 4p 5p 3d 4d

4f

Háfnio 282 18 32 8 18 32 8 - - 2 72
Tântalo 828 18 32 8 18 32 8 - - 2 73
282 18 32 8 18 32 8 2 - - 2 74
Tungstênio
Rênio 828 18 32 8 18 32 8 - - 2 75
Ósmio 282 18 32 8 3 - - 2 76
Irídio 828 - - 2 77
Platina 4 - - 1 78
Ouro 5679 - 1 79
10 - 10 - - 2 80
Mercúrio

Com mercúrio, a subcamada 5d é preenchida. As subcamadas 5f e 5g permanecem intocadas, e os elétrons são encontrados em seguida na subcamada
6p, para que tenhamos um grupo de elementos com o arranjo s/p familiar do grupo boro-para-neon:

Número de elétrons em Número atômico


1s 2s 3s 4s 5s 5f 5g 6s 6p 2p 3p 4p 5p 3d 4d 5d
Machine Translated by Google

4f

Tálio 282 18 32 18 - 18 32 18 - - 2121 81


Conduzir 828 18 32 18 - 18 32 18 - - 2324 82
Bismuto 282 18 32 18 - 18 32 18 - - 2526 83
Polônio 828 - 84
Astatine - 85
Radônio - 86

O radônio é um gás inerte. Ainda restam subcamadas 5s e 5g, com capacidades para 14 e 18 elétrons, respectivamente.
Existem também subcamadas 6d, 6f, 6g e 6h, com capacidades eletrônicas de 10, 14, 18 e 22 respectivamente. Todos estes,
no entanto, se sobrepõem ao sub-shell 7s.

Número de elétrons em Número atômico


1s 2s 3s 4s 5s 5f 5g 6s 6d 6f 2p 3p 4p 6p 6g 6h 7s
3d 4d 4f 5p
5d

Frâncio 2 8 18 32 18 - - 8 1 87
Rádio 2 8 18 32 18 - - 8 2 88

Surge então exatamente uma situação como a que ocorre no caso dos lantanídeos:
Número de elétrons em Número atômico
1s 2s 3s 4s 5s 5f 5g 6s 6d 6f 7s
2p 3p 4p 5p 6p 6g 3d 4d 5d 6h

4f
Machine Translated by Google

Actínio 2 8 18 32 18 - - 8 1 - 2 89
Tório 2 8 18 32 18 - - 8 2 - 2 90
Protactínio 2 8 18 32 18 2 - 8 1 - 2 91
Urânio 2 8 18 32 18 3 - 8 1 - 2 92
- 8 1 - 2 93
Netuno 2 8 18 32 18 4
Plutônio 2 8 18 32 18 5 - 8 1 - 2 94
Amerício 2 8 18 32 18 7 - 8 - - 2 95
Curium 2 8 18 32 18 7 - 8 1
- 2 96
Berquélio 2 8 18 32 18 8 - 8 1
- 2 97
Califórnia 2 8 18 32 18 9 - 8 1
- 2 98
Einsteinium 2 8 18 32 18 10 - 8 1
- 2 99
Férmio 2 8 18 32 18 11 - 8 1
- 2 100
Mendelévio 2 8 18 32 18 12 - 8 1
- 2 101
Prêmio Nobel 2 8 18 32 18 13 - 8 11
- 2 102 2
Lourenço 2 8 18 32 18 14 - 8 - 103

O grupo de elementos do actínio ao laurêncio são os actinídeos. Quando o elemento com número atômico 104 é
estudado, espera-se que o 104º elétron seja adicionado à subcamada 6d e que este elemento se assemelhe ao háfnio em suas propriedades
químicas.

Se você agora comparar os arranjos de elétrons dos vários elementos, conforme dados nesta seção, com os
apresentada anteriormente, você verá como a tabela periódica reflete semelhanças nos arranjos de elétrons.

CAPÍTULO 6

Níveis de energia eletrônica


Machine Translated by Google

Semicondutores

Embora a noção de camadas e subcamadas de elétrons finalmente racionalizasse a tabela periódica, até mesmo os até então
intrigantes lantanídeos, o próprio modelo de Bohr, mesmo modificado por Sommerfeld e outros, não se manteve em sua forma
original. A tentativa de produzir uma imagem literal do átomo como consistindo de partículas de elétrons movendo-se em órbitas
circulares, elípticas e inclinadas - muito mais complicadas do que o sistema solar, mas ainda com alguns pontos-chave de semelhança -
tornou-se pesado e desmoronou.

Durante o início da década de 1920, tornou-se mais comum pensar não em órbitas, mas em níveis de energia. Os elétrons se
moviam de um nível de energia para outro e a diferença nos níveis de energia determinava o tamanho do quantum (daí a frequência
da radiação) emitido ou absorvido.

Em 1925, de fato, o físico alemão Werner Heisenberg (1901- ) elaborou um sistema pelo qual os níveis de energia
de átomos poderia ser escrito como um conjunto de números. Estes podem ser organizados em arranjos retangulares chamados
"matrizes". e essas matrizes podem ser manipuladas de acordo com o princípio matemático de (álgebra matricial). A manipulação
adequada aplicada aos dados atômicos (mecânica matricial) produziu valores a partir dos quais as linhas espectrais puderam ser
calculadas. Nenhuma imagem real de qualquer tipo era exigida para o átomo por essa visão; havia desaparecido completamente
em uma mera coleção de números.

No caso de um único átomo, os níveis de energia podem ser representados como linhas simples em determinadas alturas
acima da base de um desenho esquemático. Dois elétrons de spin oposto poderiam ocupar qualquer um dos níveis de energia e
poderiam mudar de um nível para outro que não estivesse totalmente ocupado. Os espaços entre as linhas representavam "lacunas
proibidas" dentro das quais nenhum elétron poderia ser localizado. Cada elemento tinha sua própria coleção característica de linhas e lacunas, é

Se dois átomos de um elemento estão próximos, o quadro se torna mais complicado. Os elétrons externos dos dois átomos
estão próximos o suficiente para que os níveis de energia se fundam. Para cada nível de energia, a população de elétrons é dobrada.
Um nível de energia não pode conter mais do que sua capacidade (dois elétrons de spins opostos); consequentemente, o que
acontece é que os níveis de energia associados aos dois átomos mudam um pouco --- um se tornando ligeiramente mais alto que o
outro. Cada um pode então manter seus próprios elétrons.

Em um sólido, onde há um grande número de átomos próximos, isso acontece em grande escala. Um nível de energia não
pode mais ser representado como uma linha, mas como um denso conjunto de linhas em alturas ligeiramente diferentes. O que era
Machine Translated by Google

uma linha de energia agora é na verdade uma banda de energia. Os elétrons podem subir de banda a banda, em vez de linha a linha, e
há intervalos proibidos entre as bandas.

Se cada um dos átomos que compõem um sólido tem seus níveis de energia mais externos contendo todos os elétrons que podem
conter, então o resultado é uma banda de energia preenchida. Nesse caso, os elétrons são fixados no lugar. Eles não podem passar de um
átomo para o próximo, pois o átomo vizinho não tem espaço para ele. Tal sólido é um não condutor de eletricidade. Exemplos extremos
são enxofre e quartzo.

Se os níveis de energia mais externos dos átomos individuais contêm menos elétrons do que a capacidade, a banda de energia resultante
do sólido é apenas parcialmente preenchido, e os elétrons podem se mover facilmente de átomo para átomo por meio de níveis de
energia não preenchidos. O impulso elétrico pode facilmente percorrer um caminho contendo esses "elétrons livres", e a substância é
um condutor de eletricidade. Exemplos extremos são prata e cobre.

Mesmo que a banda de energia esteja cheia de elétrons, há uma chance de condução elétrica. Acima da faixa de energia preenchida
está outra faixa de energia que está vazia. A absorção de energia pode empurrar alguns elétrons para a banda de energia mais alta e lá
eles podem se mover livremente. A probabilidade de isso acontecer depende da largura do intervalo proibido entre a faixa de energia
preenchida e a maior vazia. Se a lacuna for muito grande, a probabilidade de um elétron saltar é baixa e a substância é um excelente não
condutor.

Em algumas substâncias, por exemplo, os elementos silício e germânio, a lacuna proibida é comparativamente estreita, e
a probabilidade de um elétron saltar para a banda mais alta se torna apreciável. O resultado é um semicondutor, se a temperatura
for elevada; a tendência de um elétron de alcançar a banda mais alta aumenta, pois mais energia se torna disponível para chutá-lo
para cima. Por esta razão, a resistência de um semicondutor diminui com a temperatura. (Um semicondutor difere a esse respeito
de um condutor metálico, no qual o principal efeito da temperatura elevada é produzir vibrações atômicas intensificadas que interferem na
transmissão do impulso elétrico e aumentam a resistência.)

Os semicondutores provaram-se inesperada e fabulosamente úteis, onde a sua composição química e física
estrutura são adequadamente adaptados às necessidades.

Considere o germânio, por exemplo. Como o carbono, o átomo de germânio tem quatro elétrons em sua camada mais externa. Cada
átomo de germânio pode contribuir com um elétron para formar um pool compartilhado de dois com cada um dos outros quatro átomos de germânio. D
Machine Translated by Google

no final, os átomos de germânio serão empilhados de tal forma que cada um está conectado com outros quatro. Sob tais
condições, todos os elétrons estão firmemente no lugar e as propriedades semicondutoras da substância são mínimas.

Para que isso aconteça, todos os átomos devem ser empilhados perfeitamente. Imperfeições no cristal significam que
alguns átomos ficarão fora de lugar em relação a seus vizinhos e não poderão compartilhar elétrons. São esses poucos elétrons
não compartilhados que contribuem para as propriedades semicondutoras do germânio.

Essas propriedades são mais úteis se surgirem de uma impureza deliberadamente adicionada, em vez de imperfeições
aleatórias que são quase inevitavelmente encontradas em qualquer cristal de germânio, imagine um cristal de germânio perfeito
formado de germânio ao qual um pequeno traço de arsênico foi adicionado. adicionado como impureza. O arsênico tem cinco
elétrons em sua camada mais externa. Quando um átomo de arsênico tenta se encaixar no arranjo de germânio, ele pode encontrar
espaço para quatro de seus elétrons nas piscinas compartilhadas formadas com átomos de germânio vizinhos. O quinto elétron de
arsênico, no entanto, está em pontas soltas. Atua como um elétron livre.

Sob a influência de um potencial elétrico aplicado através do cristal, os elétrons livres, naturalmente carregados
negativamente, afastam-se do eletrodo negativo e se aproximam do positivo. Porque é uma partícula carregada negativamente
que está à deriva, o resultado é um semicondutor do tipo n, "n" para negativo.

Em seguida, considere um cristal de germânio ao qual foi adicionado um traço de boro. O átomo de boro tem três elétrons em
sua casca mais externa. Cada um dos três pode se juntar em um pool compartilhado com elétrons de um átomo de germânio
vizinho. Mas apenas três átomos de germânio podem ser acomodados assim; o quarto ficará com um "buraco" onde deveria estar
um elétron.

Sob a influência de um potencial elétrico através de tal cristal, um elétron carregado negativamente será empurrado ou
puxado para dentro do buraco, viajando sempre do lado do eletrodo negativo repelente em direção ao eletrodo positivo
atrativo. Mas o elétron que preencheu o buraco deixou outro buraco no lugar que havia ocupado anteriormente. Como o
elétron veio da direção do eletrodo negativo, o novo buraco está agora mais próximo do eletrodo negativo do que o buraco
antigo. A mesma coisa acontece repetidas vezes, e o furo se move constantemente em direção ao eletrodo negativo e se afasta do
positivo. De fato, o buraco à deriva se comporta como se fosse uma partícula carregada positivamente e, portanto, esse cristal é
um semicondutor do tipo p, "p" para positivo.

Dispositivos de estado sólido


Machine Translated by Google

A deriva de elétrons através de um semicondutor pode ser governada e manipulada para atingir os fins tão ruins
anteriormente alcançado por um tubo de vácuo. A principal diferença é que os elétrons se movem através de sólidos no primeiro caso
e através do vácuo no último. Por esta razão, os instrumentos eletrônicos nos quais os semicondutores desempenham um papel são
chamados de dispositivos de estado sólido.
Considere, por exemplo, um cristal do qual metade é do tipo n e a outra metade é do tipo p. Imagine que a extremidade do tipo n
esteja conectada ao polo negativo de uma bateria, enquanto a do tipo p esteja conectada ao polo positivo. Se o circuito estiver fechado,
os elétrons na extremidade do tipo n do cristal são repelidos do pólo negativo e se movem em direção à junção entre as duas metades.
Enquanto isso, os orifícios na extremidade do tipo p são repelidos do pólo positivo e também se movem em direção à junção.
Lá eles podem se encontrar e se neutralizar, enquanto os elétrons inundam a extremidade do tipo n e são retirados da extremidade do
tipo p (fazendo novos buracos). Pelo movimento de elétrons e buracos, sempre renovado enquanto o circuito estiver fechado, a
corrente pode fluir através do cristal.

Mas suponha que o circuito esteja organizado de maneira oposta, com a extremidade do tipo n do cristal presa ao polo positivo da bateria
e o tipo p ligado ao polo negativo. Agora os elétrons na extremidade do tipo n são atraídos para o pólo positivo e se afastam da junção. Os
orifícios na extremidade do tipo p são atraídos para o pólo negativo e também se afastam da junção. Primeiro a área de junção e depois
todo o cristal é esvaziado tanto de elétrons livres quanto de lacunas; consequentemente, torna-se um não condutor e nenhuma corrente
flui.

Em suma, tal cristal np atua para permitir que a corrente passe em apenas uma direção. Se conectado a uma fonte de alimentação alternada
corrente, servirá para retificar a corrente. De fato, a extremidade tipo n do cristal é semelhante em seu comportamento ao filamento
aquecido de um tubo de vácuo, enquanto a extremidade tipo p é semelhante em seu comportamento à placa. O cristal é como um diodo
com as duas partes se encontrando para formar uma junção. Tal dispositivo é, portanto, chamado de diodo de junção.

É possível construir um análogo de semicondutor de um triodo também. Em um triodo comum, um terceiro elemento, a grade, é
inserido entre o filamento e a placa, e o mesmo pode ser feito em dispositivos de estado sólido. Um cristal pode ser composto de três
regiões, com ambas as extremidades do tipo n e a região do meio do tipo p. Existem agora duas junções, uma np e uma pn.

Imagine uma extremidade do tipo n de tal cristal presa ao pólo de uma bateria e a outra presa ao pólo positivo.
Os elétrons na extremidade ligados ao pólo negativo são repelidos do pólo e no meio do tipo p. Os elétrons na extremidade ligada ao
pólo positivo são atraídos para o pólo e para longe do meio, de modo que os elétrons são puxados para fora do meio tipo p. Os elétrons
fluem de uma extremidade para a outra, com o meio tipo n encorajando a primeira metade do
Machine Translated by Google

o fluxo e atrapalhando o segundo tempo. A taxa de fluxo pode ser alterada bruscamente, então, pelo tamanho da carga colocada no
centro do tipo p.

Tal "triodo de junção" foi posto em prática pela primeira vez em 1948 pelo físico inglês-americano William Bradford
Shockley (1910- ) e seus colegas de trabalho americanos John Bardeen (1908- ) e Waiter House Brattain (1902- ). Como o dispositivo
transferia uma corrente através de um material que normalmente tinha alta resistência (um "resistor"), ele foi chamado por uma
versão abreviada da frase "transferência-resistor". Era um transistor.

Nos primórdios do rádio, antes que o tubo de vácuo fosse inventado, algumas vezes foram encontrados cristais naturais que,
em combinação adequada com outros materiais, exibiam ação retificadora. Foi o uso deles que deu o nome aos antiquados
"conjuntos de cristal".

O desenvolvimento do tubo de vácuo deixou os cristais fora de uso, mas agora os cristais de transistor especialmente
adaptados viraram a mesa. Os transistores tinham várias vantagens sobre os tubos de vácuo. Eles não precisavam de vácuo, mas
eram sólidos por toda parte; como resultado, eles eram mais resistentes do que os tubos. Eles não faziam uso de calor (como era
necessário em um tubo de vácuo, pois ali apenas um filamento quente emitiria elétrons), então não necessitavam de período de aquecimento e ta
Além disso, eles poderiam ser feitos muito, muito menores do que os tubos de vácuo.

Como era o tubo de vácuo que tornava o rádio tão volumoso, o uso de transistores possibilitou o desenvolvimento de rádios sem
maior do que um maço de cigarros. Na verdade, "transistorizar" passou a ser sinônimo de "miniaturizar". O efeito da
transistorização foi mais espetacular em relação aos computadores eletrônicos que exigiam milhares de válvulas a vácuo. O tamanho
dos computadores foi drasticamente reduzido com o advento dos dispositivos de estado sólido.

Os semicondutores também podem ser usados na conversão direta de calor em eletricidade (termoeletricidade). O fenômeno
geral pelo qual uma diferença de temperatura pode ser feita para dar origem a uma corrente elétrica foi observado pela primeira vez
em 1921 pelo físico alemão Thomas Johann Seebeck (1770-1831). Ele descobriu que quando parte de um circuito composto por dois
metais diferentes é aquecida, uma agulha magnética seria desviada se colocada perto do ponto em que os dois metais se encontram.
Este é o efeito Seebeck.

O efeito sobre o ímã veio do campo magnético criado pela corrente elétrica que foi produzida pelo aparecimento de uma
diferença de temperatura. Infelizmente, Seebeck não interpretou suas observações dessa maneira (a conexão entre eletricidade
e magnetismo estava sendo descoberta na época). Ele pensou que era puramente um efeito magnético.
Machine Translated by Google

Conseqüentemente, o interesse pelo efeito definhou, e foi apenas nas últimas décadas que ele reviveu.

Considere um semicondutor do tipo n cuja extremidade é aquecida. É mais provável que o hot end tenha seus elétrons chutados para
uma banda de energia mais alta, na qual eles podem facilmente escorrer. Como resultado, os elétrons tendem a se mover da extremidade
quente para a extremidade fria, e um potencial elétrico (extremidade fria, negativo; extremidade quente, positivo) é estabelecido. (Isso também
aconteceria em um condutor comum, mas um condutor comum tem uma alta concentração de elétrons livres na extremidade fria, o que
repeliria os elétrons recebidos da extremidade quente; consequentemente, haveria apenas uma pequena deriva líquida. Em um semicondutor ,
o número de elétrons livres na extremidade fria é muito pequeno e o efeito de repulsão é muito mais fraco, por isso ocorre uma deriva muito
maior e uma diferença de potencial muito maior é estabelecida em um semicondutor do que em um condutor comum. )

Se um semicondutor do tipo p for usado, as lacunas são mais facilmente preenchidas na extremidade quente, onde os elétrons se
tornam mais móveis pela maior energia associada à alta temperatura. Novos orifícios são formados mais longe da extremidade quente e, em
resumo, os orifícios derivam da extremidade quente para a fria. Novamente uma diferença de potencial é configurada, mas desta vez com a
extremidade fria positiva e a extremidade quente negativa.

Se um semicondutor do tipo n e um do tipo p forem unidos na extremidade quente, os elétrons fluirão da extremidade fria do tipo p para
a junção quente e depois para a extremidade fria do tipo n. Se as duas extremidades estiverem conectadas por meio de um circuito fechado,
uma corrente fluirá e um trabalho útil será feito enquanto a diferença de temperatura for mantida. Uma lâmpada de querosene, então, pode
ser usada para alimentar um gerador elétrico sem partes móveis.

A situação pode ser revertida. Se uma corrente elétrica é forçada através de um circuito feito de materiais diferentes, uma
diferença de temperatura é estabelecida. Isso foi observado pela primeira vez em 1834 por um físico francês, o magro Charles Athanase
Peltier (1785-1845), e por isso é chamado de efeito Peltier. Usando semicondutores tipo p e tipo n unidos em uma extremidade, o calor do
sistema pode ser concentrado nessa extremidade e removido da outra, de modo que o dispositivo possa funcionar como aquecedor ou
refrigerador.

Os semicondutores também podem converter luz em eletricidade. Essencialmente, um dispositivo desse tipo, uma bateria solar, consiste em um n
tipo semicondutor coberto com uma fina camada de semicondutor tipo p. Há uma diferença de potencial entre a seção do tipo n rica
em elétrons e a seção do tipo p pobre em elétrons, que poderia estabelecer uma corrente por um tempo muito curto até que os elétrons
inundassem a área do tipo p e preenchessem os buracos.
Machine Translated by Google

Se a placa for exposta à luz solar, os quanta luz-energia da luz agem para soltar elétrons na área do tipo p,
formando mais buracos tão rápido quanto os elétrons de entrada os preenchem e, assim, permitindo que uma corrente
contínua de proporções significativas flua através de um circuito conectado à bateria. Essa bateria durará por longos períodos
de tempo, e algumas foram usadas com sucesso para alimentar satélites artificiais por anos.

Maser e Laser

O fato de que os níveis de energia são separados por distâncias fixas e que uma mudança de níveis só pode ser realizada pela
absorção ou emissão de fótons de tamanho específico deu origem nos últimos anos a importantes novos dispositivos.

Considere a molécula de amônia (NH 3) por exemplo. Possui dois níveis de energia separados por uma lacuna de tamanho
igual ao conteúdo de energia de um fóton equivalente a uma onda eletromagnética com frequência de 24 bilhões de ciclos por
segundo. O comprimento de onda dessa radiação é de 1,25 centímetros, o que a coloca na porção de micro-ondas do espectro
eletromagnético.

Essa diferença nos níveis de energia pode ser retratada em termos da arquitetura da molécula. Os três átomos de
hidrogênio da molécula de amônia podem ser vistos como ocupando os três vértices de um triângulo equilátero, enquanto o
único átomo de nitrogênio está a alguma distância acima do centro do triângulo. Com a mudança no nível de energia, o átomo de
nitrogênio se move através do plano do triângulo para uma posição equivalente do outro lado. A molécula de amônia pode vibrar
para frente e para trás com uma frequência de apenas 24 bilhões de vezes por segundo.

Este período de vibração é extremamente constante, muito mais do que o período de qualquer dispositivo vibratório feito
pelo homem; muito mais constante, inclusive, do que o movimento dos corpos astronômicos. Uma molécula vibrante, produzindo
uma micro-ondas de frequência altamente constante, pode, portanto, ser usada para controlar dispositivos de medição de tempo
com precisão sem precedentes. Por meio de tais relógios atômicos, as precisões na medição do tempo de um segundo em 100.000 anos são es

Mas deixemos a arquitetura molecular e consideremos apenas os níveis de energia. Se um feixe de micro-ondas passar
pelo gás de amônia, um feixe contendo fótons de tamanho adequado, as moléculas de amônia serão elevadas ao nível de
energia mais alto. Em outras palavras, uma parte do feixe de micro-ondas será absorvida.

E se uma molécula de amônia já estiver no nível de energia mais alto, no entanto? Já em 1917, Einstein apontou que, se um
fóton do tamanho certo atingisse uma molécula de nível superior, a molécula seria empurrada de volta para o
Machine Translated by Google

nível mais baixo e emitiria um fóton exatamente do tamanho - e movendo-se exatamente na direção - do fóton que entrou.

A amônia exposta à radiação de micro-ondas pode, portanto, sofrer duas mudanças possíveis: as moléculas podem ser bombeadas de nível
mais baixo para mais alto, ou ser empurradas para baixo de nível mais alto para baixo. Sob condições normais, o primeiro processo predominaria,
pois apenas uma porcentagem muito pequena das moléculas de amônia estaria em qualquer instante no nível de energia mais alto.

Suponha, porém, que algum método tenha sido encontrado para colocar todas ou quase todas as moléculas no nível de energia superior.
Então seria o movimento do nível mais alto para o mais baixo que predominaria. De fato, algo bastante interessante aconteceria. O feixe de radiação de
micro-ondas que entra forneceria um fóton que empurraria uma molécula para baixo. Um segundo fóton seria liberado e os dois acelerariam, atingindo
duas moléculas, de modo que mais duas seriam liberadas. Todos os quatro trariam o lançamento de mais quatro, e assim por diante. O fóton inicial
liberaria toda uma avalanche de fótons, todos exatamente do mesmo tamanho e movendo-se exatamente na mesma direção.

Físicos tanto nos Estados Unidos quanto na União Soviética trabalharam para alcançar tal situação, mas a maior parte do crédito (pelo sucesso
vai para o físico americano Charles Hard Townes (1915-). Em 1953, ele desenvolveu um método para isolar a amônia excitada moléculas e submetê-las
à estimulação por fótons de micro-ondas com o conteúdo exato de energia. Alguns fótons entraram, e uma capa de fótons saiu. A radiação recebida
foi, assim, muito amplificada.

O processo foi descrito como "amplificação de microondas por emissão estimulada de radiação". A frase foi rubricada como "maser" e o
instrumento passou a ser conhecido pelo acrônimo maser, uma palavra que rapidamente substituiu a frase mais dramática, mas muito estreita, "relógio
atômico".

Masers de estado sólido logo foram desenvolvidos, usando átomos ou moléculas paramagnéticas em um campo magnético. Aqui um elétron
pode ser retratado como ocupando dois níveis de energia, dependendo de seu giro: o nível inferior, quando está girando em uma direção
paralela ao campo magnético; o superior, quando está girando na direção oposta. Os elétrons são lentamente bombeados para cima para o nível mais
alto e então liberados toda a sua energia armazenada em uma explosão repentina de radiação em uma única frequência (radiação monocromática).

Os primeiros masers, tanto no estado gasoso quanto no estado sólido, eram intermitentes. Ou seja, eles tinham que ser bombeados primeiro e os homens
lançado. Após uma explosão de radiação, nada mais poderia ser emitido até que o progresso do bombeamento fosse repetido
Machine Translated by Google

Para contornar isso, ocorreu ao físico holandês-americano Nicholaas Bloembergen (1920- ) fazer uso de um sistema de três
níveis. Isso é possível, por exemplo, se o sólido que forma o núcleo radiante do maser contiver átomos de metais como cromo ou
ferro. Torna-se então possível distribuir elétrons entre três níveis de energia, um inferior, um médio e um superior. Nesse caso,
tanto o bombeamento quanto a emissão estimulada podem ocorrer simultaneamente. Os elétrons são bombeados do nível de
energia mais baixo para o mais alto. Uma vez no nível mais alto, a estimulação adequada fará com que eles desçam primeiro para o
nível médio, depois para o mais baixo. Fótons de tamanhos diferentes são necessários para o bombeamento e para a emissão
estimulada, e os dois processos não interferem. Assim, terminamos com uma radiação contínua.

Como amplificadores de micro-ondas, masers podem ser usados, como detectores muito sensíveis em radioastronomia,
onde feixes de micro-ondas extremamente fracos recebidos do espaço exterior serão muito intensificados com grande fidelidade
às características originais da radiação. (Reprodução sem perda das características originais significa reproduzir com pouco
“ruído”.

Em princípio, a técnica mestre poderia ser aplicada a ondas eletromagnéticas de qualquer comprimento de onda, notadamente
as de luz visível. Townes apontou a possibilidade de tais aplicações para comprimentos de onda de luz em 1958. Esse maser
produtor de luz pode ser chamado de maser óptico. Ou esse processo em particular pode ser chamado de "amplificação de luz por
emissão estimulada de radiação". e a sigla laser pode ser usada. É este último que se tornou popular.

O primeiro laser de sucesso foi construído em 1960 pelo físico americano Theodore Harold Maiman (1927-). Ele usou uma barra
de rubi sintético para o efeito - sendo este, essencialmente, óxido de alumínio com um pouco de óxido de cromo adicionado.
(É o óxido de cromo que dá ao rubi sintético sua cor vermelha.) Se a barra de rubi for exposta à luz, os elétrons dos átomos de
cromo são bombeados para níveis mais altos e, em pouco tempo, começam a cair. Os primeiros fótons de luz emitidos (com
comprimento de onda de 694,3 milimícrons) estimulam a produção de outros fótons, e a barra subitamente emite um feixe de luz
vermelha profunda. Antes do final de 1960, os lasers contínuos foram preparados.

O laser tornou possível a luz de uma forma completamente nova. A luz era a mais intensa e monocromática mais
estreita que já havia sido produzida, mas era ainda mais do que isso.

A luz produzida de outra forma, desde uma fogueira até o sol, consiste em pacotes de ondas relativamente curtos orientados
em todas as direções concebíveis. A luz comum é composta de um número incontável desses pacotes.

A luz produzida por um laser estimulado, no entanto, consiste em fótons do mesmo tamanho e movendo-se no mesmo
Machine Translated by Google

direção. Isso significa que os pacotes de ondas são todos da mesma frequência e, como estão alinhados precisamente de
ponta a ponta, por assim dizer, eles se fundem. Esta é uma luz coerente, porque os pacotes de ondas parecem ficar juntos. Os
físicos aprenderam a preparar radiação coerente para radiação de comprimento de onda longo, como ondas de rádio. (É uma
onda de rádio coerente que atua como uma onda portadora no rádio.) No entanto, isso nunca havia sido feito para a luz até 1960.

Além disso, o laser foi projetado para acentuar a tendência natural dos fótons de se moverem na mesma direção. As duas
extremidades do tubo de rubi foram usinadas com precisão e prateadas para servir como espelhos planos. Os fótons emitidos
corriam para frente e para trás ao longo da haste, eliminando mais fótons a cada passagem, até que acumulassem intensidade
suficiente para irromper pela extremidade, que era mais levemente prateada. Aqueles que passaram foram precisamente aqueles
que por acaso foram emitidos em uma direção exatamente paralela ao eixo solitário da haste, pois apenas aqueles se moveriam
para frente e para trás, atingindo as extremidades espelhadas repetidamente. Se algum fóton de tamanho adequado entrasse na
haste em uma direção diferente (mesmo em uma direção ligeiramente diferente) e iniciasse um trem de fótons estimulados nessa
direção diferente, eles passariam rapidamente pelos lados da haste após apenas alguns segundos. reflexões no máximo.

Um feixe de luz laser é composto de ondas coerentes tão firmemente \paralelas que pode viajar por longas distâncias
sem se tornar inútil. Feixes de laser chegaram até a lua, em 1962, tendo se espalhado para um diâmetro de apenas duas milhas
depois de ter cruzado quase um quarto de milhão de milhas no espaço.

No curto espaço de tempo desde a sua invenção, os lasers proliferaram em variedade. Eles podem ser formados não apenas de metal
óxidos, mas de fluoretos e tungstatos, de semicondutores e de colunas de gás. A luz pode ser produzida em qualquer uma
variedade de comprimentos de onda nas faixas do visível e infravermelho.

A estreiteza do feixe de luz laser significa que uma grande quantidade de energia pode ser focada em uma área extremamente
pequena, e nessa área a temperatura atinge níveis extremos. O laser pode vaporizar metal para rápida investigação e análise
espectral, e pode fazer furos de qualquer forma desejada através de substâncias de alto ponto de fusão. Ao lançar raios laser no
olho, os cirurgiões conseguiram soldar retinas soltas tão rapidamente que os tecidos circundantes não têm tempo de serem
afetados pelo calor.

As possíveis aplicações dos raios laser são empolgantes e dramáticas, e provavelmente ocorrerão rapidamente. Em vez
de especular sobre eles agora, seria mais apropriado esperar por edições posteriores deste livro e discuti-los na realidade.
Machine Translated by Google

Matéria - Ondas

A aplicação de Bohr da teoria quântica aos átomos provou-se assim incalculavelmente frutífera, tanto na teoria quanto na aplicação.
Não apenas a tabela periódica foi racionalizada, mas todo um reino de dispositivos de estado sólido cresceu a partir dela. Os físicos tinham
todos os motivos para se deliciar com os resultados.

E, no entanto, tomado por si só, o átomo quantizado não resolveu os problemas do químico. Isso o deixou, por um tempo, sem um método
claro para explicar a maneira pela qual os átomos se uniam para formar moléculas. Onde o átomo de Lewis-Langmuir, com todas as suas falhas e
deficiências, lhe permitiu representar cubos interligados e conjuntos de elétrons compartilhados, o átomo quantizado, com seus elétrons saltando
agilmente de um nível de energia para outro, parecia impossível de manusear.

Uma resposta surgiu de uma segunda fonte aparente de confusão, aquela entre partícula e onda. Os físicos do início do século XX estavam
convencidos de que a luz e a radiação eletromagnética em geral, enquanto forma de onda, também exibiam propriedades semelhantes a partículas.
O efeito Compton tinha sido o último convencimento de que a dualidade onda-partícula existia e que uma entidade poderia demonstrar tanto
propriedades ondulatórias quanto partículas.

Mas isso estava confinado apenas à radiação eletromagnética? Se as entidades comumente vistas como formas de onda exibiam
propriedades semelhantes a partículas que podem ser detectadas se pesquisadas adequadamente, o que dizer das entidades comumente vistas como partícula
Eles exibiriam propriedades semelhantes a ondas que seriam detectadas se procuradas adequadamente?

O físico francês Louis Victor de Broglie (1892- ) considerou este último problema. Ele fez uso de alguns
relações desenvolvidas ao tratar um fóton como uma partícula e aplicá-los aos elétrons. Em 1923, ele anunciou o relacionamento:

lambda = h/mv (Equação 6-1)

onde h é a constante de Planck m é a massa de uma partícula em movimento, e v sua velocidade (e o produto, mv é seu momento).
Quanto a lambda (a letra grega), esse é o comprimento de onda associado às suas propriedades ondulatórias.

Esta equação se aplicará, em teoria, a qualquer corpo em movimento - a uma bola de beisebol, uma bala de canhão, um planeta.
No entanto, à medida que o momento aumenta, o comprimento de onda diminui e, para todos os corpos comuns, o comprimento de onda
associado é muito pequeno para ser detectado por qualquer método conhecido. Corpos comuns podem, portanto, ser vistos como partículas, sem qualquer pre
Machine Translated by Google

propriedades da onda.

Quando a massa de um objeto diminui para a de um elétron, no entanto, o comprimento de onda associado é significativamente grande
- tão grande quanto a de um raio X. (A forma de onda associada a um elétron não é, no entanto, idêntica a um raio X na natureza, embora o
comprimento de onda possa ser o mesmo. As formas de onda associadas a partículas de matéria não são de natureza eletromagnética; essas
ondas não eletromagnéticas podem ser chamadas de matéria -ondas.)

Uma onda de matéria com comprimento de onda igual ao de um raio X deve ter sua natureza ondulatória tão facilmente detectável quanto a dos
raios X. A natureza ondulatória dos raios X foi detectada pela difração dos raios X pelas redes atômicas dos cristais. Não poderiam então as ondas de
matéria associadas aos elétrons ser demonstradas de maneira equivalente?

Essa façanha foi realizada de forma independente em 1927 pelos físicos americanos Clinton Joseph Davisson (1881-1958) e Later Halbert Germer
(1896- ) por um lado, e pelo físico inglês George Paget Thomson (1892- ) por outro. Em anos posteriores, as propriedades ondulatórias de outras partículas
mais massivas também foram detectadas, e não há dúvida razoável agora que a dualidade onda-partícula é um fenômeno geral na natureza. Todas as
entidades que exibem propriedades de onda também devem exibir propriedades de partícula e vice-versa.

A analogia entre ondas de matéria e radiação eletromagnética apareceu na questão da microscopia.

Há um limite para a resolução possível ao usar uma forma de onda como a luz. Objetos de tamanho inferior a cerca de três quintos do comprimento
de onda da luz usada para esse propósito não podem ser distinguidos, por mais perfeitas que sejam as porções ópticas do microscópio. A luz "passa
por cima" do pequeno objeto, por assim dizer. Isso significa que, mesmo ao visualizar com os comprimentos de onda mais curtos da luz visível, digamos
380 milimícrons, um objeto com menos de 200 milimícrons de diâmetro não pode ser identificado.
Os vírus, que são menores do que isso, não podem ser vistos pela luz visível, por mais que se tente ampliar. De fato, a maior ampliação útil de um
microscópio óptico é de cerca de 2.000 vezes.

Tentativas bem-sucedidas foram feitas para usar radiação eletromagnética de comprimento de onda menor que a da luz visível,
mas maior sucesso foi alcançado com ondas de matéria. Elétrons, com um comprimento de onda associado aproximadamente igual ao dos raios X,
podem ser usados para esse propósito. Os elétrons podem ser focalizados nitidamente por campos magnéticos, assim como as ondas de luz podem ser
focalizadas por lentes. Uma amostra submetida a elétrons focalizados deve ser bastante fina para permitir a passagem dos elétrons; ele também deve ser
envolto em um bom vácuo, caso contrário os elétrons serão espalhados pelo ar. Isso limita a natureza dos objetos que podem ser estudados por
microscopia eletrônica, mas não muito drasticamente.
Machine Translated by Google

Os elétrons, tendo passado pela amostra, formam uma imagem em uma tela fluorescente ou em uma chapa fotográfica.
Aquelas porções mais opacas aos elétrons absorvem e espalham-nos de forma mais eficiente, e por esta razão, um padrão claro escuro
significativo é produzido

O primeiro microscópio eletrônico foi preparado na Alemanha em 1931, sendo o engenheiro elétrico alemão Ernst August
Friedrich Ruske (1906- ) destaque em seu desenvolvimento. Em 1934, foram desenvolvidos microscópios eletrônicos que ultrapassaram
os microscópios ópticos em poder de ampliação e, em 1939, eles estavam sendo produzidos comercialmente. As ampliações
possibilitadas pelos microscópios eletrônicos modernos são cem vezes maiores do que as possibilidades dos melhores microscópios
ópticos.

As ondas de matéria também entraram no domínio da teoria atômica. O físico austríaco Erwin Schrõdinger (1887-1961) abordou
o problema de interpretar a estrutura dos átomos em termos de ondas de partículas, em vez de apenas partículas.

Schrõdinger imaginou o elétron como uma forma de onda circulando o núcleo. Parecia-lhe que o elétron poderia existir apenas em
órbitas de tal tamanho que a forma de onda o ocupasse em um número inteiro de comprimentos de onda. Quando isso acontece, a forma de
onda se repete enquanto gira, caindo exatamente sobre si mesma, por assim dizer. O elétron é então uma onda estacionária estável.

Microscópio eletrônico

Se o elétron ganha um pouco mais de energia, seu comprimento de onda diminui ligeiramente e a órbita não contém mais um número
inteiro de comprimentos de onda. O mesmo é verdade se o elétron perde um pouco de energia, de modo que seu comprimento de onda
aumenta um pouco. o elétron não pode ganhar ou perder qualquer quantidade de energia.

O elétron deve ganhar (ou perder) energia suficiente para diminuir (ou aumentar) o comprimento de onda até o ponto em que um
número inteiro de comprimentos de onda possa novamente caber na órbita. Em vez de, digamos, quatro comprimentos de onda para a órbita,
haveria cinco comprimentos de onda um pouco mais curtos para a órbita, com um ganho de uma quantidade específica de energia, ou três
comprimentos de onda um pouco mais longos, com uma perda de uma quantidade específica de energia. Se energia suficiente for perdida e
o comprimento de onda aumentar até o ponto em que um único comprimento de onda se ajuste à órbita, este é o estado fundamental e não pode haver mais

Os diferentes níveis de energia, então, representam diferentes ondas estacionárias. Schrõdinger analisou esse ponto de vista
Machine Translated by Google

matematicamente em 1926, elaborando para o efeito o que agora é chamado de equação de onda de Schrõdinger.

A análise dos detalhes do comportamento atômico com base no modelo de Schrõdinger é chamada de mecânica ondulatória. Desde
a energia só pode ser absorvida ou liberada em quanta de determinado conteúdo energético, projetado para manter as ondas
estacionárias, também pode ser chamada de mecânica quântica.

A mecânica quântica provou ser altamente satisfatória do ponto de vista do físico. Psicologicamente, parecia superior à
mecânica matricial de Heisenberg, pois Schrõdinger oferecia uma imagem, por mais difícil que fosse, de formas de onda, enquanto
a matriz de números sem imagem de Heisenberg carecia de algo para a mente em busca de imagens compreender.

Em 1944, o matemático húngaro-americano John von Neumann (1903-1957) apresentou uma linha de argumentação que parecia
mostrar que a mecânica quântica e a mecânica matricial eram matematicamente equivalentes – que tudo o que era demonstrado por um
poderia ser igualmente bem demonstrado pelo outro.

Em princípio, parece que a mecânica quântica oferece uma análise completa do átomo e que todas as facetas do
comportamento químico podem ser explicadas e previstas por meio dela. Na realidade, entretanto, uma análise completa é
impraticável, mesmo pelas técnicas atuais, por causa da grande dificuldade da matemática envolvida. A química está, portanto, longe
de ser uma ciência completamente resolvida.

No entanto, a mecânica quântica pode ser usada para explicar a maneira pela qual os átomos se ligam para formar moléculas.
O químico americano Linus Pauling (1901- ) mostrou como dois elétrons podem, em combinação, formar um arranjo de ondas mais
estável do que poderiam separadamente. O conjunto de elétrons compartilhados do modelo de Lewis-Langmuir do átomo tornou-se
duas formas de onda ressoando entre si (ver página 1-1761. Esta teoria da ressonância foi exposta completamente no livro de Pauling
The Nature of the Chemical Bond publicado em 1939.

A ressonância explica a estrutura e o comportamento das moléculas muito mais satisfatoriamente do que o antigo modelo de
Lewis-Langmuir. Ele explica apenas os pontos que o modelo mais antigo deixou inexplicados - como os hidretos de boro e benzeno -
e a química moderna é cada vez mais construída sobre o ponto de vista da mecânica quântica.

Outra consequência importante da natureza ondulatória do elétron (e das partículas em geral) foi apontada por Heisenberg em
1927. Você pode ver que, se uma partícula é vista como uma onda, ela é um objeto mais difuso do que seria se fosse uma onda. visto
apenas como uma partícula. Tudo no universo se torna um pouco confuso, precisamente porque não existe tal
Machine Translated by Google

coisa como uma partícula sem propriedades ondulatórias.

Uma partícula (ou seu centro) pode ser localizada precisamente no espaço - em princípio, pelo menos - mas uma forma de onda é um pouco mais difícil
pensar como estando localizado em um ponto particular no espaço.

Pensando nisso, Heisenberg adiantou razões para supor que não é possível determinar tanto a posição
e momento de uma partícula simultaneamente e com precisão ilimitada. Ele ressaltou que se um esforço é feito para determinar a
posição com precisão (por qualquer método concebível, e não apenas por aqueles métodos que são tecnicamente possíveis no
momento) a velocidade da partícula é automaticamente alterada e, portanto, seu momento. Portanto, o valor do momento no momento
em que a posição foi exatamente determinada torna-se incerto. Novamente, se alguém tenta determinar o momento com precisão, altera
automaticamente a posição, cujo valor se torna incerto. Quanto mais próxima a fixação de um, maior a incerteza do outro.

A expressão mais concisa disso é:

(delta p) (delta x) = h (Equação 6-2)

onde (delta p) representa a incerteza da posição, (delta x) a incerteza do momento, e h é a constante de Planck.
O símbolo = significa "é aproximadamente igual a". Este é o princípio da incerteza de Heisenberg.

Filosoficamente, esta é uma doutrina perturbadora. Desde a época de Newton, cientistas e muitos não cientistas achavam que os
métodos da ciência, pelo menos em princípio, podiam fazer medições precisas sem limites. Bastava ter tempo e trabalho suficientes
para determinar a enésima casa decimal. Ouvir que não era assim, mas que havia um muro permanente no caminho do conhecimento
total, um muro construído pela natureza inerente do próprio universo, era angustiante.

Até mesmo Einstein se viu relutante em aceitar o princípio da incerteza, pois isso significava que, no nível subatômico, a lei de
causa e efeito poderia não ser estritamente seguida. Em vez disso, os eventos podem ocorrer com base em algum efeito aleatório.
Afinal, um elétron pode estar aqui ou ali; se você não pudesse dizer, não poderia ter certeza exatamente com que intensidade uma força
específica em um ponto específico poderia afetá-lo. "Não posso acreditar", disse Einstein, "que Deus escolheu jogar dados com o
mundo."
Machine Translated by Google

No entanto, Einstein não conseguiu conceber qualquer linha de raciocínio que envolvesse o princípio da incerteza em um
contradição. Ninguém mais poderia, e o princípio é agora firmemente aceito pelos físicos.

Nem é preciso ficar muito desanimado com a perda de certeza. A constante de Planck é muito pequena, então para qualquer objeto que
está acima do tamanho atômico, as incertezas relativas de posição e momento são extremamente pequenas. Somente no
mundo subatômico o princípio precisa ser feito parte da vida cotidiana, por assim dizer.

Além disso, a existência de incerteza também não precisa ser uma fonte de humilhação para a ciência. Se uma incerteza
minúscula, mas crucial, faz parte do tecido do universo, é uma homenagem aos cientistas por terem descoberto o fato. E
certamente, conhecer os limites do conhecimento é em si um conhecimento de primeira importância.

CAPÍTULO 7

Radioatividade

Urânio

Até agora, a discussão da estrutura interna do átomo foi confinada aos elétrons externos. De certa forma, pode até parecer
que, ao fazê-lo, estávamos discutindo praticamente todo o átomo, pois o núcleo tem um diâmetro na faixa de 10-13 a 10-12 de um
centímetro e constitui uma porção insignificante do átomo. . De fato, se o átomo fosse visualizado como tendo sido expandido para
o tamanho da Terra, o núcleo seria uma esfera no centro do planeta, com cerca de 700 pés de diâmetro.

No entanto, o núcleo contém mais de 99,9% da massa do átomo, e quase desde o início foi reconhecido (apesar de seu
tamanho diminuto) como tendo uma estrutura própria intrincada.

A primeira indicação disso remonta a uma descoberta em 1896 pelo físico francês Antoine Henri Becquerel (1852-
1908). Foi durante o primeiro ano após a descoberta dos raios X por Röntgen, e Becquerel, como muitos outros físicos, estava
investigando avidamente o novo fenômeno.

O pai de Becquerel, ele próprio um físico famoso, estava interessado em materiais fluorescentes: substâncias que
Machine Translated by Google

absorveu a luz de um determinado comprimento de onda e, em seguida, emitiu luz de um comprimento de onda mais longo.
Becquerel se perguntou se entre a radiação fluorescente não haveria raios X.

O pai de Becquerel havia trabalhado, em particular, com o composto fluorescente, uranilo sulfato de potássio, a molécula
dos quais, como você pode ver, contém um átomo de urânio. Becquerel, encontrando amostras desse composto à mão, usou-o
em seus experimentos. Ele rapidamente descobriu que, após a exposição ao sol, a radiação fluorescente do composto penetrava
no papel preto (opaco à luz comum) e escurecia uma chapa fotográfica do outro lado.

Em 1º de março de 1896, no entanto, ele fez a surpreendente descoberta de que o composto faria isso mesmo quando não
foi exposto à luz solar e quando não era fluorescente. De fato, o composto emitia constante e incessantemente uma radiação
forte e penetrante.

Essa radiação não era apenas tão penetrante quanto os raios X, mas, como os raios X, possuía a capacidade de ionizar a atmosfera.
Para demonstrar isso, Becquerel fez uso de um eletroscópio de folha de ouro. Este dispositivo consiste em duas folhas finas e muito leves de
folha de ouro presa a uma haste e encerrada em uma caixa projetada para proteger a folha de ouro de correntes de ar perturbadoras.
A haste emerge da extremidade superior da caixa. Se um objeto eletricamente carregado é aproximado da haste, a carga entra na folha
de ouro. Uma vez que ambas as folhas de ouro estão agora com cargas semelhantes, elas se repelem e ficam rigidamente separadas,
como um V invertido.

Deixada a si mesma, essa situação persistirá por um longo período de tempo. Se, no entanto, o ar dentro da caixa for ionizado,
as partículas carregadas no ar neutralizarão gradualmente a carga na folha de ouro. As duas folhas se unirão lentamente à medida
que a repulsão mútua desaparece. Quando o uranilo sulfato de potássio foi trazido para perto de um eletroscópio, aconteceu
exatamente isso, para que se pudesse concluir que o composto liberava radiação ionizante.

Esta propriedade de emitir constantemente radiações penetrantes e ionizantes foi denominada radioatividade pelos poloneses-franceses.
a física Marie Sklodowska Curie (1867-1934) em 1898. Madame Curie passou a mostrar que diferentes compostos de urânio
eram todos radioativos e que a intensidade da radioatividade era proporcional ao conteúdo de urânio do composto. Parecia uma
conclusão justa que era o próprio átomo de urânio que era radioativo. Madame Curie também foi capaz de mostrar que o átomo de
tório era radioativo. (Ambos os elementos têm átomos particularmente complexos. Tório com um número atômico de 90 e urânio
com um de 92 eram os dois átomos mais massivos conhecidos na década de 1890.)

Pareceu quase imediatamente que a radiação emitida pelo urânio e pelo tório não era homogênea em sua
Machine Translated by Google

propriedades. Em um campo magnético, parte da radiação foi desviada em uma direção por uma quantidade muito pequena;
parte foi desviada na direção oposta por uma quantidade considerável; e a panela permaneceu sem desvio. Ernest Rutherford (que
mais tarde desenvolveria o modelo nuclear do átomo) deu a essas três partes dos nomes de radiação tirados das três primeiras letras
do alfabeto grego raios alfa, raios beta e raios gama, respectivamente. Essas radiações também diferiam em outros aspectos além de
sua resposta a uma retenção magnética. Assim, foram os raios gama, que exibiram a penetrabilidade semelhante aos raios X. Os raios
beta eram muito menos penetrantes e os raios alfa quase não penetravam.

Da direção e extensão da deflexão do raio beta. Becquerel reconheceu que deve conter
partículas semelhantes às dos raios catódicos. Ele sugeriu isso em 1899, e investigações posteriores corroboraram isso
repetidamente. Os raios beta mostraram ser fluxos de elétrons em movimento rápido. Um elétron em alta velocidade, emitido por
uma substância radioativa, é, portanto, comumente chamado de partícula beta.

Os raios gama, não desviados por um campo magnético, foram imediatamente suspeitos de serem de natureza eletromagnética,
com comprimentos de onda ainda mais curtos que os dos raios X, pois eram ainda mais penetrantes que os raios X. Isso foi
inequivocamente demonstrado no laboratório de Rutherford em 1914, quando se mostrou que os raios gama, como os raios X, eram
difratados por cristais.

Com o advento do átomo nuclear, percebeu-se que essas radiações radioativas devem se originar de eventos que ocorrem
dentro do núcleo. Por exemplo, não há diferenças de nível de energia entre os elétrons dos átomos, que são grandes o suficiente
para produzir fótons tão energéticos quanto os da maioria dos raios gama. Presumivelmente, existem níveis de energia nuclear
dentro do núcleo, com diferenças grandes o suficiente para produzir fótons de raios gama

No entanto, a divisão entre raios X e raios gama não é nítida. Enquanto os raios X, como um todo, têm comprimentos de
onda mais longos, alguns dos átomos mais massivos podem produzir raios X que são um pouco mais curtos em comprimento de
onda do que alguns dos raios gama de ondas mais longas originados dos núcleos.

Um comprimento de onda de 0,01 milimícrons divide a sobreposição ao meio, de modo que, como regra geral, é possível
considerar a radiação eletromagnética no lado curto de 0,01 milimícrons como raios gama e aqueles no lado longo como raios X. A
descoberta dos raios gama completou o espectro eletromagnético, como o conhecemos hoje. O trecho de radiação dos raios gama
mais curtos estudados até as ondas de rádio mais longas cobre uma faixa de cerca de sessenta oitavas,

Partículas Alfa
Machine Translated by Google

Mas e o raio alfa? Sua deflexão na direção oposta à dos raios beta mostrou que eles devem consistir de partículas
alfa carregadas positivamente. O fato de que eles foram apenas ligeiramente desviados pelo mesmo campo magnético
que desviou consideravelmente os raios beta tornou bastante provável que as partículas alfa fossem muito mais
massivas que os elétrons.

Esta não era uma situação inédita. Fluxos de partículas massivas foram encontrados uma década antes da
descoberta da radioatividade. Em 1886, Goldstein (que denominou os "raios catódicos") usou um cátodo perfurado
em um tubo de raios catódicos. Ele descobriu que quando um potencial elétrico enviava raios catódicos carregados
negativamente saindo do cátodo em direção ao ânodo, outro tipo de radiação passava pelas perfurações do cátodo e
disparava na outra direção. Goldstein chamou essa segunda radiação de "raios de canal", porque eles passavam pelos
canais, ou orifícios, no cátodo.

Como os raios do canal se movem na direção oposta à dos raios catódicos, eles devem consistir em partículas
carregadas positivamente. Em consequência, JJ Thomson sugeriu que fossem chamados de raios positivos.

Pode-se suspeitar que os raios positivos fossem o análogo positivo das partículas de raios catódicos; que aqui eram
os equivalentes de "raios anódicos". Na verdade, não foi assim. O físico alemão Wilhelm Wien (1864-1928) mediu sua razão
e/m e mostrou que os baixos valores dessa razão tornavam bastante provável que as partículas de raios positivos fossem
muito mais massivas que os elétrons. Eles eram, em geral, tão massivos quanto átomos.

Além disso, a relação e/m dos raios positivos variou de acordo com a natureza da substância que compõe o cátodo,
ou de acordo com a natureza dos fiapos de gás nos tubos de raios catódicos. Uma vez que Rutherford desenvolveu
seu modelo nuclear do átomo, parecia fazer sentido supor que onde os raios catódicos consistiam em elétrons
eliminados dos átomos, os raios positivos consistiam no que restava de átomos depois que alguns elétrons foram
removidos. Eles eram, em suma, núcleos atômicos carregados positivamente (variando em massa de acordo com o elemento do qual

A partícula carregada positivamente que se descobriu ter a maior razão e/m e, portanto, presumivelmente a menor
massa, era o núcleo do átomo de hidrogênio. Se sua carga for considerada +1, igual à do elétron, mas de sinal oposto,
então sua massa teria que ser 1836 vezes maior que a do elétron. Em 1914, Rutherford havia perdido a esperança de
encontrar dentro do átomo uma partícula com carga positiva que fosse mais leve que o núcleo de hidrogênio; e ele sugeriu
que esse núcleo poderia muito bem ser estabelecido como o número oposto do elétron, apesar da diferença de massa. A descoberta d
Machine Translated by Google

o verdadeiro número oposto do elétron teve que esperar mais duas décadas)

Em 1920, Rutherford sugeriu que o núcleo de hidrogênio recebesse o nome de próton (de uma palavra grega que significa
"primeiro").

Isso remeteu à hipótese de Prout, pois o que Rutherford estava sugerindo era que todos os núcleos atômicos eram constituídos,
pelo menos até certo ponto, de núcleos de hidrogênio. A hipótese de Prout renasceu assim de uma forma mais sofisticada. A
questão dos pesos atômicos não integrais, que parecia destruir a hipótese no século XIX, foi resolvida de maneira a ser
discutida mais adiante.

Agora vamos voltar para a partícula alfa. Em 1906, Rutherford mediu sua razão e/m e descobriu que era equivalente a
a do núcleo do átomo de hélio. Em 1909, ele resolveu essa questão colocando material radioativo em um tubo de parede fina,
que por sua vez estava cercado por um tubo de parede grossa. O espaço entre as paredes interna e externa foi evacuado.
As partículas alfa podem penetrar na parede fina, mas não na espessa. Depois de entrar no espaço entre as paredes, eles
pegaram elétrons e se tornaram átomos comuns; então eles também não podiam passar pela parede fina, mas ficavam presos no
espaço entre eles. Depois de vários dias, átomos suficientes foram coletados lá para permitir a investigação espectroscópica e os
átomos provaram ser os de hélio.

O peso atômico do hélio é 4, e o núcleo de hélio é, portanto, quatro vezes mais massivo que o núcleo de hidrogênio.
Se a razão e/m do núcleo de hélio fosse como a do núcleo de hidrogênio, o núcleo de hélio teria que ter uma carga positiva
quatro vezes maior que a do núcleo de hidrogênio. No entanto. a razão e/m do núcleo de hélio é apenas metade da do próton, de
modo que sua carga elétrica é apenas metade da quantidade esperada, ou apenas duas vezes a do núcleo de hidrogênio A partícula
alfa (como podemos chamar de núcleo de hélio) tem, portanto, uma massa de 4 e uma carga de +2, enquanto o próton (ou núcleo
de hidrogênio) tem uma massa de 1 e uma carga de +1.

Parece que, para explicar sua massa, a partícula alfa deve consistir em quatro prótons. No entanto, não pode consistir
apenas de quatro prótons, pois então sua carga seria +4. Parecia, no entanto, uma solução fácil para esse aparente paradoxo.
Como as substâncias radioativas emitiam partículas beta (elétrons) assim como partículas alfa, parecia bastante razoável supor
que o núcleo continha tanto elétrons quanto prótons. A partícula alfa, deste ponto de vista, poderia ser composta de quatro
prótons e dois elétrons. Os dois elétrons não adicionariam virtualmente nada à massa -, que permaneceria 4, mas cancelariam a
carga de dois dos prótons, deixando uma carga líquida de +2.
Machine Translated by Google

A existência de elétrons no núcleo também parecia satisfatória de outro ponto de vista. O núcleo não pode
muito bem consistiria apenas de prótons, ao que parecia, pois todos os prótons seriam carregados positivamente
e haveria uma repulsão colossalmente forte entre eles quando forçados para os confins ultra-estreitos de um núcleo
atômico. A presença dos elétrons carregados negativamente agia como uma espécie de "cimento" entre os prótons.

Considerações desse tipo deram origem ao modelo próton-elétron do núcleo atômico. Cada núcleo, de acordo com
essa visão, era composta tanto de prótons quanto de elétrons (exceto o núcleo de hidrogênio, que era composto de
um único próton exigindo, por estar sozinho, nenhum elétron-cimento).

O número de prótons em cada variedade de núcleo seria igual ao peso atômico (A). enquanto o número de
elétrons era igual ao número necessário para cancelar a carga de prótons suficientes para deixar não cancelada apenas
a quantidade necessária para explicar o número atômico (Z). O número de elétrons em um núcleo seria, portanto, igual a A - Z.
Os prótons que permanecem não cancelados no núcleo teriam sua carga cancelada pelos elétrons fora do núcleo,
de modo que no átomo neutro haveria Z "elétrons extranucleares".

Assim, para dar alguns exemplos, o núcleo do átomo de carbono, que tem um peso atômico de 12 e um número
atômico de 6, deve ser composto de doze prótons e 12-6, ou seis elétrons. O núcleo do átomo de arsênico com um peso
atômico de 75 e um número atômico de 33, deve ser composto de setenta e cinco prótons e 75 - 33, ou quarenta e dois
elétrons. O núcleo do átomo de urânio com peso atômico de 238 e número atômico de 92 deve ser composto de 238
prótons e 238-92, ou 146 elétrons. Mesmo o núcleo do átomo de hidrogênio se encaixa nessa visão, pois com um peso
atômico de 1 e um número atômico de 1, ele deve ser composto de um próton e 1 - 1, ou zero elétron.

Infelizmente, o modelo próton-elétron do núcleo atômico encontrou dificuldades. Por exemplo, há a questão do
spin nuclear. Cada partícula no núcleo contribui com seu próprio spin para o spin nuclear global. O spin de cada próton e
elétron é +1/2 ou -1/2, e a soma de vários desses valores pode ser um número inteiro (positivo, negativo ou zero) ou meio
número, como 1 /2, 3/2, 5/2, etc. (positivo ou negativo).

O núcleo de nitrogênio, com peso atômico de 14 e número atômico de 7, deveria, pelo modelo próton-elétron, ter quatorze
prótons e sete elétrons para um total de 21 partículas no núcleo. Portanto, se os spins de 21 partículas (cada +1/2 ou -1/2)
forem totalizados, independentemente da distribuição de spins negativos ou positivos, a soma deve ser um meio-número.
No entanto. medições convenceram os físicos de que a rotação do núcleo de nitrogênio era o equivalente a um número
inteiro. Isso lhes deu boas razões para supor que o núcleo de nitrogênio não poderia ser composto de vinte e um prótons.
Machine Translated by Google

e elétrons, ou mesmo de qualquer número ímpar de prótons e elétrons. No entanto, nenhum número par de prótons e elétrons
poderia produzir um peso atômico de 14 e um número atômico de 7.

Parecia cada vez mais necessário, à medida que se acumulavam dados adicionais sobre spins nucleares, que o modelo
próton-elétron fosse totalmente descartado.

Detecção de Partículas

No entanto, que alternativa havia? Uma possibilidade era que o elétron dentro do núcleo não deveria ser contado como
uma partícula separada. Talvez, nos confins do minúsculo núcleo, o elétron se fundiu com um próton para formar uma única
"partícula fundida", com uma massa próxima à de um próton (já que o elétron contribui com muito pouca massa) e com uma
carga elétrica de 0 (já que a carga do elétron de -1 cancela a carga do próton de +1). Se fosse assim, um núcleo de nitrogênio
conteria sete prótons mais sete "partículas fundidas" para 14 partículas ao todo - um número par.

As especulações sobre a possível existência de partículas não carregadas com a massa de um próton começaram em
1920. Por mais de uma década, no entanto, nenhum sinal de tal partícula foi encontrado. Isso não significava necessariamente que
não existisse, pois os físicos esperavam que uma partícula sem carga fosse elusiva.

Os métodos usuais para detectar uma partícula subatômica tiraram vantagem de sua capacidade de ionizar átomos e moléculas. Isto
foi por suas habilidades ionizantes, por exemplo, que as radiações radioativas foram detectadas pelo eletroscópio.

Dois dispositivos, em particular, usados para detectar partículas subatômicas, ficaram famosos nos primeiros dias da
pesquisa em radioatividade. O protótipo do primeiro deles foi construído em 1913 pelo físico alemão Hens Geiger (1882 - 1945),
que havia trabalhado com Rutherford nos experimentos que levaram à elaboração do modelo nuclear do átomo. Foi
grandemente melhorado por Geiger em 1928 em colaboração com o físico alemão S. Muller e, portanto, é comumente conhecido
como contador Geiger-Muller, ou contador GM.

O contador GM consiste, essencialmente, em um tubo cilíndrico de vidro revestido de metal, com um fino fio de metal
descendo pelo centro do tubo. O enchimento do tubo é um gás como o argônio. O tubo é colocado sob um potencial elétrico,
tendo como fio central o ânodo e o cilindro metálico como cátodo. O potencial não é grande o suficiente para causar uma descarga
de faísca no argônio.
Machine Translated by Google

Se uma partícula subatômica carregada vier morrendo no contador GM, ela atingirá um átomo de argônio e soltará um ou mais
elétrons. Os elétrons assim formados irão então acelerar em direção ao ânodo sob o chicote do potencial elétrico e, por sua vez, ionizarão
outros átomos de argônio, produzindo mais elétrons que, por sua vez, ionizarão ainda outros átomos de argônio, e assim por diante. Em
suma, a primeira partícula inicia um processo que em um pequeno instante de tempo produz tantos íons que o argônio se torna capaz
de conduzir uma corrente, e então ocorre uma descarga elétrica dentro do tubo que reduz momentaneamente seu potencial a zero.

A descarga, ou pulso, de corrente elétrica pode ser convertida em um som de clique que marca a passagem de um único
partícula subatômica. A partir do número de cliques por segundo pode-se estimar, de ouvido, quanta radiação ionizante está
presente. (Assim, os contadores GM são usados na prospecção de urânio.) Os pulsos também podem ser contados com precisão por
dispositivos automáticos.

Para fazer mais do que simplesmente contar partículas subatômicas, pode-se usar um dispositivo inventado em 1911 pelo físico
escocês Charles Thomas pees Wilson (1869-1959). Ele estava interessado principalmente na formação de nuvens e chegou à conclusão
de que as gotas de água nas nuvens se formavam em torno de partículas de poeira e também podiam se formar em torno de íons. Se o
ar estivesse completamente livre de poeira ou íons, as nuvens não se formariam e o ar se tornaria supersaturado - isto é, reteria vapor
d'água em quantidades maiores do que normalmente poderia conter.

Wilson colocou ar livre de poeira, saturado com vapor de água, em uma câmara equipada com um pistão. Se o pistão fosse puxado
para fora, o ar se expandiria e sua temperatura cairia. O ar frio não pode conter tanto vapor de água quanto o ar quente, e
normalmente parte do vapor de água teria que se condensar em gotas de líquido à medida que a temperatura caísse. ficou supersaturado.

Se, agora, uma partícula subatômica entrasse na câmara enquanto o ar estivesse supersaturado, ela formaria íons ao longo de seu caminho de
viajar, e pequenas gotículas de água se formariam em torno desses íons. Essas gotículas marcariam a rota da partícula subatômica.

As trilhas formadas em tal câmara de nuvens de Wilson estão repletas de informações. Diferentes tipos de partículas podem ser
identificados. Uma partícula alfa massiva, por exemplo, armazena muitos íons em seu caminho e continua em linha reta, pois é muito
massiva para ser desviada por elétrons. Ele é desviado apenas quando se aproxima de um núcleo, e então o desvio provavelmente será
agudo. O núcleo, despojado de alguns elétrons, recua e se torna uma partícula ionizante. O rastro de uma partícula alfa é, portanto,
grosso e reto. e geralmente termina com um garfo. A partir do comprimento da pista pode-se estimar a
Machine Translated by Google

energia original da partícula alfa:

Uma partícula beta, que é muito mais leve, muda sua direção de movimento mais facilmente e forma menos íons do que uma alfa
partícula faz. Deixa um rastro mais fino e vacilante. Raios gama e raios X expulsam elétrons dos átomos, e estes atuam
como partículas ionizantes que marcam trilhas curtas para ambos os lados do caminho do raio gama ou raio X. Tal
radiação, portanto, deixa rastros tênues e difusos.

Se uma câmara de nuvem é colocada entre os pólos de um ímã, as partículas carregadas viajam em caminhos
curvos, e as gotas de água indicam isso. A partir da direção da curva, pode-se determinar se a carga é negativa ou positiva;
e da nitidez da curva, pode-se fazer deduções quanto à relação e/m.

Para uma partícula em alta velocidade formar íons, no entanto, a presença de uma carga elétrica é essencial. Uma
partícula carregada positivamente atrai elétrons para fora dos átomos pelos quais passa, e uma partícula carregada
negativamente os repele para fora do átomo: uma partícula não carregada não atrairia nem repeliria elétrons e nem
formaria íons. Tal partícula não carregada, portanto, não seria marcada por um contador GM ou por uma câmara de nuvem
de Wilson (ou, nesse caso, pelos dispositivos mais sofisticados que foram inventados desde então). Se uma partícula não
carregada existe, portanto, ela teria que ser detectada indiretamente.

Foi isso que impediu a fácil detecção de uma partícula neutra e atrasou por mais de uma década a
desenvolvimento de um modelo nuclear mais satisfatório que o modelo próton-elétron.

O nêutron

A partir de 1930, obtiveram-se evidências de que, quando o berílio era exposto aos raios alfa, uma radiação era
emitidos que diferiam daqueles que já eram conhecidos. Era muito penetrante e não era afetado por um campo magnético,
que parecia dar-lhe a marca dos raios gama. No entanto, a radiação também não era de natureza de raios gama, pois ao
contrário dos raios gama, não era uma radiação ionizante e não podia, por exemplo, ser detectada por um eletroscópio.

De fato, a radiação não foi detectada diretamente. Quando uma substância como a parafina foi colocada no caminho do
radiação, no entanto, prótons foram lançados para fora da parafina e esses prótons a entregaram.

Em 1932, o físico inglês James Chadwick (1891- ) explicou satisfatoriamente o fenômeno. Eletroenergético
Machine Translated by Google

a radiação magnética pode empurrar os elétrons para fora do caminho, mas não os prótons mais massivos. Para que
um próton fosse golpeado tão descuidadamente, outra partícula tinha que estar envolvida, e uma partícula na faixa de
massa do próton. Uma vez que esta partícula não ionizou a atmosfera, ela teve que ser descarregada. Em suma, aqui
estava a partícula massiva sem carga que os físicos procuravam há uma década e, por ser eletricamente neutra, foi chamada de nêutro

Assim que o nêutron foi descoberto, Heisenberg sugeriu um modelo próton-nêutron do núcleo atômico.
De acordo com esse modelo, o núcleo seria formado apenas por prótons e nêutrons. O nêutron é quase igual ao próton
em massa, então o número total de prótons (p) e nêutrons (n) seria igual ao peso atômico (A). Por outro lado, apenas os
prótons contribuiriam para a carga positiva do núcleo, de modo que o número total de prótons no núcleo seria igual ao
número atômico (Z). Resumidamente:

p+n=A (Equação 7-1)

p=z (Equação 7-2)

O número de nêutrons, então, pode ser obtido subtraindo (Equação 7-1)

n=A-Z (Equação 7-3)

Usando esta nova visão, é fácil especificar a estrutura dos núcleos daqueles átomos que têm pesos atômicos que são
aproximadamente números inteiros.

O núcleo do átomo de hidrogênio (A = 1, Z = 1) ii é formado por um próton e zero nêutrons; a do átomo de hélio =4, 2=2)
são dois prótons e dois nêutrons; a do átomo de arsênico (A = 75, Z = 33) é trinta e três prótons e quarenta e dois nêutrons;
e a do átomo de urânio (A = 238, Z = 92) é de noventa e dois prótons e cento e quarenta e seis nêutrons.

Esse modelo próton-nêutron do núcleo rapidamente se mostrou satisfatório naqueles aspectos em que o modelo
próton elétron falhou. O núcleo de nitrogênio, por exemplo (A = 14, Z = 7) é composto de sete prótons e sete nêutrons para
um total de 14 partículas. O nêutron, assim como o próton, tem um spin de +1/2 ou -1/2, e 14 dessas partículas (ou qualquer
número par) devem ter um spin líquido representado por um número inteiro, de acordo com a observação.
Machine Translated by Google

O modelo próton-nêutron ainda é aceito no presente escrito, e as duas partículas são agrupadas como
nucleons por causa de sua aparência característica em núcleos atômicos.

O modelo, é claro, levanta questões. Uma delas é esta: se o núcleo contém apenas prótons e nêutrons, e
não contém elétrons, então de onde vêm os elétrons que compõem os raios beta emitidos por substâncias radioativas? Afinal, foi
a existência e a natureza desses raios beta que levaram à crença nos elétrons nucleares em primeiro lugar.

A resposta para isso surge da natureza do nêutron que, em um aspecto particular, difere crucialmente do próton e do elétron.
Tanto o próton quanto o elétron são exemplos de partículas estáveis. Ou seja, se um próton ou um elétron estivesse sozinho no
universo, ele persistiria, inalterado, indefinidamente (pelo menos até onde sabemos). Não é assim com o nêutron, que é uma partícula
instável.

Um nêutron isolado eventualmente deixará de existir e em seu lugar estarão duas partículas, um próton e um elétron.
(Esta não é uma descrição completa da quebra, mas servirá por enquanto. Podemos escrever essa mudança simbolicamente, usando
sobrescritos para indicar carga, como segue:

+ -
0n ---- p +e (Equação 7-4)

Um ponto importante demonstrado por esta equação é que a carga elétrica não é criada. Toda a experiência envolvendo o
comportamento de partículas subatômicas indica que o nêutron não pode simplesmente se transformar em um próton, pois não haveria
maneira pela qual uma partícula não carregada poderia desenvolver uma carga positiva (ou, nesse caso, uma carga negativa) do nada.
Ao formar um próton e um elétron, a carga líquida do produto permanece zero.

Este é um exemplo da baixa conservação da carga elétrica, que afirma que a carga líquida de um sistema fechado
não pode ser alterado por mudanças que ocorrem dentro do sistema. Isso foi reconhecido pela primeira vez no estudo de
fenômenos elétricos, muito antes de se suspeitar da existência de partículas subatômicas.

Um nêutron existente, não livre, mas dentro de um núcleo atômico, muitas vezes é estabilizado por razões que serão discutidas
mais adiante. Assim, o núcleo de um átomo de nitrogênio é estável apesar de seu conteúdo de nêutrons e, deixado a si mesmo,
continuará sendo composto de sete prótons e sete nêutrons indefinidamente.
Machine Translated by Google

Por outro lado, existem alguns núcleos dentro dos quais os nêutrons mantêm um certo grau de instabilidade. Nesses
casos, o nêutron dentro do núcleo, em algum momento, se transformará em um próton e um elétron. O próton está em casa no
núcleo e permanece lá, mas o elétron sai voando como uma partícula beta. Assim, embora a partícula beta emerja do núcleo,
isso não é indicação, afinal, de que ela fosse um constituinte do núcleo: ao contrário, ela foi criada no momento de sua
emergência.

Novo elemento radioativo

Se, no curso da emissão de uma partícula beta, um nêutron dentro do núcleo de um átomo é convertido em um próton, é
claro que a composição próton-nêutron do núcleo muda e que a natureza do próprio átomo é alterado. Como o número de
prótons é aumentado em um, o mesmo acontece com o número atômico, e o átomo dentro do qual a mudança ocorreu é
transformado de um elemento em outro.

Na verdade, a radioatividade é quase invariavelmente um sinal de uma mudança fundamental na natureza do átomo
que apresenta o fenômeno. Isso veio a ser percebido logo após a descoberta da radioatividade, e bem antes de a estrutura
interna do núcleo ser elaborada.

Já em 1900, Crookes, um dos pioneiros dos raios catódicos, descobriu que quando um composto de urânio era
completamente purificado, praticamente não apresentava radioatividade. Foi sua sugestão, portanto, que não era o urânio
que era radioativo, mas alguma impureza no urânio.

No entanto, no ano seguinte, Becquerel confirmou as descobertas de Crookes, mas mostrou que, à medida que o
composto de urânio purificado permanecia em pé, sua radioatividade gradualmente se tornava mais intensa, até atingir o
nível normal associado ao urânio. Em 1902, Rutherford e seu colega de trabalho, o físico inglês Frederick Soddy (1877-1956),
mostraram que isso também era verdade para os compostos de tório.

Parecia razoável concluir que, se a radioatividade era a de uma impureza, era uma impureza que se formou
gradualmente a partir do urânio. Em outras palavras, a radioatividade do urânio era um sintoma da mudança dos átomos
de urânio em alguma outra forma de átomo. Este novo átomo era ele próprio radioativo e se transformou em um terceiro
átomo, que também era radioativo, e assim por diante. Em suma, como Rutherford e Soddy apontaram, não se deve falar de
um elemento radioativo, mas de uma série de elementos radioativos.
Machine Translated by Google

A radioatividade detectada no urânio e no tório pode não ser tanto características do urânio e do tório em si (que pode ser,
e de fato provou ser, apenas levemente radioativa) quanto dos vários "elementos-filhos". Estes últimos eram muito mais
fortemente radioativos e estavam sempre presentes no urânio e no tório - exceto imediatamente após esses elementos terem
sido rigorosamente purificados.

Os "elementos-filhos", se formados lentamente e rapidamente decompostos, devem estar presentes no urânio e no tório
minerais apenas em quantidades muito pequenas. Mesmo assim, embora permanecessem imunes à descoberta por
métodos químicos comuns, poderiam ser detectados e rastreados pelas radiações que emitiam, já que estas podiam ser
detectadas com grande sensibilidade e como era de se esperar que cada elemento diferente fornecesse fora de radiações de
tipo e intensidade característicos.

Essa façanha foi realizada com sucesso por Madame Curie, em colaboração com seu marido (o físico francês
Pierre Curie (1859-1906). Em 1898, os Curie começaram com grandes quantidades de minério de urânio e o dividiram, por
técnicas químicas padrão, em frações de propriedades diferentes. Eles seguiram o rastro da radioatividade intensa, mantendo
as frações que a apresentavam e descartando as que não a apresentavam. Antes do final do ano, eles descobriram dois
elementos até então desconhecidos, o primeiro dos quais deram o nome de poloniun em homenagem à terra natal de Madame
Curie, e o segundo, rádio, em homenagem à intensa radioatividade do elemento.

Ambos os elementos eram, de fato, muito mais radioativos do que o urânio ou o tório. De fato, a rapidez com que o
polônio e o rádio se decompuseram e deixaram de ser polônio e rádio foi tal que nenhuma quantidade detectável poderia
ter sobrevivido à história de cinco bilhões de anos da Terra, mesmo que grandes quantidades existissem na estrutura do
planeta quando ele foi formado. A existência desses elementos hoje deve-se inteiramente à sua formação constante a partir
de urânio e tório. Os últimos elementos se decompuseram tão lentamente que uma fração considerável do suprimento
original ainda existe hoje, apesar de uma diminuição constante nos últimos bilhões de anos.

Quantos desses elementos de vida curta podem existir como produtos filhos de urânio e tório? Na época do
Curies, isso era incerto, pois não havia como dizer quanto espaço poderia restar na tabela periódica. Depois que
Moseley desenvolveu o conceito de números atômicos, em 1913, o assunto tornou-se menos misterioso.

A partir de 1913, todos os elementos com números atômicos até e incluindo 83 (bismuto) eram não radioativos.
Era esperado que os elementos ainda não descobertos nesta faixa (43, 61, 72 e 75) também não fossem radioativos.
E, com certeza, quando o háfnio (72) foi descoberto em 1923 e o rênio (75) em 1925, ambos se revelaram
Machine Translated by Google

não radioativo. A atenção, então, estava voltada para elementos de número atômico superior a 83.

Tório (número atômico 90) e urânio (número atômico 92) foram os primeiros elementos radioativos descobertos. Aqueles
descobertos pelos Curie também se encaixam nessa região, pois o polônio tinha um número atômico de 84 e o rádio um de 88.

Outras descobertas se seguiram. Em 1899, o químico francês André Louis Debierne (1874-1949) descobriu o actínio
(número atômico 89), e em 1900, o químico alemão Friedrich Ernst Dorn (1848-1916) descobriu o radônio (número atômico
86). Em 1917, o químico alemão Otto Hahn (1879- ) e sua colaboradora, a física austríaca Lise Meitner (1878-
), descobriu o protactínio (número atômico 91).

Naquela época (e por um quarto de século depois) apenas duas lacunas permaneceram naquela região da tabela periódica,
lacunas correspondentes aos números atômicos 85 e 87. acabou sendo assim).

E, no entanto, como veremos no próximo capítulo, essa listagem de elementos, que parece se encaixar tão perfeitamente na
tabela periódica, na verdade envolveu os químicos em um problema que começou parecendo abalar o próprio conceito de tabela
periódica e terminou estabelecendo com mais firmeza e mais fecundidade do que nunca.

CAPÍTULO 8

Isótopos

Transformação Atômica

A descoberta de novos elementos em minerais radioativos em 1898 e imediatamente depois foi, de certa forma, muito
bem sucedida para o conforto. A tabela periódica tinha espaço para exatamente nove elementos radioativos com números
atômicos de 84 a 92 inclusive. Espaço para novos elementos, como rádio e polônio, poderia ser encontrado, mas quantos mais
havia? Se alguém julgar pelo número de tipos distintos e característicos e as intensidades de radiação entre os elementos filhos de
urânio e tório, então os físicos parecem ter descoberto dezenas de elementos diferentes.
Machine Translated by Google

Nomes foram aplicados a cada tipo distinto de radiação: havia, por exemplo, urânio X1 urânio X rádio A, 2

rádio B, e assim por diante até o rádio G. Havia também uma lista de tório de A a D, dois meso-tório, um radiotório. e
assim por diante. Mas se cada tipo de radiação realmente pertencesse a um elemento diferente, onde se poderia colocá-los
todos? Depois que Moseley descobriu a estrutura do número atômico da tabela periódica, o problema se tornou crucial.

Para responder a esse problema, vamos considerar a natureza da radiação radioativa e a maneira pela qual ela deve afetar
o átomo emitindo-os. (Farei uso do modelo próton-nêutron do núcleo atômico, embora a análise que descreverei tenha sido
elaborada originalmente com base no modelo próton-elétron.)

Vamos começar com um elemento. 0, e suponha que seu núcleo seja composto de x prótons e y nêutrons. Seu número
atômico, então, é x e seu peso atômico é x + y. Colocando o número atômico como um subscrito antes do símbolo do x+y
.
elemento e o peso atômico como um sobrescrito depois dele, podemos escrever o elemento como xQ

A seguir, vamos supor que um átomo desse elemento emita uma partícula alfa (simbolizada pela letra grega a. que é "alfa"). A
partícula alfa é composta de dois prótons e dois nêutrons e, portanto, tem um número atômico de 2 e um peso atômico de 4. Pode ser
4
escrito: 2a

O que resta do átomo original após a partida de uma partícula alfa deve conter x-2 prótons e y-2 nêutrons.
O número atômico é diminuído em 2 (produzindo um novo elemento, R), e o peso atômico é diminuído em 4. Podemos escrever
isto:

x+y ----------------------- x+y-4


xQ x-2R 4 + 2a (Equação 8-1)

No átomo original havia emitido uma partícula beta (simbolizada como a letra grega "beta"), a situação seria
ser diferente. A emissão de uma partícula beta significa que dentro do núcleo um nêutron foi convertido em um próton.
O núcleo, portanto, conteria x + l prótons e y-1 nêutrons. O número atômico seria aumentado em um, mas o peso atômico
permaneceria inalterado para x + l + y – l = x + y.
Machine Translated by Google

A própria partícula beta pode ser considerada como tendo um peso atômico de cerca de 0. (Na verdade, é 0,00054, que é
próximo o suficiente de zero para nossos propósitos.) Como o número atômico é equivalente ao número de unidades de
cargas positivas presentes e como a partícula beta é um elétron com carga negativa unitária, podemos considerar seu número
0
atômico igual a -1. A partícula beta pode, portanto, ser escritaecomo
a emissão
-1B de partículas beta podem ser representadas como:

x+y ----------------------- 0
xQ x+y + 1B x-1R (Equação 8-2)

Observe que tanto na Equação 8-1 quanto na Equação 8-2, a soma dos números atômicos do lado direito da equação é
igual à do lado esquerdo. Isso está de acordo com a lei de conservação da carga elétrica. O mesmo vale para os pesos atômicos
de acordo com a lei de conservação da massa. (Os pequenos desvios envolvendo a conversão de alguma massa em energia não
precisam nos preocupar ainda.)

Um raio gama pode ser simbolizado como (r) a letra grega "gama". Como é radiação eletromagnética, não tem 0. Podemos,
número atômico e pode ser escrito, 0r portanto, escrever a seguinte equação: peso atômico nem

x+y ----------------------- 0
xQ x+y + 0r xQ (Equação 8-3)

Em suma, então, quando um átomo emite uma partícula alfa, seu número atômico diminui em dois e seu peso atômico
diminui em quatro. Quando emite uma partícula beta, seu número atômico aumenta em um e seu peso atômico permanece inalterado.
Quando emite um raio gama, seu número atômico e peso atômico permanecem inalterados. Esta é a lei de deslocamento de
grupo, proposta pela primeira vez em sua forma completa por Soddy em 1913.

Vamos aplicar a lei de deslocamento de grupo ao carro específico do átomo de urânio com um número atômico de 92 e um
peso atômico de 238 - que é 92U 238. A fraca radioatividade do urânio altamente purificado consiste em partículas alfa. Um
A emissão de partículas alfa reduz o número atômico do urânio para 90, que é o do tório, e reduz seu peso atômico para 234.
Podemos escrever:

238---------------------- 234 4
92U 90º +2alfa (Equação 8-4)
Machine Translated by Google

O átomo de tório que surgiu como resultado dessa quebra do átomo de urânio não é exatamente como o átomo de tório
que ocorre em quantidade em minérios de tório. Este último possui um número atômico de 90, com certeza, mas tem um número atômico
234
peso de 232. É 90º

Ambos os tipos de átomos de tório possuem o número atômico de 90 e se encaixam no mesmo lugar na tabela periódica. Soddy
apontou isso em 1913 e sugeriu que os átomos diferem em peso atômico, mas não em número atômico, como no caso de,
234 232
90º e 90º lugar na tabela , ser referidos como isótopos, de palavras gregas que significam "mesmo lugar", porque ocupam o

periódica.

Como esses isótopos sempre compartilham o mesmo número atômico e diferem apenas no peso atômico, os químicos se concentram em
o último e geralmente omite o subscrito ao escrever o símbolo do isótopo. Eles vão escrever os dois isótopos de tório 234 como
Th 232
e, Th ou, menos compactamente, como tório-234 e tório-232.

Do ponto de vista do químico justifica-se a colocação de diferentes isótopos no mesmo local da tabela periódica.
Tanto o tório-234 quanto o tório-232 têm 90 prótons no núcleo e, portanto, 90 elétrons fora do núcleo no átomo neutro. As propriedades
químicas dependem do número e da distribuição dos elétrons e, portanto, do tório-234 e do tório. 232 têm propriedades químicas
praticamente idênticas. Esse raciocínio também vale para outros conjuntos de isótopos.

Mas se diferentes isótopos têm complementos idênticos de elétrons externos, eles têm núcleos de estruturas diferentes. Como
o número de prótons nos núcleos de diferentes isótopos de um elemento é fixo, a diferença deve estar no número de nêutrons. O
átomo de tório-234, por exemplo, tem um núcleo formado por 90 prótons e 144 nêutrons, enquanto o átomo de tório-232 tem um núcleo
formado por 90 prótons e 142 nêutrons.

No caso de alterações envolvendo o núcleo atômico, como aquelas que marcam o fenômeno da radioatividade (em contraste
com as alterações químicas que envolvem apenas os elétrons e não o núcleo), a diferença no número de nêutrons é importante.

Assim, o tório-232 se decompõe com extrema lentidão, e é exatamente por isso que ainda está presente na crosta. Ele emite
uma partícula alfa, de modo que seu número atômico é reduzido a 88, que é o do rádio. Nós podemos escrever:
Machine Translated by Google

232---------------------- 228 4
90º 88Ra +2alfa (Equação 8-5)

Os átomos de tório-234, por outro lado, se decompõem com extrema rapidez, razão pela qual esse isótopo não ocorre na
natureza, exceto em quantidades muito pequenas em minérios de urânio. Além disso, ele se decompõe com a emissão de uma
partícula beta. Isso aumenta seu número atômico para 91, o do protactínio:

234---------------------- 234 0
90º 91Pa + -1 Beta (Equação 8-6)

Quando uma partícula alfa ou uma partícula beta é emitida, o novo átomo pode ser formado em um nível de energia
nuclear acima do estado fundamental. Ao cair para o estado fundamental depois disso, um raio gama é emitido. Em alguns
casos, isso leva um tempo apreciável e o núcleo excitado tem um tempo de vida próprio e características de radiação
diferentes. Para indicar um núcleo no estado excitado, um asterisco é adicionado ao símbolo. Quando o protactínio-234 é
formado, ele está no estado excitado e: ·

234---------------------- 224 0
91Pa 91Pa + 0Gama (Equação 8-7)

Átomos que são idênticos em peso atômico e número atômico, mas diferem em nível de energia nuclear são chamados
de isômeros nucleares, um nome sugerido por Lise Meitner em 1936. A primeira evidência de isomerismo nuclear foi obtida por
seu parceiro de longa data, Otto Hahn, em conexão com o protactínio-234, em 1921.

Série Radioativa

Uma vez que a lei de deslocamento de grupo foi elaborada, os nomes triviais dados aos diferentes átomos formados a partir de urânio
e o tório poderia ser abandonado. Eles ainda podem ser encontrados em livros de física por causa de seu interesse histórico,
mas não serão usados aqui. Os nomes de isótopos apropriados serão usados em vez disso. Quando isso é feito, verifica-se
que, apesar das dezenas de isótopos formados no curso da quebra radioativa do urânio e do tório, todos podem se encaixar em
um ou outro dos lugares da tabela atômica.
Machine Translated by Google

Você pode ver que isso é verdade, por exemplo, dos diferentes átomos formados de urânio-238, o chamado urânio
série, que estão listados na Tabela V.

Se considerarmos esta série em detalhes, vários pontos surgem. Primeiro. Iead-206 é um isótopo estável que não sofre
ruptura radioativa. A série, portanto, termina aí. No entanto, também estão incluídos na série isótopos de chumbo como
chumbo-214 e chumbo-210, que são radioativos. Aqui está uma indicação clara de que os isótopos são um fenômeno que não se
limita apenas aos átomos radioativos, mas que um determinado elemento pode ter isótopos estáveis e radioativos.

Se deixarmos de considerar o chumbo-206 e levarmos em conta apenas os membros radioativos da série, apenas o
urânio-238 se decompõe com extrema lentidão. Todo o resto se desfaz com relativa rapidez. Consequentemente, apenas o
urânio-238 pode durar toda a extensão da existência da Terra. É o "pai" da série, e nenhum dos átomos filhos existiria na Terra
hoje se o urânio-238 não existisse.

Um átomo radioativo em particular nem sempre precisa ter apenas um modo de decomposição. O polônio-218, por exemplo,
pode liberar uma partícula alfa para formar o chumbo-214, ou pode liberar uma partícula beta para formar o astato-218. Este é
um exemplo de desintegração ramificada. Muitas vezes, nesses casos, um dos ramos é o favorito. Por exemplo, de cada 10.000
átomos de polônio-218, apenas dois se decompõem em astato-218, todo o resto se decompõe em chumbo-214. (Neste caso, é a
emissão de partículas alfa que é a alternativa preferida; em outros casos, a emissão de partículas beta é favorecida).

Astatine (número atômico 85), quando formado em colapsos radioativos, geralmente é formado na extremidade muito curta de
uma desintegração ramificada. É por isso que existe naturalmente em traços quase inimaginavelmente pequenos e por isso
escapou da descoberta por tanto tempo. O mesmo vale para o frâncio (número atômico 87), que não é formado nesta série em particular.

Em uma série radioativa, o peso atômico de qualquer átomo enfrenta um de dois destinos. Ou seu valor não muda em nada,
quando uma partícula beta ou um raio gama é emitido, ou diminui em 4 unidades, quando uma partícula alfa é emitida. Isso
significa que a diferença de pesos atômicos entre quaisquer dois membros da série deve ser O ou então um múltiplo de 4.

O peso atômico do urânio-238 é 238 e isso, quando dividido por 4, dá um quociente de 59 com um resto de 2.
Para qualquer número que difere de 238 por um múltiplo de 4, a divisão por 4 resultará em um quociente diferente, mas sempre
deixará um resto de 2. O valor do peso atômico de cada membro da série do urânio, portanto, tem a forma de 4x + 2,
Machine Translated by Google

onde x pode variar de 59 para urânio-238 até 51 para chumbo-206. Por esta razão, pode-se chamar a série do urânio de série 4x + 2.

O tório, o segundo elemento a ser descoberto como radioativo, também é o pai de um grupo de átomos filhos, a série do tório.

Aqui, também, o peso atômico de todos os átomos na série difere por múltiplos de 4. Como o tório-232 tem um peso atômico, 232, que
é divisível por 4, todos os outros pesos atômicos na série devem ser divisíveis igualmente por 4, e a série pode ser referida como a série 4x
+ 0.

Pode-se pensar que, como o urânio e o tório são os dois únicos elementos radioativos que ocorrem em quantidades apreciáveis no
solo, eles seriam apenas duas séries radioativas. No entanto, os átomos apareceram em minerais radioativos com pesos atômicos que não
eram da forma 4x + 0 nem 4x + 2 e que, portanto, não podiam pertencer nem à série do tório nem à série do urânio.

A princípio, considerou-se que estes faziam parte de uma série originária do actínio-227, um isótopo com um tipo de peso atômico 4x
+ 3, por isso foi chamado de série do actínio. O nome persiste mesmo que essa suposição tenha sido derrubada pela descoberta de que o
actínio-227 se decompôs muito rapidamente para permitir sua existência através das eras da história da Terra, de modo que não poderia servir
como o átomo pai de uma série.

Quando o protactínio foi descoberto, descobriu-se que o protactínio-231 (para usar a terminologia atual) se decompôs para formar o
actínio-227, e essa, de fato, foi a razão pela qual o novo elemento recebeu seu nome (que significa "antes do actínio").
O protactínio-231, no entanto, também tem vida curta demais para se qualificar como pai de uma série.

Em 1935, o físico canadense-americano Arthur Jeffrey Dempster (1886-1950) descobriu que nem todos os átomos de urânio eram
urânio-238. De cada mil átomos de urânio isolados do minério natural, sete eram urnio 23S. Esses átomos, possuindo 92 prótons e 143
nêutrons em seus núcleos, se decompuseram muito lentamente (embora não tão lentamente quanto o urânio-238) e se qualificaram como
o átomo pai da série do actínio. (Por essa razão, o urânio-235 às vezes é chamado de "actinourânio".) Os pesos atômicos de todos os
átomos que compõem a série de actínio são da variedade 4x + 3.

É claro que ainda deve existir uma quarta série radioativa, na qual todos os pesos atômicos são da forma 4x + 1.
Machine Translated by Google

Isótopos desta forma, como o urânio-233, não podem pertencer a nenhuma das três séries já descritas. Nenhuma série foi
descoberto nas décadas de 1920 e 1930, e os físicos decidiram (corretamente, como se viu) que nenhum isótopo com um peso
atômico dessa forma tinha vida longa o suficiente para servir como pai para tal série na natureza.

Cada uma das três séries radioativas termina com um isótopo de chumbo com um peso atômico de forma apropriada. A série de
urânio termina com chumbo-206 (4x+2), a série de tório termina com chumbo-208 (4x + 0) e a série de actínio termina com chumbo 207
(4x + 3). Todos os três isótopos de chumbo são estáveis, o que indica que um elemento pode conter não apenas isótopos estáveis e
instáveis, mas também mais de um isótopo estável.

Meias-vidas

Até agora falei sobre isótopos radioativos que sofreram degradação radioativa muito lentamente e outros que
desmoronou rapidamente, mas não fiz nenhuma tentativa de atribuir números reais a essas descrições qualitativas.

A primeira tentativa de fazê-lo foi feita por Rutherford e Soddy em investigações iniciadas em 1902. Utilizando um isótopo
radioativo de vida curta, eles traçaram a variação da intensidade da radiação com o tempo. Eles descobriram que a intensidade caiu
com o tempo no que é chamado de "maneira exponencial".

Isso só pode ser verdade se as hastes radioativas individuais se quebrarem a uma taxa que seja uma fração fixa do número total de
tais hastes presentes. Essa tração, digamos, é 0,02 dos átomos presentes por segundo. Se começarmos com 1.000.000.000.000 de
átomos; então, no primeiro segundo, 20.000.000.000 de átomos se quebrarão. Não podemos dizer quais 20 bilhões irão quebrar, é claro.
Se estivéssemos considerando um átomo em particular, não poderíamos dizer se esse átomo se quebraria no primeiro segundo ou
depois de cinco segundos ou depois de cinco anos.

Isso é bastante análogo a uma situação muito mais familiar. Dado um milhão de americanos com 35 anos, as companhias de
seguros (a partir de um estudo completo de estatísticas) podem prever com razoável precisão quantos deles morrerão no decorrer do
próximo ano, supondo que o ano seja "normal". Eles não podiam apontar americanos individuais que morreriam naquele ano, ou prever
o ano específico da morte de um americano em particular. Eles só podem fazer previsões gerais quando se trata de um grande número
de indivíduos sem rosto. Onde os corretores de seguros trabalham com milhões de seres humanos, os físicos trabalham com trilhões
de trilhões de átomos, e as previsões destes últimos são correspondentemente mais precisas.

A quebra radioativa envolve uma taxa fixa de quebra à medida que o tempo passa. Suponhamos que isso fosse verdade para o ser humano
Machine Translated by Google

mortes. Vamos supor que de 1.000.000 de americanos com 35 anos, cerca de 0,2% - ou seja, 2.000 morrerão no decorrer do ano. No final do ano
restam 998.000 homens. Se agora 0,2% deles morrerem no próximo ano, 1996 morrerá, deixando 996.004, no terceiro ano, mantendo a taxa
constante, 1992 morrerá, deixando 994.012, e assim por diante.

O número de homens morrendo, nesse caso, diminuiria igualmente com o número de homens ainda vivos. Não haveria um ano específico em
que você pudesse prever que o último homem morreria, pois em qualquer ano apenas uma pequena porcentagem dos vivos morreria. Naturalmente,
essa análise só seria razoavelmente correta enquanto o número de homens permanecesse grande o suficiente para que os métodos estatísticos
fossem razoavelmente precisos. No entanto, se você começasse com um número extremamente grande de homens, esperaria que alguns deles
vivessem centenas de milhares de anos.

Na verdade, isso não acontece porque a taxa de mortalidade humana não permanece constante, à medida que os homens envelhecem. Ele
aumenta constantemente, e homens muito velhos têm uma taxa de mortalidade muito alta. Por essa razão, não importa quão grande seja o número
de homens de 35 anos com quem você começa, todos estarão mortos em menos de um século.

No caso de átomos radioativos, a "taxa de mortalidade" por quebra não muda com o tempo, e enquanto alguns átomos se quebram quase
de uma vez, outros átomos do mesmo tipo podem se abster de se quebrar por períodos indefinidamente longos. Não se pode, portanto, falar do
"tempo de vida" de um átomo radioativo, pois esse "tempo de vida" pode ser qualquer coisa.

É característico dessa situação de "taxa de mortalidade cansada", no entanto, que para um determinado valor dessa taxa de mortalidade
haja um intervalo de tempo específico durante o qual metade dos átomos originais se desintegraria. Esse intervalo de tempo específico, chamado de
meia-vida por Rutherford em 1904, permaneceria o mesmo, por maior ou menor que fosse (dentro da razão estatística) o número original de átomos.
Para determinados isótopos, verificou-se que tal meia-vida é praticamente independente das condições ambientais, como temperatura e pressão. Os
físicos encontraram maneiras de impor pequenas mudanças - alguns por cento no máximo - nas meias-vidas de alguns tipos específicos de átomos
radioativos, mas esses casos são bastante excepcionais.

Digamos que a meia-vida de um isótopo em particular é de um ano. Isso significa que, se você começar com dois trilhões de átomos desse
isótopo, terá apenas um trilhão no final do ano. Com o número de átomos presentes caindo para a metade, o número de quebras também diminui
para parar, e apenas meio trilhão desaparece no ano seguinte, deixando meio trilhão. Depois de um terceiro ano, restaria um quarto de trilhão, e
assim por diante.

Para generalizar: dado qualquer número de átomos radioativos, metade se decompõe durante o primeiro período de meia-vida, metade dos
restantes se decompõe durante o segundo período de meia-vida, e assim por diante indefinidamente - ou pelo menos até o número total de
Machine Translated by Google

átomos envolvidos tornam-se pequenos o suficiente para que os métodos estatísticos não sejam mais aplicados com precisão razoável.

Conhecer a meia-vida de um isótopo, então, é saber em forma de cápsula quantas quebras ocorrerão em uma determinada quantidade em
um determinado tempo e, portanto, quão intensamente radioativo é o isótopo. Você também pode rastrear qual será a intensidade a qualquer
momento no futuro e qual foi a qualquer momento no passado.

As meias-vidas dos isótopos radioativos variam em duração, desde muito pequenas até imensas. Na faixa intermediária é possível
determinar as meias-vidas diretamente das taxas de degradação observadas. Por exemplo, a meia-vida do rádio-226 é de 1620 anos.

Para encontrar meias-vidas muito mais longas do que isso, métodos indiretos podem ser usados. Considere o caso do urânio-238,
por exemplo. Em qualquer amostra de minério de urânio, os átomos de urânio estão se decompondo, mas a uma taxa tão pequena que
podemos supor com segurança que, durante um período limitado de tempo, o número de átomos de urânio presentes é praticamente constante.
Ligue para esseUma
número, N
determinada fração (F u) do número de átomos de urânio presentes se decompõe a cada segundo. O número total de
dentro.

átomos de urânio quebrando a cada segundo é, portanto, F N .


dentro dentro

No curso de seu colapso, o urânio-238 forma rádio-226. Ele não faz isso diretamente, pois há outros quatro isótopos radioativos entre
eles, mas isso pode ser demonstrado que não importa. Podemos legitimamente simplificar as coisas no presente assumindo que o rádio-226 é
formado diretamente a partir do urânio-238. Desde F N átomos de urânio-238 estão quebrando cada
dentro dentro

segundo, F N dentro dentro


rádio- 226 átomos estão sendo formados a cada segundo.

À medida que o rádio-226 é formado, ele também começa a se decompor a uma taxa que é uma fração fixa do número de átomos de
rádio-226 presentes, Fr Nr. À medida que os átomos de rádio-226 se formam e se acumulam a partir do urânio-238, o número de átomos de
rádio-226 que se quebram aumenta até atingir o ponto em que o número de quebra é igual ao número que está sendo formado.
Nesse ponto, o número de átomos de rádio-226 realmente presentes atinge um valor constante, e o rádio-226 está em equilíbrio radioativo com
o urânio-238. Em equilíbrio radioativo:

F N (Equação 8-8)
dentro u = Fr N r

ou, reorganizando:
Machine Translated by Google

Fu / Fr = Nr / Nu (Equação 8-9)

Pode-se mostrar que a fração de um isótopo em particular que se decompõe a cada segundo é inversamente
proporcional à meia-vida desse isótopo em particular. Quanto maior a meia-vida, menor a fração de átomos presentes
quebrando em um segundo. Se a meia-vida do urânio-238 é simbolizada como Hu e a do rádio-226 como Hr

Fu / Fr = Hr / Hu (Equação 8-10)

Combinando as Equações 8-9 e 8-10, temos:

Hr / Hu = Nr / Nu (Equação 8-11)

No equilíbrio radioativo, em outras palavras, a proporção da quantidade de átomos pais e filhos presentes é igual
à proporção de suas meias-vidas. Nos minérios de urânio, existem 2.800.000 vezes mais átomos de urânio-238 presentes
do que átomos de rádio-226. A meia-vida do urânio-238 deve ser 2.800.000 vezes maior que a do rádio-226, ou apenas
cerca de 4.500.000.000 anos.

Não é surpreendente, então, que o urânio-238 ainda exista na crosta terrestre. Se o sistema solar tem de cinco a
seis bilhões de anos (como agora se acredita), então houve tempo para apenas pouco mais da metade do urânio-238
originalmente presente ter se decomposto. A meia-vida do urânio-235 é menor que a do urânio-238; são apenas 713
milhões de anos. Isso ainda é tempo suficiente para que algo como um por cento da quantidade original presente no
momento da origem do sistema solar permaneça em existência hoje. No entanto, não é surpreendente que apenas sete
dos mil átomos de urânio existentes agora sejam de urânio-235.
Machine Translated by Google

Qualquer isótopo radioativo com meia-vida inferior a 500.000.000 de anos não estaria presente na Terra hoje em quantidades
muito pequenas, a menos que fosse formado a partir de um ancestral de vida mais longa. Na série 4x+2, apenas o urânio 238 se
qualifica para a existência, e na série 4x+3, apenas o urânio-235.

O único átomo 4x + 0 com meia-vida longa o suficiente para existir hoje e dar origem a uma série radioativa é, obviamente, o
tório-232. Sua meia-vida não é inferior a 13.900.000.000 anos.

Métodos indiretos também podem ser usados para determinar meias-vidas muito curtas. Por exemplo, descobriu-se que entre os
isótopos radioativos que emitem partículas alfa, a energia das partículas é inversamente proporcional à meia-vida, de forma
moderadamente complicada. Portanto, a meia-vida pode ser calculada a partir da energia das partículas alfa (que pode ser
determinada observando até que ponto elas penetrarão em um determinado tipo de substância). A meia-vida do polônio-2l2, por
exemplo, é de 0,0000003 segundos.

Se os isótopos de um determinado clemento diferem entre si inapreciavelmente em propriedades químicas, eles diferem
enormemente entre si em propriedades nucleares, como meia-vida. O tório-232, como dito acima, tem uma meia-vida de quase
quatorze bilhões de anos, mas o tório-231 (diferindo na falta de um único nêutron no núcleo) tem uma meia-vida de apenas um
dia!

Isótopos estáveis

Se examinarmos as três séries radioativas apresentadas, veremos que elas incluem isótopos radioativos de elementos
ordinariamente considerados estáveis. Existem cinco desses isótopos de bismuto, com pesos atômicos de 210, 211, 212, 214 e 215;
quatro de tálio, com pesos atômicos de 206, 207, 208 e 210; e quatro de chumbo, com pesos atômicos de 210, 211, 212 e 214. Cada um
destes deve possuir também pelo menos um isótopo estável, pois cada um é encontrado no solo em quantidades apreciáveis e em
forma não radioativa. De fato, a série radioativa inclui três isótopos diferentes de chumbo - 206, 207 e 208 - cada um dos quais é
estável.

No entanto, todos esses isótopos, estáveis e instáveis, estão envolvidos com a radioatividade. É justo perguntar se os elementos
que não estão de forma alguma envolvidos com a radioatividade podem, no entanto, consistir em dois ou mais isótopos. Se assim
for, o fato seria difícil de estabelecer, uma vez que os métodos laboratoriais comuns não são suficientes para separar isótopos (exceto
em casos excepcionais) e porque a radioatividade não pode ser confiável para ajudar.
Machine Translated by Google

Mas suponha que os átomos de um elemento sejam ionizados, como na formação de raios positivos. Os átomos, cada um
com um elétron removido, teriam uma carga idêntica de + 1. Se o elemento consistisse em dois ou mais isótopos, no entanto, os
íons cairiam em grupos que diferem em massa.

Suponha, agora, que uma corrente desses íons positivos passe por um campo magnético. Seu caminho está vinculado a uma
curva e a extensão da curvatura dependeria da carga e da massa das partículas individuais. A carga seria a mesma em todos os
casos, mas a massa não seria. Os íons mais massivos curvam-se menos acentuadamente do que os menos massivos. Se o fluxo de
raios positivos caísse sobre uma chapa fotográfica, eles formariam um ponto se todos os íons fossem iguais em massa, mas mais de
um ponto se os íons formassem grupos de massas diferentes. Além disso, se os grupos fossem desiguais em tamanho, o grupo
maior formaria uma mancha maior e mais escura.

Em 1912, JJ Thomson, o descobridor do elétron, realizou um experimento desse tipo com néon. Raios positivos
formado por íons neon formaram duas manchas na placa, correspondendo ao que seria esperado para neon-20 e neon-22.
A primeira mancha era cerca de dez vezes maior que a segunda; a partir disso, pode-se concluir que o neon consistia em dois
isótopos estáveis, neon-20 e neon-22, em uma proporção de cerca de 10 para 1. (Eventualmente, descobriu-se que um terceiro isótopo
estável, neon-21, existia em muito pequenas quantidades e que em cada 1000 átomos de néon, 909 eram néon-22, 88 eram néon-22 e
3 eram néon-21.)

Em 1919, o físico inglês Francis William Aston (1877-1945), que havia trabalhado com Thomson nesse problema, construiu um
dispositivo aprimorado para analisar raios positivos. Em seu aparelho, os raios positivos constituídos por íons de determinada massa
não formavam simplesmente uma mancha na chapa fotográfica. Eles foram curvados de forma a focar em um ponto, permitindo
assim uma resolução mais fina. Como resultado, o feixe de íons produzido a partir de um determinado elemento foi espalhado em
uma sucessão de pontos (um "espectro de massa" em vez de um espectro de luz). Da posição dos pontos pode-se deduzir a massa
dos isótopos individuais, e de sua escuridão, a frequência (ou abundância relativa) com que cada um ocorreu no elemento. O
instrumento foi denominado como espectrógrafo de massa.

O uso do espectrógrafo de massa deixou bem claro que a maioria dos elementos estáveis consistia em dois ou mais
isótopos. Uma lista completa de tais isótopos estáveis é apresentada na Tabela VIII.

Algumas observações podem ser feitas em relação à Tabela VIII. Em primeiro lugar, embora a maioria dos 81 elementos estáveis
consistir em dois ou mais isótopos estáveis (com o estanho composto por não menos de dez), restam não menos de 20
elementos consistindo de apenas um isótopo. (De fato, dois elementos de número atômico menor que 84 não possuem isótopos estáveis.
Machine Translated by Google

Esses dois, com números atômicos 43 e 61, serão discutidos posteriormente)

Apropriadamente falando, não se deve falar de "um único isótopo", já que isótopos foram originalmente definidos como
dois ou mais tipos de átomos caindo no mesmo lugar na tabela periódica. Pode-se também falar de "um gêmeo". Por essa
razão, às vezes se fala de nuclídeos, ou seja, de um átomo com uma estrutura nuclear característica, pode-se certamente falar
de um nuclídeo. No entanto, o termo "isótopo" está tão bem estabelecido que continuarei a falar de "um único isótopo" com
a garantia de que serei entendido corretamente.

Nem todos os 282 nuclídeos listados na Tabela VIII são de fato completamente estáveis. Cerca de dezoito deles, ao
que parece, são radioativos, embora sempre com meias-vidas tão prolongadas que a radioatividade que exibem é realmente
fraca. Alguns, com meias-vidas de quatrilhões de anos, têm radioatividades tão fracas que podem ser ignoradas para todos os propósitos
Sete, no entanto, são perceptivelmente radioativos, e estes estão incluídos na Tabela IX.

TABELA VIII - Os Isótopos Sutis

Nº atômico Elemento Pesos de isótopos

Hidrogênio 1,2
1 Hélio 3,4
2 Lítio 6,7
3 Berílio 9
4 Boro 10,11
5 Carbono 12,13
6 Azoto 14,15
7 Oxigênio 16,17,18
8 Flúor 19
9 Néon 20,21,22
10 Sódio 23
11 Magnésio 24,25,26
12 Alumínio 27
13 14 Silício 28,29,30
Machine Translated by Google

15 Fósforo 31
16 Enxofre 32,33,34,36
17 Cloro 35,37
18 Argônio 36,38,40
19 Potássio 39,40,41
20 Cálcio 40,42,43,44,46,48
21 Escândio 45
22 Titânio 46,47,48,49,50
23 Vanádio 50,51
24 Cromo 50,52,53,54
25 Manganês 55
26 Ferro 54,56,57,58
27 Cobalto 59
28 Níquel 58, 60,61,62,64
29 Cobre 63,65
30 Zinco 64,66,67,68,70
31 Gálio 69,71
32 Germânio 70,72,73,74,76
33 Arsênico 75
34 Selênio 74,76,77,78,80,82
35 Bromo 79,81
36 Krypton 78,80,82,83,84,86
37 Rubídio 85,87
38 Estrôncio 84,86,87,88
39 Ítrio 89
40 Zircônio 90,91,92,94,96
41 Nióbio 93
42 Molibdênio 92,94,95,96,97,98

44 Rutênio 96,98,99,100,101,102,104
45 Ródio 103
46 Paládio 102.104.105.106.108.110
Machine Translated by Google

47 Prata 107.109
48 Cádmio 106.108.110.111.112.113.114.116
49 índio 113.115
50 Acreditar 112.114.115.116.117.118.119.120.122.124
51 Antimônio 121.123
52 Telúrio 120.122.123.124.125.126.128.130
53 Iodo 127
54 Xenon 124.126.128.129.130.131.132.134.136
55 Césio 133
56 Bário 130.132.134.135.136.137.138
57 Lantânio 138.139
58 Cério 136.138.140.142
59 Praseodímio 141
60 Neodímio 142.143.144.145.146.148.150

62 Samário 144.147.148.149.150.152.154
63 Európio 151.153
64 Gadolínio 152.154.155.156.157.158.160
65 Térbio 159,
66 Disprósio 156.158.160.161.162.163.164
67 Hólmio 165
68 Érbio 162.164.166.167.168.170
69 Túlio 169
70 Itérbio 168.170.171.172.173.174.176
71 Lutécio 175.176
72 Háfnio 174.176.177.178.179.180
73 Tântalo 180.181
74 Tungstênio 180.182.183.184.186
75 Rênio 185.187
76 Ósmio 184.186.187.188.189.190.192
77 Irídio 191.193
78 Platina 190.192.194.195.196.198
Machine Translated by Google

79 Ouro 197
80 Mercúrio 196.198.199.200.201.202.204
81 Tálio 203.205
82 Conduzir 204.206.207.208
83 Bismuto 209

Pode parecer surpreendente que essa radioatividade entre os elementos mais leves não tenha sido detectada
antes do que foi particularmente no caso do potássio-40. O potássio é um elemento muito comum, e o potássio-40
(somente entre os isótopos listados na Tabela IX) tem uma meia-vida mais curta e, portanto, é mais intensamente radioativo
do que o urânio-238 ou o tório-232.

A resposta para isso é dupla. Em primeiro lugar, o potássio40 compõe apenas um átomo de cada 10.000 em
potássio, de modo que não é tão comum quanto parece. Em segundo lugar, o urânio e o tório são os pais de uma série de
isótopos intensamente radioativos. São os átomos-filhos, e não os próprios urânio ou tório, que dão origem aos efeitos
observados por Becquerel e os Curie.

Nenhum dos isótopos radioativos de longa duração dos elementos mais leves serve como pais para uma série
radioativa. Em todos os casos, eles emitem partículas beta e são, em uma única etapa, convertidos em um isótopo estável
do elemento um número atômico acima. Assim, o rubídio-87 torna-se estável estrôncio-87; lantânio-138 torna-se estável cério-138, e assi

O potássio-40 apresenta uma ligeira variação. De todos os átomos de potássio-40 que se decompõem, cerca de oitenta e
nove por cento de fato emitem uma partícula beta e tornam-se cálcio-40 estável. Os onze por cento restantes absorvem um
elétron no núcleo. Esse elétron é retirado da camada extra-nuclear mais interna, a camada K, e o processo é, portanto,
conhecido como captura K. Um elétron levado para o núcleo serve para cancelar a carga positiva de um próton e produzir um
nêutron adicional. O número total de nucleons não é alterado e nem, portanto, o peso atômico. O número atômico, no entanto,
diminui em um. Por K-captura, o potássio-40 (número atômico 19) torna-se o argônio-40 estável (número atômico 18).

De certa forma, o mais notável dos isótopos estáveis é o hidrogênio-2, cujo núcleo é composto de um próton e um
nêutron, em vez de apenas um próton como no hidrogênio-1. A razão de massa entre os dois isótopos estáveis de
hidrogênio é muito maior do que qualquer dois isótopos estáveis de qualquer outro elemento.
Machine Translated by Google

Assim, o urânio-238 é 238/235, ou 1,013 vezes a massa do urânio-235. O estanho-124, o mais pesado dos isótopos estáveis do
esse elemento, é 1,107 vezes a massa do estanho-112, o mais leve. O oxigênio-18 é 1,125 vezes a massa do oxigênio-16. Mas
compare isso com o hidrogênio-2, que é 2.000 vezes a massa do hidrogênio-1.

Essa grande diferença de massas relativas entre os dois isótopos de hidrogênio significa que os dois diferem consideravelmente
mais em suas propriedades físicas e químicas do que os isótopos geralmente fazem. O ponto de ebulição do hidrogênio comum é
20,38 0K, enquanto o hidrogênio composto apenas de hidrogênio-2 ("hidrogênio pesado") tem um ponto de ebulição de 23,50 0K.

Novamente, a água comum tem uma densidade de 1.000 gramas por centímetro cúbico e um ponto de congelamento de 273,1 0K (0 0C). Água
com moléculas contendo apenas hidrogênio-2 ("água pesada") tem uma densidade de 1,108 gramas por centímetro cúbico e um
ponto de congelamento de 276,9 0K (3,8 0C).

Tão marcadas são as diferenças entre o hidrogênio-1 e o hidrogênio-2 que este último recebe o nome especial de
deutério (de uma palavra grega para "segundo"). Seu símbolo é D e hidrogênio pesado pode ser escrito D enquanto a água pesada

2, pode ser escrito D 2O.

TABELA IX - Nuclídeos Radioativos Mais Leves

Nuclídeo Meia-vida (anos)

Potássio-40 1.300.000.000
Rubídio-87 47.000.000.000
Lantânio-138 110.000.000.000
Samário-146 106.000.000.000
Lutécio-176 36.000.000.000
Rênio-187 70.000.000.000
Platinum-I90 700.000.000.000

Nos primeiros dias do trabalho com isótopos, os físicos suspeitavam da existência de deutério porque o peso atômico do hidrogênio
parecia um pouco maior do que deveria ser. O único elétron, foi calculado, teria seus níveis de energia distribuídos de maneira um tanto
diferente no hidrogênio-2 do que no hidrogênio-1, de modo que linhas fracas do primeiro deveriam aparecer perto do
Machine Translated by Google

linhas pesadas deste último no espectro de hidrogênio. Isso não foi observado, nem o hidrogênio-2 foi localizado
pelo espectrógrafo de massa. Uma razão para isso é que o hidrogênio-2 é bastante raro; apenas um átomo de 7.000 no
hidrogênio comum é o hidrogênio-2.

O químico americano Harold Clayton Urey (1893- ) começou, em 1931, com quatro litros de hidrogênio líquido e deixou
evaporar lentamente até um centímetro cúbico. Ele raciocinou que o hidrogênio-2 evaporaria mais lentamente e seria
concentrado na parte final. Ele estava certo. Quando estudou o espectro desse último resíduo, detectou as linhas de
deutério precisamente onde os cálculos previam que estariam.

CAPÍTULO 9

Química Nuclear

Número de massa

Pode-se tentar, por um espírito de limpeza, dividir o átomo de forma limpa entre as duas principais ciências físicas,
atribuindo os elétrons ao químico e o núcleo ao físico.

Tentar uma divisão tão limpa seria, no entanto, uma violação do espírito da ciência, que é uma peça única.
A estrutura do núcleo, por mais distante que possa parecer do mundo das reações químicas comuns, deve, no entanto,
ser de grande interesse para o químico, mesmo que apenas por causa de seu efeito sobre esse dado químico fundamental,
o peso atômico.

Quando o século XIX chegou ao fim, a questão do peso atômico parecia resolvida. Cada elemento
tinha um peso atômico característico, acreditavam os químicos, e o único futuro a esse respeito era a precisão cada vez
maior com a qual a quarta e quinta casas decimais pudessem ser determinadas.

Então veio a descoberta dos isótopos e tudo o que parecia certo sobre os pesos atômicos foi imediatamente
descartado. A noção, datada de Dalton, de que todos os átomos de um único elemento possuíam massa idêntica e que o átomo
Machine Translated by Google

peso expresso, esta massa foi considerada falsa. Em vez disso, a maioria dos elementos era composta de duas ou mais variedades
de átomos com massas diferentes. O peso atômico era meramente a média ponderada das massas desses isótopos.

Se o termo "peso atômico" é reservado para essa média ponderada das massas isotópicas encontradas em sua
distribuição natural dentro de um elemento, então não se deve falar do peso atômico de um isótopo individual (como tenho feito
até agora em este livro). É melhor usar uma frase diferente e falar da massa relativa de um isótopo individual como seu número de
massa.

Podemos dizer, portanto, que o néon é composto de três isótopos de números de massa 20, 21 e 22. . Podemos negligenciar
o néon-21 como ocorrendo em uma concentração muito pequena para afetar o resultado materialmente, e nos contentar em tomar
a média de dez átomos de néon, nove dos quais têm uma massa de 20 e um dos quais tem uma massa de 22. Chegamos a um
resultado de 20,2, que é duramente o peso atômico do néon.

Novamente, o cloro é composto de dois isótopos de números de massa 35 e 37, com cloro-35 compondo três quartos do todo
e cloro-37 compondo o quarto restante. Se calcularmos a média da massa de quatro átomos, três dos quais têm massa de 35 e um
dos quais tem massa de 31, terminamos com um resultado de 35,5, que também é aproximadamente o peso atômico do cloro.

Todas as demonstrações do século XIX de que a hipótese de Prout era falsa - porque os pesos atômicos dos vários
os elementos não eram necessariamente múltiplos inteiros do peso atômico do hidrogênio – mostraram-se irrelevantes. Os
números de massa dos vários isótopos foram, sem exceção, todos encontrados como múltiplos quase exatos da massa do átomo
de hidrogênio, e a hipótese de Prout foi restabelecida de uma forma mais sofisticada. Os vários elementos não foram construídos
exatamente a partir de átomos de hidrogênio, mas (ignorando os elétrons quase sem massa) eles foram construídos a partir de
nucleons de confusão quase idêntica, enquanto o próprio átomo de hidrogênio é construído a partir de um único nucleon.

Pesos atômicos que são quase números inteiros em valor são assim porque o elemento particular é composto de um único
isótopo, como no caso do alumínio, ou de dois ou mais isótopos, com um predominante em relativa abundância. Um exemplo
desta última situação é o cálcio, que é composto de seis isótopos estáveis com números de massa de 40, 42, 43, 44, 46 e 48, mas
com cálcio-40 constituindo noventa e sete por cento do total. É porque muitos dos elementos mais leves se enquadram em uma
dessas duas classes que Prout encontrou razão para avançar sua hipótese em primeiro lugar.
Machine Translated by Google

É o desequilíbrio de isótopos que faz com que alguns elementos fiquem "fora de ordem" na tabela periódica. Assim, o
cobalto, com número atômico de 27, consiste no único isótopo de número de massa 59. Seu peso atômico, portanto, é de cerca
de 58,9. Esperaríamos que o níquel, com o maior número atômico 28, tivesse um peso atômico maior também. O níquel consiste
em cinco isótopos com números de massa 58, 60, 61, 62 e 64; e, não surpreendentemente, quatro desses isótopos têm números
de massa maiores do que o único isótopo de cobalto. No entanto, é o mais leve dos isótopos de níquel, o níquel-58, que é
predominante. Existem duas vezes mais átomos de níquel-58 do que todos os outros átomos de níquel juntos. O peso atômico do
níquel é reduzido para 58,7, que é um pouco menor que o do cobalto.

O peso atômico é assim privado de seu caráter fundamental e não é verdadeiramente característico de um elemento. o que
fez parecer característico era o tato de que os vários isótopos de um elemento têm propriedades virtualmente idênticas. Os
processos que levaram à concentração dos compostos de um elemento em vários lugares da estrutura da Terra, ou ao isolamento
do elemento em laboratório, afetaram igualmente todos os isótopos. Cada amostra de um elemento, independentemente de sua
produção, conteria, portanto, os vários isótopos em proporções praticamente idênticas e, portanto, exibiria o mesmo peso
atômico, aparentemente característico.

Mas há casos excepcionais, e o mais dramático é o do chumbo. Cada uma das séries radioativas (ver Capítulo 8) termina
em um isótopo de chumbo específico. As duas séries que começam com isótopos de urânio como átomos de origem produzem
chumbo-206 e chumbo-207, com chumbo-206 muito na liderança, uma vez que há muito mais urânio-238 do que urânio-235.
Quanto à série de tório, que termina em urânio-208.

O peso atômico do chumbo comum, encontrado em minérios não radioativos, é de cerca de 207,2. Nos minérios de
urânio, com o chumbo-a06 sendo produzido de forma constante ao longo dos períodos geológicos, o peso atômico deve ser
nitidamente menor, enquanto nos minérios de tório deve ser nitidamente maior. Em 1914, o químico americano Theodore William
Richards (1868-1928) realizou determinações de peso atômico e descobriu, de fato, que o chumbo obtido de minérios de urânio
tinha pesos atômicos que chegavam a 206,1. O chumbo dos minérios de tório deu pesos atômicos tão altos quanto 207,9.

Onde a radioatividade não está envolvida, variações tão grandes não são esperadas. Ainda assim, descobriu-se que os pesos
atômicos de alguns dos elementos mais leves variam ligeiramente de acordo com a condição sob a qual o elemento foi produzido,
por exemplo, a distribuição relativa de Oxigênio-16 e Oxigênio -18 no Carbonato de Cálcio de conchas foi mostrada para
dependem da temperatura da água em que vivia o organismo que formou a concha. Medições delicadas de proporções de
isótopos em conchas fósseis foram, portanto, usadas para determinar a temperatura da água do oceano em diferentes períodos
do passado geológico da Terra.
Machine Translated by Google

A existência de isótopos de oxigênio introduziu uma dificuldade particular nas conexões com pesos atômicos.
Por uma convenção tão antiga quanto Berzelius, o peso atômico havia sido determinado em um padrão que fixava o peso
atômico do oxigênio arbitrariamente igual a 16,0000. Em 1929, porém, o químico americano William Francis Giauque (1895 - )
mostrou que o oxigênio consistia em 3 isótopos – oxigênio –16, oxigênio –17, oxigênio –18, e que o peso atômico do oxigênio
tinha, portanto, que representar a média ponderada de três números de massa.

Com certeza, o oxigênio -16, era de longe o mais comum dos três, compondo 99,759% do todo, de modo que não
estava muito longe de fingir que o oxigênio era composto de um único isótopo. Por uma geração após a descoberta,
portanto, os químicos tenderam a ignorar os isótopos de oxigênio e continuaram o peso atômico na base antiga. Tal peso
atômico veio a ser chamado de pesos atômicos químicos.

Os físicos preferiram definir a massa do oxigênio -16, isótopo em 16,0000, e determinar todas as outras massas nessa
base. O raciocínio era que o número de massa de um isótopo era característico e inalterável, enquanto o peso atômico do
multi-isótopo mudaria com mudanças na abundância relativa desses isótopos de amostra para amostra.

Com base no oxigênio -16 = 16,0000 uma nova lista de pesos atômicos os pesos atômicos físicos foi elaborado o peso
atômico do oxigênio nesta nova base era 16,0044 (oxigênio -17, e oxigênio -18 puxando para cima a média) e isso é 0,027%
maior que seu peso atômico químico de 16,0000. Essa mesma diferença existiria em toda a lista de elementos e, embora essa
diferença seja pequena, ela atua como uma fonte desnecessária de confusão no trabalho refinado.

Em 1961, físicos e químicos chegaram a um acordo. Foi acordado determinar os pesos atômicos com base em
permitir que o isótopo de carbono-12 tivesse uma massa de 12,0000. Como os físicos desejavam, isso ligava os pesos
atômicos a um número de massa fixo e característico. Além disso, um isótopo foi escolhido para o propósito, o que produziria
um conjunto de pesos atômicos o mais próximo possível dos pesos atômicos químicos antigos. Assim, o peso atômico do
oxigênio sob este novo sistema é 15,9994, que é apenas 0,0037% menor que o peso atômico químico. Os pesos atômicos
dados na tabela II do Capítulo I são baseados em carbono-12 = 12,0000.

O peso atômico, uma vez que é a média ponderada dos números de massa dos isótopos de ocorrência natural, pode realmente ser
aplicado apenas àqueles elementos que são primordiais, isto é, que estão na terra desde o início, quando
presumivelmente os diferentes isótopos apareceram ao mesmo tempo. Isso inclui apenas 83 elementos no total.
Existem primeiro os 81 elementos estáveis (com números atômicos de 1 a 83 inclusive menos os números atômicos 43 e 61) e
Machine Translated by Google

depois os elementos quase estáveis tório e urânio.

Os elementos que aparecem na terra apenas porque são formados a partir de urânio ou tório aparecem na forma de
isótopos de número de massa diferente, dependendo se são encontrados no minério de urânio ou tório. Não se pode formar
uma média verdadeira e obter um número atômico real. É comum no caso desses elementos (e de outros elementos instáveis a
serem considerados no próximo capítulo). os números de massa são geralmente incluídos entre parênteses na tabela X. Dos
isótopos que aparecem nesta tabela, os de radônio e rádio aparecem naturalmente na série do urânio, enquanto os do frâncio,
actínio e protactínio aparecem naturalmente na série actínio. O polônio-209 e o astatine-210 não ocorrem naturalmente, mas
foram produzidos artificialmente.

TABELA X - “Peso Atômico” de Elementos Radioativos

Elemento Número de massa da maioria Meia-vida


Isótopo de Vida Longa
84- Polônio 209 103 anos
85-Astatine 210 8,3 horas
86-Radão 222 3,8 dias
87-Francium 223 22 minutos
88-Radio 226 1.602 anos
89-Actínio 227 21,2 anos
91-Protactínio 231 32.480 anos

Datação Radioativa

Os isótopos de chumbo desempenharam um papel não apenas na reorientação da visão química dos pesos atômicos, mas também da estrutura geológica.
visão da história terrestre.
Machine Translated by Google

Já em 1907, o físico americano Bertram Borden Boltwood (1870-1927) sugeriu que as séries radioativas poderiam ser usadas como método para
determinar a idade dos minerais.

Suponha que uma determinada camada de rocha contendo urânio ou tório tenha sido depositada em um determinado momento no passado como um sólido
por sedimentação do mar ou por congelamento de um derretimento vulcânico. Uma vez que tal sólido tivesse surgido, os átomos de urânio
ou tório dentro dele seriam "presos". Quando alguns se quebrassem e eventualmente formassem átomos de chumbo, esses átomos também ficariam
presos.

Durante todo o período de tempo que teria decorrido desde a solidificação da camada, o urânio ou tório estaria se decompondo e o teor de
chumbo, consequentemente, estaria aumentando. Parece, então, que as relações urânio/chumbo e tório/chumbo nas rochas sólidas aumentariam
constantemente com o tempo.

Uma vez que Rutherford já havia elaborado o conceito de meia-vida, parecia, além disso, que esse aumento iria ocorrer a uma taxa conhecida, de
modo que a partir da razão urânio/chumbo ou tório/chumbo em qualquer instante de tempo (o presente, por exemplo, ), o lapso de tempo desde a
solidificação da rocha pôde ser calculado. Como a meia-vida do urânio-238 e do tório-232 é imensamente longa, lapsos de tempo de bilhões de anos
podem ser calculados com segurança.

Uma possível dificuldade reside no fato de que não se pode ter certeza de que o chumbo em tais rochas foi produzido inteiramente por
decomposição de urânio ou tório. Uma quantidade indefinida pode ser primordial e pode ter ficado presa junto com o urânio na rocha no
momento de sua solidificação. Tal chumbo obviamente não teria conexão com o urânio e confundiria seriamente a questão.

Essa dificuldade foi resolvida quando o espectrógrafo de massas permitiu determinar a abundância relativa dos isótopos em chumbo
encontrados em rochas não radioativas. Esse chumbo continha quatro isótopos estáveis, com números de massa 204, 206, 207 e 208: e o
chumbo-204 compunha 1,48% (1/67,5) do total.

Isso é uma sorte, pois o chumbo-204 não é produzido como produto final de nenhuma série radioativa, e sua ocorrência não é
afetados pela radioatividade. Se no teor de chumbo das rochas radioativas a concentração de chumbo-204 for determinada e multiplicada
por 67,5, então a quantidade total de chumbo primordial pode ser determinada. Qualquer chumbo acima dessa quantidade teria sido produzido
por quebra radioativa.

Usando a relação urânio/chumbo, e levando em conta a presença de chumbo-204, foram encontradas rochas que foram
Machine Translated by Google

sólido por mais de 4.000.000.000 de anos. Esta é considerada a melhor evidência já obtida para a idade extrema da Terra.

O urânio e o tório não estão, é claro, entre os elementos mais comuns, e rochas contendo urânio e tório suficientes para fazer
determinações de idade razoavelmente confiáveis desse tipo são encontradas apenas em áreas restritas. No entanto, o uso também pode
ser feito dos isótopos radioativos de longa duração rubídio-87 e potássio-40, cada um dos quais é muito mais amplamente distribuído do
que o urânio ou o tório. No caso do rubídio-87, pode-se determinar as relações rubídio/estrôncio nas rochas, pois o rubídio-87 decai para o
estrôncio-87 estável (o estrôncio primordial pode ser estimado observando a quantidade de outros isótopos estáveis de estrôncio presentes,
esses outros não sendo formado na quebra radioativa.)
Minerais contendo rubídio que foram sólidos por quase 4.000.000.000 de anos foram localizados.

Potássio-40 oferece uma situação interessante. Principalmente, ele se decompõe em cálcio-40; mas o cálcio-40 é muito comum em
da crosta terrestre, e é impraticável tentar distinguir o cálcio-40 "radiogênico" (aquele que surgiu através da quebra radioativa) do
cálcio-40 primordial. No entanto, uma proporção fixa dos átomos de potássio-40 se decompõe pela captura de K para formar argônio-40.

O argônio é um dos gases inertes encontrados na atmosfera. Todos os isótopos dos vários gases inertes, com a única exceção do
areon-40, estão presentes em quantidades quase infinitamente pequenas. Essa situação provavelmente reflete uma época na história primitiva
da Terra em que sua massa era muito pequena ou sua temperatura muito alta para reter qualquer elemento gasoso, exceto na forma de
compostos sólidos. Como os gases inertes não formam nenhum composto, todos eles foram perdidos.

O argônio-40, no entanto, ocorre em quantidade, constituindo cerca de um por cento da atmosfera. Parece provável que todo esse
argônio-40 só tenha se formado depois que a Terra atingiu sua massa e temperatura atuais (quando poderia reter os gases inertes mais
pesados) e que foi formado, presumivelmente, a partir do potássio40. Se calcularmos o tempo que levaria para a quantidade atual de
argônio-40 se acumular do zero, pareceria que a Terra existe aproximadamente em sua forma atual há 4.000.000.000 de anos.

Uma vez que uma variedade de métodos concorda independentemente, a questão da idade da Terra é tida como resolvida - ou pelo menos (lembre-se
o destino de muitos pontos "estabelecidos" anteriores) é assim levado até novo aviso.

Reações Nucleares

Enquanto se pensava que um átomo era uma panícula sem estrutura e indivisível, parecia uma consequência inevitável que
Machine Translated by Google

sua natureza não pode ser alterada em laboratório. No entanto, uma vez que se descobriu que o átomo consiste em numerosas
partículas subatômicas em um arranjo característico, surgiu imediatamente o pensamento de que esse arranjo poderia de alguma forma ser alterad

Os elétrons externos de um átomo podem ter seu arranjo alterado com bastante facilidade. Colisões entre átomos e
moléculas com forças esperadas em temperaturas atingíveis nos laboratórios do século XIX bastavam para isso. Foram esses
rearranjos de elétrons que produziram as reações químicas familiares que eram a província estabelecida do químico.

Mas e os rearranjos entre as partículas dentro do núcleo? Isso alteraria a natureza fundamental
de um átomo e converter um elemento em outro.

Para esmagar átomos juntos com tanta força que a almofada externa de elétrons é esmagada e o núcleo encontra o núcleo
requer temperaturas extraordinariamente altas. Felizmente, com o início do século XX, havia uma maneira óbvia de contornar a
necessidade de tais temperaturas. Elementos radioativos forneceram um suprimento de partículas subatômicas à temperatura
ambiente. Um deles, a partícula alfa, era um núcleo atômico nu (o de hélio). As partículas alfa são emitidas com energia suficiente para
romper a barreira de elétrons e, se direcionadas corretamente, atingir o núcleo de um átomo alvo.

É impossível, é claro, apontar uma partícula alfa para um determinado núcleo, mas estatisticamente falando, se partículas
alfa suficientes forem disparadas, algumas atingirão os núcleos. Foi através de tais colisões e quase colisões que Rutherford
elaborou o conceito do átomo nuclear e estimou o tamanho do núcleo.

Ainda assim, uma colisão que resulta meramente em uma deflexão ou um salto altera a natureza nem do núcleo alvo nem do
partícula alfa. Algo mais é necessário e em uma série de experimentos cujo resultado ele descreveu em 1919, Rutherford
elaborou a evidência necessária de que algo mais é ocasionalmente obtido. Ele começou colocando uma fonte de partículas alfa
energéticas dentro de um cilindro fechado, cuja extremidade estava revestida com uma camada de sulfeto de zinco.

Agora, sempre que a partícula alfa atinge o sulfeto de zinco, ela dá origem a um pequeno flash de luminescência, ou cintilação.
Isso se tornou a energia cinética da partícula excita a molécula de sulfeto de linha que, ao retornar ao seu estado fundamental,
emite um fóton de luz visível. (Esse fenômeno foi observado pela primeira vez por Becquerel em 1899 e mais tarde colocado em uso
na preparação de objetos luminescentes. Pequenas quantidades de compostos de rádio misturados com sulfeto de zinco ou alguma
outra substância apropriada produziriam flashes de luz que seriam claramente visíveis no escuro. Na década de 1920, cresceu
Machine Translated by Google

bastante para relógios com numerais marcados com tais materiais luminescentes.)

Quando telas cintilantes de sulfeto de zinco eram vistas sob alguma ampliação no escuro (com olhos bem acostumados à
escuridão e, portanto, particularmente sensíveis à luz fraca), cintilações individuais podiam ser vistas e, portanto,
surpreendentemente, também o efeito de partículas alfa únicas. Contando o número de flashes em uma determinada área em um
determinado tempo, pode-se estimar o número total de desintegrações por segundo em uma massa conhecida de substância
radioativa, e a partir disso (por exemplo) podemos calcular a meia-vida. Rutherford em seus experimentos estava fazendo uso do
que hoje é conhecido como contador de cintilação.

Os contadores de cintilação modernos utilizam cintiladores mais eficientes, fototubos para detectar os flashes e
circuitos eletrônicos apropriados para contá-los.

O número de cintilações produzidas por uma determinada fonte de partículas alfa é reduzido quando um gás como oxigênio
ou dióxido de carbono é introduzido no tubo. Por meio de colisão e deflexão, o gás desacelera as partículas alfa até o ponto em
que algumas captam elétrons e se tornam átomos de hélio comuns. Aqueles que conseguem alcançar a tela são cada vez menos
energéticos.

Se o hidrogênio for introduzido no tubo, no entanto, cintilações particularmente brilhantes aparecem de repente. Isso pode ser melhor
interpretado supondo que, ocasionalmente, uma partícula alfa atingirá o núcleo do núcleo de hidrogênio (um único próton)
diretamente e o enviará para frente, longe dos elétrons associados. Dessa forma, o próton nu pode se mover muito mais
rapidamente do que os núcleos maciços de carbono e oxigênio. Na verdade, o próton se move rápido o suficiente para atingir a
tela com força suficiente para produzir cintilações extraordinariamente brilhantes.

Rutherford descobriu que quando o nitrogênio era introduzido no tubo, o que parecia ser cintilações de prótons apareciam.
O próprio núcleo de nitrogênio não podia ser lançado à força mais do que os de carbono ou oxigênio, mas talvez um próton
tivesse sido expulso do núcleo de nitrogênio pela partícula alfa. Isso foi confirmado em 1925 pelo físico inglês 8atrick Maynard
Stuart Blacken (1897- ), que permitiu que o bombardeio de nitrogênio pela panícula alfa prosseguisse em uma câmara de nuvens
de Wilson. A partícula alfa geralmente formava uma linha reta de gotículas de água sem atingir nenhum núcleo, desaparecendo
quando sua energia era suficientemente digerida para que a panícula pegasse elétrons e se tornasse um átomo. Uma vez em cada
50.000 casos, no entanto, havia uma colisão.

A sequência de partículas alfa, portanto, terminava em uma bifurcação. Um lado do garfo era longo e mais fino que o trilho original; isto
Machine Translated by Google

era o próton, carregando uma carga menor (+1, em vez de +2 da partícula alfa) e produzindo menos ionizações. O outro lado do
garfo era grosso e curto. Era o núcleo de nitrogênio recuado do qual numerosos elétrons haviam sido retirados, e sua alta carga
positiva o tornava um ionizador eficiente. No entanto, ele se moveu lentamente, rapidamente pegou elétrons mais uma vez e,
novamente neutro, parou de se ionizar. Não havia sinal da partícula alfa após a colisão, então ela deve ter se unido ao núcleo de
nitrogênio.

À luz de tudo isso, não era difícil ver que Rutherford, em 1919, havia produzido o primeiro caso de rearranjo deliberado da
estrutura nuclear por meio de esforços humanos. Foi a primeira reação nuclear feita pelo homem. (Em certo sentido, isso é uma
espécie de "química nuclear", pois os núcleons estavam sendo embaralhados de maneira análoga ao embaralhamento de elétrons
na química comum.)

Suponha que comecemos com um núcleo de nitrogênio (sete prótons e sete nêutrons), adicione a ele uma panícula alfa (dois prótons
e dois nêutrons) e subtrair o único próton que é nocauteado. O que resta então é um átomo de oito prótons e nove nêutrons,
que é o oxigênio-17. Podemos, portanto, escrever:

4 ------------------- H1 +
7N14 + 2He 1 8 O17 (Equação 9-1)

4
onde os subscritos são números atômicos e os sobrescritos são números de massa. O 2He representa o núcleo de hélio, ou
1
partícula alfa, enquanto a 1H é o núcleo de hidrogênio, ou próton. Observe que os números atômicos somam 9 em ambos os lados
da seta e os números de massa somam 18. Tal equilíbrio deve ser preservado em todas as reações nucleares para que as leis de
conservação de carga elétrica e de massa sejam preservadas.

Os físicos inventaram métodos mais breves de escrever tais reações nucleares. O número atômico é omitido, pois o nome
do elemento fixa esse número. A panícula alfa é simbolizada como alfa e o próton como p. A reação nuclear dada na Equação
9-1 pode então ser escrita como:

N14 (alfa, próton) O17

De acordo com este sistema, temos o núcleo alvo na extrema esquerda, então, entre parênteses, primeiro a natureza da partícula
que atinge o alvo e depois a partícula nocauteada do alvo. Por fim, na extrema direita, está o núcleo residual.
Machine Translated by Google

A utilidade desse sistema, além de sua concisão, é que torna fácil falar de toda uma família de reações nucleares (alfa,
prótons). Em todas essas reações, o núcleo residual é um em número atômico mais alto e três em número de massa maior
que o núcleo alvo.

Outras reações (alfa, próton) foram provocadas por Rutherford, mas há um limite para o que pode ser feito nessa
direção. Tanto a partícula alfa quanto o núcleo alvo são carregados positivamente e se repelem. Essa repulsão aumenta
com o número atômico do núcleo, e para núcleos de elementos além do potássio (com carga de + 19) a repulsão é tão forte que
mesmo as partículas alfa mais energéticas produzidas por átomos radioativos não possuem a energia necessária para superar
essa repulsão. e atingir o núcleo.

Prosseguiu-se, portanto, a busca por métodos de obtenção de partículas subatômicas com energias superiores às
encontradas na radioatividade.

O elétron-volt

Uma partícula carregada pode ser acelerada sendo submetida à influência de um campo elétrico orientado de modo a puxar
a partícula para frente. Quanto maior o potencial elétrico ao qual a panícula está submetida, maior a aceleração e maior o
ganho de energia da partícula.

Uma partícula com carga unitária, como um elétron, que é acelerado por um campo com potencial elétrico de um volt, ganha
energia de um elétron-volt. O elétron-volt, muitas vezes abreviado para ev, é igual a 1,6 x 10-12 ergs. Para desse
unidades
tipo,maiores
temos o
quilo-elétron-volt (Kev), que é igual a 1000 elétron-volt. Além disso está o Mev (um milhão de elétron-volts) e o Bev (um bilhão de
elétron-volts). Um Bev é igual a 1,6 x 10-3 ergs. Esta é uma pequena quantidade de energia em termosenorme
simplesmente comuns, mas é
quando
consideramos que é compactada em uma única partícula subatômica.

A massa pode ser expressa em elétron-volts e massas subatômicas expressas dessa maneira com frequência crescente. A
massa de um elétron é 9,1 x 10-28 gramas Isso
equação depode ser expresso
equivalência como seu de
massa-energia equivalente em energia
Einstein, e=mc (calculado
2, e acaba sendopor
8,2 meio
x 10-7da
ergs .
Isso, por sua vez, equivale a 510.000
elétron-volts ou 0,51 Mev.

O comprimento de onda da radiação eletromagnética também pode ser expresso em elécron-volts. De acordo com a teoria quântica, e
Machine Translated by Google

= hv, onde e é a energia de um quantum de radiação eletromagnética em ergs, h é a constante de Planck em erg-segundos, e r (a
letra grega "nu") é a frequência da radiação em ciclos pet segundo.

O comprimento de onda dessa radiação (representado por lambda, a letra grega "lambda") é igual à distância em
centímetros percorrida, no vácuo, pela radiação em um segundo (c) dividida pelo número de comprimentos de onda formados
nesse tempo- isto é, pela frequência da radiação (r).

Em outras palavras:

lambda = c/r (Equação 9-2)

r = c/lambda (Equação 9-3)

Substituindo c/lambda por r na equação da teoria quântica e = hr

e = hc / lambda (Equação 9-4)

lambda = hc/e (Equação 9-5)

O valor de It é 6,62 x 10-27 erg-segundos, enquanto o de c é igual a 3,00 x 1010 centímetros por segundo. Conseqüentemente, hc
é igual a 1,99 x 10-16 ergs. Podemos, portanto, escrever a Equação 9-5 assim:

Lambda = 1,99 x 10-16/e (Equação 9-6)

Se substituirmos o valor de 1,6 x 1012 ergs (o valor de um elétron-volt) por e na Equação 9-6, obtemos um valor de 1,24 x 10-4
centímetros. Em outras palavras, a radiação com comprimento de onda de 1,24 mícron (na faixa do infravermelho) é formada por
fótons com energia de 1 ev.

Segue-se que um kev é o conteúdo de energia da radiação com um comprimento de onda de um milésimo maior - isto é, de
1,24 mícrons, ou 12,4 unidades de angstrom. Isso está na faixa de raios-X. Da mesma forma, um Mev é o conteúdo de energia da radiação com
Machine Translated by Google

comprimento de onda de 0,0124 unidades de angstrom, que está na faixa de raios gama

Por outro lado, a Equação 9-6 pode ser usada para mostrar que a luz visível tem um conteúdo de energia variando de 1,6 ev na extremidade vermelha
o espectro para 3,2 ev na extremidade violeta. Reações químicas comuns são provocadas pela luz visível e ultravioleta e, por sua vez,
produzem essa radiação. Você pode ver então que as reações químicas comuns envolvem energias de não mais de um a cinco elétron-volts.
É uma medida da dificuldade crescente de provocar reações nucleares que partículas com energias na casa dos milhares de elétron-volts, e
mesmo milhões de elétron-volts, são necessárias para esse propósito.

Aceleradores de partículas

Dispositivos destinados a produzir partículas subatômicas com energias na faixa de kev e além são chamados de aceleradores
de partículas. Como as partículas energéticas produzidas por esses aceleradores eram usadas para romper núcleos atômicos e induzir
reações nucleares, os dispositivos eram popularmente chamados de "esmagadores de átomos", embora esse termo tenha saído de moda.

O primeiro acelerador de partículas a alcançar resultados úteis foi aquele que foi adaptado para acelerar prótons pelo físico inglês
John Douglas Cockcroft (1897- ) e seu colega irlandês Ernest Thomas Sinton Walton (1903- ), em 1929.

Os prótons são preferíveis às partículas alfa, pois a forma carrega uma carga positiva menor e, portanto, está sujeita a
menor força repulsiva dos núcleos atômicos. Além disso, os prótons são átomos de hidrogênio ionizados (H+), enquanto as partículas alfa
são átomos de hélio ionizados (He++); e o hidrogênio é muito mais comum e muito mais facilmente ionizado do que o hélio.

O dispositivo de Cockcroft-Walton usava um arranjo de condensadores para acumular potenciais a níveis extraordinariamente altos (era
chamado de multiplicador de voltagem) e para acelerar prótons a energias de até 380 Kev.

Em 1931, eles foram capazes de usar esses prótons acelerados para provocar a ruptura de um núcleo de lítio:

1 4 4
7+ H (Equação 9-7)
3Li 1 -------------------- 2Ele + 2He

Esta foi a primeira reação nuclear completamente artificial, pois aqui até as partículas de bombardeio foram produzidas
artificialmente.
Machine Translated by Google

Nesse mesmo ano, 1931, foram introduzidos nada menos que três outros tipos importantes de aceleradores de partículas.

O físico americano Robert Jemison Vaa de Graaf (1901- ) construiu um mecanismo em forma de meio haltere em pé.
Dentro dele, uma correia móvel foi disposta de modo a transportar carga elétrica positiva para cima e carga elétrica negativa para
baixo, produzindo uma grande carga eletrostática em cada extremidade. Este gerador eletrostático produziu uma enorme diferença
de potencial que poderia acelerar partículas a uma energia de 1,5 Mev. Mais tarde, tais dispositivos produziram partículas de
energias ainda mais altas – até 18 Mev.

Uma segunda variedade de acelerador foi construída com tubos separados. Isso tornou possível acelerar partículas por separação
"chutes" potenciais individuais. em vez de tentar fazer tudo em um chute poderoso. Em cada tubo, a partícula ganhou
energia adicional e assumiu velocidade adicional. Como os chutes potenciais foram administrados em intervalos iguais de tempo,
a partícula aceleradora cobriu distâncias cada vez maiores entre os chutes, e cada tubo sucessivo teve que ser mais longo. Por
esta razão, o acelerador linear, ou linac, cresceu rapidamente de forma inconveniente.

O arranjo mais compacto para acumular energias enormes foi o produto do físico americano Ernest Orlando Lawrence
(1901-1958), que procurou economizar espaço fazendo com que as partículas viajassem em um caminho curvo, em vez de em linha
reta.

Um filamento de alta temperatura no centro de um vaso circular plano fechado ioniza hidrogênio de baixa pressão para produzir
prótons. Metades opostas do vaso são colocadas sob um alto potencial que acelera os prótons. Os pólos de um ímã acima
e abaixo do vaso forçam os prótons a seguir um caminho curvo.

Normalmente, os prótons que seguem esse caminho curvo acabariam se movendo em direção à porção carregada
positivamente do vaso e começariam a desacelerar. No entanto, o vaso está sob um potencial alternado, de modo que o cátodo e
o ânodo se movem para frente e para trás rapidamente, a uma taxa cuidadosamente ajustada.

Cada vez que os prótons giram de modo a se moverem em direção ao ânodo, há um quadril e os prótons estão se movendo
afinal, em direção ao cátodo. Eles são, portanto, puxados para frente e acelerados ainda mais. (É muito parecido com um
galgo perseguindo um coelho elétrico que sempre permanece logo à frente.)

À medida que os prótons aceleram, eles se movem cada vez mais rápido, e pode-se pensar que eles fariam suas voltas em
torno da nave em menos tempo. Nesse caso, o flip-flop da corrente elétrica, que continua a uma taxa constante, seria
Machine Translated by Google

cair fora de sincronia. Os prótons se encontrariam indo em direção à força repulsiva do ânodo, que não seria substituído pelo
cátodo a tempo, e o próton seria desacelerado. (Isso seria como o galgo ganhando velocidade e pegando o coelho elétrico.)

Felizmente, à medida que os prótons são acelerados, eles naturalmente se curvam em menor grau sob a influência do campo
magnético. Eles se movem em um círculo maior e sua maior velocidade é apenas compensada pela maior distância que eles devem
percorrer. Eles, portanto, continuam a se mover de uma metade para a outra em um ciclo fixo que combina com a alternância do
potencial, espiralando para fora do centro do recipiente enquanto o fazem. Eventualmente, eles saem em espiral de uma saída
preparada como um fluxo de partículas de alta energia.

Lawrence chamou seu instrumento de cíclotron, e até mesmo seu primeiro modelo, que não tinha mais do que onze polegadas de diâmetro
e destinado apenas como um teste em pequena escala do princípio, conseguiu produzir panículas de 80 Kev. Nos dez anos
seguintes, ciclotrons cada vez maiores foram construídos e partículas com mais de 10 Mev de energia foram produzidas.

Essa combinação perfeita do movimento da panícula e da alternância potencial funciona apenas se a massa da partícula
permanecer inalterada. Em condições normais, isso acontece (quase), mas à medida que a aceleração prossegue, as partículas
eventualmente se movem em velocidades que são frações consideráveis da luz. A aceleração começa a envolver acréscimos
cada vez menores à velocidade da partícula (que não pode, em nenhum caso, exceder a da luz) e acréscimos cada vez maiores
à sua massa, de acordo com a teoria da relatividade especial.

À medida que a massa da partícula aumenta, ela leva mais tempo do que seria esperado para fazer seu semicírculo, e o
movimento da partícula fica fora de sincronia com a alternância do potencial. Isso estabelece um limite para as energias que
podem ser empilhadas no próton, e esse limite foi alcançado pela Segunda Guerra Mundial.

Em 1945, dois homens, o físico americano Edwin Mattison Mcmillan (1907- ) e o físico russo Vladimir I.
Veksler, independentemente sugeriu uma maneira de contornar isso. Eles mostraram como a alternância do potencial poderia ser
diminuída gradualmente apenas na taxa necessária para mantê-la sincronizada com o movimento da panícula cada vez mais massiva.
O resultado é um sincrociclotron.

Um sincrociclotron não pode produzir panículas de alta energia continuamente, pois o período de alternância do potencial
adequado para partículas nos estágios finais de aceleração é muito lento para partículas nos estágios iniciais. Portanto, as
partículas tinham que ser produzidas em rajadas separadas de 60 a 300 por segundo, cada rajada sendo transportada do começo ao fim.
Machine Translated by Google

antes que um novo lote possa ser iniciado. No entanto, o aumento das energias possíveis valeu a pena o corte na quantidade total.
O primeiro sincrociclotron foi construído em 1946, e em poucos anos surgiram instrumentos capazes de produzir partículas
com energias de até 800 Mev.

O problema do aumento de massa relativístico apareceu ainda mais cedo em conexão com a aceleração do elétron. Os elétrons
são tão leves que devem ser movidos a velocidades extremamente altas para atingir energias até mesmo moderadas. Se um elétron
deve atingir uma energia de até mesmo um Mev, ele deve se mover a cerca de 270.000 quilômetros por segundo, o que é melhor do
que 9/10 da velocidade da luz. A essa velocidade, a massa do elétron é 2,5 vezes o que seria se a partícula estivesse em repouso.
Usar o princípio do ciclotron no elétron é, portanto, impraticável, pois o elétron perderia a sincronização em energias muito baixas,

Uma solução para isso foi encontrada antes mesmo que o princípio do sincrociclotron fosse estabelecido. Em 1940, o americano
o físico Donald William Kerst concebeu um acelerador no qual os elétrons se moviam em círculo através de um recipiente em
forma de rosquinha. À medida que ganhavam velocidade, a força do campo magnético que fazia os elétrons se moverem
circularmente aumentava. Uma vez que o aumento na intensidade do campo magnético (que tende a fazer os elétrons se
moverem em um caminho mais curvo) foi combinado com o aumento na massa dos elétrons (que tende a fazê-los se mover em
um caminho menos curvo), o resultado líquido era manter os elétrons movendo-se no mesmo caminho. Em um determinado
momento, uma mudança repentina no campo magnético lançou uma explosão de elétrons de alta energia para fora do instrumento.
Como as partículas beta são um exemplo natural de elétrons de alta energia, Kerst chamou seu instrumento de betatron. O primeiro
instrumento de Kerst produziu elétrons com energia de 2,5 Mev, e o maior betatron construído desde então produz elétrons com energia de 340

Elétrons girando muito rapidamente em órbitas circulares são fortemente acelerados em direção ao centro e, como a teoria de Maxwell de
fenômenos eletromagnéticos exigiriam, liberar energia na forma de radiação. Isso define um limite para a quantidade de
energia que pode ser bombeada para os elétrons por qualquer dispositivo que exija que as partículas viajem em círculos. (Esse
fenômeno é menos acentuado para os prótons, que para uma dada energia não precisam viajar 50 rapidamente nem ser
submetidos a uma aceleração tão grande.)

Por esta razão, novos esforços estão sendo feitos para fabricar aceleradores lineares suficientemente longos (e um
unidade está sendo planejada) para produzir elétrons com energias de até 20.000 Mev, ou 20 Bev.

O sincrociclotron tem um defeito, não na teoria, mas na prática. À medida que a partícula espirala para fora, ela varre curvas
de raio cada vez maior, e o ímã deve ser grande o suficiente para cobrir o raio máximo. Ímãs do
Machine Translated by Google

tamanho enorme adequado eram um gargalo na construção de máquinas maiores.

Havia então uma vantagem em ajustar o campo magnético para permitir que os prótons viajassem em círculos em vez de em espirais.
O projeto era tal que o "foco forte" foi introduzido, fazendo com que o fluxo de prótons se mantivesse firmemente em um feixe tão
estreito quanto possível. Dessa forma, foram construídos síncrotrons de prótons e síncrotrons de elétrons.

Em 1952, foram construídos síncrotrons de prótons capazes de produzir partículas na faixa Bev. Existe um tal dispositivo no
Universidade da Califórnia; é apropriadamente chamado de Bevotron e pode produzir prótons com energias de 6,2 Bev.

Na década de 1960, foram construídos aceleradores de foco forte particularmente grandes (um em Genebra e um em
Brookhaven, Long Island) e são capazes de produzir prótons com energias superiores a 30 Bev. Máquinas ainda maiores estão
previstas, mas os planos são por necessidade, colossais. Presentes grandes aceleradores são três quarteirões de diâmetro.

CAPÍTULO 10

Radioatividade Artificial

Radioisótopos

Os primeiros núcleos produzidos por transmutação artificial foram os estáveis que existem nos elementos encontrados na natureza.
Exemplos são o oxigênio-17 produzido por Rutherford e o hélio-4 produzido por Cockcroft e Walton.

Esse precedente foi quebrado em 1934 pelo trabalho do físico francês Frederic Joliot-Curie (1900-1958) e sua esposa, Irene
(1897-1956) - que eram genro e filha de Pierre e Marie Curie, os descobridores do rádio.

Os Joliot-Curie continuaram o trabalho de Rutherford no bombardeio de núcleos por partículas alfa. Ao bombardear alumínio,
eles encontraram emissões de prótons e nêutrons, emissões que cessaram quando o bombardeio de partículas alfa foi
Machine Translated by Google

interrompido. Outro tipo de radiação não cessou, mas caiu de forma exponencial, com meia-vida de 2,6 minutos.
Parecia bastante claro que algo no alumínio que originalmente não era radioativo se tornara radioativo como resultado do
bombardeio.

A equação a seguir descreve o que acontece quando o alumínio-27 absorve uma partícula alfa e emite um próton:

4 1
13Al27 + 2He ------------- 14Si30 + 1He (Equação 10-1)

ou

Al27 (alfa, próton) Si30

Silício-30 é um isótopo estável, ocorrendo em silício com uma abundância relativa de apenas cerca de 3 por cento.

Mas sob o bombardeio de alumínio também emite nêutrons. Segue-se então que uma reação pode estar ocorrendo na qual
o núcleo de alumínio alvo absorve uma partícula alfa e une um nêutron, obtendo um ganho líquido de dois prótons e um nêutron.
Em tal reação (a, n), então, o número atômico é aumentado em dois em vez de um, e o alumínio é convertido em fósforo em vez
de silício. A equação pode ser escrita:

4 ------------- P30+ 1n
13Al27 + 2He 12 uma
(Equação 10-1)

13Al27 (alfa, n) P30

Mas o fósforo, como ocorre na natureza, é composto por um único isótopo, o fósforo-31. Nenhum outro isótopo de fósforo estável
é conhecido, e deve-se presumir que se qualquer outro isótopo de fósforo for sintetizado no curso de uma reação nuclear, ele seria
radioativo; e é por causa dessa radioatividade (combinada com uma meia-vida curta) que ela não ocorre em
natureza.

Os Joliot Curies confirmaram a presença de fósforo radioativo no alumínio dissolvendo o metal e


Machine Translated by Google

permitindo que ele sofra reações que colocariam qualquer fósforo presente na forma de um composto gasoso ou de um precipitado
sólido. Com certeza, a radioatividade foi encontrada no gás ou no precipitado.

O fósforo-30 foi o primeiro isótopo a ser produzido em laboratório que não ocorreu na Terra naturalmente, e também é o primeiro
exemplo de radioatividade artificial.

Não foi de forma alguma o último. Ao longo da próxima geração, as reações nucleares induzidas em laboratório produzidas ao longo de um
mil desses isótopos artificiais. Uma vez que cada um desses produzidos é radioativo, eles são freqüentemente chamados de
radioisótopos.

Radioisótopos de todos os elementos estáveis foram formados, às vezes em número considerável. No caso do césio, por
Por exemplo, que tem um único isótopo estável, o césio-133, nada menos que vinte radioisótopos diferentes foram formados, com
números de massa de 123 a 148.

Nenhum dos radioisótopos assim produzidos tem vida longa o suficiente para permitir que permaneçam na crosta terrestre durante a
vida do planeta. Algumas das meias-vidas são longas para os padrões humanos (o césio-135 tem uma meia-vida de 2.000.000 anos), mas
nenhuma é longa o suficiente.

Pode-se suspeitar que no momento em que a matéria que compõe o sistema solar foi criada, todos os arranjos nucleares
concebíveis foram trazidos à existência. Aqueles que eram estáveis e aqueles que eram apenas levemente radioativos (como, por
exemplo, potássio-40 e urânio-238), sobreviveram. E, de fato, parece bastante provável que todos os isótopos estáveis ou quase estáveis
que possam existir existam na Terra, e as chances são virtualmente zero de que um isótopo desconhecido estável ou quase estável seja
descoberto.

Quanto aos isótopos que são suficientemente instáveis para ter meia-vida inferior a 500.000.000 anos, eles também podem ter
foram formados, mas eles se quebraram e desapareceram, alguns rapidamente e outros menos rapidamente. É apenas o trabalho
do físico que agora os traz de volta à vida.

Os usos bioquímicos dos isótopos

Uma vez que os físicos começaram a isolar isótopos raros e sintetizar novos, tornou-se possível preparar compostos químicos
contendo-os. Se os isótopos pudessem ser preparados de forma barata, então os compostos que os contêm
Machine Translated by Google

poderia ser usado em experimentos químicos em quantidade.

O primeiro isótopo a ser usado em experimentos comparativamente em larga escala dessa maneira foi o hidrogênio-2 estável,
que poderia ser preparado na forma de "água pesada".

Realizando reações químicas orgânicas em água pesada. Foi possível preparar outros compostos com moléculas
contendo um ou mais átomos de hidrogênio-2. Se esses compostos pudessem participar de reações químicas, seu destino final
poderia ser determinado isolando os produtos e verificando quais deles continham hidrogênio-2. Um composto contendo uma
quantidade maior do que o normal de um isótopo raro pode, portanto, ser considerado um composto marcado, e o próprio átomo anormal,
um marcador isotópico.

Esta técnica é particularmente importante quando o composto marcado é aquele que normalmente sofre alterações químicas
no tecido vivo, pois então pode ser acompanhado através das transformações rápidas e extraordinariamente complicadas que
ocorrem ali. A partir de 1935, o bioquímico germano-americano Rudoli Schoenheimer (1898-1941) realizou tais experimentos,
compondo moléculas de gordura ricas em hidrogênio-2. reações teciduais que de outra forma poderiam ter permanecido impenetráveis.

Schoenheimer e outros também trabalharam com os isótopos mais pesados de nitrogênio e oxigênio. Estes foram nitrogênio 15 e
oxigênio-18, com abundâncias relativas de 0,37 por cento e 0,20 por cento, respectivamente. Ambos são raros o suficiente na natureza
para servir como marcadores eficazes quando usados de forma concentrada.

A produção de radioisótopos possibilitou uma sensibilidade ainda maior no uso de traçadores isotópicos, para
isótopos geralmente podem ser detectados mais facilmente, mais rapidamente e em concentrações muito menores do que
isótopos estáveis.

Os traçadores radioativos foram usados já em 1913 pelo físico húngaro Georg von Hevesy (1885-). Na época, os únicos isótopos
radioativos disponíveis eram aqueles que eram membros das várias séries radioativas. Hevesy fez uso de chumbo-210 para determinar
a solubilidade de compostos de chumbo muito pouco solúveis. (Ele poderia determinar a fração de chumbo-210 que entrou em solução
medindo a radioatividade da solução antes e depois, e parecia razoável supor que essa fração era boa para todos os isótopos de
chumbo em geral.)

Em 1923, Hevesy marcou um composto de chumbo com chumbo-212 e estudou a absorção de chumbo pelas plantas. Este foi o primeiro
Machine Translated by Google

aplicação biológica de traçadores isotópicos. No entanto, o chumbo não é um composto que ocorre naturalmente em tecidos vivos;
na verdade, o chumbo é um veneno agudo. O comportamento do tecido na presença de chumbo não é necessariamente normal. O uso
de radioisótopos dos elementos biologicamente mais úteis não se tornou realmente em grande escala até depois da Segunda Guerra
Mundial, quando foram desenvolvidos métodos para preparar tais isótopos em quantidade.

Uma falha inevitável da técnica de radioisótopos é que poucos bons radioisótopos estão disponíveis para os elementos mais
comuns nos tecidos. Os quatro elementos que compõem mais de 90 por cento dos tecidos moles do corpo são carbono, hidrogênio,
oxigênio e nitrogênio. No caso do nitrogênio, o radioisótopo de vida mais longa conhecido é o nitrogênio-13, que tem meia-vida de dez
minutos. Isso significa que, uma vez formado o nitrogênio-13, ele deve ser incorporado em um composto adequado, disponibilizado aos
tecidos, ter o destino que tiver e ter seus produtos isolados e investigados – tudo em questão de meia hora ou mais. . Mesmo depois de
apenas meia hora, a radioatividade já é apenas 1/8 do que era para começar.

Para o oxigênio a situação é muito pior porque o radioisótopo de vida mais longa conhecido aqui é o oxigênio-15, que tem uma
meia-vida de apenas dois minutos.

No caso do carbono, o radioisótopo de vida mais longa conhecido antes de 1940 era o carbono-11, que tem meia-vida de vinte
minutos. Essa era uma situação limítrofe. Deixou pouco tempo para manobras, mas de todos os elementos do tecido vivo, o
carbono era de longe o mais importante; os bioquímicos, portanto, elaboraram métodos para extrair informações de experimentos
usando compostos marcados com carbono-11, apesar do limite de tempo apertado imposto pela meia-vida curta.

Não se esperava que qualquer isótopo de carbono de vida mais longa fosse descoberto. Em 1940, no entanto, um novo radioisótopo de
o carbono foi descoberto como resultado do bombardeio do próprio carbono com deutérios (os núcleos de deutério, H 2)

Um deutério é composto de um próton e um nêutron, e os átomos de carbono submetidos ao bombardeio de deutério dão oh
prótons, retendo os nêutrons. Em uma reação (d, p), o número atômico permanece inalterado, mas o número de massa aumenta em um.
O carbono é composto de dois isótopos estáveis, carbono-12 e carbono-13. O primeiro é convertido no último por uma reação (d, p),
mas o último sofre o seguinte:

C13 + H2 ----------------------- C14+ H1 (Equação 10-3)


6 1 6 1

ou:
Machine Translated by Google

C13 (d, p) C14

O carbono-14 é radioativo e tem uma meia-vida inesperadamente longa de 5.770 anos. Em termos de duração de qualquer
experimento de laboratório passível de ser realizado com carbono-14, sua taxa de radioatividade deve ser considerada constante. Numerosos
experimentos biológicos e bioquímicos foram realizados com compostos marcados com carbono-14, e é sem dúvida o radioisótopo mais útil.

Em 1946, o químico americano Willard Frank Libby (1908- ) apontou que o carbonoll4 deveria existir na natureza como resultado
de reações nucleares induzidas indiretamente no nitrogênio-i4 presente na atmosfera por radiações energéticas do espaço sideral.' Essa
reação é, em essência, o ganho de um nêutron e a perda de um próton. Em tal reação (n, p), não há variação líquida no número de massa, mas
uma diminuição de um no número atômico. Desta forma:

7N14 + 0n1 ----------------------- 6C14 + 1H1 (Equação 10-4)

ou:

N13 (n, p) C14

O carbono-14 está continuamente sendo formado dessa maneira, e também está continuamente se decompondo após ser formado. Há um
equilíbrio entre os dois processos, e o carbono-14 na atmosfera (ocorrendo em parte de seu teor de dióxido de carbono) está em um nível
constante, embora muito baixo.

Libby apontou ainda que, uma vez que a vida vegetal constantemente absorvia e fazia uso de dióxido de carbono, seus tecidos deveriam
contêm uma concentração constante, embora muito baixa, de carbono-14, assim como os tecidos animais, uma vez que os animais se
alimentam de plantas (ou de outros animais que se alimentam de plantas).

A concentração constante de carbono-14 no tecido, porém, só foi mantida enquanto aquele tecido estava vivo, pois só então o carbono
radioativo foi sendo continuamente incorporado, seja pela absorção do dióxido de carbono atmosférico ou pela ingestão de alimentos. Uma
vez que uma criatura morre, a ingestão de carbono-14 cessa e a quantidade já presente começa a diminuir de maneira fixa.
Machine Translated by Google

Qualquer coisa que já foi parte de um organismo vivo pode ser analisada quanto ao seu conteúdo de carbono-l4 e o lapso de tempo desde a vida
terminou pode ser determinado. Este método de ousadia por radiocarbono tem sido muito utilizado na arqueologia. A madeira de uma
antiga tumba egípcia tinha aproximadamente 4.800 anos, por exemplo, enquanto a madeira de uma antiga tumba etrusca tinha cerca de
2.730 anos. A idade dos Manuscritos do Mar Morto foi confirmada dessa maneira.

A madeira de árvores antigas derrubadas pelo avanço das geleiras pode ser testada, assim como os troncos que antes ficavam nas margens
de lagos formados pelo derretimento das geleiras. Os cientistas ficaram surpresos ao descobrir que o último avanço das camadas de gelo
que cobriam grande parte da América do Norte começou há apenas 25.000 anos e atingiu sua extensão máxima há cerca de 18.000 anos.
Isso não foi há muito tempo no passado, como se pensava anteriormente. Ainda há 10.000 anos, as geleiras em recuo fizeram um novo
avanço parcial, e não foi até 6.000 aC (quando os homens já estavam se preparando para construir suas primeiras civilizações) que as
geleiras finalmente desapareceram das regiões dos Grandes Lagos.

A reação (d, p) que levou à descoberta do carbono-14 levou à descoberta do único radioisótopo do hidrogênio. Em 1934, o físico australiano
Marcus Laurence Elwin Oliphant (1901- ) bombardeou o gás deutério com deutérios. O núcleo de hidrogênio pesado H2 era, portanto, tanto
alvo quanto partícula de bombardeio.

2 3 1
1H + H2 ----------------------- H + H (Equação 10-5)
1 1 1

ou

2 3
H (d, p) H

O hidrogênio-3 formado dessa maneira tem uma meia-vida inesperadamente longa de 12,26 anos. Foi nomeado trítio (de
uma palavra grega que significa "terceiro") e seu núcleo, composto de um próton e dois nêutrons, é um tritão. O trítio também é formado
naturalmente na atmosfera pela ação da radiação de alta energia, de modo que quantidades extremamente pequenas estão presentes na água
comum. Em casos muito especiais, o declínio no teor de trítio pode ser usado na datação.

Unidades de Radioatividade
Machine Translated by Google

Ao usar radioisótopos, o que conta não é apenas a massa, mas também a taxa de decomposição, pois é esta última que governa a
quantidade de partículas emitidas por unidade de massa, e são essas partículas que devem ser detectadas.

A taxa de degradação (R b) de um radioisótopo pode ser expressa da seguinte forma:

R = 0,693N/T (Equação 10-6)


b

Onde N é o número total de átomos radioativos presentes e T é a meia-vida em segundos.

Vamos considerar um grama de rádio. O número de massa do isótopo de rádio de vida mais longa (e aquele quase invariavelmente
significa quando a palavra não qualificada "rádio" é usada) é 226. Isso significa que 226 gramas de rádio contém o número de
átomos de Avogadro, 6,023 x 1023. Um grama de rádio, portanto, contém o número de Avogadro dividido por 226, ou 2,66 x 1021
átomos. A meia-vida do rádio-226 é de 1620 anos, ou 5,11 x 1010 segundos.

Substituindo 2,66 x 1021 por N na Equação 10-6 e 5,11 x 1010 por T, encontramos um valor de 3,6 x 1010 para R Isso significa
B.
que em um grama de rádio, 36.000.000.000 átomos estão se desintegrando a cada segundo.

Em 1910 foi decidido que o número de quebras atômicas em um grama de rádio fosse tomado como uma unidade chamada curie,
em homenagem aos descobridores do rádio. Na época, o cálculo desse valor rendeu o valor de 37.000.000.000 de avarias por
segundo. Portanto, define-se 1 curie como igual a 3,7 x 1010 quebras atômicas por segundo. O número de quebras por grama de
radioisótopo é sua atividade específica. Assim, a atividade específica do rádio é de 1 curie por grama.

E os outros isótopos? A taxa de degradação é inversamente proporcional à meia-vida. Quanto maior a meia-vida, mais
menos as quebras atômicas por segundo em uma determinada quantidade de radioisótopo, e vice-versa. A taxa de degradação
é, portanto, proporcional a Tr/T1, onde Tr é a meia-vida do rádio-226 e T1 é a meia-vida do outro isótopo.

Para uma taxa de quebra fixa, o número real de quebras em um grama de isótopo é inversamente proporcional ao número de massa
do isótopo. Se o isótopo for mais massivo que o rádio-226, menos átomos serão espremidos em um grama e haverá menos quebras
nesse grama. O contrário também é verdade. O número de avarias será
Machine Translated by Google

proporcional a Mr / M1 onde Mr é o número de massa de rádio-226 e M1 é o número de massa do isótopo.

A atividade específica (Sa) de um radioisótopo - que é o número de quebras por segundo em um grama, em comparação com
aquele em um grama ou rádio - depende das meias-vidas e números de massa como segue:

Sa = Tr Sr / Ti Mi (Equação 10-7)

Como a meia-vida do rádio-226 é de 5,11 x 1010 segundos e seu número de massa é 226, o numerador da Equação 10-7 é igual a
226 (5,11 x 1010), ou 1,15 x 1013. Portanto:

Sa - 1,15 x 1013 / Ti Mi (Equação 10-8)

Assim, o carbono-14, que tem uma meia-vida de 5770 anos, ou 1,82 x 1011 segundos, e um número de massa de 14, tem 2,55 x 1012
4,50 para seu valor de Ti Se 1,15
. Mi curies x 1013 O
por grama. forcarbono-14
dividido por 2,55
tem x 1012,
uma descobriremos
meia-vida mais longaque
queaoatividade específica
rádio-226, do carbono-14
e isso reduz sua taxa deé
degradação. No entanto, o carbono-14 é um átomo muito mais leve que o rádio-226; consequentemente, há muito mais do primeiro
por grama, e o número real de quebras nesse grama é maior do que no caso do rádio-226, apesar da menor taxa de quebra.

Em geral, a maioria dos radioisótopos usados em laboratório tem meias-vidas mais curtas e números de massa menores que os de
rádio, de modo que a atividade específica é geralmente muito alta. Desta forma; carbon-ii tem uma meia-vida de 20,5 minutos,
ou 1230 segundos, um número de massa de 11 e uma atividade específica de 850.000.000 curies por grama.

Para ter certeza, muitos desses isótopos não são usados. Eles geralmente não estão disponíveis em tais quantidades em primeiro
lugar e seriam altamente perigosos se estivessem. Além disso, essas quantidades não são necessárias. A detecção de partículas é
tão delicada que o curie acaba sendo uma unidade grande demais para conveniência, e mais frequentemente se fala de milicuries
(1/1.000 de um curie) ou microcurie (1/1.000.000 de um curie). Assim, um micrograma de carbono-11 é equivalente a 850 microcuries.

Mesmo um microcurie representa uma taxa de quebra de 36.000 por segundo. Nas melhores condições, quatro avarias por
segundo pode ser detectado com precisão razoável. Isso representaria 1/9000 de um microcurie, ou 1,1 x 1010 curie.
Machine Translated by Google

O uso do curie torna-se até certo ponto inconveniente pelo fato de representar um número grande e "desigual" de
quebras atômicas por segundo. Foi sugerido que o Rutherford seja usado em seu lugar (nomeado em homenagem ao
descobridor do átomo nuclear). Um Rutherford é definido como um milhão de colapsos atômicos por segundo.

Isso significa que 1 curie = 37.000 Rutherfords e que 1 Rutherford = 270 microcuries.

Bombardeio de nêutrons

Assim que o nêutron foi descoberto, ocorreu aos físicos usá-lo como uma partícula de bombardeio para provocar
reações (e foi isso, na verdade, que acabou levando à produção por atacado de radioisótopos). No entanto, uma aparente
desvantagem do nêutron em tal papel é sua falta de carga. Isso significa que não pode ser acelerado pelos campos elétricos
usados por todos os aceleradores de partículas.

Uma saída para esse dilema foi fornecida em 1935 pelo físico americano John Robert Oppenheimer (1904- ) que
sugeriu o uso de um deutério em seu lugar. O deutério é composto de um próton e um nêutron em uma combinação
relativamente fraca. Um deutério, com uma carga de + 1, pode ser acelerado. À medida que o deutério energético se aproxima
do núcleo alvo carregado positivamente, o componente do próton é repelido, às vezes com força suficiente para quebrar a
combinação. O próton se desvia, mas o nêutron, não afetado pela repulsão, continua e, se seu objetivo for verdadeiro, pode ser
absorvido pelo núcleo. O resultado se assemelha a uma reação (d, p) do tipo mostrado nas Equações 10-3 e 10-5.

No entanto, a incapacidade de acelerar os próprios nêutrons não é de forma alguma um defeito fatal. Na verdade, pouco
importa. Um nêutron, não sendo atraído nem repelido pela carga elétrica, pode atingir um núcleo (se direcionado na direção
correta), independentemente de quão pouca energia ele carregue.

Durante a década de 1930, fluxos de nêutrons foram produzidos a partir de átomos submetidos ao bombardeio por partículas
alfa. Uma fonte de partículas alfa misturada com berílio serviu como uma fonte de nêutrons particularmente útil.

Um nêutron pode ser absorvido por um núcleo alvo sem a emissão imediata de alguma outra partícula. Em vez disso, o
núcleo atinge um estado excitado como resultado da absorção da energia cinética do nêutron e simplesmente irradia esse
excesso de energia como um fóton de raios gama. Esta é uma reação (n, r). A energia não pode ser escrita explicitamente na
equação que representa esta reação, assim:
Machine Translated by Google

48Cd114 + 0n1 ------------------- 48Cd115 (Equação 10-9)

ou

Cd114 (n, r) Cd115

O nêutron, ainda mais seguro do que o deutério, pode assim ser usado para produzir isótopos mais altos de um elemento-alvo.

Muitas vezes acontece que o isótopo superior assim produzido é radioativo e se decompõe emitindo uma partícula beta. Isso
não afeta o número de massa, mas aumenta o número atômico em um. O cádmio-115, por exemplo, é um emissor beta com meia-
vida de 43 dias e é convertido em índio-115.

Se o cádmio-116 tivesse sido bombardeado com nêutrons e convertido em cádmio-117, haveria uma dupla mudança. O
cádmio-117 é um emissor beta com meia-vida de cerca de três horas e torna-se o índio-117, que é um emissor beta com meia-
vida de cerca de duas horas e é convertido, por emissão de partículas beta, no estanho estável -117. Em muitos casos, então,
o bombardeio de nêutrons pode produzir um elemento um ou dois números atômicos maiores que o elemento alvo. A eficiência
com que isso pode ser alcançado depende da probabilidade de ocorrer uma reação (n, u). Essa probabilidade pode ser tratada da
seguinte forma:

Imagine um material alvo com um centímetro quadrado de área e contendo N núcleos atômicos. Suponha que ele seja
bombardeado por partículas I por partícula e que núcleos atômicos A sejam atingidos por segundo. A parte do alvo realmente
atingida pelas partículas em um segundo é, portanto, A/ N.

Essa parte, no entanto, é atingida por todas as partículas I agrupadas. A parte do alvo atingido por uma única partícula deve
ser A/N dividida por I. O tamanho do alvo atingido por uma única partícula é a seção transversal nuclear, que é simbolizada
como sigma (a letra grega "sigma"). Podemos dizer então que:

Sigma = A / NI (Equação 10-10)

Por essa análise, parece que, para induzir a reação, uma única partícula bombardeadora deve atingir uma área específica, de 0
centímetros quadrados de tamanho, centrada em torno de um núcleo alvo específico. O valor da seção transversal nuclear, conforme trabalh
Machine Translated by Google

pela Equação 10-10, geralmente sai na vizinhança de 10-2~ centímetros quadrados. Por conveniência, os físicos nucleares definiram 1 celeiro como

igual a 10-24 centímetros quadrados. (A história é que o nomede


da10
unidade
a 24 centímetros
surgiu de uma
quadrados
afirmação
de tamanho,
de que, na
era
escala
comosubatômica,
atingir a lateral
atingir
de um
umaceleiro
área em

uma escala cotidiana familiar.)

O valor da seção de choque nuclear varia com a natureza do núcleo alvo e com a natureza do bombardeio.
partícula. O físico italiano Enrico Fermi (1901-1954) descobriu em 1935 que os nêutrons se tornavam mais eficientes em provocar reações nucleares
depois de passarem por água ou parafina. A seção de choque nuclear para bombardear nêutrons em um determinado núcleo alvo aumentou, ou seja,
após a passagem do nêutron pela água ou parafina.

Ao passar pela água ou parafina, os nêutrons colidiram com átomos leves que eram particularmente estáveis e, portanto, tinham pouca tendência a
absorver um nêutron adicional. (Eles tinham seções transversais baixas para absorção de nêutrons, em outras palavras.) Como resultado, o nêutron
ricocheteou.

Quando dois objetos saltam, geralmente há uma redistribuição de energia cinética entre eles. Se um dos objetos está se movendo e o outro está
em repouso, o objeto em movimento perde um pouco de energia e o objeto em repouso ganha um pouco. A divisão de energia provavelmente será igual
se os dois objetos quicando forem mais ou menos iguais em massa.

Podemos ver isso em grande escala se imaginarmos objetos comuns no lugar de partículas subatômicas. Se uma bola de bilhar em movimento
colide com uma bola de pingue-pongue (no caso de um nêutron atingindo um elétron), a bola de pingue-pongue irá ricochetear
vigorosamente, mas a bola de bilhar perde pouca energia e segue seu caminho como antes. Por outro lado, se uma bola de bilhar em movimento colide
com uma bala de canhão (no caso de um nêutron atingindo o núcleo de um átomo de chumbo), a bola de bilhar apenas quica, retendo sua energia,
enquanto a bala de canhão é praticamente inalterada. No entanto, se uma bola de bilhar atingir outra bola de bilhar, é bem provável que as duas vitórias
terminem com energias aproximadamente iguais.

Consequentemente, um nêutron é mais eficientemente retardado se ricochetear em núcleos leves, como os de hidrogênio, berílio ou carbono, e faz
isso ao passar por compostos, como água e parafina, formados por esses átomos leves. Tais substâncias atuam como moderadores. No final, os nêutrons
podem ser retardados até que estejam se movendo a não mais que a velocidade dos átomos e moléculas atmosféricos sob a influência da temperatura
local. Estes são nêutrons térmicos.

Por que, então, as seções de choque nucleares devem aumentar à medida que os nêutrons são desacelerados? Para responder a isso, devemos
lembrar que, embora os nêutrons tenham algumas propriedades semelhantes a partículas, eles também têm propriedades semelhantes a ondas. Já havia sido mostrad
Machine Translated by Google

1920 que os elétrons exibem as propriedades ondulatórias previstas para eles por de Broglie, mas ainda havia alguma dúvida sobre
se isso não se aplicava apenas a partículas carregadas. Em 1936, foi demonstrado que os nêutrons que passavam pelos cristais
eram difratados, e a dualidade onda-partícula foi demonstrada para toda a matéria e não apenas para a matéria eletricamente
carregada.

À medida que uma partícula desacelera, ela perde energia. Em seu aspecto de onda esta diminuição de energia é representada
por um aumento no comprimento de onda. Um nêutron, portanto, *se espalha" e fica "mais difuso" à medida que desacelera. O
nêutron maior e lento tem mais probabilidade de atingir um núcleo do que o nêutron menor e rápido e, portanto, é mais provável
que cause uma reação nuclear. É verdade que um nêutron lento permanece na vizinhança do núcleo alvo por um intervalo de
tempo maior do que um nêutron rápido e isso também estimula as reações.

Elementos Sintéticos

O desenvolvimento na década de 1930 de novos métodos para provocar reações nucleares levou à formação não apenas de
isótopos não encontrados na natureza, mas de elementos não encontrados nela.

Na década de 1930, existiam apenas quatro lacunas na lista de elementos de números atômicos I a 92 inclusive. Estes foram os
elementos de números atômicos 43, 61, 85 e 87.

A primeira das quatro lacunas a serem preenchidas foi a do elemento número 43. Lawrence, o inventor do ciclotron, tinha
expôs o molibdênio a um fluxo de deutérios acelerados, e foi possível que o elemento número 43 tivesse sido produzido
em uma reação (d, n):

42Mo98 + 1H2 ------------------------------- 43


X99 +
0n1 (Equação 10-11)

ou:

Mo98 (d, n) X99

Uma amostra do molibdênio irradiado chegou ao físico italiano Emilio Segre (1905- ) em 1937. Ele a testou por métodos químicos
para ver se alguma parte da nova radioatividade seguiria o curso esperado do número do elemento
Machine Translated by Google

43. Foi; e foi amplamente confirmado que o elemento 43 existia no molibdênio. Como foi o primeiro elemento a ser descoberto
como resultado de reações nucleares feitas pelo homem, foi chamado de technerium ("artificial").

O tecnécio não foi apenas o primeiro elemento feito pelo homem, mas também foi o primeiro caso de um elemento leve
(um com número atômico inferior a 84) que não possuía nenhum isótopo estável. Existem nada menos que três isótopos de
tecnécio com meias-vidas bastante longas - tcchnécio-97, 2.600.000 anos; tecnécio-98, 1.500.000 anos; e tcchnetium-99, 210.000
anos. No entanto, nenhum isótopo é completamente estável. Como nenhuma das meias-vidas desses isótopos é longa o
suficiente para sobreviver às idades da existência da Terra e como nenhum isótopo de tecnécio é parte de uma série radioativa,
não há quantidades mensuráveis de tecnécio presentes na crosta terrestre.

Em 1939, o químico francês Mile M. Perey descobriu um isótopo do elemento 87 entre os produtos de degradação do
urânio-235. Ela o chamou de frâncio, em homenagem à sua terra natal. O elemento 85 também foi detectado mais tarde na série
radioativa, mas já em 1940 havia sido produzido artificialmente pelo bombardeio de bismuto com partículas alfa e foi nomeado
astatine ("instável").

A reação foi:

n1 +
83Bi209 + 2He4----- 83At211 + 0 0n19 (Equação 10-12)

ou:

Bi209 (a, 2n) At211

(Segre já havia chegado aos Estados Unidos e fazia parte do grupo que isolou o astato.)

O elemento número 61 foi descoberto em 1948 (sob circunstâncias a serem descritas mais adiante no livro) por uma equipe trabalhando
sob o químico americano Charles DuBois Cojell (1912- ) e foi nomeado promécio. Foi o segundo caso de um elemento leve
sem isótopos estáveis. De fato, seu isótopo de vida mais solitária, o promécio-145, tem uma meia-vida de apenas 18 anos.

Em 1948, portanto, a tabela periódica finalmente foi preenchida e sua última lacuna foi removida. Entretanto, a mesa
Machine Translated by Google

tinha aberto em sua extremidade superior. Fermi, ciente da capacidade do nêutron de aumentar o número atômico de um núcleo alvo em
um ou dois, desde 1934 bombardeava urânio com nêutrons.

Ele sentiu que o urânio-239 poderia ser formado a partir do urânio-238. Emitindo partículas beta, isso poderia se tornar um isótopo do
elemento 93 e, em seguida, possivelmente do elemento 94. Ele pensou primeiro que havia realmente demonstrado isso e se referiu ao
hipotético elemento 93. como "Urânio X".

A descoberta da fissão do urânio mostrou que Fermi havia feito muito mais do que preparar o elemento 93 e, por um tempo, o
elemento 93 foi esquecido. No entanto, quando o furor da fissão diminuiu um pouco, a questão do elemento 93 foi retomada. A formação
do urânio-239 não foi o principal resultado do bombardeio de nêutrons do urânio, nem o mais importante, mas foi um resultado.
Aconteceu.

Isso foi finalmente demonstrado em 1940 pelo físico americano Edwin Mattison McMillan e seu colega, o químico americano Philip
Hauge Abelson (1913-). Eles rastrearam a radioatividade mostrando uma meia-vida de 2,3 dias e descobriram que pertencia a um
isótopo com número atômico de 93 e número de massa de 239. Como o urânio foi originalmente nomeado para o planeta Urano, o novo
elemento além do urânio foi chamado de neptúnio. , para Netuno, o planeta além de Urano.

Parecia bastante provável que este isótopo, neptúnio-239, fosse um emissor de partículas beta e decaiu para um isótopo de elemento
número 94. No entanto, o isótopo assim produzido era aparentemente tão fracamente radioativo que era difícil de detectar em pequenas
quantidades. No final do ano, no entanto, McMillan e um novo assistente, o químico americano Glenn Theodore Seaborg (1912- ),
bombardearam urânio com deutérios e formaram neptúnio-238:

92U238 + n1 + 1n (Equação 10-13)


1H2 ------------------ 93Np238 + 0 0

ou:

U238 (d, 2n) Np238

O neptúnio-238 emitiu uma partícula beta e formou um isótopo do elemento 94, que era de fato radioativo o suficiente
detectar. O novo elemento foi nomeado plutônio, em homenagem ao planeta Plutão, que está além de Netuno.
Machine Translated by Google

Uma vez que o plutônio foi formado em quantidade suficiente, foi bombardeado com partículas alfa e, em 1944, uma equipe de pesquisa
encabeçados por Seaborg formaram isótopos do elemento 95 (amerício, para a América) e 96 (cúrio, para os Curie).

Elementos ainda mais elevados foram formados pelo grupo de Seaborg. Em 1949 e 1950, os elementos 97 e 98 foram
formados pelo bombardeio de amerício e cúrio com partículas alfa. O elemento 97 foi chamado de berquélio e o elemento 98
foi chamado de califórnio, em homenagem a Berkeley, Califórnia, onde o trabalho foi feito.

Os elementos 99 e 100 foram formados em laboratório em L954, mas dois anos antes, em 1952, isótopos desses elementos
foram encontrados no resíduo de uma explosão de teste de bomba de hidrogênio (ver página 208) em um atol do
Pacífico. Quando essas descobertas foram confirmadas e o anúncio foi feito, tanto Einstein quanto Fermi haviam morrido
e, em sua homenagem, o elemento 99 foi nomeado einstênio e o elemento 100, férmio.

Em 1955, o elemento 101 foi formado pelo bombardeio de einstênio com partículas alfa, e recebeu o nome de
mendelévio, em homenagem a Mendeleev, o descobridor da tabela periódica. Em 1957, a descoberta do elemento 102 foi
anunciada no Prêmio Nobel

TABELA XI - Elementos trans-urânio

Número atômico do elemento número de massa de Meia-vida


Isótopo de vida
mais longa

93 Netuno 237 2.140.000 anos 242


94 Plutônio 37.900 anos
2437.600
247 anos
95 Amerício anos 10.00040.000.000
anos 800
96 Curium anos 480 dias 4,5 dias
97 Berquélio 247 1,5 horas 10
98 Californium 251 minutos
99 Einsteinium 254
100 Férmio 253
101 Mendelévio 256
102 premio Nobel 253
Machine Translated by Google

103 Lourenço 257 8 segundos

Instituto em Estocolmo e foi nomeado nobelium e em 1961, o elemento 103 foi identificado e nomeado lawrencium em homenagem ao
descobridor do ciclotron, que havia morrido alguns anos antes. ainda foi confirmado.

Os elementos além do urânio são geralmente chamados de elementos trans-urânio. Quase uma centena de isótopos de
esses elementos foram formados. Na Tabela XI, são apresentados os isótopos conhecidos de vida mais longa desses elementos.

O principal interesse teórico nesses elementos está na luz que eles lançaram sobre as partes mais altas da tabela periódica. Antes
da descoberta dos elementos trans-urânio, o tório era colocado sob o háfnio na tabela periódica; protactínio sob tântalo; e urânio sob
tungstênio. Havia alguma evidência química a favor deste arranjo.

Trabalhando com base nisso, quando o neptúnio foi descoberto, ele deveria ter se encaixado sob o rênio. No entanto, a química
As propriedades do neptúnio revelaram-se quase imediatamente como muito parecidas com o urânio, e os outros elementos
transurânio concordaram a esse respeito. Descobriu-se (como Seaborg foi o primeiro a sugerir) que os elementos do actínio em diante
formaram uma nova série de "terras raras" e deveriam ser encaixadas na primeira série do lantânio. Isso é feito na tabela periódica
apresentada na página 16.

A primeira série, do lantânio ao lutécio inclusive, é agora chamada de lantanídeos após o primeiro membro.
Analogamente, a segunda série, do actínio ao laurêncio inclusive, b a dos actinídeos. O laurêncio é o último dos actinídeos e os químicos
estão bastante certos de que, quando o elemento 104 for obtido em quantidade suficiente para que suas propriedades químicas sejam
estudadas, ele se parecerá com o háfnio.

Enquanto alguns dos isótopos trans-urânio têm meias-vidas que são solitárias em termos humanos, nenhum é longo em termos geológicos,
e nenhum sobreviveu ao longo das eras da história da Terra. (No entanto, vestígios de neptúnio e plutônio foram localizados em
minérios de urânio. Eles surgiram da reação de nêutrons - ocorrendo naturalmente no ar como resultado da reação nuclear induzida
por radiação de alta energia de fora da Terra - com urânio. )
Machine Translated by Google

Neptúnio-237 é de particular interesse. Seu número de massa dividido por 4 deixa um resto de 1, de modo que pertence
ao grupo 4n $ 1 de números de massa, o grupo para o qual não há série radioativa natural. Com uma meia-vida de mais de
dois milhões de anos, é o membro mais longevo (até onde se sabe) deste grupo. Pode servir, portanto, como átomo pai
para uma série de neptúnios. Dá origem a uma série de átomos filhos que não duplicam nenhum dos produtos das outras
três séries, veja a Tabela XII.

A característica mais distintiva da série do neptúnio é que ela termina com bismuto e não com chumbo, assim como as
outras três séries. Naturalmente, uma vez que o átomo pai da série não conseguiu sobreviver ao longo da história da Terra,
nenhum dos átomos filhos de vida mais curta também. Toda a série está extinta, exceto pelo produto final estável, bismuto-209.

CAPÍTULO 11

Estrutura Nuclear

Nucleons, pares e ímpares

Com toda a lista de isótopos estáveis e instáveis, espalhados diante de nós, é possível fazer certas afirmações sobre
estrutura nuclear.

Para começar, pode-se ter um átomo com um único próton como núcleo; é o caso do hidrogênio-1. Nenhum núcleo, no
entanto, pode conter mais de um próton sem também conter um nêutron. Entre os elementos com átomos pequenos, os
núcleos estáveis tendem a ser compostos por números iguais ou quase iguais de prótons e nêutrons. Assim, o hidrogênio-2
contém um de cada; hélio-4, dois de cada; carbono-12, seis de cada; oxigênio-16, oito de cada; enxofre-32, dezesseis de
cada; e cálcio-40, vinte de cada.

A tendência não persiste. Todos os núcleos estáveis mais massivos que o cálcio-40 contêm mais nêutrons do que prótons,
e o desequilíbrio se torna mais acentuado à medida que o número de massa aumenta. Assim, o isótopo de ferro mais comum, ferro-S6, c
Machine Translated by Google

26 prótons e 30 nêutrons, para uma razão nêutron/próton (n/p) de 1,15. O isótopo de prata mais comum, prata-107, contém 47 prótons
e 60 nêutrons para uma razão n/p de 1,27. O único isótopo estável de bismuto, bismuto-209, que tem a distinção de ser o mais massivo
dos isótopos estáveis, contém 83 prótons e 126 nêutrons, para uma razão n/p de 1,52; o isótopo de ocorrência natural mais massivo,
o urânio-238, com 92 prótons e 146 nêutrons, tem uma razão n/p de 1,59.

Aparentemente, à medida que mais e mais prótons são empacotados no núcleo, um excesso cada vez maior de nêutrons é necessário para
manter o núcleo estável. No momento em que 84 prótons, ou mais, existem no núcleo; nenhum número de nêutrons será
suficiente para a estabilidade. (E, é claro, muitos nêutrons são tão ruins quanto poucos.)

Parece bastante claro que a existência de prótons em pares tem um efeito estabilizador no núcleo. Dos núcleos que contêm
mais de um nucleon, aqueles com prótons em pares (e, portanto, possuindo um número atômico par) são os mais difundidos
no universo. Assim, seis elementos compõem cerca de 98% do planeta em que vivemos (contando seu interior e sua crosta) e são:
ferro, oxigênio, magnésio, silício, enxofre e níquel. Os números atômicos são 26, 8, 12, 14, 16 e 28 respectivamente – todos pares.

Isso se reflete também no caso em que números pares de prótons são estabilizados em comparação com números ímpares. Para
elementos com números atômicos acima de 83, nenhum número de nêutrons será suficiente para estabilizar o núcleo, mas para dois
elementos deste grupo, a estabilidade é quase alcançada. Eles são tório e urânio, com números atômicos de 90 e 92, ambos pares.
Por outro lado, existem apenas dois elementos com números atômicos abaixo de 83 que não possuem isótopos estáveis. Estes são
o tecnécio e o promécio, com números atômicos 43 e 61, ambos ímpares.

Considere a seguir o número de isótopos por elemento. Existem 21 elementos que possuem apenas um isótopo natural.
Destes, dois têm números atômicos pares: berílio (número atômico 4) e tório (número atômico 90). Os outros 19 têm números
atômicos ímpares; então há 23 elementos com apenas dois isótopos naturais. Novamente, dois deles têm números atômicos pares:
hélio (número atômico 2) e urânio (número atômico 92). E novamente os outros 21 têm números atômicos ímpares.

De fato, parece que a posse de um número ímpar de prótons no núcleo torna a estabilização tão instável que apenas um
número específico de nêutrons, ou no máximo dois, basta. Apenas um único clemento de número atômico ímpar possui mais de
dois isótopos naturais, e este é o potássio (número atômico 19). Possui três isótopos: pós-39, potássio-40 e potássio-41. Destes três,
no entanto, o potássio-40 é levemente radioativo e bastante
Machine Translated by Google

cru.

Por outro lado, todos, exceto quatro, dos elementos naturais com números atômicos pares possuem mais de dois
isótopos de ocorrência natural; de fato, o estanho (número atômico, 50) possui dez. É como se a posse de um número par
de prótons tornasse a estabilização tão fácil que é possível realizá-la com uma ampla variedade de números de nêutrons.

Os nêutrons também parecem ocorrer mais prontamente em pares. Dos seis elementos anteriormente referidos como
constituindo 98% da Terra, os isótopos mais comuns são o ferro-56, o oxigênio-16, o magnésio-24, o silício-28, o enxofre-32 e o
níquel-58. Os conteúdos de nêutrons de prótons são 26-30, 8-8, 12-12, 14-14, 16-16 e 28-30. Em todos os casos existem números
pares de prótons e nêutrons (núcleos pares-pares).

Entre os elementos de número atômico ímpar, que possuem um isótopo natural, em todos os casos o único isótopo possui
um número par de nêutrons ("núcleos ímpares-par"). Exemplos são flúor-19 (9 prótons, 10 nêutrons), sódio-23 prótons, 12
nêutrons), fósforo-31 (15 prótons, 16 nêutrons) e ouro-197 (79 prótons, 118 nêutrons).

Onde elementos de número atômico ímpar possuem dois isótopos naturais, em quase todos os casos ambos têm um
número par de nêutrons. Assim, o cloro ocorre como cloro-35 e cloro-37, com 17 prótons e 18 ou 20 nêutrons. O cobre
ocorre como cobre-63 e cobre-65, com 29 prótons e 34 ou 36 nêutrons. A prata ocorre como prata-117 e prata-119, com 47
prótons e 60 ou 62 nêutrons.

Elementos de número atômico par, com três ou mais isótopos naturais, geralmente têm um número maior com
par de nêutrons do que de ímpar (o último sendo "núcleos pares-ímpares"). Como exemplo, o xenônio possui nove
isótopos naturais, dos quais sete são "par-par" (xenon-124, 126, 128, 132, 134 , e 136). O número de prótons em cada um é 54,
enquanto o número de nêutrons é 70, 72, 74, 76, 78, 80 e 82, respectivamente. Existem apenas dois isótopos de xenônio de
ocorrência natural "par-ímpar". são xenônio-129 e xenônio-131, com números de nêutrons de 75 e 77.

Com uma exceção, nenhum elemento possui mais de dois isótopos “par-ímpares”. A exceção é o estanho, que contém três
deles, estanho-115, 117 e 119. Aqui o número de prótons é 50; e o número de nêutrons é 65 , 67 e 69.
(No entanto, o estanho possui sete isótopos "par-par".)

O mais raro de todos os núcleos são os "núcleos ímpares" que contêm números ímpares de prótons e nêutrons. Apenas nove de
Machine Translated by Google

estes ocorrem naturalmente; destes nove, cinco são ligeiramente radioativos e apenas os quatro mais simples são completamente estáveis.

Os quatro "odd-odds" estáveis são o hidrogênio-2 (um próton, um nêutron); lítio-6 (três prótons, três nêutrons); boro 10 (cinco
prótons. cinco nêutrons); e nitrogênio-14 (sete prótons, sete nêutrons). Destes, três são raros dentro de seu próprio elemento. O
hidrogênio-2 compõe apenas 1 de 7.000 átomos de hidrogênio; lítio-6 apenas 2 de 27 átomos de lítio; e boro 10 apenas 1 de 5
átomos de boro.

O nitrogênio-14 é o membro surpreendente do grupo. Compõe 996 de cada 1000 átomos de nitrogênio, superando em muito
o único outro isótopo de nitrogênio estável, nitrogênio-L5, um "ímpar-par" composto de sete prótons e oito nêutrons.

A partícula alfa, composta por um par de prótons e um par de nêutrons, é particularmente estável. Quando os átomos radioativos
eliminam nucleons, eles nunca o fazem em unidades menores que uma partícula alfa.

A panícula alfa é tão estável que um núcleo formado por a. par delas (quatro prótons mais quatro nêutrons) é extremamente
instável, quase como se as panículas alfa fossem autocontidas demais para terem qualquer capacidade de se unirem.
Tal núcleo seria o de berílio-8, que tem uma meia-vida de algo como 3 X 10-16 segundos.

Por outro lado, carbono-12, oxieno-16, neônio-20, magnésio-24, silício-28, enxofre-32 e cálcio-40, que podem ser considerados,
de certa forma, como sendo união de 3, 4, 5, 6, 7, 8 e 10 partículas alfa, respectivamente, são todas particularmente estáveis.

Alguns dos fenômenos da radioatividade natural podem ser interpretados à luz do que já foi dito. Átomos
como os do urânio-238 ou do tório-232, para obter estabilidade, devem reduzir o número de prótons no núcleo para não mais
de 83.

Para fazer isso, as panículas alfa são ejetadas, mas isso elimina nêutrons e prótons. Quando um número igual de prótons
e os nêutrons são eliminados, onde os nêutrons já estão presentes em excesso, a razão n/p aumenta. Assim, a razão n/p
no urânio-238 (92 prótons, 146 nêutrons) é 1,59. Se um urânio-238 conseguisse ejetar cinco partículas alfa, perderia dez prótons e
reduziria seu número atômico para 82 (o do chumbo) para uma possível estabilidade. No entanto, também teria perdido dez
nêutrons para um declínio total no número de massa de 20, e seria chumbo-218. Lá a razão n/p (82 prótons, 136 nêutrons) seria 1,66.
Uma razão n/p tão alta é completamente incompatível com a estabilidade e, de fato, o chumbo-218 nunca foi detectado. O isótopo
de chumbo mais massivo conhecido é o chumbo-214, com meia-vida de menos de meia hora.
Machine Translated by Google

À medida que o peso atômico diminui, a razão n/p também deve diminuir, para que a estabilidade seja alcançada. Para fazer isso, um
nêutron é convertido em um próton e uma partícula beta é emitida. Por uma combinação de emissão alfa e beta, o urânio-238
eventualmente se torna chumbo-206, com uma perda de 10 prótons e 22 nêutrons e um declínio na razão n/p de 1,59 para 1,51.

As regularidades nas combinações próton-nêutron mostram claramente que os núcleos estáveis não são construídos de forma aleatória, mas
de acordo com algum sistema ordenado. Pareceu a alguns físicos que, assim como a ordem foi introduzida nos aspectos
químicos dos elementos por meio de uma tabela periódica, eventualmente baseada em camadas de elétrons (veja o Capítulo 5),
a ordem poderia ser trazida para as propriedades nucleares por meio de de um sistema de conchas nucleares.

Tal sistema foi desenvolvido em 1948 pela física polonesa-americana Maria Goeppert-Mayer (1906-). Ela apontou
fora que isótopos contendo certo número de prótons ou nêutrons eram particularmente comuns ou particularmente estáveis.
Esses números são chamados de números de casca, ou, mais dramaticamente, números mágicos, e são 2, 8, 20, 50, 82 e 126.

Assim, o hélio-4 é formado por dois prótons e dois nêutrons; oxigênio-16 de oito prótons e oito nêutrons e cálcio-40 de 20
prótons e 20 nêutrons, e todos os três são isótopos particularmente estáveis. Novamente, o elemento com maior número de
isótopos estáveis é o estanho, cujos núcleos contêm 50 prótons. Existem também seis isótopos naturais contendo 50 nêutrons (entre
os quais o rubídio-87, que é muito levemente radioativo). Existem sete isótopos estáveis contendo 82 nêutrons e quatro (os de chumbo)
contendo 82 prótons.

Nem são apenas os números de isótopos que contam. Outras propriedades nucleares parecem atingir máximas ou mínimas significativas
os números mágicos. Assim, isótopos contendo um número mágico de prótons ou nêutrons parecem ter seções de choque mais
baixas em relação à absorção de nêutrons do que outros isótopos de complexidade semelhante.

A Sra. Goeppert-Mayer tentou explicar esses números mágicos assumindo que os prótons e nêutrons são
dispostos dentro do núcleo em camadas de núcleons, que são preenchidas de acordo com um arranjo de números quânticos
nucleares. Os números mágicos são aqueles em que as camadas-chave são completamente preenchidas (de forma análoga à situação
das facilidades inertes em relação às camadas eletrônicas).

Esta "tabela periódica nuclear" teve alguns triunfos. Ele tem sido usado para prever quais nuclídeos podem existir em estados
excitados por um período de tempo significativo, formando isômeros nucleares. No entanto, este modelo ainda é um assunto de
considerável controvérsia.
Machine Translated by Google

Frações de Embalagem

A estabilidade de um nuclídeo particular repousa não apenas nas razões n/p, mas, mais fundamentalmente, na relação de energia de um nuclídeo
particular com outros nuclídeos de igual número de núcleos.

Para ver como isso pode ser, vamos começar considerando que, embora o número de massa de um isótopo seja geralmente dado como um todo
número, não é bem um número inteiro. Falamos de oxigênio-18, potássio-41 e urânio-235, supondo que os números de massa sejam 18, 41 e
235, respectivamente.

O espectrógrafo de massa de Aston tornou possível, no entanto, medir a massa de isótopos individuais com grande precisão.
Agora sabemos que na escala de carbono-12 a massa real do núcleo de oxigênio-18 é 17,99916, enquanto a do potássio 41 é 40,96184 e a do
urânio-235 é 235,0439.

Isso pode parecer estranho tendo em vista a crença de que o núcleo é composto apenas de prótons e nêutrons, com cada uma dessas partículas
possuindo massa unitária. Mas os prótons e nêutrons realmente têm uma massa de exatamente 1? Eles não. Na escala do carbono-12, a massa do
próton é 1,007825 e a do nêutron é 1,00865.

Mas isso levanta outra questão. O núcleo de carbono-12 é composto por seis prótons e seis nêutrons. Os 12 nucleons, considerados um de
cada vez, têm uma massa total de 12,098940, mas a massa desses mesmos nucleons combinados em um núcleo de carbono-12 é de 12,00000. Há um
defeito de massa de 0,098940; o que aconteceu com isso?

À luz da equação de Einstein mostrando a equivalência de massa e energia, parece claro que a massa extra tem
foi sintonizado em energia.

Seis prótons e seis nêutrons ao se combinarem para formar um núcleo de carbono-12 perdem um pouco menos de 1% de sua massa total e a
liberam como energia. Se fosse desejado quebrar o núcleo de carbono-12 em núcleons individuais novamente, essa quantidade de energia deveria
ser fornecida novamente. É a dificuldade de coletar e entregar essa energia que mantém o carbono 12 estável. A energia que mantém os nucleons
juntos dentro de um núcleo é muito maior do que a energia que mantém os átomos de uma molécula, ou as moléculas de uma massa sólida juntas.
Também é maior do que a energia que retém os elétrons dentro do átomo.
Por essa razão, procedimentos que bastam para fundir um sólido ou decompor um composto, ou mesmo ionizar um átomo, falham completamente
em qualquer esforço para quebrar um núcleo atômico.
Machine Translated by Google

No entanto, se os núcleos não podem ser divididos em núcleos individuais sem um gasto proibitivo de energia, mudanças
menos drásticas são possíveis; algumas dessas mudanças menos drásticas ocorrem até mesmo de forma espontânea.

Para começar, quanto mais energia por partícula é liberada na formação do núcleo ao "empacotar" os núcleos individuais,
quanto mais estável o núcleo tende a ser (todas as outras coisas sendo iguais) Uma maneira de medir essa energia de formação
nuclear é subtrair o número de massa (A) da massa real do isótopo (A,). Essa diferença, o defeito de massa, pode ser dividida pela massa
real para dar o defeito de massa fracionado. Para remover o decimal, o resultado é normalmente multiplicado por 10.000 para produzir o
que Aston chamou de fração de empacotamento. Se deixarmos P, representar a fração de empacotamento, então podemos dizer:

Pt = 10.000 (Am - A) / A m (Equação 11-1)

Quanto menor a fração de empacotamento, maior a perda de massa na formação do núcleo e maior a tendência à estabilidade.

Entre os elementos, a fração de empacotamento é maior para o hidrogênio. A massa real do núcleo de hidrogênio-i (o núcleo nu
próton) é 1,007825. Se isto for substituído por A m na Equação 11-1, e I é substituído por A, então a fração de empacotamento
fica 78,25. Isso não é surpreendente, uma vez que um único próton não é empacotado" na formação de um núcleo. A fração de
empacotamento de um único nêutron é ainda maior, pois é 86,7.

Por outro lado, lítio-7 com A m, igual a 7,01601 e A igual a 7, tem uma fração de empacotamento de 22,9, enquanto o carbono
13 com A
m igual a 13,00335 e A igual a 13, tem uma fração de empacotamento de 2,4.

Em geral, a partir do hidrogênio-i, a fração de empacotamento diminui bastante; isso indica que os núcleos de razão n/p adequada
tendem a se tornar mais estáveis à medida que se tornam mais complicados. Em outras palavras, se dois núcleos muito simples são
combinados para formar um mais complicado, a energia é liberada.

Quando o nitrogênio-15 é atingido, a fração de empacotamento é quase 0, mas para núcleos ainda mais complexos a fração de
empacotamento cai em números negativos. (Isso é uma consequência do fato de termos escolhido deixar o carbono-12 igual a exatamente 12.
Se tivéssemos estabelecido números de massa com base no ferro-56 igual a exatamente 56, não haveria empacotamento negativo
Machine Translated by Google

números fracionários.)

Para o potássio41, por exemplo, o valor de Am é 40,96184 e o de A é 41, de modo que a fração de empacotamento é -9,3. Um mínimo é
finalmente alcançado em ferro-56, que tem uma fração de empacotamento de --11,63. Depois disso, a fração de empacotamento aumenta
novamente, de modo que para o estanho-120, por exemplo, é -8,1, e para o irídio-191, -2,0. No extremo da lista de tabelas as frações de
empacotamento são positivas novamente. Para o urânio-238, é +2,1.

Isso significa que os átomos de tamanho médio, como ferro e níquel, são os mais estáveis de todos. Não apenas a energia é liberada se
átomos muito simples são transformados em átomos mais complicados, mas também se elementos muito complicados são decompostos em
menos complicados.

Tudo isso se reflete na composição geral do universo. No geral, as estimativas da distribuição dos elementos no universo, com base em
dados astronômicos, indicam que quanto mais complicado um elemento, mais raro ele é. Cerca de 90% dos átomos do universo são hidrogênio
(o elemento mais simples) e outros 9% são hélio (o próximo mais simples).
No entanto, devido à estabilidade particular do ferro, é de se esperar que o ferro seja mais comum do que outros elementos de complexidade
semelhante. Isso é realmente verdade, e nosso próprio planeta, que não é massivo o suficiente para reter os átomos mais simples, tem cerca
de 35% de ferro em massa.

As frações de empacotamento são particularmente baixas para carbono-12 e oxigênio-16 (que podem ser considerados como sendo compostos de
alfa panículas) e são especialmente baixos para o próprio hélio-4 (que é a partícula alfa). Assim, a fração de empacotamento do lítio-6 é
25,2 e a do hidrogênio-2 é 70. Como o hélio-4 está a meio caminho entre estes em massa, pode-se supor que sua fração de empacotamento
também cairia aproximadamente no meio. É, no entanto, apenas 6,5, muito inferior a qualquer um. Não é de surpreender, então, que o hélio, o
carbono e o oxigênio estejam entre os átomos mais comuns no universo.

Se um determinado nuclídeo é estável ou não, depende não apenas de sua própria fração de empacotamento, mas também da fração de
empacotamento de nuclídeos de igual número de nucleons. Por exemplo, o sódio34 (11 prótons, 13 nêutrons) pode ser suspeito de estabilidade
se puder ser considerado por si só. No entanto, o magnésio-24 (12 prótons, 12 nêutrons) tem uma fração de empacotamento menor.
Portanto, se o sódio-24 emitir uma panícula beta e mudar seu arranjo de núcleos de 11-13 para 12-12, ele perde energia e ganha estabilidade.
A emissão beta é um preço barato a pagar por esse ganho. Considerando que seria necessária uma energia proibitiva para quebrar
completamente o núcleo de sódio-24, apenas uma pequena quantidade de energia é suficiente para desencadear a mudança envolvida na
emissão de uma partícula beta. Consequentemente, o sódio-24 emite partículas beta espontaneamente e degrada o magnésio-24, com meia-
vida de 15 horas.
Machine Translated by Google

Dois isótopos vizinhos com o mesmo número de massa não podem ser ambos estáveis. Aquele com a fração de
empacotamento mais alta muda espontaneamente para aquele com a menor. É como descer uma "colina de energia" e quanto
mais íngreme a colina, menor a meia-vida.

Dois isótopos de mesmo número de massa, mas não vizinhos, podem ser ambos estáveis. Assim, zinco-64 (30 prótons, 34 nêutrons)
e níquel-64 (28 prótons, 36 nêutrons) são ambos estáveis, pois são separados por cobre-64 (29 prótons, 35 nêutrons), que tem
uma fração de empacotamento maior do que qualquer um. Tanto o zinco-64 quanto o níquel-64 podem ser visualizados como
ocupando "cavidades de energia" com uma "corcova de energia" (na qual o cobre-64 está empoleirado) entre eles. O cobre-64 é
realmente instável e pode quebrar de duas maneiras. Ele pode emitir uma partícula beta para se tornar zinco-64, ou pode emitir o
oposto de uma partícula beta para se tornar níquel-64.

Às vezes, a "corcunda de energia" é muito baixa e o isótopo existente ali é quase estável. É o caso do potássio 40 (19 prótons,
21 nêutrons), que fica entre dois isótopos estáveis, argônio-40 (18 prótons, 22 nêutrons) e cálcio-40 (20 prótons, 20 nêutrons). O
potássio-40 é apenas levemente radioativo e também se decompõe de duas maneiras, uma das quais produz cálcio-40 e a outra
argônio-40.

Energia nuclear

Assim que a existência da energia nuclear foi aceita, os cientistas começaram a especular sobre as possibilidades de colocá-la
em uso. Já existem alguns isótopos que, de fato, ficam no topo de uma encosta muito suave e estão rolando lentamente um átomo
de cada vez. Estes são os isótopos, urânio-238, urânio-235 e tório-232, é claro.

Por exemplo, o urânio-238 se decompõe em várias etapas para formar o Iead-206. Ao fazê-lo, emite panículas beta
e raios gama, cuja massa pode ser ignorada, e também oito partículas alfa, cuja massa não pode ser ignorada. Incluindo
apenas os itens massivos, podemos escrever:

4
U238--------------- Pb206 + 8He

A massa do núcleo de urânio-238 é 238,0506, a do núcleo de chumbo-206 é 205,9745, e a do alfa


Machine Translated by Google

partícula é 4,00260. A massa total do núcleo de chumbo-206 mais oito partículas alfa é 237,9953. Isso significa que na quebra radioativa
de urânio-238 em chumbo-206, cada núcleo de urânio-238 perde 238,0506 -- 237,9953, ou 0,0553 unidades de massa atômica.

Isso pode ser escalado para o nível de grama. Se 238 gramas de urânio se decompõem completamente em chumbo, então 55,3 miligramas
de massa e convertida em energia. Esta é uma conversão de 0,225 miligramas de massa para cada grama de urânio se decompondo
completamente.

De acordo com Einstein, e = me', onde e representa a energia em ergs, m representa a massa em gramas e c representa a
velocidade da luz em centímetros por segundo. A velocidade da luz é 3 x 1010 centímetros por segundo, e o quadrado que nos dá
4
9 x 1020 Se isso for multiplicado por 0,225 miligramas (ou 2,25 x 10- gramas) descobrimos que um grama de urânio,
quebrando completamente, libera 2,5 x 1017 ergs, ou pouco menos de 5.000.000 quilocalorias.

Se um grama de gasolina é queimado, cerca de 12 quilocalorias de energia são liberadas. Vemos então que a energia fornecida pela
quebra radioativa de um grama de urânio é 420.000 vezes maior do que a fornecida por uma massa igual de gasolina em chamas e é,
de fato, equivalente à explosão de cerca de 5.000 toneladas de TNT. Esta é uma comparação justa das intensidades relativas da energia
nuclear e da energia química.

Mas por que, então, o homem permaneceu tão inconsciente dessa vasta liberação de energia pelo urânio? (Ele sempre estava
ciente da liberação de energia relativamente pequena de, digamos, a chama de uma vela.) A resposta é clara. O urânio libera uma
grande quantidade de energia ao se decompor, mas espalha essa energia por uma vasta extensão de tempo. O grama de urânio
fornece metade de sua energia, ou 2.500.000 quilocalorias, durante um período de 4.500.000.000 anos. Em um segundo, ela fornece
muito menos energia do que a chama de uma vela.

Para ter certeza, existem isótopos mais intensamente radioativos que o urânio-238. Considere o polônio-212, um dos nuclídeos filhos
do tório-232 e, portanto, sempre presente nos minérios de tório. Um grama de polônio-212 decairá para chumbo-208 emitindo uma
partícula alfa. Ao fazê-lo, perde apenas 0,046 miligramas. Este é apenas um sexto da massa perdida pelo urânio-238 ao todo, e assim o
polônio-212 libera apenas um sexto da energia. Ele libera menos de 1.000.000 quilocalorias, ou apenas a energia que seria liberada por
meras 1.000 toneladas de TNT explodindo. No entanto, o polônio-212 tem uma meia-vida de menos de um milionésimo de segundo, e
toda essa energia seria entregue em um instante. A explosão seria devastadora. No entanto, não há como acumular um grama inteiro de
polônio-2 i 2 natural. Toda a crosta terrestre teria
Machine Translated by Google

ser penteada para isso, e isso ainda pode ser insuficiente.

A partir de 1919, tornou-se possível lidar com nuclídeos intensamente radioativos sem procurá-los na natureza; eles podem ser
sintetizados. Pelo bombardeio com partículas alfa ou com prótons acelerados artificialmente, nuclídeos estáveis poderiam ser derrubados
de suas "cavidades de energia". por assim dizer, e enviado deslizando até alguma "corcova de energia" na forma de um radioisótopo. O
radioisótopo então, rápida ou lentamente, deslizaria de volta para uma cavidade. A energia liberada então não poderia ser utilizada?

Claro que pode; e é, toda vez que um radioisótopo é detectado por um contador, e toda vez que é usado como fonte de partículas de
bombardeio. No entanto, a quantidade de energia gasta inutilmente, a fim de tirar apenas um átomo ocasional de seu "oco de energia" é
muito maior do que a quantidade que é ganha quando o radioisótopo resultante retrocede.

Como, então, organizar as coisas de modo a gerar lucro? Por um lado, o retorno do desembolso original pode ser aumentado em
fazendo o próprio radioisótopo explodir fazer o trabalho de formar mais radioisótopos.

Assim, um núcleo de carbono-12, se atingido por um nêutron nas condições adequadas, pode absorvê-lo e emitir dois nêutrons. o
reação pode ser escrita:

1
6C12 + 0 --------------- + n C11 + 1n 1+n (Equação 11-2)
6 0 0

ou:

C12 (n, 2n) C11

Suponha, então, que um núcleo de carbono-12 atingido por um nêutron cede dois nêutrons, cada um dos quais atinge um núcleo de
carbono-12 para produzir um total de quatro nêutrons, cada um dos quais... As reações nucleares ocorrem em milionésimos de segundos
ou pernas , de modo que se o número de quebras aumentasse para 2, 4, 8, 16, 32 e assim por diante em etapas de milionésimos de
segundos, todo o suprimento de carbono-12 teria sofrido uma reação nuclear. O carbono-12, uma substância muito comum, forneceria
tanta energia, tão rapidamente, quanto o polônio-212.

É exatamente esse tipo de coisa que acontece (em uma escala de energia química) quando com um único fósforo queimamos um
Machine Translated by Google

floresta. O fósforo fornece a energia para acender uma folha; o calor desenvolvido pela folha em chamas inflama objetos vizinhos,
e assim por diante. Onde o produto de uma reação serve como condição para continuar a reação, os químicos falam de uma reação
em cadeia. O que o processo (n, 2n) oferecia era a chance de uma reação nuclear em cadeia.

No entanto, o processo (n, 2n) não funciona. Todos os exemplos descobertos até agora requerem nêutrons rápidos e energéticos. Um rápido
O nêutron enviado para um alvo de carbono-12 liberará dois nêutrons, mas lentos. Eles são invariavelmente muito menos
energéticos do que o nêutron incidente; sem energia o suficiente para iniciar uma nova reação do tipo que lhes deu origem.

É como tentar queimar madeira molhada. Você pode acender uma pequena chama, mas ela não fornecerá calor suficiente para secar
as seções vizinhas de madeira para que elas queimem - e o fogo se extingue. Nem isso é uma coisa ruim. Há sempre nêutrons
dispersos presentes na atmosfera e são de baixa energia. Se fossem suficientes para iniciar uma reação nuclear em cadeia, grandes
partes da crosta terrestre poderiam estar sujeitas a explosões nucleares quase instantâneas, e os planetas, como os conhecemos, poderiam não e
O fato de a Terra existir pode ser uma evidência de que nenhum processo (n.2n) envolvendo átomos comuns oferece uma
reação nuclear em cadeia prática.

Essa era a situação, então, até 1939. Embora os físicos soubessem que a energia nuclear existia em quantidades tremendas,
não havia nenhum método prático de aproveitá-lo. Parecia até haver razão para acreditar que nenhum método prático
poderia existir. Rutherford, por exemplo, estava convencido (e disse isso) de que o desenvolvimento de uma fonte prática de
energia nuclear em larga escala era um sonho ocioso. Ele morreu apenas alguns anos cedo demais para ver suas razões refutadas.

Ficão nuclear

A situação no que diz respeito à utilização da energia nuclear mudou radicalmente no final da década de 1930. Fermi estava
bombardeando urânio com nêutrons térmicos e sentiu que havia formado o elemento 93. De certa forma ele estava certo, mas também
havia induzido outras reações nucleares que confundiram os resultados e o deixaram intrigado.

Outros físicos abordaram o problema e ficaram igualmente intrigados. Até então todas as reações nucleares estudadas, sejam
natural ou artificialmente produzido, envolvia a emissão de pequenas partículas, não mais massivas que uma partícula alfa.
Consequentemente, os físicos tentaram associar os vários tipos de radioatividade no urânio bombardeado com átomos apenas
ligeiramente menores que o urânio.

O físico alemão Otto Hahn (1879- ) e sua colaboradora, a física austríaca Lise Meitner (1878- ), encontraram
Machine Translated by Google

em 1938 que quando compostos de bário foram adicionados ao urânio bombardeado, um certo tipo de radioatividade seguiu o
bário através de todas as manipulações químicas a que foi submetido. Como o bário é muito parecido com o rádio do ponto de
vista químico (o rádio está logo abaixo do bário na tabela periódica). Hahn supôs que estava lidando com um isótopo de rádio.

No entanto, nada que ele pudesse fazer separaria o carregador de bário do rádio que ele supunha que o acompanhava.
Mesmo as manipulações que normalmente separariam o bário do rádio falharam. Ele se viu forçado, pouco a pouco, a supor
que não se tratava de um isótopo de rádio, mas de um isótopo de bário radioativo.

Considere as consequências desse pensamento. Os isótopos de bário têm um número atômico de 56, que é 32 a menos que o
de urânio. Para formar um isótopo de bário, um átomo de urânio teria que liberar uma capa de oito partículas alfa, e nenhum
fluxo de partículas alfa foi detectado no urânio bombardeado por nêutrons. Começou a parecer necessário supor que o núcleo
de urânio, ao absorver um nêutron, poderia simplesmente se partir ao meio (mais ou menos). Esse processo passou a ser
chamado de fissão do urânio ou, de forma mais geral, fissão nuclear, uma vez que outros isótopos que não os do urânio
acabaram se submetendo a ele.

Essa fissão nuclear faz sentido porque envolve um deslizamento por uma "colina de energia" ainda mais extensa do que a que trouxe
sobre em transformações radioativas comuns. Onde, em condições normais, o urânio é convertido em chumbo, com uma
fração de empacotamento mais baixa, no caso da fissão, o urânio é convertido em átomos como bário e criptônio, que têm
frações de empacotamento ainda mais baixas.

Assim, enquanto um grama de urânio, convertido em chumbo pelo processo radioativo comum, perderá cerca de 1/4
miligrama, esse mesmo grama de urânio em fissão perderá apenas cerca de 1 miligrama em massa. Em outras palavras, a
fissão do urânio produzirá cerca de quatro vezes mais energia, grama por grama, do que a radioatividade comum.

A fissão do urânio parece se encaixar bem com um modelo teórico de estrutura nuclear proposto por Bohr. Neste modelo, o
núcleo é visto como análogo a uma gota de líquido (é referido, de fato, como o modelo de gota de líquido). Em vez de
considerar os nucleons como ocupando camadas diferentes e se comportando com relativa independência, como no modelo de
casca, os nucleons são considerados como se empurrando aleatoriamente como moléculas em uma gota de líquido.

Um nêutron que entra em tal núcleo tem sua energia absorvida e distribuída entre todos os núcleons muito rapidamente, de modo que
nenhum núcleon retém energia suficiente para se ejetar do núcleo. A energia excedente pode ser eliminada como
Machine Translated by Google

raios gama, mas há também uma possibilidade distinta de que todo o núcleo será definido para oscilar como uma gota de líquido
pode sob condições semelhantes. Existe então uma possibilidade adicional de que, antes que a energia pudesse ser eliminada
como um raio gama, o núcleo pudesse oscilar com força suficiente para se partir em dois.

Quando um núcleo de urânio se divide em dois dessa maneira, nem sempre se divide exatamente da mesma maneira. A embalagem
a função entre núcleos de tamanho moderado não varia muito, e o núcleo pode muito bem quebrar em um ponto em um caso e
em um ponto ligeiramente diferente em outro. Por esta razão, uma grande variedade de radioisótopos é produzida, dependendo de
como ocorre a divisão. Eles são agrupados como produtos de fissão. As probabilidades são mais altas de que a divisão seja
ligeiramente desigual, com uma metade mais massiva na região do número de massa de 135 a 145 e uma metade menos massiva
na região de 90 a 100.

Foi entre esses produtos de fissão que os isótopos do elemento número 61 foram isolados pela primeira vez em 1948. O novo
elemento foi chamado de "promécio" porque foi arrancado da fornalha nuclear da mesma forma que o fogo deveria ter sido
arrancado do sol pelo semideus grego Prometeu.

Na produção de produtos de fissão relativamente pequenos, o átomo de urânio é trazido para uma parte da lista de elementos onde o
relação n/p é menor. São necessários menos nêutrons nos núcleos dos produtos de fissão do que no núcleo original de urânio, e
esses nêutrons supérfluos são liberados. Em consequência, cada átomo de urânio em fissão libera dois ou três nêutrons.

Pode-se perguntar por que, se a fissão do urânio libera mais energia do que a quebra normal do urânio, o urânio não
não sofrem fissão espontânea em vez de colapso normal. Aparentemente, antes que qualquer mudança possa ocorrer, o núcleo
deve absorver uma pequena quantidade de energia que o transportará sobre uma "corcova de energia" antes de começar a
deslizar pela "colina de energia". Temos aqui uma espécie de "ignição nuclear" que é análoga ao calor do atrito que inicia a
queima de um fósforo.

Quanto maior a corcova de energia, menor a probabilidade de um núcleo individual ganhar energia suficiente para passar
por ele no curso normal de eventos em que a energia está constantemente sendo distribuída aleatoriamente e redistribuída entre
partículas subatômicas. Portanto, quanto maior a corcunda de energia, menos núcleos sofrerão quebra em qualquer intervalo de
tempo específico e maior será a meia-vida.

A corcova de energia é maior para a fissão de urânio do que para a quebra de urânio comum e, portanto, é a última,
Machine Translated by Google

que ocorre e é detectado, embora o primeiro represente a maior estabilização global.

Ainda assim, a corcova de energia para a fissão deve, muito ocasionalmente, ser superada de forma puramente aleatória (e não apenas por
a introdução deliberada de um nêutron), e quando isso acontece, o núcleo de urânio deve sofrer fissão sem nêutrons. Tal fissão
espontânea foi descoberta em 1940 por um par de físicos russos, GN Flerov e KA
Petrjak.

Naturalmente, como a fissão tem a corcova de energia mais alta, sua meia-vida é mais longa. Considerando que o urânio-238 tem uma emissão alfa
meia-vida de cerca de 4.500.000.000 anos, tem uma meia-vida de fissão espontânea de cerca de 1.000.000.000.000 anos.

Para os isótopos trans-urânio mais massivos, a meia-vida da fissão espontânea diminui. Para o cúrio-242 são meros 7.200.000
anos, e para o califórnio-250 são apenas 15.000 anos.

CAPÍTULO 12

Reatores Nucleares

Urânio-235

Quando Hahn chegou à conclusão de que os nêutrons estavam iniciando a fissão do urânio, ele hesitou em anunciar sua
descoberta, já que parecia uma sugestão tão "distante". Naquela época, porém, Lise Meitner, sua colega de trabalho de longa
data, sendo judia, teve que fugir do anti-semitismo de Hitler e estava em Estocolmo. As incertezas de sua própria posição faziam com
que o risco de uma sugestão científica "distante" parecesse menos perigoso, e enviou uma carta ao periódico científico Nature,
discutindo a possibilidade de fissão do urânio. A carta era datada de 16 de janeiro de 1939.

Niels Bohr soube disso de boca em boca e, em uma visita aos Estados Unidos para participar de uma conferência de físicos,
divulgou a notícia. Os físicos se dispersaram para ver se podiam confirmar a sugestão. Eles prontamente o fizeram, e a fissão
nuclear tornou-se a empolgante descoberta do ano.
Machine Translated by Google

Para o físico húngaro-americano Leo Szilard (1898-1964), o que parecia mais excitante (e inquietante) era a possibilidade de
uma reação nuclear em cadeia. Ele havia sido um dos que consideraram a possibilidade antes e até patenteou um processo
nuclear que poderia dar origem a um (mas não o fez).

A fissão de urânio, no entanto, ofereceu uma nova abordagem. Foi induzido por nêutrons térmicos lentos ainda mais facilmente do que por
rápidos. Os nêutrons produzidos no processo de fissão possuíam ampla energia para a indução de mais fissão nuclear. Se
alguma coisa, eles tinham que ser mais lentos, o que era fácil.

A Segunda Guerra Mundial havia começado agora, e Szilard, um refugiado da tirania psicopática de Hitler, tinha plena consciência
do terrível perigo que o mundo enfrentaria se os nazistas domassem a energia nuclear e a colocassem em uso na guerra. Juntamente
com dois outros físicos de origem húngara, Eueene Paul Wigner (1902- ) e Edward Teller (1908- ), ele começou a interessar o
governo americano em prosseguir com o projeto de desenvolver métodos para obter e controlar tal reação em cadeia.

Eles escolheram Albert Einstein como o único homem com prestígio suficiente para ter peso com não cientistas em tal assunto.
Superando com dificuldade os escrúpulos pacifistas de Einstein, eles persuadiram o gentil físico a escrever uma carta sobre
o assunto ao presidente Franklin D. Roosevelt. Em 1941, Roosevelt foi persuadido e concordou em iniciar um programa de pesquisa
maciço para desenvolver uma arma de guerra envolvendo fissão de urânio. A ordem final foi emitida em 6 de dezembro, um dia
antes de Pearl Harbor.

Para estabelecer uma reação nuclear em cadeia, é necessário observar condições radicalmente diferentes daquelas que
prevalecem na crosta terrestre. Na crosta, embora o urânio esteja presente - e nêutrons dispersos sejam encontrados na
atmosfera, não existe reação em cadeia, ou, pelo que sabemos, jamais existiu.

A razão para isso é que quando um átomo de urânio sofre fissão (seja espontaneamente ou por absorção de um nêutron), os
nêutrons liberados são absorvidos pelos átomos circundantes. A maioria desses átomos circundantes não são de urânio e não são
empurrados para a fissão. Os nêutrons do urânio em fissão são assim absorvidos e nenhum nêutron é reemitido, de modo que a
reação em cadeia potencial é efetivamente extinta. Existe material não-urânio suficiente, mesmo na concentração natural mais rica
de urânio, para extinguir qualquer potencial reação em cadeia de uma só vez.

O que era necessário, então, para que uma reação nuclear em cadeia tivesse alguma chance, era fazer uso de urânio puro,
na forma de um óxido ou mesmo como o próprio metal. No metal, onde quase todos os átomos seriam átomos de urânio, qualquer
Machine Translated by Google

O nêutron liberado por um átomo de urânio em fissão teria uma excelente chance de ser absorvido por outro átomo de urânio e, portanto, de
provocar outra fissão - o próximo elo da cadeia.

Isso, por si só, era uma exigência rígida. Em 1941, o urânio praticamente não tinha usos importantes, de modo que apenas pequenas quantidades de
o metal foi produzido e essas pequenas quantidades não eram de alta pureza. Então, mesmo quando começaram as tentativas de
preparar grandes quantidades de urânio puro, uma qualificação ainda mais rigorosa tornou-se evidente.

Logo após a ideia da fissão do urânio ter sido aceita, Niels Bohr apontou que, em bases teóricas, o urânio
235 era muito mais propenso a sofrer fissão do que o urânio-238. A experiência logo mostrou que Bohr estava certo. Isso significava que
o urânio comum, mesmo se altamente purificado, ainda era um material pobre para estabelecer uma reação nuclear em cadeia, pois 993
átomos de cada 1000 nesse urânio seriam urânio-238, que absorveria nêutrons sem sofrer fissão - extinguindo assim a reação em cadeia.

Para dar uma chance decente a uma reação nuclear em cadeia. o urânio teria de ser preparado no qual o urânio-235 estivesse
presente em quantidades maiores do que as usuais. Tal preparação envolveria a separação de isótopos, uma tarefa difícil - particularmente,
se for realizada em grande escala.

Diferentes isótopos de um dado elemento têm propriedades químicas virtualmente idênticas, e as diferenças que existem dependem
do fato de que um isótopo é mais massivo e, portanto, reage mais lentamente do que outro. Essa diferença é mais marcante no caso do
hidrogênio, onde o hidrogênio-2 é apenas duas vezes mais massivo que o hidrogênio-1. Isso torna possível separar o hidrogênio-2 do
hidrogênio-1 com relativa facilidade. A diferença de massa entre o urânio-238 e o urânio-235, no entanto, é de apenas 1,3%.

O método mais bem estabelecido para separar isótopos de pequena diferença percentual em massa é forçar um gás contendo
esses isótopos como parte de suas moléculas através de algum material poroso (difusão). As moléculas devem encontrar seu caminho
através dos poros, e aquelas que contêm isótopos menos massivos o fazem um pouco mais rapidamente do que aquelas que contêm
isótopos mais massivos.

As primeiras amostras de gás a emergir do material poroso são, portanto, "enriquecidas" com uma porcentagem mais do que o normal
do isótopo de luz, enquanto as últimas amostras a chegar estão "esgotadas" porque têm uma porcentagem menor do que o normal
do isótopo de luz. A diferença entre as duas frações é muito pequena, mas o processo pode ser repetido em cada fração. As frações
menores podem ser recombinadas de acordo com um padrão fixo e depois separadas novamente.
Machine Translated by Google

Eventualmente, se isso continuar por tempo suficiente, os isótopos são quase completamente separados. Quanto menor a
diferença de massa entre os isótopos, maior o número de difusões individuais necessárias.

Tal método de difusão requer um gás, é claro, e nem o próprio urânio nem seus compostos mais comuns são gasosos.
PH Abelson, no entanto, sugeriu o uso de hexafluoreto de urânio (UF 6) que, se não for um gás em temperaturas normais, é
pelo menos um líquido volátil com ponto de ebulição a 56 graus C. Portanto, pode ser mantido como um gás com pouco
problema.

O peso molecular do hexafluoreto de urânio contendo urânio-238 é 352, enquanto o do hexafluoreto de urânio contendo
urânio-235 é 349. uma diferença percentual de massa. Instalações gigantescas (cascatas de difusão) foram instaladas em
Oak Ridge, Tennessee, para esse fim no início da década de 1940. Nestes, a UF
foi colocado através de números de

6 barreiras porosas sob condições, que automaticamente separam e recombinam frações de forma adequada.
Eventualmente, hexafluoreto de urânio enriquecido foi despejado em uma extremidade e hexafluoreto de urânio empobrecido na outra.

A “pilha atômica”

Mesmo com o trabalho de purificação do urânio e a separação de seus isótopos, percebeu-se que uma reação nuclear em
cadeia não poderia, mesmo sob as melhores condições, ser estabelecida em um volume limitado de urânio. Mesmo os átomos
de urânio-235 não necessariamente absorverão sempre um nêutron que vem tropeçando em seu caminho, em direção ao átomo
de urânio. O nêutron pode simplesmente ricochetear, não absorvido. Ele pode fazer isso repetidas vezes, e pode ser apenas o
centésimo ou o milésimo átomo de urânio-235 que irá absorvê-lo.

Se no processo de saltar de um átomo para outro o nêutron conseguir sair do urânio para o ar livre, ele está perdido. Se um
número suficiente de nêutrons o fizer, a reação nuclear em cadeia será extinta. Para evitar isso, deve-se garantir que as chances
de perda de nêutrons para o ambiente circundante, antes que a absorção e a conseqüente fissão ocorram, sejam minimizadas.
A maneira mais simples de fazer isso é aumentar o tamanho do núcleo de urânio no qual a fissão ocorrerá. Quanto maior o seu
tamanho, mais saltos um nêutron deve sofrer antes de atingir a borda do núcleo e maior a chance de sua absorção.

Se o núcleo for grande o suficiente para perder tão poucos nêutrons que a reação em cadeia nuclear mal possa continuar, é
Machine Translated by Google

dizem estar em tamanho crítico. Um núcleo menor, de "tamanho subcrítico", não pode manter uma "reação nuclear auto-sustentável".

O tamanho crítico não é absoluto. Depende da natureza do núcleo, de sua forma e assim por diante. Um núcleo de urânio enriquecido
naturalmente tem um tamanho crítico menor do que um de urânio comum, uma vez que quanto maior a concentração de urânio 235, menos os
saltos necessários antes da absorção e menor a chance (em qualquer tamanho de núcleo específico) de escapar para o ar .

Então, também, o tamanho crítico pode ser reduzido se nêutrons lentos, em vez de nêutrons rápidos, forem usados, uma vez que o urânio-235 tem um
maior seção transversal para nêutrons lentos e menos saltos serão necessários em seu caso. Para retardar os nêutrons, é necessário
um moderador, e o grafite muito puro serve bem ao propósito. Esse moderador também pode servir como refletor de nêutrons. Se o
moderador for construído em torno do núcleo de urânio, os nêutrons que emergem do núcleo e atingem o grafite irão saltar aqui e ali sem
serem absorvidos, e um número retornará ao urânio. Desta forma, o tamanho crítico é ainda mais reduzido.

Para controlar a reação em cadeia nuclear e evitar que o núcleo de urânio exploda, é necessário o inverso de um moderador. Em vez
de hastes que rebatem os nêutrons sem absorvê-los, como um moderador faz, precisamos de átomos que absorvam prontamente os
nêutrons sem quiçá-los ou re-emiti-los. O cádmio, alguns dos isótopos dos quais têm uma seção transversal alta para nêutrons, serve ao
propósito e "bastões de controle" podem ser formados a partir dele.

No final de 1942, foi feita a primeira tentativa de estabelecer uma reação nuclear autossustentável. Isso ocorreu sob
a orientação de Enrico Fermi (que emigrou da Itália para os Estados Unidos em 1938, mas que ainda não era cidadão americano e,
portanto, era tecnicamente um "inimigo estrangeiro") sob as arquibancadas de um estádio de futebol da Universidade de Chicago.

Na época, algum urânio puro estava disponível tanto na forma metálica quanto na forma de óxido. Não foi enriquecido e, portanto, o
tamanho crítico foi extraordinariamente alto. Uma "pilha atômica" muito grande teve que ser construída. (Foi chamado de "pilha" porque era,
literalmente, uma pilha de tijolos de urânio, óxido de urânio e grafite. Além disso, "pilha" era um termo neutro que não trairia a natureza real da
estrutura se pessoas de fora ouvissem Após a guerra, "pilha atômica" continuou a ser usada por um curto período e depois deu lugar a um
termo muito mais apropriado, reator nuclear.

Quando este primeiro reator nuclear foi concluído, tinha 30 pés de largura, 32 pés de comprimento e 21,5 pés de altura. Pesava 1.400
toneladas, das quais 52 toneladas eram de urânio. O urânio, óxido de urânio e grafite foram dispostos em camadas alternadas com,
Machine Translated by Google

aqui e ali, buracos nos quais poderiam ser encaixadas varetas solitárias de cádmio.

Suponha que em tal reação um certo número de átomos de urânio (n) sofre fissão em uma unidade fixa de tempo, liberando
x nêutrons. Destes x nêutrons, y não encontram sua marca, mas são absorvidos por outros materiais que não o urânio, ou
são absorvidos por átomos de urânio que, no entanto, não sofrem fissão ou escapam completamente do reator. Isso significa que
os nêutrons xy realmente atingem um átomo de urânio-235 e provocam a fissão. A razão (xy)/n é o fator de multiplicação.

Se o fator de multiplicação for menor que 1, então em cada elo sucessivo na reação em cadeia, menos átomos sofrem fissão e menos
nêutrons são produzidos. A reação nuclear em cadeia é rapidamente extinta.

Se o fator de multiplicação for maior que 1, então em cada elo da cadeia um número maior de átomos de urânio sofre
fissão e um maior número de nêutrons são produzidos. Em uma fração de segundo, a intensidade da reação em cadeia se
transforma em uma explosão assustadora.

No reator, como construído na Universidade de Chicago, o fator de multiplicação era nitidamente menor que 1 com as hastes de
controle de cádmio empurradas até o fim. absorvem nêutrons, e mais e mais nêutrons estavam consequentemente disponíveis para
estimular os átomos de urânio à fissão. O fator de multiplicação aumentou.

Pode-se supor que, à medida que as barras de controle são removidas e o fator de multiplicação aumenta, nada acontece até que o
o fator de multiplicação faz a menor ninharia sobre ele - momento em que a pilha inteira explode carregando parte da cidade de
Chicago com ela.

Felizmente, isso não precisa acontecer. Quase todos (mas não todos) os nêutrons produzidos no curso de uma reação nuclear em
cadeia são produzidos virtualmente instantaneamente quando um átomo de urânio sofre fissão. Estes são nêutrons imediatos. Cerca
de 0,75 por cento dos nêutrons, no entanto, são produzidos por produtos de fissão e são emitidos durante um período de vários minutos.
Estes são nêutrons atrasados.

Se o fator de multiplicação estiver acima de 1,0075, então os nêutrons imediatos são suficientes para intensificar a reação e provocar
uma explosão de uma só vez. Se o fator de multiplicação estiver entre 1,0000 e 1,0075, os nêutrons imediatos não podem fazer isso
sozinhos, mas devem ter a cooperação dos nêutrons atrasados. Isso significa que, por um curto período de tempo, a intensidade do
Machine Translated by Google

reação de fissão aumenta apenas lentamente. Durante este período de aumento lento, há tempo para empurrar as hastes de cádmio
para dentro, reduzindo assim a intensidade da fissão. O controle automático das barras de cádmio pode manter o fator de multiplicação
entre 1,0000 e 1,0075 indefinidamente, mantendo viva a reação nuclear, mas não permitindo uma explosão. Se algo der errado com o
sistema de controle, as coisas são organizadas de tal forma que as barras de cádmio caem para dentro de si mesmas, extinguindo a
reação. Esta é uma situação de "venda fracassada", e um quarto de século de experiência mostra que os reatores nucleares são
bastante seguros quando projetados adequadamente.

Em 2 de dezembro de 1942, às 15h45, as barras de cádmio na "pilha atômica" de Fermi foram retiradas apenas o suficiente para
produzir uma reação autossustentável. Esse dia e minuto são tomados para marcar o início da "era atômica". (Se as hastes de controle
tivessem sido puxadas até o fim, o fator de multiplicação teria sido 1,0006 - seguro o suficiente.)

A notícia desse sucesso foi anunciada a Washington pelo cauteloso telegrama que dizia: "O navegador italiano entrou no
novo mundo". Em resposta, veio um fio de interrogação: "Como estavam os nativos?" A resposta foi enviada de uma vez: "Muito
amigável".

A "Era Atômica"

Os reatores nucleares se multiplicaram em número e eficiência desde a primeira "pilha" de Fermi. Muitas nações agora os possuem,
e eles são usados para uma variedade de propósitos.

Os nêutrons são produzidos pelos átomos de urânio que sofrem fissão em quantidade sem precedentes. Eles podem ser
usados para bombardear uma variedade de alvos e produzir radioisótopos em quantidades que seriam impossíveis sob
quaisquer outras condições. É somente desde a Segunda Guerra Mundial, portanto, que os radioisótopos estão disponíveis em
quantidade relativamente grande e a preços relativamente baixos. Consequentemente, as técnicas envolvendo tais isótopos na
pesquisa bioquímica, na medicina e na indústria se multiplicaram e floresceram nas últimas décadas.

O reator nuclear também pode ser usado para produzir energia. O calor produzido pelo reator pode aquecer algum fluido de alto
ponto de ebulição que passa por ele (sódio líquido, por exemplo). Isso, por sua vez, pode ser usado para ferver água e formar vapor
que acionará uma turbina e produzirá eletricidade.

Em 1954, o primeiro submarino nuclear, o USS Nautilus, foi lançado pelos Estados Unidos. Sua energia era obtida inteiramente
de um reator nuclear e não era obrigada a subir à superfície em intervalos curtos para recarregar baterias.
Machine Translated by Google

Como poderia permanecer debaixo d'água por longos períodos de tempo, era muito mais seguro contra detecção e ataque do inimigo.

O primeiro navio de superfície atômico americano foi o NS Savannah, lançado em 1959. Seus reatores nucleares utilizam
Reatores nucleares enriquecidos com dióxido de urânio como combustível, e suas 21 hastes de controle contêm boro, que absorve nêutrons.

Em meados da década de 1950, as usinas nucleares foram projetadas para a produção de eletricidade para uso civil. A União Soviética
construiu uma pequena estação desse tipo em 1954. Ela tinha uma capacidade de 50.000 quilowatts. Os britânicos construíram um de 92.000-
capacidade de quilowatts, que eles chamaram de Calder Hall. O primeiro reator nuclear americano para fins civis começou a operar
em Shippingport, Pensilvânia, em 1958.

O maior problema apresentado por essas usinas (além das despesas, que podem diminuir à medida que
técnicas se tornam mais sofisticadas) é o fato de que os produtos da fissão do urânio são eles próprios radioativos.

Além disso, sc então os produtos da fissão se acumulam no núcleo de urânio; eles começam a interferir com as operações. Alguns
eles são absorventes relativamente eficientes de nêutrons, de modo que agem para extinguir a reação nuclear em cadeia. A cada dois ou
três anos, portanto, um reator nuclear deve ser desligado (mesmo que seu combustível esteja esgotado) e os produtos da fissão separados
do núcleo.

A meia-vida de alguns dos produtos de fissão é de 20 anos ou mais, então pode levar mais de um século até que um lote deles possa
ser considerado não mais perigosamente radioativo. Por esta razão, eles devem ser descartados com mosquitos. As soluções concentradas
podem ser envoltas em concreto e seladas em tanques de aço e depois enterradas no subsolo. Métodos também estão sendo investigados
para fundir tais produtos de fissão com silicatos para formar "vidros". Isso seria completamente à prova de vazamentos e, portanto, mais
seguro para armazenar.

Os próprios produtos de fissão ainda contêm energia, e alguns deles podem ser usados em baterias nucleares leves.
Essas baterias são popularmente chamadas de SNAP ("Sistemas de Energia Auxiliar Nuclear"). Nessas baterias, o calor liberado pela quebra
radioativa de um isótopo é usado para elevar a temperatura de uma extremidade do termopar e produzir eletricidade.

O primeiro SNAP foi construído em 1956 e, desde então, mais de uma dúzia de variedades foram construídas. Alguns foram usados para
alimentar satélites feitos pelo homem por longos períodos. As baterias SNAP podem ser tão leves quanto quatro libras, podem fornecer até
60 watts e podem ter uma vida útil de até dez anos.
Machine Translated by Google

Não é qualquer radioisótopo que serve para baterias nucleares. Deve ter uma meia-vida apropriada para que não forneça calor nem
muito rápido nem muito devagar; deve estar livre de emissões perigosas de raios gama e ser relativamente barato de preparar.
Apenas alguns radioisótopos atendem a todas as qualificações necessárias. O mais usado é o produto da fissão estrôncio-90,
que em outro contexto é um dos novos perigos para a humanidade.

A visão de um mundo em que a fissão do urânio extrai os suprimentos de energia armazenados no carvão e no petróleo é um pouco esmaecida
pelo fato de que o principal combustível nuclear, o urânio-235, não é extremamente comum. O urânio em si não é um dos elementos
mais raros, mas está amplamente espalhado por toda a crosta terrestre e os bolsões concentrados são raros. Além disso, o urânio
235 compõe apenas uma pequena porcentagem do metal.

Felizmente, o urânio-235 não é o único isótopo que pode ser estimulado à fissão pelo bombardeio de nêutrons. Outro isótopo desse
tipo é o plutônio-239. Isso não existe em quantidades significativas na natureza, mas pode ser formado pelo bombardeio de nêutrons
de urânio-238. Isso forma o neptúnio-239 primeiro, depois o plutônio-239.

Uma vez formado, o plutônio-239 é facilmente manuseado, pois tem uma meia-vida de mais de 24.000 anos. Portanto, em termos
humanos, sua existência é quase permanente. Além disso, não é um isótopo de urânio, mas um elemento distinto, portanto, separá-lo do
urânio não é um problema tão difícil quanto isolar o urânio-235.

Durante a Segunda Guerra Mundial, o plutônio-239 foi meticulosamente reunido para que sua capacidade de sofrer fissão pudesse ser
estudado. Uma reação nuclear auto-sustentável pode ser mantida no plutônio-239 mesmo sob o impacto de nêutrons rápidos.
Os reatores de plutônio (reatores rápidos) não requerem moderadores e, portanto, são mais compactos que os reatores comuns.

O plutônio-239 pode ser produzido como um subproduto da energia obtida do urânio-235. Os nêutrons que emergem de um minério
de manium-23S podem ser usados para bombardear uma concha de urânio comum ao redor do núcleo. Quantidades de urânio-238 na
casca são convertidas em plutônio-239. No final, a quantidade de material cindível produzido na casca pode ser realmente maior do que
a consumida no núcleo. Este é um reator reprodutor.

Tal reator reprodutor torna o urânio-238 indiretamente disponível como combustível nuclear e aumenta o poder físsil.
recursos da humanidade mais de cem vezes.

Outro material físsil é o urânio-233, um isótopo descoberto por Seaborg e seu grupo em 1942. É um
Machine Translated by Google

isótopo filho da série do neptúnio e, portanto, não ocorre na natureza. No entanto, tem uma meia-vida de 162.000 anos,
portanto, uma vez formado, pode ser manuseado sem problemas.

Quando o tório-232 é exposto ao bombardeio de nêutrons, torna-se o tório-233, que emite uma partícula beta com meia-vida
de 22 minutos para se tornar o protactínio-233. Este último, por sua vez, emite uma partícula beta com meia-vida de 27 dias para
se tornar urânio233. Assim, se uma casca de tório envolve um reator nuclear, o urânio-233 físsil pode ser formado dentro dele e
facilmente separado do o tório. Desta forma, o suprimento de tório da Terra é adicionado ao seu potencial de combustível nuclear.

Apesar desta enumeração dos aspectos pacíficos da fissão nuclear, deve-se lembrar que o projeto de pesquisa estabeleceu
em 1941 teve como primeiro objetivo o desenvolvimento de uma arma explosiva. O que se queria era um núcleo que
excedesse o fator de multiplicação o máximo possível. Para isso, a massa crítica deve ser a menor possível, pois tal bomba deve
ser transportável. Portanto, deve-se usar urânio-235 puro ou plutônio-239.

Essa bomba pode ser transportada com segurança em duas metades, pois cada porção seria de tamanho subcrítico. No
ponto crucial, uma metade pode ser jogada contra a outra por meio de um explosivo. Os nêutrons dispersos no ar serão
suficientes para construir uma explosão nuclear imediata.

Em 1945, isótopos de urânio e plutônio foram preparados em quantidade suficiente para construir três bombas de fissão. No
Às 5h20 da manhã de 16 de julho de 1945, em Alamogordo, Novo México, um deles explodiu e foi um sucesso terrivelmente
completo. A explosão teve a força de 20.000 toneladas (20 quilotons) de TNT.

Naquela época, a Segunda Guerra Mundial havia acabado na Europa, mas não a guerra com o Japão. Foi decidido usar as
duas bombas nucleares restantes contra o Japão. Em 6 de agosto de 1945, um deles explodiu sobre a cidade de Hiroshima e, em
8 de agosto, o outro explodiu sobre Nagasaki. O Japão se rendeu e a Segunda Guerra Mundial acabou.

Fusão nuclear

Mesmo sob as melhores circunstâncias, a energia extraída do combustível físsil tem suas desvantagens. Juntos, o
urânio e o tório constituem apenas cerca de 1-2 partes por cem mil da crosta terrestre. Isso representa, com certeza, talvez dez
vezes mais energia potencial que pode ser obtida do suprimento total de carvão, petróleo e gás da Terra, mas apenas uma
pequena parte do suprimento de combustível físsil da Terra pode ser extraída da crosta com razão. caso capaz. Então, também, mesmo que to
Machine Translated by Google

pudesse ser usado, o que faríamos com o acúmulo crescente de produtos de fissão - produtos impossíveis de manter e perigosos
de descartar?

Uma alternativa brilhante se apresenta na outra extremidade da curva de fração de empacotamento. A energia pode ser
obtida não apenas quebrando átomos massivos em menos massivos, mas também transformando átomos simples em menos
simples. A última situação é denominada fusão nuclear.

O caso mais óbvio é aquele em que o hidrogênio, o átomo mais simples, é fundido ao hélio, o segundo mais simples. Suponha, por
exemplo, que consideremos a seguinte reação:

2 + H2 4
1H 1 ------------------ 2Ele

O número de massa do hidrogênio é 2,01410 e o de dois desses núcleos é 4,02820. O número de massa de hélio-4
(que tem uma fração de empacotamento excepcionalmente baixa) é 4,00280. A perda de massa é de 0,0254 de um total de
4,0282. A perda percentual de massa é de 0,63, enquanto na fissão de urânio é de apenas 0,056. Em outras palavras, em uma base
de peso por peso, mais de dez vezes mais energia h disponível na fusão nuclear do que na fissão nuclear.

A fusão nuclear chamou a atenção humana primeiro no céu. Em meados do século XIX, quando a lei da conservação da
energia foi claramente estabelecida, os físicos começaram a questionar a origem das vastas energias da corrida. O físico alemão
Hermann Ludwig Ferdinand von Helmholtz (1821-1894) tinha visto na força da gravitação a única fonte possível de energia do sol e
sugeriu que uma contração lenta alimentava a radiação solar.

Infelizmente, com a gravitação como fonte de energia radiante, parecia que a Terra não poderia ter durado mais de cem
milhões de anos. Antes disso, o sol teria que ser grande o suficiente para mais do que preencher a órbita da Terra; teria que ser
tão grande se houvesse contração suficiente para sustentar sua radiação por cem milhões de anos.

Uma vez descoberta a radioatividade, no entanto, foi possível dar uma nova olhada no problema. O núcleo atômico era uma fonte
de energia desconhecida para Helmholtz e para os homens de sua geração. Passou a parecer cada vez mais razoável supor que a
radiação do Sol era sustentada por reações nucleares.
Machine Translated by Google

A natureza de tal reação, no entanto, permaneceu um enigma por algumas décadas. As primeiras reações nucleares
conhecidas, as de quebra de urânio e tório (ou, nesse caso, a fissão de urânio descoberta mais tarde) não poderiam ser úteis
no sol, já que não havia urânio suficiente, ou átomos massivos em geral, no planeta. esfera solar u, forneça a energia necessária
em qualquer circunstância.

De fato, pela contagem de átomos, o sol era algo como 85% de hidrogênio e 10% de hélio. Parecia bastante provável,
portanto, se as reações nucleares alimentassem o sol, elas teriam que ser reações envolvendo hidrogênio.

No entanto, o hidrogênio, nas condições da Terra, não participa espontaneamente de reações nucleares. Condições ativadas
o sol difere mais dramaticamente em relação à temperatura (sabe-se que a superfície do sol está a uma temperatura de
6.000 graus C), mas não era certo que essa diferença fosse significativa.

As primeiras experiências com urânio e com outros elementos naturalmente radioativos fizeram parecer que o
processo radioativo, ao contrário das reações químicas comuns, não era afetado pelo calor. A meia-vida do rádio não
foi diminuída pelo frio extremo ou aumentada pelo calor extremo. Nem poderiam dois átomos que, em temperaturas
normais, não se envolverem em reações nucleares, serem obrigados a fazê-lo por calor extremo.

Claro que isso depende do que se entende por "calor extremo". As temperaturas disponíveis nos laboratórios do início do
século XX eram insuficientes para esmagar as fezes com tanta força que romper os "pára-choques" eletrônicos e forçar
núcleo contra núcleo. Mesmo a temperatura da superfície solar era bastante insuficiente para o efeito.

No entanto, o astrônomo inglês Arthur Stanley Eddington (1882-1944) produziu uma linha convincente de argumentação
para mostrar que, se o Sol fosse totalmente gasoso, ele só poderia ser estável se sua temperatura interior fosse extremamente
alta - milhões de graus.

Em tais extremos de temperatura, núcleos atômicos poderiam de fato ser forçados a se unir, e reações nucleares que não levariam
lugar em temperaturas normais se tornaria "espontâneo." Uma reação nuclear que ocorre sob o chicote de tais
intensidades extremas de calor é chamada de reação termonuclear ("termo-" é de uma palavra grega para "calor"). ser reações
termonucleares ocorrendo em algum lugar profundo no interior do sol que servem como fonte de sua energia radiante.
Em 1938, o físico germano-americano Hans Albrecht Bethe (1906- ) elaborou a lista de possíveis reações termonucleares
envolvendo os elementos de Luz, eliminando aquelas que ocorriam muito rapidamente terminariam explodindo o sol, e
aquelas que ocorriam muito lentamente terminariam deixaria a radiação do sol morrer. A reação sobre a qual ele finalmente se estabelece
Machine Translated by Google

começou com o candidato mais provável, o hidrogênio predominantemente presente.

Ele postulou que o hidrogênio reagiu com o carbono para construir primeiro nitrogênio e depois oxigênio em uma série de reações.
O átomo de oxigênio se fragmentou em hélio e carbono. O carbono estava, assim, pronto para iniciar um novo ciclo e, como não se
alterava a longo prazo, comportava-se como uma espécie de "catalisador nuclear". O efeito líquido da série de reações foi converter
hidrogênio-1 em hélio-4. Em anos posteriores, outros conjuntos de reações envolvendo trocadores mais diretos de hidrogênio-1 para
hélio-4) também foram propostos.

A energia liberada por essa fusão nuclear de hidrogênio em hélio (com ou sem um catalisador de carbono) é bastante suficiente
para manter a radiação do sol. A energia é obtida, é claro, à custa da massa do sol. Para manter sua radiação na taxa observada,
o sol deve perder 4.600.000 toneladas de massa a cada segundo. Para fazer isso, o homem converte 650 milhões de toneladas de
hidrogênio-1 em hélio-4 a cada segundo. No entanto, o sol tem um suprimento tão grande de hidrogênio-1 que, embora esteja
irradiando por cinco ou seis bilhões de anos, resta o suficiente para alimentá-lo por mais bilhões de anos.

Com o desenvolvimento da bomba de fissão, os cientistas tinham um método para atingir, mesmo que apenas
momentaneamente, temperaturas altas o suficiente para provocar a fusão nuclear na Terra. O terrível poder de tal arma (uma
bomba de fusão) era tal que numerosos cientistas hesitaram em prosseguir nessa direção. Entre aqueles que hesitaram estava
Oppenheimer, que em 1954 pagaria por isso sofrendo uma forma de desgraça político-científica quando seu acesso a informações
secretas foi retirado. Proeminente entre aqueles que condenaram Oppenheimer e pressionaram pelo desenvolvimento da bomba
de fusão foi Edward Teller, cuja contribuição para o problema foi tal que mais tarde ele recebeu a distinção nada invejável de ser
chamado de "pai da bomba de hidrogênio".

Em 1952, o primeiro "dispositivo termonuclear" ou "bomba de hidrogênio". ou "bomba H" (pois a bomba de fusão é conhecida por todos esses
nomes) foi explodido pelos Estados Unidos nas Ilhas Marshall. Não foi só depois disso que a União Soviética desenvolveu
sua própria bomba de fusão e que, mais tarde ainda, a Grã-Bretanha se tornou a terceira potência termonuclear. (França e China,
que explodiram bombas de fusão, ainda não desenvolveram bombas de fusão.) Onde a primeira bomba de fissão tinha a força
explosiva de 20.000 toneladas de TNT, bombas de fusão com uma força explosiva de 50.000.000 toneladas de TNT (50 megatons) e
além foram explodidos.

Doença de Radiação

A bomba de fusão aumentou o perigo para a humanidade (e para a vida na Terra em geral) em vários graus. Não foi meramente
Machine Translated by Google

que a explosão foi muito pior do que a da bomba de fissão, mas que os efeitos duradouros dos produtos de uma bomba de fusão (mesmo
que eu explodi experimentalmente em tempo de paz) foram insidiosos ao extremo. Isso se deve ao efeito da radiação de alta energia nos
tecidos vivos.

Logo após a descoberta dos raios X, descobriu-se que a superexposição à radiação lenta dava origem a inflamações na pele
e queimaduras que curavam muito lentamente. O mesmo provou ser verdade para as radiações de substâncias radioativas. Pierre
Curie deliberadamente se expôs a tais radiações e relatou os sintomas persistentes que resultaram.

A energia dos raios X dos raios gama ou partículas subatômicas em velocidade é suficiente, se absorvida por uma molécula, para quebrar
as ligações químicas com a produção de fragmentos moleculares de alta energia (radicais livres), estes, por sua vez, reagirão com outros
compostos. Uma partícula subatômica que é absorvida por um átomo pode alterar sua natureza e, portanto, a da molécula da qual é parte.
Se o novo átomo for radioativo e emitir uma partícula, o recuo romperá a molécula, mesmo que ela tenha sobrevivido intacta até então.

Tais mudanças químicas podem muito bem perturbar a maquinaria química intrinsecamente inter-relacionada de uma célula e perturbar aqueles
sistemas de reações que controlam a cooperação celular. Mudanças podem ser induzidas, por exemplo, o que permitirá o crescimento
desenfreado de certas células à custa de suas vizinhas e resultará em câncer. A pele, que sofre o impacto da radiação, e as partes do corpo,
como o tecido linfóide e a medula óssea, que produzem células sanguíneas, estão particularmente sujeitas a isso (mesmo a exposição
excessiva à radiação ultravioleta aumenta a probabilidade de do desenvolvimento do câncer de pele.)

A leucemia, uma produção desenfreada de glóbulos brancos (uma condição que é lenta, mas invariavelmente, fatal) é um dos resultados
mais prováveis da exposição excessiva à radiação. Tanto Marie Curie quanto sua filha, Irene Joliot-Curie, morreram de leucemia, presumivelmente
como resultado de longa exposição à radiação de substâncias radioativas.

Quando a exposição à radiação é particularmente grande, há destruição suficiente entre os tecidos particularmente sensíveis para quebrar
completamente a química celular e causar a morte em um período de semanas ou meses. Essa doença de radiação foi estudada em grande
escala pela primeira vez entre os sobreviventes do bombardeio de fissão de Hiroshima e Nagasaki.

Ainda pior do que a morte, rápida ou lenta do indivíduo é o perigo a longo prazo que continua ao longo das gerações.
Uma molécula alterada pode não afetar seriamente o indivíduo no qual ela existe, pois existirá em apenas alguns poucos anos.
Machine Translated by Google

células; no entanto, pode ser transmitido a uma criança nascida desse indivíduo, e essa criança pode ter a molécula alterada em
cada célula. A criança terá sofrido uma mutação.

As mutações também podem ocorrer espontaneamente, como resultado da radiação natural proveniente de substâncias radioativas
no solo e da radiação natural proveniente do espaço exterior, bem como o resultado de imperfeições aleatórias na reprodução de
moléculas-chave. A taxa de mutação aumentará, no entanto, à medida que a radiação geral do ambiente aumentar por causa das
bombas nucleares. Tais mutações são geralmente para pior e produzidas em uma taxa muito grande inundará a espécie humana com
uma 'carga de mutação' grande demais para a segurança.

Portanto, foram feitas tentativas para determinar qual a quantidade de radiação que pode ser razoavelmente suportada por indivíduos (e
pela humanidade em geral) sem tornar o perigo agudo.

Uma unidade de radiação é o roentgen, abreviado como r, nomeado em homenagem ao descobridor dos raios X. Esta é definida
como a quantidade de raios X ou raios gama necessária para produzir um número de íons equivalente a 1 unidade eletrostática de carga
em um centímetro cúbico de ar seco a 0 graus C e 1 atmosfera de pressão. (Para isso, um pouco mais de dois bilhões de íons de
qualquer sinal devem ser formados.)

Esta unidade se aplicava originalmente apenas à radiação eletromagnética energética. No entanto, partículas energéticas produzem a mesma
tipo de sintomas e efeitos que a radiação faz, e foi feito um esforço para aplicar a unidade a essas partículas. Um equivalente de
roentgen físico, ou rep, era referido como aquela quantidade de radiação de partículas que, ao serem absorvidas pelo tecido vivo,
produzem o mesmo efeito que a absorção de 1-r de raios X ou raios gama.

O mesmo efeito nem sempre é produzido por uma dada quantidade de uma dada radiação em todas as espécies vivas. Se alguém deseja
Para especificar o efeito sobre o homem, fala-se de um equivalente de roentgen man, ou rem, como aquela quantidade de radiação
de partículas que, ao ser absorvida pelos tecidos de um homem vivo, produz o mesmo efeito que a absorção de 1-r de X raios ou raios
gama.

Partículas maciças são particularmente perigosas para o homem. Assim, 1-r de raios X, raios gama ou partículas beta também
podem ser expressos como 1-rem. No entanto, 1-r de partículas alfa deve ser expresso como 10 a 20 rem. Em outras palavras, a
absorção de panículas alfa é pelo menos dez vezes mais perigosa para o homem do que a absorção da mesma quantidade de
potencial ionizante na forma de partículas beta.
Machine Translated by Google

O roentgen e as unidades derivadas dele são insatisfatórios em alguns aspectos porque medem a produção de íons, e a
quantidade de energia necessária para formar pares de íons no caso de alguns tipos de radiação pode ser uma quantidade
bastante complicada de determinar. Portanto, o rad (abreviação de "radiação") foi introduzido e se tornou popular. Este é um direto
medida de energia. Um rad é equivalente à absorção de radiação suficiente em qualquer forma para liberar 100 ergs de energia por
grama de material absorvente. Na maioria dos casos, o rad é quase igual ao roentgen.

A radiação de fundo é a radiação inevitável proveniente do espaço exterior, de substâncias radioativas no solo; e assim por
diante. Estima-se que o ser humano médio receba 0,050 rem por ano da radiação do espaço sideral e outros 0,050 rem por ano da
radioatividade natural do solo. Além disso, há 0,025 rem por ano da própria radioatividade do corpo na forma de potássio-40 e
carbono-14. A radiação de fundo total é, portanto, de cerca de 0,125 rem por ano, e isso deve ser consistente com a vida, pois todos
estamos sujeitos a ela e a vida geralmente está sujeita a ela desde o início. De fato, em partes do mundo em que a radioatividade é
maior que a média e nas quais altas altitudes e altas latitudes se combinam para tornar a radiação do espaço mais intensa, foi
relatada radiação de fundo de até 12 rem por ano.

Obviamente, a experimentação para ver quão alto um nível de radiação de fundo pode ser tolerado é impensável, mas
especialistas na área estimaram que a exposição geral do corpo a 500 rem por ano é tolerável. Aqueles que trabalham com
materiais radioativos são protegidos contra a absorção de mais do que algum limite seguro de radiação a cada semana (supõe-se
que a absorção a uma taxa superior a 500 rem por ano é tolerável se for por períodos curtos ou localizada em partes do corpo) .
Por exemplo, crachás podem ser usados contendo tiras de filme atrás de vários filtros que serão penetrados apenas pelo tipo de
radiação energética que está sendo protegida.

A exposição a 100-r durante alguns dias matará a maioria dos mamíferos, mas são necessários vários milhões de r para esterilizar
completamente os alimentos, matando todos os microorganismos. Todos os testes nucleares realizados até agora não trouxeram o
nível de radiação nem perto de níveis letais e, de fato, não contribuíram com mais do que uma fração comparativamente pequena da
radiação de fundo que já existe.

No entanto, tudo dói, e foi a desaprovação geral da opinião pública que finalmente forçou as potências
termonucleares a concordar com a proibição de testes de bombas nucleares que aumentariam o nível de radiação,

Foi a bomba de fusão que tornou o perigo intenso. Os fragmentos de fissão produzidos por bombas de fissão são espalhados
apenas localmente e apresentam apenas um perigo limitado (por mais horrível que seja dentro desse limite). Assim, muito maior força da bomba
Machine Translated by Google

no entanto, eleva os fragmentos de seu gatilho de fissão para a estratosfera, quando podem circular por um período de anos e depois se
estabelecer lentamente sobre o mundo em geral. É o perigo dessa precipitação estratosférica (uma palavra cunhada em 1945, após as
primeiras explosões nucleares) que apresenta à humanidade seu maior risco de radiação.

Que o perigo de precipitação é real ficou claro imediatamente. A primeira grande bomba de fusão, explodiu nas Ilhas Marshall em 1º de
março de 1954, contaminou 7.000 milhas quadradas com radiação.

Entre os fragmentos de fissão mais perigosos estão o estrôncio-90 e o césio-137. O estrôncio-90 tem uma meia-vida de 28 anos,
portanto permanece perigosamente radioativo por um século ou mais. Devido à semelhança química do estrôncio com o cálcio, o
estrôncio-90 está concentrado no leite rico em cálcio de mamíferos que se alimentam de vegetação contaminada com estrôncio-90. As
crianças que bebem esse leite contaminado concentram o estrôncio-90 em seus ossos ricos em cálcio. A renovação atômica nos ossos
é relativamente lenta e, portanto, a meia-vida biológica do estrôncio-90 é longa. (Ou seja, leva muito tempo para o corpo remover metade
do que absorveu, mesmo depois de protegido contra absorção adicional.
Além disso, nos ossos, o estrôncio-90 está em contato perigosamente próximo com tecidos sensíveis que formam células sanguíneas.

O césio-137, com meia-vida de 30 anos, é outro fragmento perigoso. Permanece nos tecidos moles e tem uma duração mais curta
meia-vida biológica. No entanto, emite raios gama energéticos e, enquanto estiver no corpo, pode causar danos significativos.

Poder de Fusão

Naturalmente, não é apenas por causa de suas potencialidades destrutivas que os processos de fusão são interessantes.
pudesse prosseguir em um ritmo controlado, as necessidades energéticas da humanidade seriam resolvidas no futuro próximo.

A vantagem da fusão sobre a fissão envolve primeiro a questão do combustível. Quando os combustíveis de fissão são metais
comparativamente raros, urânio e tório, o combustível de fusão é um elemento muito mais comum e prontamente disponível, o
hidrogênio. Seria mais conveniente se o hidrogênio-1 fosse o isótopo específico adequado para a fusão feita pelo homem, pois essa é a
forma mais comum de hidrogênio. Infelizmente, as temperaturas necessárias para a fusão do hidrogênio-1, a uma velocidade
suficientemente rápida para ser útil, são proibitivamente altas. Mesmo nas temperaturas do interior solar, o hidrogênio-1 se funde
lentamente. É apenas por causa da grande quantidade de hidrogênio-1 disponível no sol que a pequena porcentagem que se funde é suficiente
Machine Translated by Google

para manter o sol irradiando como ele faz. (Para ser sol, se o hidrogênio-1 fosse mais facilmente fusível do que é, o sol e outras estrelas-
-explodiria.)

O hidrogênio-2 (deutério) pode ser fundido a uma temperatura mais baixa e o hidrogênio-3 a uma temperatura mais baixa
ainda. No entanto, o hidrogênio-3 é instável e seria extremamente difícil de coletar em quantidades razoáveis. Isso deixa o
hidrogênio-2 como o combustível possível para o morcego.

Dois átomos de deutério podem se fundir de duas maneiras com igual probabilidade:

H 2 2 +3 1H --------- Ele +n

e:

H 2 2 +3 1H --------- H +H

3
Neste último caso, o H. formado reage rapidamente com outro H 2, assim:

H 2 2+4 1H --------- Ele +n

A reação global, então, seria:

8411
5 H 2--------------- Ele + Ele +H + 2n

A energia produzida por essa fusão de cinco átomos de deutério (vamos chamá-la de "quinteto de deutério") é de 24,8 Mev. Como
1 Mev é equivalente a 1,6 x 10-6 ergs, o quinteto de deutério na fusão produz 4,0 x 10-3 mau.

Um peso grama-molecular de hidrogênio-2 contém 6,023 x 1023 átomos. Uma vez que um peso grama-molecular de hidrogênio-2 é
dois gramas, um grama de hidrogênio-2 contém 3,012 x 1023 átomos. Dividindo esta figura por cinco, descobrimos que um
grama de 2 hidrogênio-2 contém 6,023 x 10
quintetos de deutério. A energia total produzida pela fusão completa de um grama de
hidrogênio-2 é, portanto, 2,4 x 1018 ergs. Como há 4,186 x 1010 ergs para uma quilocaloria, podemos dizer que a
Machine Translated by Google

7 fusão de um grama de hidrogênio-2 produz 5,7 x 10 quilocalorias.

Para ter certeza, apenas 1 em cada 7.000 átomos de hidrogênio é hidrogênio-2. Admitindo o fato de que um átomo é duas vezes mais maciço
que os 6.999 restantes, podemos dizer que um litro de água pesa 1.000 gramas, que 125 gramas dela são hidrogênio e que desse hidrogênio 43
miligramas um hidrogênio-2. Podemos, portanto, dizer que a fusão completa do hidrogênio-2 contido em um litro de água produzirá cerca de
2,5 x 10 6 quilocalorias.

Isso significa que pela fusão do hidrogênio-2 contido em um litro de água comum, obteríamos tanta energia quanto obteríamos pela
combustão de 300 litros de gasolina.

Considerando a vastidão do oceano da Terra (de todos os quais o hidrogênio-2 é facilmente obtido), podemos ver que o
o suprimento de hidrogênio-2 da Terra é algo como 50.000 milts cúbicos. A energia que poderia ser derivada desse vasto volume de
hidrogênio-2 é equivalente à queima de uma quantidade de gasolina cerca de 450 vezes o volume de toda a Terra.

Obviamente, se a energia de fusão pudesse ser aproveitada de forma segura e prática, a humanidade teria à sua disposição um suprimento de energia
que deve durar muitos milhões de anos. E para completar essa perspectiva jovial, os produtos da reação de fusão são hidrogênio-1,
hélio-3 e hélio-4, todos estáveis e seguros, além de alguns nêutrons que podem ser facilmente absorvidos.

Há uma pegadinha nessa perspectiva de paraíso. Para iniciar uma reação de fusão hidrogênio-2, uma temperatura do
ordem de 100.000.000 0C deve ser alcançada. Isso é muito mais alto do que a temperatura do interior solar, que é de apenas 15.000.000
0C, mas o sol tem a vantagem de manter seu hidrogênio sob enormes pressões, pressões
inalcançável na terra.

Qualquer gás a tal temperatura na Terra, se deixado por conta própria, simplesmente se expandiria para um vapor excessivamente fino
e esfriaria quase instantaneamente. Que isso não aconteça com o sol se deve à massa do sol, que produz um campo gravitacional capaz de
manter os gases juntos mesmo na temperatura atingida no interior solar.

Esses campos gravitacionais não podem ser produzidos na Terra, é claro, e o gás quente deve ser mantido no lugar de alguma outra forma.
O confinamento do material estaria fora de questão, pois um gás quente em contato com um recipiente frio esfriaria
Machine Translated by Google

desligue imediatamente ou aqueça o próprio recipiente a um gás fino. Um gás não pode ser quente o suficiente para a fusão e estar contido
em uma substância sólida.

Felizmente, outro método se oferece. À medida que a temperatura aumenta, todos os átomos são progressivamente despojados
de seus elétrons e tudo o que existe são partículas carregadas, elétrons carregados negativamente mais núcleos carregados positivamente.
Substâncias compostas de fragmentos de átomos eletricamente carregados, em vez de átomos intactos, são chamadas de plasma.

Os investigadores se interessaram pela física do plasma principalmente como resultado do interesse na fusão controlada, mas, em
retrospectiva, agora vemos que a maior parte do universo é plasma. As estrelas são plasma, e aqui na Terra fenômenos como raios esféricos
são pedaços isolados de plasma que alcançaram estabilidade temporária. O plasma existe até mesmo em dispositivos feitos pelo homem - por
exemplo; dentro de tubos de luz neon.

O plasma, consistindo de partículas carregadas, pode ser confinado por um recipiente não material, um suporte magnético de forma
adequada. O esforço dos físicos está agora engajado na tentativa de projetar campos magnéticos que manterão o plasma confinado de
forma estável por períodos longos o suficiente para iniciar uma reação de fusão – e para tornar o plasma quente o suficiente para a reação
de fusão se inflamar. Estima-se que no ponto crítico, usando gás, que em temperaturas normais seria apenas 1/100 ou menos da densidade
da atmosfera, as pressões que teriam que ser suportadas pelo campo magnético no ponto de ignição da fusão seriam algo como 1500 libras por
polegada quadrada, ou 100 atmosferas.

Os requisitos são rigorosos e, após uma década de pesquisa, o sucesso ainda está frustrantemente além da ponta dos dedos.
Temperaturas de cerca de 20.000.000 0C foram atingidas. Foram produzidos campos magnéticos capazes de conter as pressões necessárias.
Infelizmente, a temperatura e a pressão combinadas podem ser mantidas apenas por milionésimos de segundo, e estima-se que pelo menos
um décimo de segundo de duração deve ser obtido para que a primeira reação de fusão controlada feita pelo homem seja produzida.

Não há nada (até onde sabemos) além de tempo e esforço no caminho.


Machine Translated by Google

CAPÍTULO 13

Antipartículas

Raios cósmicos

Até agora, povoamos nosso mundo atômico com nada mais do que elétrons, prótons e nêutrons, e ainda conseguimos
explicar muita coisa. No início da década de 1930, essas partículas subatômicas eram as únicas conhecidas e esperava-se que fossem
suficientes, pois haveria então uma agradável simplicidade no universo. No entanto, alguns teóricos apontavam a necessidade de
mais tipos de partículas subatômicas, e as primeiras descobertas de tais partículas surgiram das vastas energias presentes na
radiação que bombardeia a Terra do espaço sideral. É a esta radiação que nos voltaremos
agora.

No início do século XX, os físicos estavam atentos a novas formas de radiação. A chegada das ondas de rádio,
Os raios X e as várias radiações radioativas os sensibilizaram para tais fenômenos, por assim dizer.

No entanto, a descoberta mais notável desse tipo surgiu da tentativa de excluir a radiação em vez de detectá-la. O eletroscópio
de folha de ouro, que foi usado no início para detectar radiação penetrante, funcionou muito bem. Vários investigadores, notadamente
CTR Wilson, famoso nas câmaras de nuvens, relataram, em 1900, que o eletroscópio lentamente perdia sua carga mesmo quando
havia materiais radioativos conhecidos nas proximidades. Presumivelmente, mais raciocinado, a crosta terrestre era permeada por
pequenas quantidades de materiais radioativos em todos os lugares, de modo que a radiação dispersa estava sempre presente.

No entanto, outros pesquisadores descobriram que, mesmo quando o eletroscópio foi retirado em trechos de água distantes da terra,
ou melhor ainda, quando foi blindado por um metal opaco à radiação conhecida e não produzindo radiação própria perceptível, a
perda de carga por parte do eletroscópio foi apenas diminuída. Não desapareceu.

Finalmente, em 1911, o físico austríaco Victor Franz Hess (1883-1964) deu o passo crucial de carregar um eletroscópio em um balão,
a fim de que vários quilômetros de atmosfera pudessem servir como escudo entre a crosta ligeiramente radioativa da Terra e a
superfície carregada. folha de ouro. Para sua surpresa, a taxa de descarga do eletroscópio não cessou; em vez disso, aumentou
acentuadamente. Mais tarde, vôos de balão confirmaram isso, e Hess declarou que a radiação, qualquer que fosse, não se originou na
Terra, mas no espaço sideral.
Machine Translated by Google

Robert Millikan (que mediu a carga de um elétron), teve um papel importante nas primeiras investigações dessa nova
radiação e sugeriu em 1925 que ela fosse chamada de raios cósmicos, porque essa radiação parecia se originar no cosmos
em geral.

Os raios cósmicos são mais penetrantes do que os raios X ou os raios gama, e Millikan sustentou que eles eram uma forma de
radiação eletromagnética ainda mais curta em comprimento de onda e mais alta em frequência do que os raios gama. No
entanto, como no caso dos raios X e dos raios gama, muitos físicos suspeitavam que a radiação pudesse ser de natureza particulada.

Neste caso, uma vez que a radiação veio do espaço sideral, um método de distinguir entre radiação eletromagnética
e partículas se ofereciam. Se os raios cósmicos fossem radiação eletromagnética, eles cairiam em todas as partes da
superfície da Terra igualmente, supondo que eles se originassem de todas as direções. Eles não seriam afetados pelo
campo magnético da Terra.

Se, por outro lado, fossem partículas carregadas, seriam desviadas pelas linhas de força magnética da Terra, sendo as
partículas de menor energia as mais desviadas. Nesse caso, espera-se que os raios cósmicos se concentrem em direção
aos pólos magnéticos da Terra e atinjam a superfície da Terra com menor frequência nas proximidades de seu equador magnético.

Este efeito de latitude foi pesquisado durante a década de 1920, particularmente pelo físico americano AH Compton (1892 -
1962). No início da década de 1930, ele conseguiu mostrar que esse efeito de latitude existia e que os raios cósmicos eram
particulados e não eletromagnéticos. Pode-se, portanto, referir-se a partículas cósmicas.

O físico italiano Bruno Rossi (1905- ) apontou, em 1930, que se os raios cósmicos fossem de natureza particulada, o
campo magnético da Terra deveria desviá-los para leste se as partículas estivessem carregadas positivamente, de modo que
mais deles parecessem estar chegando. do oeste do que do leste. O inverso seria verdadeiro se as partículas fossem carregadas negativam

Para detectar tal efeito, era insuficiente apenas detectar a chegada de uma partícula cósmica; um tinha que dizer a direção
de onde tinha vindo. Para isso, utilizou-se um contador de coincidências, que havia sido inicialmente idealizado pelo físico
alemão Walther Bothe (1891-1957). Este consistia em dois ou mais contadores GM colocados ao longo de um eixo comum.
Uma partícula energética passaria por todos eles, desde que viesse ao longo desse eixo. O circuito elétrico foi arranjado
de tal forma que somente a descarga de todos os contadores de uma vez (e uma partícula energética passa por toda a contagem
com um intervalo de tempo tão pequeno que pode ser considerada uma descarga simultânea) será registrada e contada. o
Machine Translated by Google

contadores podem ser orientados em diferentes direções para formar um "telescópio de raios cósmicos".

Ao colocar uma câmara de nuvens entre os contadores, pode-se organizar o circuito de modo que a câmara seja automaticamente
expandida quando os contadores descarregarem. Os íons permanecem por um curto intervalo e são capturados pelas gotículas formadas
pela câmara de nuvens em expansão. Se uma câmera também estiver equipada para tirar fotos automaticamente à medida que a câmara se
expande, a partícula cósmica termina tirando sua própria foto.

Usando contadores de coincidências, o físico americano Thomas Hope Johnson (1899- ) conseguiu mostrar, em 1935, que mais partículas
cósmicas se aproximavam do oeste do que do leste. Assim, foi determinado que as panículas cósmicas eram carregadas positivamente.

A compreensão da natureza real das partículas cósmicas foi dificultada pelo fato de que muitas não sobreviveram para chegar à superfície
da Terra. Em vez disso, eles atingiram um ou outro dos núcleos atômicos presentes na atmosfera, induzindo reações nucleares e produzindo uma
radiação secundária altamente energética. Parte dessa radiação secundária consiste em nêutrons, que podem, por sua vez, reagir com
nitrogênio-14 para produzir carbono-14 em uma reação (n,p). Ou pode bater um tritão (H 3) de um 3
núcleo de nitrogênio-14, produzindo carbono-12 em uma reação (n, t). Esses tritões são a fonte das pequenas quantidades de H
existente na terra.

As panículas cósmicas podem produzir outros eventos que não podem ser facilmente duplicados em laboratório simplesmente porque ainda
não temos como produzir partículas com a energia da mais penetrante das partículas do espaço sideral. Onde aceleradores feitos pelo homem
podem agora produzir partículas com energias de 30 Bev ou mais, partículas cósmicas com energias na casa dos bilhões de Bev foram registradas.

Essas partículas superenergéticas possuem essas energias em parte porque são massivas e em parte porque suas velocidades são
de mosquito - quase tão altas quanto a velocidade final, a da luz no vácuo. Quando essas partículas extremamente rápidas atravessam a matéria
transparente (água, camundongos, vidro), elas dificilmente são retardadas. A própria luz, no entanto, é consideravelmente mais lenta nessas
substâncias, em proporção inversa ao índice de refração. Pode seguir-se, então, que dentro de algumas formas de matéria uma partícula carregada
pode viajar consideravelmente mais rápido do que a luz naquela forma de matéria, mas nunca mais rápido do que a luz no vácuo).

Essa partícula "mais rápida que a luz" devolve a radiação luminosa em uma espécie de efeito de choque, análogo à maneira em que
que uma bala mais rápida que o som lança de volta um cone de ondas sonoras. Este efeito foi notado pela primeira vez pelo russo
Machine Translated by Google

físico Pavel Alekxyevich Cerenkov (1904- ) em 1934, e por isso é chamado de radiação Cerenkov.

O comprimento de onda da radiação Cerenkov, seu brilho e o ângulo em que é emitida podem ser usados para determinar
a massa, carga e velocidade da partícula em movimento. Seguindo uma sugestão no final da década de 1940 do físico
americano Ivan Alexander Getting (1912- ), foram desenvolvidos contadores de Cerenkov que reagem à radiação e assim distinguem
partículas muito energéticas entre as inundações das ordinárias, e servem também como fonte para muitas informações sobre o
antigo.

O final da década de 1940 também viu o início das investigações de radiação por balões de alta altitude e por foguetes. Em
altitudes elevadas, a radiação primária - as partículas cósmicas originais, e não aquelas produzidas por colisões dessas
partículas com os núcleos - podem ser detectadas. Descobriu-se que a grande maioria (aproximadamente 80%) das partículas
cósmicas eram prótons muito energéticos e a maior parte do restante eram partículas alfa. Cerca de 2,5 por cento das partículas
eram núcleos ainda mais pesados, variando até núcleos de ferro.

Parecia que as partículas cósmicas eram o material básico do universo, reduzido a


núcleos. A proporção dos elementos representados era muito parecida com a de estrelas típicas como o nosso sol.

Na verdade, o sol é pelo menos uma fonte de partículas cósmicas. Uma grande erupção solar dará origem, pouco depois, a uma explosão
de partículas cósmicas caindo sobre a terra. No entanto, embora o sol seja uma fonte, não pode ser a única, nem mesmo a
principal, pois, caso contrário, a direção de onde as partículas cósmicas chegam variaria acentuadamente com a posição do sol no
céu - o que não acontece. não. Além disso, as partículas cósmicas do sol são comparativamente baixas em energia.

Isso levanta a questão: como as partículas cósmicas ganham suas tremendas energias? Não são conhecidas reações
nucleares que forneçam energia suficiente para as partículas cósmicas mais energéticas. Mesmo a conversão completa de massa
em energia não resolveria o problema.

Parece necessário supor que as partículas cósmicas são, no início, prótons e outros núcleos de alta, mas não
excepcionalmente alta energia. Eles são então acelerados em algum acelerador natural em escala cósmica. Os campos
magnéticos associados às manchas do sol podem acelerar essas partículas a energias moderadas. Partículas mais energéticas
podem ter sido produzidas por estrelas com campos magnéticos mais intensos que o nosso Sol, ou mesmo pelo campo magnético
associado à Galáxia como um todo.
Machine Translated by Google

A Galáxia, a esse respeito, pode ser vista como um gigantesco ciclotron no qual prótons e núcleos atômicos em
geral giram, ganhando energia e movendo-se em uma espiral cada vez maior. Se eles não colidirem com algum corpo
material por um tempo suficiente, eles eventualmente ganharão energia suficiente para sair da Galáxia completamente.

A terra interrompe o vôo dessas partículas (em todas as direções) em todos os estágios de sua vida útil de ganho de
energia. As partículas mais energéticas podem ser aquelas que saíram de alguma outra galáxia em seu pico de energia.
Pode ser que algumas galáxias, com campos magnéticos extraordinariamente intensos, possam acelerar partículas cósmicas
para energias muito maiores do que a nossa Galáxia e podem ser fontes importantes para essas partículas mais energéticas.
Tais "galáxias cósmicas" ainda não foram identificadas.

O Pósitron

Vejamos agora a lista de partículas conhecidas no início da década de 1930, quando a natureza da radiação cósmica
estava sendo desvendada. Existem o próton, o nêutron e o elétron, é claro. Além disso, existe uma "partícula" sem massa, o
fóton, que está associada à radiação eletromagnética.

O fóton torna desnecessário confiar na noção de ação à distância em conexão com eletromagnetismo.
fenômenos, e isso pode dar origem a especulações sobre esse outro fenômeno de longa distância, a gravitação.

Alguns físicos sugerem que os efeitos gravitacionais também envolvem a emissão e absorção de partículas, e o nome
graviton foi dado a essas partículas. Como os fótons, essas partículas são visualizadas como objetos sem massa que devem,
portanto (como todas as partículas sem massa) viajar na velocidade da luz.

A gravitação é uma força incrivelmente fraca, no entanto. A atração eletrostática entre um próton e um elétron, por
exemplo, é cerca de 1040 vezes mais forte que a atração gravitacional entre eles. O gráviton deve, portanto, ser
correspondentemente mais fraco do que o fóton médio - tão fraco que nunca foi detectado e, pelo que se pode dizer agora,
provavelmente não será detectado no futuro próximo. No entanto, supor sua existência completa o quadro do universo e ajuda
a torná-lo inteiro.

Podemos agora listar as cinco partículas na Tabela XIII e incluir algumas das propriedades determinadas para elas. (Aqueles para o
gráviton são previstos e não, é claro, observados.)
Machine Translated by Google

Na década de 1950, surgiu o costume de agrupar as partículas leves como léptons (de uma palavra grega que significa "pequeno") e as partículas
pesadas como bárions (de uma palavra grega que significa "pesado"). Usando esta classificação, o gráviton, o fóton e o elétron são léptons, enquanto
o próton e o nêutron são bárions.

TABELA XIII - Algumas Partículas Subatômicas

Partícula Símbolo Massa Rodar Elétrico Meia-vida


Elétron=1 Fóton=1 Carga (segundos)

Gravidade g 0 2 0 estábulo

Gama de fótons 0 0 estábulo


Elétron e 1 -1 estábulo
Próton p 1 ½ +1 estábulo
Nêutron n 1836 1839 ½½ 0 1013

Pareceria muito legal se esses três léptons e dois bárions representassem tudo o que existia no universo - tanto matéria
e energia - e deles foram construídos os cem e tantos átomos - dos quais, por sua vez, foram construídas todas as manifestações do universo,
desde uma estrela até um cérebro humano.

A primeira indicação de que a humanidade não deveria descansar neste Éden de simplicidade veio antes mesmo que o nêutron fosse
descoberto. Em 1930, o físico inglês Paul Adrien Maurice Dirac (1902- ), elaborando um tratamento teórico do elétron, mostrou que ele deveria poder
existir em qualquer um dos dois estados de energia diferentes. Em um desses estados de energia, era o elétron comum; no outro, carregava uma carga
positiva em vez de negativa.

Por um tempo, no entanto, isso permaneceu apenas uma sugestão teórica. Em 1932, porém, o físico americano Carl David Anderson (1905- )
estava investigando partículas cósmicas com câmara de nuvens dividida em duas por uma barreira de chumbo. Uma partícula cósmica colidindo
com o chumbo perderia uma porção considerável de sua energia, e parecia a Anderson que a partícula menos energética emergindo da barreira se
curvaria mais acentuadamente na presença de um campo magnético e, geralmente, revela suas propriedades com mais clareza. . No entanto, algumas
partículas cósmicas ao romper o chumbo colidiram com núcleos atômicos e enviaram radiações secundárias.
Machine Translated by Google

Uma das fotografias de Anderson mostrava que uma partícula de características surpreendentes havia sido ejetada do chumbo. A partir de
a extensão de sua curvatura parecia ter uma massa igual à do elétron, mas curvava-se na direção errada. Era o elétron carregado positivamente
de Dirac.

Anderson o chamou, naturalmente, de pósitron, e esse é o nome pelo qual é agora universalmente conhecido. O pósitron, por ser uma
partícula oposta em certas propriedades-chave àquelas de uma partícula mais familiar, pertence a uma classe agora denominada antipartículas.
Se fosse descoberto agora, seria chamado de antielétron e, de fato, às vezes pode ser referido dessa maneira.

A questão do simbolismo é um pouco confusa. Pode-se usar um símbolo completo, incluindo a carga como subscrito e massa e 0. A
0
como sobrescrito, de modo que o elétron e
-1 +1 desvantagem disso é que é complicado. enquanto o pósitron é
é A maioria dos físicos não sente que precisa ser lembrado do tamanho da carga e da massa (particularmente porque a massa não é
-
verdadeiramente 0, mas apenas muito próxima). Por isso, é muito comum simbolizar o elétron simplesmente como e
e o pósitron como e +. Isso também tem suas dificuldades, pois, como se viu mais tarde, existem antipartículas que têm a mesma carga (ou
falta de carga) das partículas a que se opõem. Por esta razão, às vezes é mais conveniente indicar a antipartícula com uma barra acima do
símbolo. Assim, um elétron seria e e um pósitron seria e -.

Os pósitrons desempenham um papel na radioatividade, e isso pode ser melhor compreendido se examinarmos novamente o papel
desempenhado pelo elétron.

Quando o número de nêutrons em um nuclídeo é muito grande para estabilidade, a situação pode ser corrigida pela conversão de um nêutron
em um próton com a emissão de um elétron. Se escrevermos os símbolos na íntegra (para que possamos observar a maneira como a massa e a
carga se conservam), podemos dizer:

1 ------------- 0
n + e (Equação 13-1)
0 11 -1

Neste processo, o número atômico do nuclídeo aumenta em 1 porque um próton adicional aparece, mas a massa
número permanece inalterado, uma vez que o próton aparece às custas de um nêutron que desaparece.
Machine Translated by Google

Considere o fósforo, por exemplo. Seu único isótopo estável é o fósforo-31 (15 prótons, 16 nêutrons). Se nos encontrássemos
com o fósforo-32 (15 prótons, 17 nêutrons) e o observássemos radioativo, esperaríamos que, pelo excesso de nêutrons, eliminasse um
elétron na forma de partícula beta. Com certeza, ele faz. Ele emite uma partícula beta e se torna o isótopo estável enxofre-32 (16 prótons,
16 nêutrons).

Todos os isótopos radioativos de ocorrência natural, de vida longa ou curta, possuem um excesso de nêutrons e, no processo de
reorganizando o conteúdo nuclear para obter estabilidade, mais cedo ou mais tarde emitem elétrons (embora também possam emitir
partículas alfa).

E se for formado um radioisótopo artificial com déficit de nêutrons? Para alcançar a estabilidade, um nêutron deve ser ganho e isso
deve ser feito à custa de um próton. Isso pode ser feito por uma reversão direta da Equação 13-1; a absorção de um elétron por um
próton como na captura K.

+ e
0 ------------- 1n
11 -1 0 (Equação 13-2)

Há também a possibilidade, porém, de outro tipo de reversão. Enquanto um nêutron pode ser convertido em um próton com
a emissão de um elétron, um próton pode, analogamente, ser convertido em um nêutron com a emissão de um pósitron:

1 -------------------- 10+n
e (Equação 13-3)
1p 0 1

A emissão de um pósitron (ou "partícula beta positiva") tem o efeito inverso da emissão de um elétron. O atômico
número do nuclídeo é diminuído em um, uma vez que um próton desaparece. Novamente, o número de massa permanece
inalterado, pois um nêutron aparece no lugar do próton.

Por acaso, o primeiro radioisótopo artificial formado, o fósforo-30, sofria de um déficit de nêutrons. Onde o
o fósforo-31 estável é composto de 15 prótons e 16 nêutrons, o fósforo-30 é composto de 15 prótons e apenas 15 nêutrons. O
fósforo-30, com meia-vida de 2,6 minutos, emite um pósitron e se torna o estável silício-30 (14 prótons, 16 nêutrons). Ao formar o
fósforo-30, os Joliot Curie quase anteciparam Anderson na descoberta do pósitron.

Um grande número de pósitron - emissores foi preparado entre os isótopos radioativos produzidos artificialmente em laboratório.
Talvez o mais conhecido seja o carbono-11, que antes da descoberta do carbono-14 era muito usado como isótopo
Machine Translated by Google

marcação.

O processo de produção de pósitrons mais importante na natureza é a fusão de hidrogênio que ocorre no sol e em outros
estrelas. A mudança geral de quatro núcleos de hidrogênio-1 para um núcleo de hélio-4 é a de 4 prótons para um núcleo
de 2 prótons/2 nêutrons. Dois dos prótons, portanto, foram convertidos em nêutrons com a emissão de dois pósitrons:

1H1 + 1H1 + 1H1 + 1H1 ------------- + 2He4 + 1e0 + 1e0 (Equação 13-4)

Aniquilação de Matéria

O elétron é uma partícula estável - isto é - deixado a si mesmo, não sofre mudança espontânea. Isso está de acordo com
a lei da conservação da carga elétrica, que afirma que a carga líquida não pode ser criada nem destruída. O elétron é a
panícula menos massiva conhecida por carregar uma carga eletrônica negativa, e os físicos trabalham na suposição de que
nenhuma partícula menor com carga negativa pode existir. Ao quebrar, um elétron teria que se tornar uma panícula menos
massiva, e então não há espaço, por assim dizer, para uma carga elétrica – para que o elétron não se desfaça.

Este mesmo argumento vale para o pósitron, que não pode se decompor, pois é a partícula menos massiva conhecida por
carregar uma carga elétrica positiva e não tem onde se desfazer dela se quebrar. O pósitron é, portanto, também considerado
uma partícula estável e, presumivelmente, permaneceria em existência para sempre se estivesse sozinho no universo.

No entanto, o pósitron não está sozinho no universo. Quando formado, existe em um universo no qual os elétrons estão
presentes em números avassaladores. Sob condições normais na Terra, ele não pode se mover por mais de um milionésimo
de segundo antes de colidir com um elétron. O que acontece depois?

Se considerarmos um pósitron e um elétron juntos, a carga elétrica líquida é zero. Os dois podem, portanto, mesclar e cancelar
cargo um do outro. Ao fazê-lo, eles aparentemente também cancelam a massa um do outro em aniquilação mútua. Não
é aniquilação verdadeira, no entanto, pois resta alguma coisa, pois a lei da conservação da massa-energia permanece em
vigor independentemente da situação com relação à carga elétrica. Se a massa do elétron e do pósitron desaparecer, uma
quantidade equivalente de energia deve aparecer.

A massa total de um elétron e um pósitron é 1,822 x 10-27 gramas. Fazendo uso da equação de Einstein, e = mc2, podemos
Machine Translated by Google

determine que a equivalência de energia das duas partículas é 1,64 x 10-6 ergs, ou 1,02 Mev.

Nessa conversão de massa em energia, entretanto, existem outras leis de conservação que devem ser observadas. A lei
da conservação do momento angular governa a distribuição do spin, por exemplo.

O spin do fóton é aceito, por definição, como +1 ou -1. Se um elétron e um pósitron podem se aniquilar com a formação de
um fóton com uma energia de 1,02 Mev (um fóton de raios gama), e se for assumido, como parece provável, que o elétron e o
pósitron têm spin igual, então ambos devem tem um spin de 1/2. Se ambos têm um spin de +1/2, então um fóton de spin +1 é
formado, e se ambos têm um spin de -1/2, então um fóton de spin -1 é formado.

No entanto, a dificuldade aqui é que a lei de conservação do momento linear também deve ser respeitada. Se o sistema de
elétrons de pósitrons tem um momento líquido de zero em relação à sua vizinhança, então um único fóton não poderia se mover
depois de ser produzido. Como um fóton deve se mover e na velocidade da luz, segue-se que a produção de um único fóton é
improvável.

Em vez disso, três fótons, cada um com energia de 0,34 Mev (raios ainda gama), devem ser produzidos simultaneamente e
disparados em direção aos ápices de um triângulo equilátero. Se os três fótons têm spins de +1, +1 e -1 respectivamente, o spin
líquido é +1, enquanto se os spins são -1. -1 e +1, o spin líquido é -1. Em ambos os casos, o momento angular e o momento
linear são conservados.

Se o elétron e o pósitron giram no mesmo sentido (ou seja, se ambos têm um spin positivo ou ambos têm um spin negativo),
então três fótons podem ser produzidos, mas não dois. Dois fótons juntos podem ter um spin de 0 (+1 mais -1), +2 (+1 mais
+1) ou -2 (-1 mais -1), enquanto o spin total de um elétron e de um pósitron girando no mesmo sentido só pode ser +1 (+1/2
mais +1/2) ou -1 (-1/2 mais -1/2). O momento angular não se conserva.

Por outro lado, se um elétron e um pósitron giram em sentidos opostos (+1/2 e -1/2), eles podem produzir dois fótons (+1 e
-1), pois o momento angular líquido é 0 antes e depois ; consequentemente, o momento angular é conservado.
Os dois fótons são raios gama de 0,51 Mev cada e disparam em direções opostas para conservar o momento linear.

Entrei em alguns detalhes aqui para mostrar como os físicos nucleares usam as várias leis de conservação para decidir
quais eventos na escala subatômica podem ocorrer e quais eventos não podem ocorrer. Eles trabalham com a suposição de que
qualquer evento nuclear que possa acontecer de fato acontecerá se esperarmos o suficiente e saquearmos o suficiente. Se, portanto, algum
Machine Translated by Google

não ocorre apesar de uma busca árdua e longa e, no entanto, não parece ser proibida por nenhuma lei de conservação, uma
nova lei de conservação é introduzida provisoriamente. Por outro lado, se ocorrer um evento proibido por uma lei de conservação,
é necessário reconhecer que esta lei de conservação valerá apenas em certas circunstâncias e não em outras, ou que uma lei
de conservação mais profunda e geral deve ser procurado.

Foi observado que quando elétrons e pósitrons se aniquilam, raios gama com as energias previstas
pela teoria são formados. Esta é uma das verificações mais nítidas da teoria da relatividade especial de Einstein e da
equivalência de energia de massa que faz parte dela.

O inverso de tudo isso também é esperado. A energia deve ser convertida em massa. Nenhuma quantidade de energia pode
formar um elétron sozinho, ou um pósitron sozinho, pois em ambos os casos, de onde vem a carga elétrica? Nem uma carga
líquida negativa nem uma carga líquida positiva podem ser criadas.

No entanto, um elétron e um pósitron podem ser criados simultaneamente. A carga líquida de tal par elétron-pósitron é
ainda nulo. Um raio gama de pelo menos 1,02 Mev de energia é necessário para isso, e se for usado um raio gama mais
energético, o par de partículas possui uma energia cinética igual ao excesso de energia acima de 1,02 Mev. A contabilidade de
energia observada funciona perfeitamente para o crédito de Einstein.

De fato, é por causa da energia superabundante das partículas cósmicas que os pósitrons energéticos são formados, e são aqueles
que, detectada por Anderson, marcou a descoberta da primeira antipartícula.

Quando Dirac elaborou pela primeira vez o raciocínio teórico que deu origem ao conceito de antipartícula, ele sentiu que o
número oposto do elétron era o próton. No entanto, isso não provou ser o caso. O próton e o elétron são opostos exatos na
carga elétrica, mas em quase nada mais. O próton é, por exemplo, 1836 vezes mais massivo que o elétron. (Por que isso deveria
ser assim, e por que a razão de massa deveria ser 1836, nem mais nem menos, é uma das principais questões não respondidas
da física nuclear.)

O elétron e o próton se atraem, como qualquer objeto carregando cargas elétricas opostas, mas eles não se aniquilam e não
podem se aniquilar. Na melhor das hipóteses, o elétron é capturado pelo próton e pode se aproximar de uma distância mínima,
representando o estado de energia mais baixo possível. (Se a aniquilação próton-elétron fosse possível, a matéria não poderia existir.)
Machine Translated by Google

O elétron e o pósitron, que podem se aniquilar, também podem, pelo menos temporariamente, capturar um ao outro sem
aniquilação. O "átomo" consistindo de um elétron e um pósitron circulando um ao outro (se aceitarmos uma visão comum de
partículas e ignorarmos as manifestações de onda) em torno de um centro de gravidade mútuo, é chamado de positrônio.

Existem duas variedades, orto-positrônio, em que as duas partículas giram no mesmo sentido, e para-positrônio, em
que giram em sentidos opostos. A existência média do primeiro é um décimo de milionésimo de segundo (ou um décimo
de microssegundo) antes que a aniquilação ocorra. Este último dura apenas um décimo de milésimo de um microssegundo.
O primeiro forma três fótons na aniquilação, o último forma dois. O físico austríaco-americano Martin Deutsch (1917- ) foi
capaz de detectar positrônio em 1951 pela luz (se me permitem um jogo de palavras) dos raios gama que emitiam.

Não há nada na teoria de Dirac que não possa ser aplicado tanto ao próton quanto ao elétron. Se o elétron tem uma
antipartícula, então o próton também tem. Tal antipróton poderia aniquilar um próton e produzir fótons em pares ou em
trigêmeos, assim como nós para o pósitron e o elétron.

No entanto, como um próton tem 1836 vezes a massa de um elétron e o antipróton 1836 vezes a massa de um pósitron, a
energia produzida deve ser 1836 vezes a produzida na aniquilação elétron/pósitron. A energia total produzida é 1,02 x 1836,
ou 1872 Mev. Isso também pode ser expresso como 1,872 Bev. Estamos, como você definiu, na faixa de bilhões de elétron-volts.

Ao contrário, a formação de um par próton/antipróton requer uma entrada de no mínimo 1,872 Bev. De fato, mais
energia é necessária, pois o par deve ser formado como resultado da colisão de duas partículas altamente energéticas
e, usando um excesso de energia, aumentaríamos muito as chances de produção de antiprótons. Os físicos estimaram que
a energia de 6 Bev resolveria o problema confortavelmente.

Essa energia está presente nas panículas cósmicas mais energéticas. No entanto, as partículas cósmicas mais
energéticas não são comuns e esperar que uma delas forme um par próton/antipróton exatamente no momento em que
alguém está esperando com um dispositivo de detecção apropriado é pedir muita coincidência.

Como se viu, a descoberta do antipróton não foi feita até que os físicos desenvolveram aceleradores capazes de produzir
partículas na faixa de bilhões de elétron-volts. Partículas na faixa Bev poderiam então ser concentradas em algum alvo no
momento em que as configurações de detecção especializadas estivessem operando. Na Universidade da Califórnia, um
síncrotron de prótons, apropriadamente chamado de "Bevatron", foi usado para esse propósito.
Machine Translated by Google

As partículas energéticas produzidas pelo Bevatron caíram em um bloco de cobre, e um grande número de partículas
foram formados pelas colisões colossalmente energéticas que resultaram. Foi então necessário separar quaisquer antiprótons que
pudessem ter se formado entre todos os outros detritos da explosão. Os detritos foram conduzidos através de um campo magnético que
separava as partículas carregadas negativamente. Entre eles, o antipróton era o mais massivo e viajava mais lentamente. Os detritos foram,
portanto, conduzidos por dois contadores de cintilação a cerca de 40 pés de distância, e somente quando esses dois contadores registraram
um intervalo de tempo exatamente equivalente ao tempo que um antipróton levaria para cobrir essa distância (0,051 microssegundos) foi
considerado um antipróton ser detectado.

Isso foi realizado em 1956 por Segre (o descobridor do tecnécio, que naquela época havia emigrado para os Estados Unidos) e o físico
americano Owen Chamberlain (1920-).

O antipróton é, como seria de se esperar, o gêmeo do próton, igual a ele em massa, mas diferindo em carga. O próton é 1 carregado
positivamente, mas o antipróton é carregado negativamente Próton e o antipróton pode, portanto, ser simbolizado como e 1p
+
1-1p respectivamente, ou como p e p-, ou como p e p-.

O próton é uma partícula estável e, se deixado por conta própria, presumivelmente existirá para sempre. Então parece nenhuma conservação óbvia
lei para dar conta dessa estabilidade. Não poderia um próton se decompor em um pósitron de 0,51 Mev de energia e liberar o restante
de sua vasta energia na forma de fótons? A carga elétrica não seria conservada?

O fato de que isso nunca foi observado significa que uma nova lei de conservação pode estar envolvida. Esta é a lei de conservação do
número bariônico, que afirma que em qualquer evento subatômico, o número líquido de bárions deve ser o mesmo antes e depois. Isso
sempre foi observado em todos os eventos subatômicos estudados, e os físicos estão convencidos de que a lei é válida.

Se um próton se decompõe em um pósitron, 1 bárion é alterado para 0 bárions. Isso viola a lei de conservação do número bariônico
e, portanto, não acontece. Na verdade, o próton é o menos massivo de todos os bárions, então não pode se decompor e, portanto, sua
estabilidade é reflexo de uma lei de conservação.

Da mesma forma, um antipróton é estável e não pode se decompor em um elétron, por exemplo. É um anti-baryon, o menos
massivo de todos os anti-bárions, e a lei de conservação do número de bárions também se aplica aos anti-bárions.
Machine Translated by Google

No universo real, no entanto, o antipróton encontra um dos prótons (presente em números esmagadores) quase de uma
vez, e ocorre a aniquilação mútua. A carga líquida de um par próton/antipróton é zero, então a aniquilação é possível sem violação
da lei de conservação da carga elétrica. Além disso, um antipróton é considerado como tendo um número bariônico de -1, enquanto
um próton tem um número bariônico de 1. Consequentemente, o número bariônico de um par próton/antipróton é zero, e a
aniquilação pode ocorrer sem violar a conservação de número bariônico.

A energia resultante da aniquilação próton/antipróton pode se tornar evidente na formação de outras partículas, e não apenas
como fótons. Às vezes acontece, por exemplo, que onde o próton e o antipróton marcam um quase erro, é apenas a carga e não a
massa que é aniquilada. Pode-se supor que uma partícula não carregada é denominada, mas uma dessas partículas sozinha não
pode ser formada. O número bariônico de um par próton/antipróton é 0, mas se um nêutron, digamos, é formado, seu número
bariônico é 1 e o número bariônico não é conservado. Em vez disso, duas panículas devem ser denominadas, um nêutron e um anti-
nêutron, com números bariônicos de 1 e -1, respectivamente, para um número bariônico líquido de 0. Desta forma, o número
bariônico é conservado. Esse tipo de "semi-aniquilação" foi observado pela primeira vez em 1956, logo após a descoberta do
antipróton, e isso marcou a descoberta do antinêutron.

É justo perguntar qual pode ser a diferença entre o nêutron e o antinêutron. No caso dos outros dois
pares partícula/antipartícula, a carga elétrica oferece um meio prático de diferenciação. O elétron é negativo, o pósitron,
positivo. O próton é positivo, o antipróton, negativo.

Há, no entanto, outra diferença também, pois todas são partículas que possuem spin. Uma partícula giratória, se vista como
uma pequena esfera, pode ser retratada girando em torno de um eixo e possuindo dois pólos. Se visto de cima de um pólo,
pareceria girar no sentido anti-horário; se visto de cima do outro, pareceria girar no sentido horário. Suponhamos que a
partícula seja sempre representada com o pólo anti-horário em cima.

Uma carga elétrica giratória cria um campo magnético com um pólo magnético norte e um pólo magnético sul. No próton,
visto com o pólo anti-horário na parte superior, o pólo magnético norte está em cima e o pólo magnético sul está na parte
inferior. No antipróton, por outro lado, com o pólo anti-horário ainda em cima, é o pólo magnético sul que está em cima e o pólo
magnético norte que está em baixo. Em outras palavras, se uma partícula e uma antipartícula estão orientadas de modo a girar no
mesmo sentido, o campo magnético de uma é invertido em relação à outra. Isso também é verdade para o elétron e o pósitron.
Machine Translated by Google

Embora o nêutron não tenha carga elétrica, ele tem um campo magnético associado a ele. Isso ocorre porque, embora
o nêutron tenha uma carga líquida igual a zero, aparentemente possui regiões locais de carga associadas a ele. O físico
americano Roben Hofstadter (1915- ), em experimentos de 1951 em diante, pesquisou núcleons individuais com feixes de elétrons
de alta energia. Seus resultados parecem indicar que tanto os prótons quanto os nêutrons são compostos de camadas de carga
elétrica e que diferem apenas na carga total líquida.

Por causa do campo magnético do nêutron, é possível falar tanto de um nêutron quanto de um antinêutron, a orientação do
o campo magnético de um sendo oposto ao do outro. Como nem o nêutron nem o antinêutron têm carga, o símbolo 1 n
0 pode aplicar-se igualmente bem a ambos. Os dois são, portanto, invariavelmente simbolizados como nen
- respectivamente.

O nêutron decai, com meia-vida de 1013 segundos, para um próton e um elétron. Um bárion é assim convertido em um
bárion ligeiramente menos massivo, de modo que o número de bárions é conservado. Uma carga líquida de 0 produz uma
carga líquida de 0, então a carga elétrica é conservada. Para ter certeza, um elétron é criado, mas há um refinamento adicional
a essa reação que será discutido no próximo capítulo e que também colocará o elétron sob a guarda de uma lei de conservação.

Da mesma forma, um antinêutron pode decair, com meia-vida de 1013 segundos, para um antipróton e um pósitron, com
conservação do número bariônico (-1 antes e depois) e carga (0 antes e depois). Os dois eventos podem ser escritos:

n --------------------- p + e (Equação 13-5)

- - -
n ---------- p +e (Equação 13-6)

Antimatéria

Agora estendemos a Tabela XIII por mais três partículas, o pósitron, o antipróton e o antinêutron, cada uma a imagem
especular, por assim dizer, de uma das partículas na tabela. Tampouco podemos esperar mais imagens espelhadas entre essas
partículas, pois o fóton e o gráviton não podem contribuir com antipartículas para a mesa. A partir de considerações teóricas, cada
uma dessas partículas sem massa é considerada sua própria antipartícula. O "antifóton" e o "antigráviton" são, em outras palavras,
idênticos ao fóton e ao gráviton respectivamente.
Machine Translated by Google

Temos agora, então, quatro léptons (incluindo um anti-lépton) e quatro bárions (incluindo dois anti-bárions).

Nosso universo (ou pelo menos a parte dele que podemos estudar) é muito desigual no que diz respeito à distribuição de partículas/antipartículas.
preocupado. É composto quase inteiramente de partículas, enquanto as antipartículas são extremamente raras e, mesmo quando
formadas, vivem apenas uma fração de microssegundo.

É justo perguntar por que isso deveria ser. A maioria dos físicos parece supor que a matéria foi criada a partir de energia,
continuamente - pouco a pouco ou de uma só vez - em algum tempo passado. Podemos supor, por exemplo, que a matéria é produzida
na forma de nêutrons que então decaem para formar prótons e elétrons, e que o universo é construído a partir de todos os três, mais
energia adicional na forma de fótons e grávitons.

Mas se um nêutron é formado, a lei de conservação do número bariônico parece exigir que um antinêutron seja criado
simultaneamente. Esse antinêutron então se decompõe para formar antiprótons e pósitrons. O resultado final seria que partículas e
antipartículas seriam formadas em quantidades iguais, e qualquer conjunto de eventos nucleares que pudessem ser imaginados como
tendo levado à criação do universo produziria o mesmo resultado.

Ainda assim, se partículas e antipartículas fossem criadas simultaneamente, elas certamente interagiriam em aniquilação mútua e
retornar à energia da qual eles surgiram. Sob essas condições, o universo não poderia ser criado.

Pode ser, portanto, que embora partículas e antipartículas tenham sido formadas simultaneamente, elas foram formadas sob
tais condições que eles se separaram imediatamente, de modo que a chance de interação foi perdida.

Assim, o efeito da gravidade em partículas subatômicas individuais é tão pequeno que nunca foi realmente medido. É possível que,
enquanto as panículas são muito fracamente atraídas por um campo gravitacional, as antipartículas são muito fracamente repelidas por
ele. Em outras palavras, e-panículas produzem "antigravidade". Se partículas e antipartículas são formadas em grande número, o campo
gravitacional de uma pode repelir fortemente o campo gravitacional da outra, de modo que, no final, dois universos, impelidos
violentamente, podem ser formados. O físico austríaco-americano Maurice Goldhaber (1911- ) especulou exatamente sobre essa
possibilidade e se refere aos dois universos como um "cosmon" e um "anti-cosmon". Nós vivemos no cosmos, é claro.

No cosmon, os núcleos atômicos são compostos de prótons e nêutrons e são cercados por elétrons. No anti-cosmo,
consistindo quase inteiramente de antipartículas, haveria núcleos formados por antiprótons e antinêutrons cercados por pósitrons.
Esses "anti-átomos" comporiam o que é chamado de antimatéria.
Machine Translated by Google

Um universo de antimatéria, totalmente inobservável por nós talvez, seria em todos os aspectos análogo ao nosso, consistindo em
"anti-galáxias" compostas de "anti-estrelas" sobre as quais circulavam "antiplanetas", portando, talvez, "anti-vida" e incluindo
até mesmo "observadores anti-inteligentes" que estudam seu universo assim como estudamos o nosso. Eles notariam que
seu universo consistia quase inteiramente do que consideramos antipartículas e que as partículas teriam apenas uma
existência rara e fugaz. No entanto, é seguro apostar que eles considerariam que o universo deles é composto de partículas e
matéria e o nosso de anti-panículas e antimatéria - e eles teriam tanta razão em supor que sim como nós.

Outra alternativa é supor que existe apenas um universo (o nosso) dentro do qual matéria e antimatéria são distribuídas
igualmente, mas em pedaços separados. A única maneira segura de separar esses pedaços é supor que galáxias individuais
(ou aglomerados de galáxias) são compostas de apenas uma variedade de substância, matéria ou antimatéria, mas que tanto
galáxias quanto anti-galáxias podem existir no universo.

Se assim for, a observação do fato seria difícil. A única informação que recebemos de outras galáxias se baseia em sua
influência gravitacional e na radiação que emitem – isto é, nos grávitons e fótons que fluem delas para nós. E, como grávitons e
fótons são considerados suas próprias antipartículas, eles são produzidos com igual facilidade tanto pela matéria quanto pela
antimatéria. Em outras palavras, uma antigaláxia emite os mesmos grávitons e fótons que uma galáxia, e os dois não podem ser
distinguidos dessa maneira. (A menos que seja verdade que matéria e antimatéria se repelem gravitacionalmente e que, afinal de
contas, existe algo como o anti-graviton. As chances disso parecem pequenas.)

É possível, é claro, que uma galáxia e uma antigaláxia possam ocasionalmente se aproximar. Se sim, o mútuo
aniquilação que resulta deve emitir energia de uma magnitude muito mais intensa do que a produzida em condições
normais. De fato, existem galáxias que liberam energias extraordinariamente colossais, e de vez em quando a possibilidade de
antimatéria surge entre os cientistas especulativos.

Em 1962, certos objetos incomuns chamados "objetos quase estelares", ou quasares, foram descobertos. Estes irradiam
com a energia de uma centena de galáxias comuns, embora tenham apenas um a dez anos-luz de diâmetro (em oposição a um
diâmetro galáctico comum de até 100.000 anos-luz).

No entanto, todos os esforços estão sendo feitos para explicar essa radiação por processos que não envolvem antimatéria. Antimatéria
será usado apenas como último recurso, pois seria muito difícil confirmar tal especulação.
Machine Translated by Google

CAPÍTULO 14

Outras partículas

O Neutrino

No Capítulo 11, o desaparecimento de massa durante o curso de reações nucleares foi descrito como
equilibrado por um aparecimento de energia de acordo com a equação de Einstein, e = mc2. Esse equilíbrio também
se mantém no caso da aniquilação total de uma partícula por sua antipartícula, ou a produção de um par partícula/partícula a partir da e

No entanto, embora em quase todos esses casos a equivalência massa-energia tenha sido atendida exatamente, houve uma
exceção em relação às radiações radioativas.

A radiação alfa se comporta de maneira satisfatória. Quando um núcleo pai se desfaz espontaneamente para produzir uma filha
núcleo e uma panícula alfa, a soma da massa dos dois produtos não é exatamente igual à massa do núcleo original.
Essa diferença aparece na forma de energia especificamente, m a energia cinética da partícula alfa em alta velocidade.
Uma vez que as mesmas panículas aparecem como produtos em cada ruptura de um núcleo parental particular, a diferença
de massa deve ser sempre a mesma, e a energia cinética das panículas alfa também deve ser sempre a mesma. Em outras
palavras, o feixe de partículas alfa deve ser monoenergético. Este foi, em essência, encontrado para ser o caso.

Em alguns casos, em suma, o feixe de partículas alfa pode ser dividido em dois ou mais subgrupos, cada um dos quais
era monoenergética, mas com a energia dos subgrupos diferindo entre si. Foi demonstrado sem muitos problemas
que isso se tornou assim o núcleo pai poderia existir em vários níveis de energia para começar. Um núcleo pai excitado
tinha um pouco mais de conteúdo de energia do que um não excitado, e as partículas alfa produzidas pelo primeiro
tinham correspondentemente mais energia cinética. Para cada nível de energia diferente do núcleo pai, havia um subgrupo
separado de partículas alfa monoenergéticas, mas em cada caso, a equivalência massa-energia (ou, em um sentido mais
amplo, a lei da conservação da energia) foi mantida.
Machine Translated by Google

Era de se esperar que as mesmas considerações valessem para um núcleo pai se decompondo em um núcleo filho e
uma partícula beta. Parece razoável supor que as partículas beta também formariam um feixe monoenergético ou, na pior das
hipóteses, um pequeno grupo de feixes monoenergéticos.

Em vez disso, já em 1900, Becquerel indicou que as partículas beta surgiram com uma ampla gama de energias cinéticas. Por
1914, o trabalho de James Chadwick demonstrou que o "espectro de partículas beta contínuas" era inegável.

A energia cinética calculada para uma partícula beta com base na perda de massa acabou sendo uma energia cinética máxima
que poucos atingiram. (Nenhum o superou, no entanto; os físicos não se depararam com a incrível possibilidade de energia
aparecer do nada.)

A maioria das partículas beta ficou aquém da energia cinética esperada em quase qualquer quantidade até o máximo.
Alguns não possuíam praticamente nenhuma energia cinética. Ao todo, uma porção considerável da energia que deveria estar
presente não estava presente e, durante a década de 1920, essa energia ausente não pôde ser detectada de forma alguma.

A energia que desaparece é tão insuportável, na verdade, quanto a energia que aparece, e embora vários físicos, incluindo,
notadamente, Niels Bohr, estivessem prontos para abandonar a lei da conservação da energia no nível subatômico, outros
físicos procuraram desesperadamente uma alternativa.

Em 1931, uma alternativa foi sugerida por Wolfgang Pauli. Ele propôs que sempre que uma partícula beta fosse produzida, um
a segunda partícula também foi produzida, e que a energia que faltava na partícula beta estava presente na segunda partícula.

A situação exigia certas propriedades dessa partícula hipotética. Na emissão de partículas beta, a carga elétrica foi conservada;
isto é, a carga líquida das partículas produzidas após a emissão era a mesma da partícula original.
A partícula postulada de Pauli, portanto, tinha que ser descarregada. Isso fazia mais sentido, pois, se a partícula possuísse uma
carga, ela teria produzido íons à medida que avançasse e, portanto, teria em uma câmara de nuvem, por exemplo. Na verdade,
não foi detectável.

Além disso, a energia total da partícula projetada de Pauli era muito pequena - apenas igual à energia cinética ausente do
elétron. A energia total da partícula tinha que incluir sua massa, e a posse de pouca energia deve significar uma massa
extremamente pequena. Rapidamente ficou claro que a nova partícula tinha que ter uma massa de menos de 1 por cento da massa.
Machine Translated by Google

elétron e, com toda a probabilidade, era totalmente sem massa.

Enrico Fermi, que imediatamente se interessou pela teoria de Pauli, pensou em chamar a nova partícula de "nêutron", mas
Chadwick, mais ou menos nessa época, descobriu a partícula massiva sem carga que veio a ser conhecida por esse nome. Fermi,
portanto, empregou um sufixo diminutivo italiano e chamou a partícula projetada de neutrino ("pequeno neutro"), e é por esse
nome que é conhecido.

Uma partícula sem carga e sem massa atingiu os físicos como sendo uma "partícula fantasma", uma vez que não poderia ser detectada por nenhum dos dois.
carga nem massa. Sua existência teria sido bastante difícil de engolir, mesmo para salvar a lei da conservação da energia,
e o neutrino poderia ter sido ignorado se não tivesse salvado também três outras leis de conservação.

Isso surgiu mais claramente na aplicação da teoria dos neutrinos à quebra de nêutrons. O nêutron se decompõe, com meia-vida
de 12 minutos, em um próton e um elétron, e o elétron pode emergir com uma ampla gama de energias cinéticas. Deveria, portanto,
seguir a teoria de Pauli que o nêutron deveria se decompor em três partículas - um próton, um elétron e um neutrino.

A diferença na divisão em três partículas em vez de duas é significativa em relação à lei da conservação do momento.
Se um nêutron estacionário se dividisse em apenas duas partículas, essas duas teriam que ser ejetadas em direções opostas,
suas linhas ao viajar formando uma linha reta. Só assim a quantidade de movimento pode ser conservada.

Se o mesmo nêutron se dividisse em três panículas, então quaisquer duas dessas partículas teriam que ser ejetadas para um lado.
de uma linha reta imaginária, produzindo um momento líquido em uma direção particular que seria exatamente equilibrado
pelo momento da terceira partícula disparando oh na direção oposta.

Estudos sobre a quebra de nêutrons indicaram com bastante clareza que o próton e o elétron, quando formados, disparavam
para um lado de uma linha reta e que a existência de uma terceira panícula disparando para o outro lado era absolutamente
necessária para que o momento fosse conservado.

Uma vez que a questão do spin das partículas foi compreendida, ficou claro que o neutrino era útil em conexão com a lei
também de conservação do momento angular. O nêutron, o próton e o elétron têm spins de +1/2 ou -1/2.
Suponha que um nêutron se decomponha em apenas um próton e um elétron. O próton e o elétron juntos podem ter um spin de +1; 0,
Machine Translated by Google

ou -1 (+ 1/2 + 1/2, + 1/2 -1/2 ou –1/2-1/2). Em nenhum caso eles poderiam igualar o spin original do nêutron de +1/2 ou -1/2, e o momento
angular não seria conservado.

Mas suponha que o neutrino também tenha um spin de +1/2 ou -1/2. Nesse caso, a soma do spin de todas as três partículas poderia
facilmente ser +1/2 ou -1/2. Poderia, por exemplo, ser +1/2 +1/2 -1/2, e assim o momento angular seria conservado.

Finalmente, há uma lei de conservação mais sutil. No capítulo anterior, fiz uso da conservação do número bariônico. Um próton e um
nêutron têm um número bariônico de +1, e um antipróton e um antinêutron têm um número bariônico de -1. Na quebra de nêutrons, o
número de bárions é conservado, pois começamos com um nêutron (número de bárions + 1) e terminamos com um próton (número de
bárions +1).

Podemos reconhecer uma lei semelhante envolvendo elétrons, com um elétron possuindo um número de +1 e um pósitron um
número de -1? A resposta é: não se essas duas partículas forem as únicas consideradas. Assim, na quebra de nêutrons, começamos sem
elétrons (ou pósitrons) e terminamos com um elétron.

No entanto, suponha que consideremos uma família de elétrons que inclui não apenas elétrons e prótons, mas também neutrinos. Para
para que as coisas funcionem, será necessário ter não apenas um neutrino, mas também um anti-neutrino. A diferença entre o neutrino
e o antineutrino envolveria a direção do campo magnético associado às partículas giratórias, exatamente como no caso do nêutron e do
antinêutron. O neutrino pode receber um número de família de elétrons de +1 e o anti-neutrino um número de família de elétrons de -1.

Com isso em mente, vamos considerar a quebra de nêutrons novamente. O nêutron começa com um número de família de elétrons de
0, uma vez que ele próprio não é um membro da família. Ao se decompor, produz um próton (família de elétrons número 0) e um elétron
(família de elétrons número +1). Se adicionarmos a isso, não um neutrino, mas um antineutrino (número de família de elétrons -1),
preservamos o baixo de conservação do número de família de elétrons, que é 0 antes e depois da quebra.

O anti-neutrino salva as leis de conservação de energia, momento, momento angular final, assim como o neutrino
seria, e nos permite manter a lei da conservação do número da família de elétrons também. Se simbolizarmos o neutrino como “nu” (a
letra grega “nu”) e o antineutrino como “-nu”, podemos escrever a equação para a quebra de nêutrons da seguinte forma:

-
0 n -------------- p ++e -0 + (não) (Equação 14-1)
Machine Translated by Google

Por outro lado, na conversão de um próton em um nêutron com a ejeção de um pósitron, produzimos uma partícula com um
número de família de elétrons de -1. Para equilibrar isso, devemos adicionar a produção de um neutrino (número de família de elétrons
+1). Podemos, portanto, escrever:

P +------------------- n0 + e+ + (nu)0 (Equação 14-2)

De fato, se introduzirmos neutrinos ou antineutrinos em reações nucleares, podemos, sempre que necessário, salvar as quatro leis
de conservação de energia, momento, momento angular e número de família de elétrons. Com esse benefício quádruplo, neutrinos e
antineutrinos precisam ser aceitos, sejam eles detectados ou não.

Interações de neutrinos

Apesar do rigor do raciocínio das leis de conservação, os físicos reconheceram que uma grande satisfação
vêm com a detecção real do neutrino ou antineutrino. Para tornar a detecção possível, no entanto, um neutrino ou antineutrino
deve interagir com alguma outra partícula de maneira reconhecível.

Assim, um nêutron se transforma em um próton, emitindo um antineutrino no processo. Por que o inverso não pode ser verdadeiro e um
antineutrino ser absorvido por um próton para formar um nêutron? Se assim for, essa absorção de antineutrinos pode deixar uma
marca reconhecível.

Infelizmente, a chance de absorção de tal antineutrino é muito pequena. Um nêutron se decompõe em um próton com meia-vida de 12
minutos. Isso significa que em 12 minutos há uma chance igual de um nêutron específico produzir um antineutrino. Segue-se que, se um
antineutrino permanecesse na vizinhança imediata de um próton por 12 minutos, poderia haver uma chance igual de que a absorção
ocorresse.

No entanto, um antineutrino não permanecerá na vizinhança de um próton por 12 minutos ou, de longe, mesmo por um
milionésimo de segundo. Partículas sem massa, como o neutrino, o antineutrino, o fóton ou o gráviton, começam a se mover na
velocidade da luz no momento da criação e continuam se movendo nessa velocidade até o momento da absorção.
Isso significa que um antineutrino permanece na vizinhança imediata de um próton apenas por cerca de 10 a 23 segundos, e as chances
de interação nesse curto intervalo de tempo são extremamente pequenas. Eles são tão pequenos, intactos, que um neutrino ou antineutrino
teria que viajar por cerca de 3.500 anos-luz de matéria sólida, em média, antes de sofrer
Machine Translated by Google

absorção.

A situação em relação a um fóton é completamente diferente. Um fóton também viaja na velocidade da luz, mas quando o
situação de energia é tal que um fóton deve ser emitido por um átomo, esse fóton é emitido em apenas cerca de 10-8 segundos.
Portanto, um fóton precisa estar na vizinhança de um átomo por apenas cerca de 10 a 8 segundos para ter uma boa chance de ser absorvido.
Além disso, o fóton tem um comprimento de onda consideravelmente maior que o neutrino (visualizando ambos como formas de onda) e leva
um tempo mais longo para passar por um objeto, mesmo que ambos estejam viajando na mesma velocidade.

Os raios gama, de fato, penetrarão apenas três metros de chumbo antes de serem absorvidos. A luz comum, que tem um
comprimento de onda muito maior do que os raios gama e leva ainda mais tempo para passar por um único átomo, é ainda mais prontamente
absorvida e raramente penetra mais do que duas dúzias de espessuras de átomos em um sólido.

Tudo isso tem uma consequência importante na astronomia. No curso da fusão do hidrogênio ao hélio, os prótons são convertidos
em nêutrons, de modo que os neutrinos são formados, assim como os fótons. Os fótons carregam cerca de 90 a 95 por cento da energia
produzida no núcleo do sol, enquanto os neutrinos carregam os restantes 5 a 10 por cento.

Os fótons, uma vez formados, são absorvidos e reemitidos repetidamente pela matéria que constitui o sol; consequentemente,
leva cerca de um milhão de anos para que o fóton médio faça seu caminho do núcleo do sol, onde é formado, até a superfície, onde é
irradiado para o espaço. Este efeito isolante do material solar (graças à maneira como os fótons interagem tão prontamente com a matéria) é
dramaticamente demonstrado pelo fato de que o núcleo do sol está a uma temperatura de 15.000.000°C, enquanto a superfície, a apenas
430.000 milhas de distância, está a uma temperatura de apenas 60000C.

Os neutrinos formados no núcleo, porém, não são reabsorvidos pela matéria do sol. Eles disparam instantaneamente, na velocidade da
luz, passando pela matéria solar como se fosse vácuo e levando menos de três segundos para atingir a superfície solar e passar para o
espaço. Essa perda instantânea de energia tem um pequeno efeito de resfriamento no núcleo do sol, mas não o suficiente para importar.

Um certo número de neutrinos solares atinge a Terra e, depois de fazê-lo, atravessa o planeta em 1/125 de um
segundo ou menos. Cerca de dez bilhões de neutrinos passam por cada centímetro quadrado da seção transversal da Terra (passando
por nós também). Somos constantemente bombardeados dia e noite, pois a intervenção da maior parte da terra entre nós e o sol não
interfere. No entanto, os neutrinos passam por nós sem interagir, então eles não
Machine Translated by Google

nos perturbe de alguma forma.

É possível que neutrinos e antineutrinos possam ser formados por métodos que não envolvam prótons e nêutrons. Por
exemplo, um par elétron-pósitron pode ser formado a partir de fótons de raios gama. O elétron e o pósitron podem então reagir
para formar um neutrino e um antineutrino:

0
e- + e + --------- (nu) + (não) -0 (Equação 14-3)

Energia, carga, momento e momento angular são todos conservados nesta reação, assim como o número da família de
elétrons. O número líquido da família de elétrons de um elétron e pósitron é zero, e o de um neutrino e antineutrino também é
zero.

Tal interação elétron-pósitron é extremamente improvável mesmo na temperatura do núcleo do Sol, de modo que não faz
nenhuma contribuição importante para o suprimento de neutrinos. No curso da evolução de uma estrela, no entanto, o núcleo fica
cada vez mais quente e, ao fazê-lo, a probabilidade de conversão de fótons em neutrinos através do par elétron-pósitron aumenta.

O físico americano Hong-Yee Chiu calculou que quando uma temperatura de 6.000.000.000°C é atingida, a conversão de
fótons em neutrinos se torna tão massiva que a maior parte da energia formada no núcleo de tal estrela aparece como neutrinos.
Estes deixam o núcleo de uma só vez e retiram tanta energia que o núcleo colapsa e a estrela com ele, resultando em uma
tremenda explosão de energia. Isto, sugere-se, é a causa de uma supernova.

Dizer que é extremamente improvável que um neutrino interaja com outra partícula não é o mesmo, é claro, que dizer que ele
nunca irá interagir. Se um neutrino deve viajar através de uma média de 3.500 anos-luz de matéria sólida para ser absorvido, esse
comprimento de viagem permanece uma média. Alguns neutrinos podem sobreviver por distâncias muito maiores, mas alguns
podem ser absorvidos muito antes de atravessar esse caminho. Há uma chance finita, extremamente pequena, mas não zero, de
um neutrino interagir depois de viajar apenas uma milha ou mesmo apenas um pé.

Evidência para tais interações foi procurada pelos físicos americanos Clyde L. Cowan, Jr, (1919- ) e Frederick
Reines (1918- ) em experimentos iniciados em 1953. Como alvo de prótons eles usaram grandes tanques de água (ricos em átomos
de hidrogênio e, portanto, em núcleos constituídos por prótons únicos), e os colocaram no caminho de um fluxo de antineutrinos
originários de um reator de fissão. (Esses antineutrinos surgem no decorrer da rápida conversão de nêutrons em prótons dentro
dos núcleos dos produtos de fissão.)
Machine Translated by Google

Se um antineutrino se juntar a um próton para formar um nêutron, no inverso da interação da Equação 14-1, um elétron
teria de ser absorvido simultaneamente. A necessidade de tal junção dupla torna a reação menos provável do que nunca. No
entanto, a absorção de um elétron é equivalente à emissão de um pósitron, então a interação esperada de um neutrino com
um próton pode ser descrita da seguinte forma:

-0 + + -------------- e 0+n
(não) +p (Equação 14-4)

Nessa reação, o número bariônico é conservado, pois um próton (+ l) é substituído por um nêutron (+1). O número da
família de elétrons também é conservado, pois um antineutrino (-1) é substituído por um pósitron (-1).

Cowan e Reines calcularam que nos alvos de água que estavam usando, tal interação antineutrino/próton deveria
ocorrem três vezes por hora. O problema era que um grande número de outros eventos também estava ocorrendo, eventos
originados em radiação cósmica, radiações radioativas perdidas e assim por diante. No início, esses eventos indesejados
ocorreram com muitas vezes a frequência das reações antineutrinos que estavam sendo pesquisadas. Com o tempo, essa
interferência foi reduzida a níveis administráveis usando blindagem pesada que excluía a maioria das partículas e fótons
subatômicos estranhos, mas não oferecia qualquer barreira, é claro, aos anti-neutrinos.

Restava identificar a interação do antineutrino com precisão e certeza. A interação produz um pósitron e um nêutron. O
pósitron interage quase imediatamente com um elétron, produzindo dois raios gama de conteúdo energético conhecido, saindo
em direções opostas.

O nêutron produzido pela interação dura alguns milionésimos de segundo a mais antes de ser absorvido por um átomo de
cádmio (introduzido no tanque de água na forma de uma solução de cloreto de cádmio precisamente com a finalidade de absorver
nêutrons). O átomo de cádmio, excitado pela absorção de nêutrons, libera um raio gama (ou possivelmente três) de frequência
conhecida. É esta combinação de eventos, uma gama dupla de frequência fixa, seguida após um intervalo fixo por um terceiro raio
gama de frequência fixa, que é a marca identificadora do anti-neutrino. Nenhuma outra partícula poderia produzir apenas a duplicata
desses resultados, pelo menos até onde se sabe.

Em 1956, o antineutrino foi finalmente detectado por esse padrão característico de radiação gama, e a sugestão original de
Pauli de um quarto de século antes foi confirmada.
Machine Translated by Google

O Múon

Enquanto Pauli avançava em sua solução para o problema do espectro contínuo de partículas beta, um segundo problema,
tão intrigante, havia surgido.

O núcleo atômico contém prótons mantidos juntos em um volume de algo como 10-40 centímetros cúbicos. A força
eletromagnética de repulsão entre esses prótons, tão próximos uns dos outros, é tremenda. Enquanto se acreditasse que
os elétrons também existiam dentro do núcleo, podia-se supor que a atração entre prótons e elétrons (ar, apertados juntos)
poderia compensar a repulsão entre prótons. Os elétrons, então, serviriam como um "cimento nuclear". e as forças
eletromagnéticas explicariam a situação dentro do núcleo, como explicavam a situação entre átomos e moléculas.

Quando, no entanto, ficou bem claro, em 1932, que o núcleo atômico era composto de prótons e nêutrons e que não
existiam elétrons ali, o problema foi escancarado. Uma vez que apenas a repulsão eletromagnética poderia existir dentro
do núcleo, por que nem todos os núcleos atômicos explodiram ao mesmo tempo?

A única maneira de explicar a estabilidade do núcleo era supor que havia uma força nuclear de atração entre os
nucleons, que estava em evidência apenas a distâncias extremamente pequenas e que era então muito mais forte que a
força eletromagnética.

No início da década de 1930, a análise da mecânica quântica fez parecer que uma força, que parecia agir à distância
como a força eletromagnética, na verdade agia através da emissão e absorção de fótons. Partículas eletricamente
carregadas, trocando fótons, experimentando forças de troca, termo introduzido por Heisenberg em 1932. Por analogia,
decidiu-se que a força gravitacional deveria se tornar evidente através da emissão e absorção de grávitons.

Tanto a força eletromagnética quanto a força gravitacional são forças de longa distância, diminuindo apenas com o quadrado de
a distância entre os objetos que exercem a força e se tornam evidentes mesmo em distâncias astronômicas.

A força nuclear hipotética, no entanto, tinha que ser de alcance extremamente curto e, por mais forte que fosse dentro
do núcleo, tinha que ser imperceptível fora do núcleo. De fato, nos núcleos maiores, a força nuclear mal deve atingir todo
o diâmetro, e pode ser por essa razão que a fissão nuclear ocorre tão facilmente quanto nos átomos mais massivos.
Machine Translated by Google

O físico japonês Hideki Yukawa (1907- ) se propôs a descobrir o mecanismo de uma força tão incomumente forte e de
curto alcance. Sem entrar na mecânica quântica da teoria, podemos apresentar uma imagem simplificada do raciocínio
envolvido.

O princípio da incerteza afirma que a posição e o momento não podem ser determinados simultaneamente com total precisão.
A incerteza na determinação de uma multiplicada pela incerteza na determinação da outra é aproximadamente igual à constante
de Planck. Pode-se mostrar que tempo e energia podem ser substituídos por posição e momento. Isso significa que o conteúdo
preciso de energia de um sistema não pode ser determinado em um momento exato de tempo.
Há sempre um pequeno intervalo de tempo durante o qual o conteúdo de energia é incerto. A incerteza no conteúdo de energia
multiplicada pela incerteza no tempo é aproximadamente igual à constante de Planck.

Durante o intervalo de tempo em que o conteúdo de energia é incerto, um próton pode, por exemplo, emitir uma pequena partícula. Isto
realmente não tem energia para fazer isso, mas para o curto instante de tempo durante o qual sua energia não pode ser
exatamente determinada, ele pode violar a lei de conservação de energia impunemente - porque, por assim dizer, ninguém pode
obter lá rápido o suficiente para aplicá-lo.

No final do período de tempo, a partícula emitida pelo próton deve estar de volta ao ponto em que começou, e o próton deve estar
obedecendo a conservação de energia. A partícula, que é emitida e reabsorvida muito rapidamente para ser detectada, é uma
partícula virtual. O raciocínio mostra que pode existir, mas nenhum sistema de medição pode detectá-lo.

Durante o período de existência da partícula virtual, ela pode se afastar do próton pai, mas só pode se mover a uma distância
limitada porque deve estar de volta quando o período de incerteza do tempo terminar. Quanto mais massiva a partícula (e quanto
maior seu conteúdo de energia), maior a incerteza representada por essa coalhada de energia, menor o intervalo de tempo
permitido sua existência, pois as duas juntas devem produzir o mesmo produto em todas as circunstâncias, de modo que, como
uma incerteza vai sobe o outro desce em passo preciso.

Mesmo que a partícula virtual estivesse viajando na velocidade da luz, ela não poderia se mover muito longe de seu próton, pois
a constante de Planck é uma quantidade muito pequena, e o intervalo de tempo permitido à existência da partícula é excessivamente
pequeno. Normalmente, a partícula virtual nunca chega longe o suficiente do próton para colidir com qualquer outra partícula. A
única exceção surge quando prótons e nêutrons estão nas proximidades encontradas dentro do núcleo atômico. Então; uma das
partículas que saem do próton pode ser captada por um nêutron antes de ter a chance de retornar ao próton. É esta emissão e
absorção de partículas virtuais que produz a força nuclear.
Machine Translated by Google

Em 1935, Yukawa apresentou sua opinião de que essa partícula virtual servia como a partícula de troca da força nuclear.
Ao contrário das partículas de troca das forças eletromagnética e gravitacional, a panícula de troca da força nuclear tinha que ter massa para
que seu tempo de existência permitido fosse breve o suficiente para torná-lo suficientemente curto.
Yukawa mostrou que a panícula teria que ter cerca de 270 vezes a massa de um elétron para que seu tempo de existência permitido fosse
curto o suficiente para torná-lo tão curto quanto a observação mostrava que a força nuclear deveria ser.

Como essa partícula tem massa intermediária entre os elétrons leves e as partículas massivas do núcleo, ela
veio a ser chamado de "mesotron". de uma palavra grega que significa "intermediário", e isso foi rapidamente encurtado para méson.

A teoria de Yukawa indicava que no processo de troca, um próton se tornaria um nêutron e um nêutron se tornaria um próton. Em
outras palavras, o méson, ao ser emitido por um e absorvido pelo outro, teria que carregar consigo a carga. Você esperaria um méson positivo,
portanto. No caso de antiprótons e antinêutrons, você esperaria um méson negativo como uma antipartícula, mantendo o núcleo de antimatéria
unido.

Então, também, descobriu-se que existiam forças de troca entre próton e próton e entre nêutron e nêutron; por
isso era necessário um méson neutro. Este méson neutro serviu como sua própria antipartícula e serviu igualmente bem para ligar
antipróton e antipróton ou antinêutron e antinêutron.

A força de troca próton-nêutron é um pouco mais forte do que a força de troca próton-próton, o que significa que o
A combinação pn dentro de um núcleo tem uma fração de empacotamento menor do que a combinação pp. Portanto, é necessária uma
entrada de energia para converter um pn em um pp dentro de um núcleo.

A conversão de n em p produz uma pequena quantidade de energia (e é por isso que um nêutron se decompõe espontaneamente), mas o
a quantidade de energia assim obtida nem sempre é suficientemente grande para mudar a combinação pn para uma combinação pp. É por
esta razão que em alguns núcleos o nêutron não se transforma em próton, mas permanece parado; e assim existem núcleos estáveis.

Para verificar a teoria de Yukawa, os mésons teriam de ser detectados. Dentro do núcleo, onde são apenas partículas virtuais, isso não pode
ser feito. No entanto, se energia suficiente for adicionada ao núcleo, o méson pode ser formado sem violar a conservação de energia. Em
seguida, torna-se uma partícula real e pode deixar o núcleo.

Em 1936, Carl Anderson, que já havia descoberto o pósitron entre os rastros produzidos por partículas cósmicas, agora
Machine Translated by Google

encontraram uma trilha que se curvava menos acentuadamente do que um elétron e mais acentuada do que um próton. Foi obviamente
produzido por uma partícula de massa intermediária, e os físicos presumiram inicialmente que era a partícula prevista por Yukawa.

Isto provou não ser o caso. A partícula de Anderson tinha apenas 207 vezes a massa de um elétron, nitidamente menor do que
a previsão de Yukawa. Ele veio apenas em uma variedade positiva e negativa, sem qualquer sinal de uma variedade neutra; e era a
variedade negativa, e não a variedade positiva, que era a panícula. Pior de tudo, ela não parecia interagir com prótons ou nêutrons. Se
fosse a partícula de troca de Yukawa, deveria ter sido absorvida por qualquer nucleon que encontrasse.
O méson de Anderson, no entanto, passou pela matéria quase imperturbável.

Eventualmente, descobriu-se que não havia um, mas vários mésons diferentes e que o méson de Anderson não era
Partícula de troca de Yukawa. Os diferentes tipos de mésons receberam prefixos diferentes (geralmente uma ou outra das letras
gregas) e o de Anderson foi nomeado mu-méson, um termo que agora é comumente abreviado para múon.

À medida que as propriedades do múon foram estudadas cada vez mais de perto, descobriu-se que o múon parecia cada vez mais
semelhante a um elétron. Era idêntico em carga, com a variedade negativa servindo como partícula; o positivo, como a antipartícula. O
múon era o mesmo que o elétron em spins e propriedades magnéticas em tudo, exceto em massa e estabilidade.

De fato, para cada interação envolvendo o elétron, há uma interação análoga envolvendo o múon. O múon, enquanto vive, pode até
substituir o elétron dentro dos átomos para formar um átomo mesônico . O momento angular deve ser conservado no processo. se vemos
o elétron à moda antiga como uma partícula circulando o núcleo, o múon (movendo-se na mesma velocidade) deve circular em uma
órbita mais próxima do núcleo. Sua maior massa é assim contrariada pelo raio de revolução encurtado para manter o momento angular
o mesmo.

Como o múon tem 207 vezes a massa do elétron, ele deve estar a apenas 1/207 da distância do núcleo. Em átomos muito massivos,
isso significa que a órbita do méson mais interno deve estar dentro do núcleo! O fato de poder circular livremente dentro do núcleo
mostra quão pequena é sua tendência de interagir com prótons e nêutrons.

A diferença nos níveis de energia mesônica em tais átomos é correspondentemente maior do que nos níveis de energia eletrônica
em átomos comuns. Os átomos mesônicos emitem e absorvem fótons de raios X no lugar dos fótons de luz visível emitidos e absorvidos
por átomos comuns.

Para ter certeza, o múon é instável, decaindo em cerca de 2,2 microssegundos e mudando para um elétron. No entanto, no
Machine Translated by Google

escala subatômica 2,2 microssegundos é um tempo bastante longo, e o múon não parece muito diferente a esse respeito do
elétron completamente estável.

Parece agora que o múon é virtualmente um "elétron pesado" e nada mais. Mas por que deveria haver um elétron pesado, e
por que deveria ser tão mais pesado, ainda não se sabe.

O Pião

Embora o múon tenha falhado em 811 o papel da partícula de Yukawa; houve sucesso em outros lugares. Em 1947, o
físico inglês Cecil Frank Powell (1903- ) duplicou a façanha de Anderson e descobriu rastros de mésons em chapas fotográficas
expostas à radiação cósmica nos Andes bolivianos. Esses novos mésons eram nitidamente mais massivos que o múon. Sua
massa, de fato, era igual a 273 elétrons, quase exatamente a massa prevista para as partículas de troca de Yukawa.

Na investigação, eles provaram interagir fortemente com os núcleos, como seria esperado que a partícula de troca de Yukawa fizesse.
O novo pedreiro era uma panícula quando carregada positivamente e uma antipartícula quando carregada negativamente,
como era de se esperar. Eventualmente, uma versão neutra desse méson também foi encontrada, um pouco mais leve que
as variedades carregadas (apenas 264 vezes a massa do elétron).

O novo méson foi chamado de pi-meson, ou, como agora é comumente conhecido, o píon, e é o píon que é a
partícula de troca de Yukawa. Tanto o nêutron quanto o próton são agora vistos como consistindo, essencialmente, de nuvens de píons.
Isso foi demonstrado na década de 1950 por Robert Hofstadter, que bombardeou prótons e nêutrons com elétrons de 600 Mev
de energia, produzidos em um acelerador linear. Esses elétrons, ao serem dispersos, realmente penetraram no próton que
passou pela porção externa da nuvem de píons.

Pions são incomuns na natureza de sua rotação. A maioria das partículas discutidas até agora - o neutrino, o elétron, o múon,
o próton e o nêutron, juntamente com suas partículas e - têm spins de 1/2. Partículas com tais spins não integrais se comportam
de acordo com as estatísticas de Fermi-Dirac (uma análise matemática elaborada por Fermi e Dirac) e, consequentemente, são
todas agrupadas como férmions. Uma propriedade notável possuída pelos férmions geralmente é a de aderir ao princípio de
exclusão de Pauli.

O fóton tem um spin de 1 e o gráviton um spin de 2: essas partículas, e todas as outras que possuem spin integral,
incluindo vários núcleos atômicos, se comportam de acordo com as estatísticas de Bose-Einstein, elaboradas por Einstein e pelo
Machine Translated by Google

O físico indiano Satyenda Nath Bose (1904-). Tais partículas estão no seio, e o princípio de exclusão não se aplica a elas.

Os píons foram as primeiras partículas individuais a serem encontradas com um spin de 0, e as primeiras partículas, possuindo
massa, que eram bósons. A reação imediata de um píon com partículas nucleares é um exemplo do que é conhecido como interação forte.
Isso é caracterizado por extrema rapidez. Um píon viajando quase à velocidade da luz permanece dentro do alcance de um
próton ou nêutron por apenas 10-23 segundos, mas isso é tempo suficiente para que a forte interação ocorra. É essa interação
forte, que é a força nuclear que mantém o núcleo unido contra a repulsão da interação eletromagnética.

Existem, no entanto, interações envolvendo partículas subatômicas que ocorrem em intervalos de tempo muito mais longos
- somente após um centésimo de milionésimo de segundo ou mais. Essas são as interações fracas, que são de alcance muito curto,
como as interações fortes, mas são apenas um trilionésimo da intensidade das interações fortes. A interação fraca é, de fato,
apenas um décimo bilionésimo da intensidade da interação eletromagnética, mas ainda é tremendamente mais forte que a
gravitação, que mantém seu status de força mais fraca da natureza.

Os píons são as partículas de troca das interações fortes e também deve haver partículas de troca para as interações fracas.
Essa "partícula de troca fraca", simbolizada por w, deve ser mais evasiva que o píon ou o fóton, embora não tão elusiva quanto o
gráviton. Deve ser uma das partículas da família dos bósons e deve ser mais massiva do que bósons como os fótons, embora
menos massiva do que bósons como os píons. É, por essa razão, às vezes referido como o bóson intermediário. Alguns relatórios
recentes indicaram sua detecção, mas isso ainda não é certo.

O próton, o antipróton, o píon positivo e o píon negativo podem estar envolvidos em qualquer um dos quatro tipos de
interação: forte, fraco, eletromagnético e gravitacional. O nêutron, o antinêutron e o píon neutro, não carregados, não podem estar
envolvidos em interações eletromagnéticas, mas podem se envolver em qualquer um dos três restantes. O elétron, o pósitron, o
múon positivo e o múon negativo não podem participar de interações fortes, mas podem estar envolvidos nas três restantes.

O neutrino e o antineutrino são os mais limitados a esse respeito. Eles não participam da interação forte, sendo
sem carga, não participam da interação eletromagnética e, por não terem massa, não participam da interação gravitacional.
O neutrino e o antineutrino participam apenas de interações fracas e nada mais. O aparecimento de um neutrino ou anti-
neutrino no curso da quebra de uma partícula é, portanto, uma indicação infalível de que essa quebra é um exemplo de interação
fraca. A quebra de um nêutron é, por exemplo, uma interação fraca.
Machine Translated by Google

Uma vez que os píons negativos e os píons positivos são formados no estado livre, eles também se decompõem em uma interação fraca,
com uma vida útil de 25 bilionésimos de segundo. Eles se dividem em múons e neutrinos e se permitirmos que os píons sejam representados
como “pi” (a letra grega “pi”) e os múons como “mu” (a letra grega- “mu”), podemos apresentar a divisão da seguinte forma :

+
(pi)+ -------------------- (mu) 0 + (não) (Equação 14-5)

-0
(pi) - -------------------- (nós) - + (nu) (Equação 14-6)

A princípio, os físicos suspeitaram que o neutrino produzido no curso da quebra do píon poderia ser distintamente mais massivo que
o neutrino comum e, de fato, ter uma massa talvez 100 vezes maior que a do elétron. Por um tempo, eles chamaram essa partícula de
"neutreto". No entanto, estudos mais aprofundados reduziram a massa aparente, até que finalmente foi decidido que o pequeno produto
neutro da quebra de píons era um neutrino sem massa.

Se o múon for considerado apenas um "elétron pesado", pode parecer razoável incluir os múons na família de elétrons e dar ao múon
negativo (como o elétron) um número de família de elétrons de + 1, e o múon positivo (como o múon pósitron) um número de família de
elétrons de -1.

Em caso afirmativo, então na Equação 14-5 a produção de um múon positivo (-1) e um neutrino (+1) dá um número líquido de família
de elétrons de 0, combinando com o do píon original (que não é um membro do elétron família tem um número de família de elétrons de 0).
Da mesma forma, na Equação 14-6, a produção de um múon negativo (+1) requer a produção simultânea de um antineutrino (-1) para,
novamente, um número líquido de família de elétrons de 0.

Até agora, tudo bem, mas a dificuldade surge quando a quebra do múon é considerada. Um múon se decompõe para formar um elétron e
dois neutrinos. Se o número da família de elétrons deve ser conservado, então um dos neutrinos deve ser um antineutrino. A reação (no caso
de um múon negativo) pode ser escrita da seguinte forma:

-
(dentro) - ------------------ e 0 + (não) -0 + (não) (Equação 14-7)

Começando com um número de família de elétrons de +1 até o múon negativo, termina-se com um número total de família de elétrons
de +1 tomando a soma de +1, +1 e -1 para o elétron, neutrino e anti-neutrino, respectivamente. A conservação
Machine Translated by Google

detém.

No entanto, se for assim, o neutrino e o anti-neutrino não deveriam pelo menos às vezes se aniquilar em uma explosão de
energia, como qualquer combinação partícula/antipartícula faria? Então, um múon negativo não deveria se decompor para formar
apenas um elétron, pelo menos às vezes, com a massa restante do múon aparecendo como fótons?

Isso nunca é observado e, portanto, surgiu a suspeita de que o neutrino e o anti-neutrino produzidos pela quebra do
múon não eram verdadeiros opostos. Será que o neutrino foi produzido em associação com o múon e que o antineutrino foi
produzido em associação com o elétron, por exemplo, e que múons e elétrons produziram diferentes tipos de neutrinos?

Em 1962, essa possibilidade foi testada da seguinte forma: prótons de energia muito alta foram esmagados em átomos de berílio em tal
forma a produzir um fluxo intenso de píons, os píons se decompuseram rapidamente em múons e neutrinos, e todos então
colidiram com uma parede de placas de blindagem de cerca de 13,5 metros de espessura. Todas as partículas, exceto os
neutrinos, foram interrompidas. Os neutrinos passavam facilmente, e dentro de um dispositivo de detecção de vez em quando
interage com um nêutron para formar um próton mais um múon negativo ou um elétron.

Se houvesse apenas um tipo de neutrino, ele deveria ser pró-negativo de múons e elétrons sem discriminar
entre os dois:

0 (não) + n0 ------------------------- p+ + e- (Equação 14-8)

0 (não) + n0 ------------------------- p + + (in) - (Equação 14-9)

Como você vê, a carga elétrica e o número bariônico são conservados em ambos os casos. O número da família de elétrons parece ser
conservada em ambos os casos, também, pois você começaria com um neutrino (número de família de elétrons +1) e terminaria
com um elétron ou um múon negativo, cada um dos quais com um número de família de elétrons de +1. Nas interações
subatômicas, tudo o que pode acontecer acontece, então os físicos tinham certeza de que, se houvesse apenas um tipo de
neutrino, os múons e elétrons negativos seriam produzidos em números iguais.

Eles não eram! Apenas múons negativos foram produzidos.


Machine Translated by Google

Isso significava que quando os píons se decompunham para formar múons e neutrinos, os neutrinos eram múons-neutrinos,
uma variedade especial que só podia interagir para formar múons, nunca elétrons. Da mesma forma, os neutrinos comuns
fomentados em associação com elétrons e pósitrons eram elétrons-neutrinos, que podiam interagir apenas para formar elétrons ou positronas,
múons.

Se simbolizarmos o elétron-neutrino como v, e o elétron-neutrino como v,, podemos escrever as Equações 14-1, 14-2, 14-3, 14-4,
14-5 e 14-6 da seguinte forma: (

0 n -------- p + + e- + (elétron-neutrino)
-0
(Equação 14-10)

0
p +--------- n0 + e++ + (elétron-neutrino) (Equação 14-11)

- 0
e + e+ ----(elétron-neutrino) -0 + (elétron-neutrino) (Equação 14-12)

-0 (elétron-neutrino) + p+ ------- e+ + n0 (Equação 14-13)

+ 0
(pi) ------------ (mu) + + (múon-neutrino) (Equação 14-14)

-0 (pi) - ------------ (mu) - + (múon-neutrino) (Equação 14-15)

As Equações 14-10, 14-11, 14-12 e 14-13 ainda exibem conservação do número da família de elétrons. As equações 14-14 e
14-15 agora exibem uma conservação do número da família do múon, onde os membros da família do múon incluem o múon
massivo e o múon-neutrino (cada um com um número de família de múons de +1) e o múon positivo e o múon muon-anti-neutrino,
(cada um com um número de família de -1). Nas Equações 14-14 e 14-15, como você vê, há um número líquido de família de múons
de 0 antes e depois da quebra do píon.

A única interação, que lida com elétrons e múons, é a Equação 14-7. Isso agora pode ser reescrito:

(mu) --------- e - 0 + (múon-neutrino) + (elétron-neutrino) -0 (Equação 14-16)

Isso exibe a conservação do número da família de múons porque você começa com um número de família de múons de + 1 (o negativo
Machine Translated by Google

múon) e terminam com um número de família de múons de + 1 (o múon-neutrino). Ele também exibe conservação do número da
família de elétrons porque você começa com um número de família de elétrons de 0 (nenhum membro da família de elétrons presente) e
termina com um número de família de elétrons de +1 para o elétron e -1 para o elétron-anti-neutrino , fazendo um número líquido de
família de elétrons de 0 novamente.

Pelo mesmo raciocínio, a quebra do múon positivo seria:

+0
-0 (mu) + -------- e + + (múon-neutrino) + (elétron-neutrino)
(Equação 14-17)

produzindo um pósitron, um elétron-neutrino e um múon-antineutrino.

Na quebra do múon negativo ou do múon positivo, você não poderia esperar nenhuma aniquilação mútua entre os
neutrinos e antineutrinos, uma vez que não são verdadeiras anti-partículas. A aniquilação mútua violaria a conservação tanto do
número da família de elétrons quanto dos números da família de múons.

No entanto, quaisquer diferenças que possam existir entre elétron-neutrinos e múon-neutrinos, quando ambos são sem massa,
partículas sem carga com um spin de 1/2 permanecem um mistério.

A fronteira

Desde 1947, uma variedade de outras partículas apareceu. Com exceção do múon-neutrino (que era mais um
realização do que uma descoberta), todas as novas partículas são bastante instáveis, bastante massivas e sujeitas a fortes interações.

Há, por exemplo, um grupo de K-mésons, ou kaons, que têm 966,5 elétrons em massa e, a esse respeito, estão aproximadamente
no meio do caminho entre prótons e píons. Assim como os píons, os kaons têm spin 0 e são bósons. Como os píons, também existe
um kaon positivo, que é a partícula, e o kaon negativo, que é a antipartícula. Há também um kaon neutro, um pouco menos massivo
que os carregados e um pouco mais instável. No entanto, o kaon neutro não é sua própria antipartícula como o píon neutro. Existe um
kaon neutro e um anti-kaon neutro.

Além destes, foram descobertas partículas mais massivas que prótons ou nêutrons. Estes caíram em três grupos, distinguidos
por letras gregas: partículas lambda, partículas sigma e partículas xi.
Machine Translated by Google

Há uma partícula lambda (neutra), três partículas sigma (positiva, negativa e neutra) e duas partículas xi (negativas). Cada um tem
sua anti-partícula. A partícula lambda tem uma massa de 2182 elétrons (ou 1,18 prótons). As três partículas sigma são mais massivas,
cerca de 1,27 prótons, enquanto as partículas xi são ainda mais massivas, cerca de 1,40 prótons. Todos estes são agrupados como hiperons (de
uma palavra grega que significa "além", porque estão além do próton em massa), e todos são férmions.

Assim como os múons podem substituir os elétrons na estrutura atômica para formar átomos mesônicos, a partícula lambda pode substituir um
partícula no núcleo atômico para produzir um hipernúcleo de vida curta.

A década de 1960 viu a descoberta de numerosas partículas de vida extremamente curta, com tempos de vida tão curtos quanto 10-23 segundos.
Estas são partículas de ressonância. Não é certo que estas sejam partículas verdadeiramente únicas. Podem ser apenas associações
momentâneas de duas ou mais partículas.

A proliferação de partículas tem sido um embaraço para os físicos, pois é difícil reduzi-las à ordem. Novo
regras de comportamento tinham de ser deduzidas para eles.

Por exemplo, embora os híperons sejam produzidos sob condições que deixam claro que eles estão interagindo fortemente
partículas e, embora possam se decompor em produtos de interação forte, levam um tempo estranhamente longo para isso. A quebra de
partículas lambda pode ser representada assim, por exemplo:

+
0 (lambda) ----------------- (sigma) + (pi) - (Equação 14-18)

onde lambda (a letra maiúscula grega “lambda”) representa a partícula lambda. Todas as leis usuais de conservação são obedecidas
nesta interação. Como o píon tem spin zero, por exemplo, o momento angular é conservado. (O píon não é membro de nenhum dos grupos
familiares que são conservados e pode aparecer e desaparecer livremente desde que sejam observadas outras leis de conservação.)

Como a Equação 14-18 parece representar uma forte interação, ela deve ocorrer em não muito mais do que 10-23
segundos ou mais; em vez disso, no entanto, ocorre em 2,5 x 10-10 segundos. Isso é dez trilhões de vezes mais do que deveria demorar
imensamente na escala de tempo subatômica.
Machine Translated by Google

Em 1953, uma explicação foi avançada independentemente pelo físico americano Murray Gell-Mann (1929- ) e pelo físico
japonês Kazuhiko Nishijima (1926- ). Eles sugeriram uma nova quantidade que precisava ser conservada, que Gell-Mann chamou
de estranheza.

Os vários membros da família do elétron e da família do múon, bem como os píons, nucleons e suas antipartículas, todos
tem um número de estranheza igual a zero. Outras partículas, com números de estranheza diferentes de zero, são agrupadas
como partículas estranhas. O kaon tem um número de estranheza de + 1; a partícula lambda e a partícula sigma, uma de -1; e a
partícula xi, uma de -2. Para as antipartículas, o sinal do número de estranheza é invertido, é claro.

Esses números não são atribuídos arbitrariamente, mas são deduzidos da experiência. Uma partícula com número de estranheza de +1
nunca se forma sem a produção simultânea de partículas com número de estranheza - 1, se o número de estranheza fosse 0
para começar. A estranheza, se forem usados os números de estranheza dados, é conservada.

Quando a partícula lambda decai, como na Equação 14-18, uma partícula lambda (número de estranheza -1) torna-se um
próton e um píon negativo (ambos com número de estranheza 0). A estranheza não é conservada nessa reação e o colapso
não deve ocorrer.

No entanto, a lei da conservação da estranheza vale apenas para as interações fortes. Portanto, a quebra pode
ocorrer, desde que ocorra por meio de uma interação fraca, o que leva muito mais tempo. Apesar das aparências, então, a
Equação 14-18 representa interações fracas e isso explica o longo tempo de vida da partícula lambda.

Uma lei de conservação mais antiga que também apresentou suas limitações foi a lei de conservação da paridade.

A paridade é uma quantidade que se conserva da mesma maneira que "par" e "ímpar" se conservam no reino dos números.
Se um número par, como 8, for dividido na soma de dois números menores, como 6 + 2 ou 5 + 3, os dois números menores
serão pares ou ímpares. Se um número ímpar é tratado assim, como 7 = 4 + 3, os números menores são sempre um ímpar e um
par. Transformações mais complicadas também produzirão regras universais desse tipo.

Em 1956, no entanto, descobriu-se que alguns kaons decaíram para dois píons e alguns para três píons. Como o píon
recebe paridade ímpar, dois píons juntos são pares, enquanto três píons juntos são ímpares. Isso significava que havia
kaons de paridade par e kaons de paridade ímpar, e os dois receberam nomes diferentes.
Machine Translated by Google

No entanto, os dois tipos de kaons eram absolutamente idênticos em todas as propriedades, exceto na maneira de seu
colapso. Era necessário que a paridade fosse conservada? Enfrentando esse problema, dois físicos sino-americanos, Tsung-Dao Lee
(1926- ) e Chen Ning Yang (1922- ), produziram razões teóricas pelas quais a paridade não precisa ser conservada em interações fracas,
embora tenha sido conservada em interações fortes.

Havia uma possibilidade de testar isso. Já em 1927, Eugene Wigner havia considerado o problema e mostrado que a conservação
da paridade significava uma falta de distinção entre esquerda e direita, ou (o que é equivalente) entre uma situação e sua imagem
especular. Isso só poderia ser verdade se todas as interações ocorressem simetricamente no espaço. Se os elétrons fossem emitidos
por núcleos, por exemplo, eles teriam que ser emitidos igualmente em todas as direções para que a imagem espelhada não mostrasse
uma distinção clara do estado real das coisas. Se os elétrons fossem emitidos predominantemente em uma direção (digamos, para a
esquerda), então a imagem menor os mostraria sendo emitidos predominantemente para a direita, e os dois estados de coisas poderiam
ser distinguidos.

A física sino-americana Madame Chien-Shiung Wu (1913- ) testou a teoria Lee-Yang, fazendo uso do cobalto-60, que emite elétrons
em uma interação fraca. Ela resfriou o cobalto-60 até quase zero absoluto e o submeteu a um campo magnético que alinhou todos os
núcleos com seus pólos magnéticos norte em uma direção e com seus pólos magnéticos sul na outra. Quase no zero absoluto, eles não
tinham energia para sair do alinhamento.

Descobriu-se então que os elétrons não eram emitidos igualmente em todas as direções. Eles emergiram em números uniformemente
maiores do pólo magnético sul do que do norte. Essa situação podia ser distinguida de sua imagem especular, e a lei de conservação
da paridade acabou não valendo para interações fracas.

Consequentemente, é perfeitamente possível que um kaon tenha paridade ímpar algumas vezes e paridade par outras vezes,
quando apenas interações fracas estão envolvidas.

Foi feita uma tentativa de produzir uma lei de conservação mais geral combinando paridade com conjugação de carga, uma
quantidade que envolve o intercâmbio de partículas e antipartículas. Essa combinação, geralmente abreviada como conservação
de PC, significa que uma mudança na paridade implica uma mudança apropriada em relação às antipartículas. Assim, a versão
de antimatéria do cobalto-60 emitiria pósitrons predominantemente do pólo norte magnético. A paridade e a conjugação de carga são
conservadas separadamente em interações fortes e conservadas conjuntamente em interações fracas.
Machine Translated by Google

Gell-Mann continuou, em 1961 (como fez, independentemente, o físico israelense Yuval Ne'eman) para tentar produzir
ordem entre as crescentes dezenas de partículas de interação forte, organizando-as de uma certa maneira, fazendo
uso de oito propriedades conservadas em fortes interações. Gell-Mann, fazendo uso de um ramo avançado da matemática
chamado "teoria dos grupos" para guiar seus arranjos, chamou o resultado de caminho óctuplo.

Em um cuidado, por exemplo, Gell-Mann lidou com um grupo de quatro partículas delta, novos híperons que
vinham em variedades carregadas - 1, 0, + 1 e + 2. Acima delas ele poderia colocar as partículas sigma um pouco mais
massivas (com cargas - 1, 0 e +1), e acima delas as partículas xi massivas ainda mãe (com cargas - 1 e 0).

A irregularidade poderia ser continuada se no vértice do triângulo que ele estava denominando pudesse colocar
uma panícula única com uma carga de -1. Uma vez que este era o final do triângulo, Gell-Mann nomeou-o a partícula
ômega-menos, "ômega" rei a última letra do alfabeto grego. A partir do arranjo das várias propriedades conservadas, a
partícula ômega menos teria que possuir valores particulares para elas, incluindo, o que é mais incomum, um número de
estranheza sem precedentes de -3.

Em 1964, a partícula ômega-minus foi detectada e mostrou ter todas as propriedades previstas com incrível fidelidade,
até o número de estranheza de -3. Foi uma descoberta tão significativa, talvez, quanto as dos elementos perdidos
de Mendeleev. Aqui está a fronteira atual da física – o mundo das panículas subatômicas que nas últimas duas
décadas se tornou uma selva de eventos estranhos e mistificadores, mas que, se a chave apropriada for encontrada,
pode produzir um novo, sutil e intensamente iluminação brilhante do universo físico.

Leitura adicional sugerida

Feynman, Richard P. Leighton, Robert B.; e Sands, Matthew, The Feynman Lectures on Physics (Volume III),
Addison-Wesley Publishing Co., Inc., Reading, Mass. (1963).

Ford, Kenneth W., The World of Elementary Particles, Blaisdell Publishing Co., Inc., Nova York (1963).

Friedlander, Gerhart; Kennedy, Joseph W.; e Miller, Julian Malcolm, Nuclear and Radiochemistry, John Wiley &
Sons, Inc., Nova York (1964).

Glasstone, Samuel, Sourcebook on Atomic Energy, D. Van Nostrand Co., Inc., Princeton, Nova Jersey (1958).
Machine Translated by Google

Kaplan, Irving, Nuclear Physics, Addison-Wesley Publishing Co., Inc., Reading, Mass. (1963).

Lengyel, Bela A., Lasers, John Whey & Sons, Inc., Nova York (1962).

Você também pode gostar