Você está na página 1de 207

Machine Translated by Google

ENTENDENDO A FÍSICA 2

LUZ, MAGNETISMO E ELETRICIDADE


ISAAC ASIMOV

A grande transição da física newtoniana para a física de hoje constitui


um dos capítulos mais importantes dos anais do progresso científico. Culminando com as contribuições
marcantes de Plank e Einstein, essa imensa expansão do conhecimento é examinada e
explicada por um autor insuperável na escrita para o não especialista.
Em Luz, Magnetismo e Eletricidade, Isaac Asimov consegue tornar soberbamente claro o fundamento essencial
da compreensão da ciência que desempenha um papel tão importante na formação do nosso mundo.

Capítulo 1
Mecanismo
A Visão Newtoniana

No primeiro volume deste livro, tratei da energia em três formas: movimento (energia cinética), som e calor. Como
se viu, som e calor são formas de energia cinética, afinal. No caso do som, os átomos e moléculas que compõem o
ar, ou qualquer outro meio pelo qual o som viaja, movem-se para frente e para trás de maneira ordenada. Desta
forma, ondas de compressão e rarefação se espalham a uma velocidade fixa (ver página I-156).' O calor, por outro
lado, está associado ao movimento aleatório dos átomos e moléculas que compõem qualquer substância. Quanto
maior a velocidade média desse movimento, maior a intensidade do calor.

Em meados do século XIX, o físico escocês James Clerk Maxwell (1831-1879) e o físico austríaco Ludwig
Boltzmann (1844-1906) haviam elaborado, em estrito detalhe, a interpretação do calor como movimento molecular
aleatório (a "teoria cinética da aquecer"). Tornou-se então mais tentador do que nunca suspeitar que todos os
fenômenos do universo pudessem ser analisados como sendo baseados na matéria em movimento.

De acordo com essa visão, pode-se imaginar o universo como consistindo de um grande número de partes, cada
parte, se em movimento, afetando as partes vizinhas com as quais faz contato. Isso é exatamente o que vemos, por exemplo,
em uma máquina como um relógio comum. Uma parte do relógio afeta a outra pela força de uma mola em expansão; movendo-se, inter
Machine Translated by Google

engrenagens; por alavancas; em suma, por interconexões físicas de todos os tipos. Em outras máquinas, essas interconexões
podem consistir em correias sem fim, polias, jatos de água e assim por diante. Na escala submicroscópica, são os átomos e as
moléculas que estão em movimento, e estes interagem empurrando uns aos outros quando colidem. Na escala cósmica, são os
planetas e as estrelas que estão em movimento, e estes interagem uns com os outros através da influência gravitacional.

Do vasto universo até os menores componentes dele, todos podem ser vistos como obedecendo às mesmas leis da mecânica
pela interação física que as máquinas familiares da vida cotidiana. Esta é a filosofia do mecanismo, ou a interpretação mecanicista do
universo. (A influência gravitacional não se encaixa bem nessa visão, como indicarei em breve.)

As interações da matéria em movimento obedecem, em primeiro lugar, às três leis do movimento propostas por Isaac Newton (1642-1642-
1727) em 1687, e a lei da gravitação universal que ele também propôs. A visão mecanicista do universo pode, portanto, ser chamada,
com bastante justiça, como a "visão newtoniana do universo".

Todo o primeiro volume deste livro é dedicado à visão newtoniana. Ela transporta a matéria para meados do século XIX, quando
essa visão superou todos os obstáculos e ganhou força até parecer, de fato, triunfante e inabalável.

Na primeira metade do século XIX, por exemplo, descobriu-se que Urano viajava em sua órbita de uma maneira que
não poderia ser totalmente explicada pela lei da gravitação universal de Newton. A discrepância entre a posição real de Urano na
década de 1840 e a que se esperava era pequena; no entanto, a mera existência dessa discrepância ameaçava destruir o tecido
newtoniano.

Dois jovens astrônomos, o inglês John Couch Adams (1819-1892) e o francês Urbain Jean Joseph Leverrier (1811-1877),
sentiram que a visão newtoniana não poderia estar errada. A discrepância devia ser devido à existência de um planeta desconhecido
cuja influência gravitacional em Urano não estava sendo permitida. Independentemente, eles calcularam onde tal planeta deveria estar
localizado para explicar a discrepância observada nos movimentos de Urano, e chegaram à mesma conclusão. Em 1846, o planeta
postulado foi procurado e encontrado.

Depois de tal vitória, quem poderia duvidar da utilidade da visão newtoniana do universo?

E, no entanto, no final do século, descobriu-se que a visão newtoniana era apenas uma aproximação. O universo
era mais complicado do que parecia. Explicações mais amplas e sutis para seu funcionamento tiveram que ser encontradas.
Machine Translated by Google

Ação à distância

Os primórdios do colapso já estavam claramente à vista durante o auge do newtonianismo em meados do século XIX. Pelo
menos, os primórdios devem ser vistos claramente por nós, um século depois, com a vantagem da retrospectiva. A serpente no Éden
newtoniano era algo chamado "ação à distância".

Se considerarmos a matéria em movimento no mundo comum ao nosso redor, tentando não penetrar nem no cosmos vasto nem no
submicroscopicamente pequeno, parece que os corpos interagem fazendo contato. Se você quiser levantar uma pedra, você deve tocá-la
com os braços ou usar uma alavanca, uma extremidade da qual toca a pedra enquanto a outra toca seus braços.

Para ter certeza, se você colocar uma bola para rolar pelo chão, ela continuará se movendo mesmo depois que seu braço não a tocar mais;
e isso apresentou dificuldades aos filósofos dos tempos antigos e medievais. A primeira lei do movimento newtoniana eliminou a
dificuldade ao supor que apenas mudanças na velocidade exigiam a presença de uma força. Para que a bola rolante aumente sua velocidade,
ela deve ser atingida por uma marreta, um pé, algum objeto; deve fazer contato com algo material.
(Mesmo o escapamento do foguete, dirigindo para trás e empurrando a bola para frente - pela terceira lei do movimento de Newton, faz
contato material com a bola.) Mais uma vez, a bola rolante pode ser retardada pelo atrito do solo sobre o qual ela rola e toca, pelo resistência
do ar que rola e toca, ou pela interposição de um bloco de matéria que deve tocar.

O contato material pode ser transportado de um lugar para outro pela matéria em movimento. Posso ficar em uma extremidade da sala e
derrubar uma garrafa de leite na outra, jogando uma bola nela: exerço uma força sobre a bola enquanto faço contato com ela; então a bola
exerce uma força sobre a garrafa enquanto faz contato com ela. Temos dois contatos conectados por movimento. Se a garrafa de leite
estiver equilibrada o suficiente, posso derrubá-la soprando nela. Nesse caso, atiro moléculas de ar nele, em vez de uma bola, mas o princípio
é o mesmo.

É possível, então, que dois corpos interajam sem contato físico? Em outras palavras, dois corpos podem interagir no vácuo sem que
nenhum corpo material atravesse esse vácuo? Tal ação à distância é muito difícil de imaginar; é fácil sentir que é uma impossibilidade
manifesta.

O antigo filósofo grego Aristóteles (384-322 aC), por exemplo, adivinhou a natureza do som em parte pela recusa em aceitar a
possibilidade de ação à distância; Aristóteles sentiu que se ouvia sons através de uma abertura de ar porque o
Machine Translated by Google

objeto vibratório atingiu a porção vizinha de ar, e que esta porção do ar passou no golpe para a porção seguinte, o processo
continuando até que finalmente o ouvido foi atingido pela porção de ar próxima a si mesma. Isto é, grosso modo, o que
acontece quando as ondas sonoras viajam através do ar ou de qualquer outro meio condutor. Com base em tal interpretação,
Aristóteles sustentou que o som não poderia viajar através do vácuo. Em sua época, a humanidade não tinha meios de formar um
vácuo, mas dois mil anos depois, quando se tornou possível produzir vácuos razoavelmente bons, Aristóteles descobriu que era
correto.

Pode-se concluir, por argumentos semelhantes, que todas as interações que parecem estar à distância realmente
consistem em uma série de contatos sutis e que nenhuma interação de qualquer tipo pode ocorrer no vácuo. Até o século XVII,
acreditava-se fortemente que um vácuo não existia na natureza, mas era apenas uma abstração filosófica, então parecia não
haver maneira de testar esse argumento.

Na década de 1640, porém, ficou claro que a atmosfera não podia ser infinitamente alta. De fato, possivelmente não tinha mais
do que algumas dezenas de quilômetros de altura, enquanto a lua estava a um quarto de milhão de quilômetros de distância, e
outros corpos astronômicos estavam muito mais longe ainda. Quaisquer interações entre os vários corpos astronômicos devem,
portanto, ocorrer em vastas extensões de vácuo.

Uma dessas interações foi imediatamente óbvia, pois a luz chega até nós do sol, que agora sabemos estar a 150 milhões de
quilômetros de distância. Esta luz pode afetar a retina do olho. Pode afetar as reações químicas que ocorrem no tecido vegetal;
convertida em calor, pode evaporar a água e produzir chuva, ar quente e ventos. De fato, a luz solar é a fonte de praticamente toda
a energia utilizada pelo homem. Há, portanto, uma grande interação, pela luz, entre o sol e a terra através do vasto vácuo.

Então, uma vez que Newton anunciou a lei da gravitação universal em 1687, um segundo tipo de interação foi adicionado,
pois cada corpo celeste era agora entendido como exercendo uma força gravitacional em todos os outros corpos do universo
através de intermináveis extensões de vácuo. Onde dois corpos estão relativamente próximos, como a Terra e a Lua ou a Terra
e o Sol, a força gravitacional é realmente grande, e os dois corpos são forçados a seguir um caminho curvo em torno de seu centro de gravid
Se um corpo é muito maior que o outro, esse centro de gravidade comum está virtualmente no centro do corpo maior, que
o menor então circula.

Na própria Terra, eram conhecidas duas formas adicionais de transmissão de força através do vácuo. Um ímã poderia atrair o
ferro para si e um corpo eletricamente carregado poderia atrair quase qualquer material leve para si. Um ímã pode atrair ou repelir
outro; uma carga elétrica pode atrair ou repelir outra. Essas atrações e repulsões podem ser todas
Machine Translated by Google

exercida livremente através do melhor vácuo que poderia ser produzido,

Em meados do século XIX, portanto, eram conhecidas quatro formas de transmissão de força através do vácuo e, portanto,
quatro variedades possíveis de ação à distância: luz, gravidade, eletricidade e magnetismo. E, no entanto, a noção de ação à
distância era tão inacreditável para os físicos do século XIX quanto para os filósofos da Grécia antiga.

Havia duas saídas possíveis para o dilema; duas maneiras de evitar a ação à distância;

Primeiro, talvez um vácuo não fosse realmente um vácuo. Muito claramente, um bom vácuo continha tão pouca matéria comum que
este assunto poderia ser ignorado. Mas talvez a matéria comum não fosse a única forma de substância que pudesse existir.

Aristóteles havia sugerido que a substância do universo, fora da própria Terra, era composta de algo que ele chamava de
éter. O éter foi mantido na ciência moderna mesmo quando virtualmente todas as outras partes da física aristotélica foram
consideradas deficientes e foram descartadas. Foi mantido, no entanto, de forma mais sofisticada. Ele compunha o tecido do
espaço, preenchendo tudo o que era considerado vácuo e, além disso, penetrando nos recessos mais íntimos de toda a matéria
ordinária.

Newton se recusara a se comprometer com a forma como a gravitação era transmitida de corpo a corpo através do vazio. "Não faço
hipóteses", disse ele com austeridade. Seus seguidores, no entanto, imaginavam a gravitação percorrendo o éter da mesma forma
que o som atravessa o ar. O efeito gravitacional de um corpo seria expresso como uma distorção dessa parte. do éter com o qual
fez contato; essa distorção se corrigiria e, no processo, distorceria uma porção vizinha do éter. A distorção de viagem acabaria
atingindo outro corpo e o afetaria. Podemos pensar nessa distorção de viagem como um "éter aceno."

A segunda saída para o dilema da ação à distância era supor que as forças que se faziam sentir através do vácuo na verdade se
cruzavam na forma de minúsculos projéteis. Os projéteis podiam ser pequenos demais para serem vistos, mas estavam lá. A luz, por
exemplo, pode consistir em partículas em alta velocidade que o vácuo. Ao passar do sol para a terra, eles fariam contato primeiro
com o sol e depois com a terra, e então não haveria nenhuma ação verdadeira à distância, mais do que no caso de uma bola ser
lançada em uma garrafa. .

Por dois séculos depois de Newton, os físicos vacilaram entre esses dois pontos de vista: ondas e partículas. O antigo
exigia um éter, o último não. Este volume será dedicado, em boa parte, aos detalhes dessa vacilação entre
Machine Translated by Google

as duas visões. No século XVIII, a visão de partículas era dominante; no décimo nono a visão de onda. Então, com o início do
século XX, aconteceu uma coisa de contato – as duas visões se fundiram e se tornaram uma!

Para explicar como isso aconteceu. Vamos começar com a primeira entidade conhecida por ser capaz de atravessar o vácuo – a luz.

CAPÍTULO 2
LEVE

Transmissão de luz

Certamente a luz irrompeu na consciência do homem assim que ele teve qualquer consciência. As origens da própria palavra
estão enterradas nas brumas dos primórdios das línguas indo-européias. A importância da luz foi reconhecida pelos primeiros
pensadores. Na própria Bíblia, o primeiro mandamento de Deus na construção de um universo ordenado foi "Haja luz!"

A luz viaja em linhas retas. Esta, de fato, é a suposição que cada um de nós faz desde a infância. Estamos serenamente
certos de que, se estivermos olhando para um objeto, esse objeto existe na direção em que estamos olhando. (Isso é
estritamente verdadeiro apenas se não estivermos olhando para um espelho ou através de um prisma de vidro, mas não é difícil
aprender a fazer as exceções necessárias à regra geral.)

Esse movimento retilíneo da luz, sua propagação retilínea, é a suposição básica da óptica (de uma palavra grega que
significa "visão"), o estudo da física da luz. Onde o comportamento da luz é analisado permitindo que linhas retas representem
o caminho da luz e onde essas linhas são estudadas pelos métodos da geometria, temos a óptica geométrica. É com a óptica
geométrica que este capítulo e o próximo estão preocupados.

Considere uma fonte de luz, como a chama de uma vela. Supondo que nenhum objeto material bloqueie sua visão em qualquer
ponto, a chama pode ser vista com igual facilidade de qualquer direção. A luz, portanto, pode ser visualizada como fluindo de
sua fonte em todas as direções. O sol, por exemplo, pode ser desenhado (em duas dimensões) como um círculo com linhas,
representando a luz e estendendo-se para fora de todas as partes da circunferência.

Tais linhas sobre o desenho do sol lembram os raios de uma roda emergindo do cubo. A palavra latina para
Machine Translated by Google

falou de uma roda é o raio (o que nos dá a palavra para a linha reta que se estende do centro de um círculo à sua
circunferência). Por esta razão, diz-se que o sol (ou qualquer fonte de luz) irradia luz, e a luz é chamada de radiação.
Uma porção muito fina de tal radiação de luz, que se assemelha a uma linha em sua retidão e finura final, é um raio de luz,
novamente do raio.

A luz do sol brilhando através de um buraco em uma cortina formará um pilar de luz que se estende do buraco até a parede oposta
onde a interseção do pilar com a parede formará um círculo de iluminação brilhante. Se o ar da sala estiver normalmente
empoeirado, o pilar de luz será delineado em partículas de poeira brilhantes. As linhas retas que delimitam o pilar de luz serão
evidências visíveis da propagação retilínea da luz. Tal pilar de luz é um feixe de luz (da semelhança de sua forma com o tronco de
uma árvore; a palavra alemã para árvore é "Baum" e uma palavra semelhante, é claro, é encontrada em anglo-saxão). pode ser visto
como uma coleção, de um número infinito de raios de luz infinitesimalmente finos.

As fontes de luz variam em brilho. Mais luz é emitida por uma lâmpada de cem watts do que por uma vela, e
incomparavelmente mais luz é emitida pelo sol. Para medir a quantidade de luz emitida por uma fonte de luz, os físicos
podem concordar em usar alguma fonte de luz específica como padrão. A primeira escolha óbvia para o padrão foi uma vela
feita de um material específico (a cera de esperma era melhor) preparada de uma maneira particular e moldada para definir as especificações.
A luz emitida por esta vela horizontalmente pode ser considerada igual a 1 vela. Lâmpadas elétricas em forma de conjunto
substituíram a vela, especialmente nos Estados Unidos, mas ainda falamos da vela internacional, uma medida de quantidade de
luz aproximadamente igual à antiga potência da vela.

O brilho de uma fonte de luz varia de alguma forma com a distância da qual é vista: quanto maior a distância, mais fraca
ela parece. Um livro perto de uma vela pode ser lido facilmente; mantido mais distante torna-se primeiro difícil e depois impossível
de ler.

Isso não é surpreendente. Suponha que uma quantidade fixa de luz esteja emergindo da chama da vela. À medida que se
espalha em todas as direções, essa quantidade fixa deve ser estendida por uma área cada vez maior. Podemos imaginar a borda
da iluminação formando uma esfera com a fonte de luz no centro. A superfície da esfera cresce cada vez mais à medida que a luz
irradia para fora.

Da geometria plana sabemos que a superfície de uma esfera tem uma área proporcional ao quadrado do comprimento de seu
raio. Se a distância da fonte de luz (o raio da esfera imaginária que estamos considerando) for duplicada, a superfície sobre a qual
a luz se espalha aumenta duas vezes, duas ou quatro vezes. Se a distância é triplicada, a superfície é aumentada 9
Machine Translated by Google

vezes. A quantidade total de luz sobre toda a superfície pode permanecer a mesma, mas a intensidade da luz – isto é, a
quantidade de luz que incide sobre uma determinada área da superfície – deve diminuir. Mais, deve diminuir conforme o quadrado da
distância da fonte de luz. Dobrar a distância da fonte de luz diminui a intensidade da luz para 1/4 da original; triplicar a distância
diminui para 1/9.

Suponha que usamos o pé quadrado como unidade de área de superfície e imagine que o pé quadrado dobrado na forma de um segmento
de uma superfície esférica de modo que todas as partes dela sejam equidistantes da fonte de luz localizada centralmente. Se esse
pé quadrado estiver a apenas um pé de distância de uma fonte de luz que fornece 1 vela de luz, então a intensidade da iluminação
recebida pela superfície é de 1 pé-vela. Se a superfície for removida a uma distância de dois pés, a intensidade de sua iluminação
será de 1/4 de pé de vela e assim por diante.

Como a intensidade da luz é definida como a quantidade de luz por unidade de área, também podemos expressá-la como
tantas velas por metro quadrado. Para este propósito, no entanto, uma unidade de quantidade de luz menor que a vela é
comumente usada. Este é o lúmen (de uma palavra latina para "luz"); Assim, se um pé quadrado a uma certa distância de uma fonte
de luz recebe 1 lúmen de luz, dois pés quadrados a essa mesma distância receberão 2 lúmens de luz e meio pé quadrado receberá
1/2 lúmen. Em cada caso, porém, a intensidade da luz será de 1 lúmen/pé 2. O lúmen é definido de tal forma que uma intensidade de 1
2 lúmens/pé equivale a 1 pé-vela.

Imagine uma fonte de luz de 1 vela no centro de uma esfera oca com um raio de um pé. A intensidade da luz em cada porção da
superfície interior da esfera é de 1 pé-vela, ou 1 lúmen; pé 2. Cada pé quadrado da superfície interior está, portanto, recebendo 1
lúmen de iluminação. A área da superfície da esfera é igual a 4 (pi) r2 pés quadrados. Como o valor de r, o raio da1 pé,
esfera,
o número
é fixado
de em
pés
quadrados de superfície é igual a 4(pi). A quantidade (pi) (a letra grega pi) é igual a cerca de 3,14, então podemos dizer que existem
cerca de 12,56 pés quadrados nessa superfície esférica.
A luz (que definimos em 1 vela) está, portanto, fornecendo um total de 12,56 lúmens, então podemos dizer que 1 vela equivale
a 12,56 lúmens.

A luz é transmitida, completamente e sem impedimentos, apenas através do vácuo. Todas as formas de matéria irão, pelo
menos até certo ponto, absorver luz. A maioria das formas o faz a tal ponto que, na espessura comum, absorvem toda a luz que
incide sobre elas e são opacas (de uma palavra latina que significa "escuro").

Se um objeto opaco for colocado entre uma fonte de luz e uma superfície iluminada, a luz passará pelas bordas do
Machine Translated by Google

objeto, mas não através dele. No lado do objeto oposto à fonte de luz haverá, portanto, um volume de escuridão chamado sombra.
Onde este volume cruza a superfície iluminada haverá uma mancha não iluminada; é a essa interseção bidimensional da sombra
que costumamos nos referir pela palavra.

A lua projeta uma sombra. Metade de sua superfície está exposta à iluminação direta do sol: a outra metade está
que a própria substância opaca da lua bloqueia a luz do sol. Vemos apenas o lado iluminado da lua, e 0 0 porque esse lado
iluminado ângulo
nos é que
apresentado
varia de 0em um
para 360 durante um mês, assistimos ao

lua passam por um ciclo de fases nesse mês.

Além disso, a sombra da lua não afeta apenas sua própria superfície, mas se estende no espaço por mais de duzentas mil
milhas se o sol fosse uma "fonte pontual" - isto é, se toda a luz viesse de um único ponto brilhante - a sombra se estenderia
indefinidamente. No entanto, o sol é visto como uma área de luz e, à medida que se afasta da lua, seu tamanho aparente diminui até
não poder mais cobrir toda a área do sol muito maior. Nesse ponto, ele não projeta mais uma sombra completa, e a sombra
completa (ou umbra, da palavra latina para "sombra") se reduz a um ponto. No entanto, a umbra é longa o suficiente para atingir a
superfície da Terra e, às vezes, quando a Lua se interpõe exatamente entre a Terra e o Sol, ocorre um eclipse solar em uma pequena
área da superfície da Terra.

A terra também projeta uma sombra, e metade de sua superfície está nessa sombra. Como a Terra gira em vinte e quatro horas,
cada um de nós experimenta essa sombra ("noite") durante cada passagem de 24 horas. (Isso nem sempre é verdade para áreas
polares, por razões melhor discutidas em um livro de astronomia.) A lua pode passar pela sombra da Terra, que é muito mais
longa e larga do que a da lua, e podemos então observar um eclipse lunar .

Materiais opacos não são absolutamente opacos. Se for fino o suficiente, alguma luz passará. A fina folha de ouro, por
exemplo, será atravessada pela luz, embora o próprio ouro seja certamente opaco.

Algumas formas de matéria absorvem tão pouca luz (por unidade de espessura) que as espessuras que normalmente
encontramos não interferem seriamente na transmissão da luz. Tais formas de matéria são transparentes (da palavra latina que
significa “ser visto através”). O próprio ar é o melhor exemplo de matéria transparente. É tão transparente que mal percebemos
sua existência, pois vemos objetos através dele como se não havia nenhum obstáculo, quase todos os gases são transparentes e
numerosos líquidos, notadamente a água, também são transparentes.

É entre os sólidos que a transparência é a exceção. O quartzo é um dos poucos sólidos naturais que
Machine Translated by Google

exibir a propriedade, e os gregos atônitos a consideraram um termo de gelo quente. A palavra "cristal". aplicado pela primeira
vez ao quartzo vem de sua palavra para "gelo", e a palavra "cristalino" tem como um de seus significados "transparente".

A transparência torna-se menos pronunciada quando são consideradas secções cada vez mais espessas de substâncias
normalmente transparentes. Uma pequena quantidade de água é certamente transparente, e os seixos no fundo de uma piscina
clara podem ser vistos distintamente. 450 pés quase nenhuma luz pode penetrar. Espessuras de água maiores que isso são tão
opacas como se representassem a mesma espessura de rocha, e as profundezas do mar não podem ser vistas através da água
"transparente" que a recobre.

O ar absorve a luz em menor grau do que a água e, portanto, é mais transparente. Mesmo que estejamos no fundo
de um oceano de ar com muitos quilômetros de altura, a luz do sol não tem dificuldade em penetrar em nós, e nós, por nossa vez,
não temos dificuldade em ver a luz muito mais fraca das estrelas. No entanto, existe alguma absorção: estima-se, por exemplo, que
30% da luz que chega até nós do espaço é absorvida por essa atmosfera. (Algumas formas de radiação que não a luz visível são
absorvidas com muito maior eficiência pela atmosfera, e a espessura do ar que nos cobre é suficiente para tornar o ar opaco a essas
radiações.)

A luz é uma forma de energia e, embora possa ser facilmente transformada em outras formas de energia, não pode ser destruída. Enquanto
absorção por um material opaco (ou uma espessura suficiente de um material transparente) parece destruí-lo, na verdade ele é
convertido em calor.

Reflexão

A afirmação de que a luz sempre viaja em linha reta é completamente verdadeira apenas sob certas circunstâncias, como quando
a luz viaja através de um meio uniforme – através do vácuo, por exemplo, ou através do ar que está em igual temperatura e
densidade. Se o meio muda - como quando a luz viajando pelo ar atinge um corpo opaco - a regra da linha reta não é mais rigorosa.
A luz que não é absorvida pelo corpo muda de direção abruptamente, como uma bola de bilhar quando atinge a borda de uma mesa
de bilhar.

Esse retorno da luz de um corpo opaco é chamado de reflexão (das palavras latinas que significam "inclinar-se para trás").

O reflexo da luz parece seguir de perto as regras que regem o quicar de uma bola de bilhar. Imagina um apartamento
Machine Translated by Google

superfície capaz de refletir a luz. Uma linha perpendicular a essa superfície é chamada de normal, do nome latino para esquadro de
carpinteiro usado para desenhar perpendiculares. Um raio de luz movendo-se ao longo da normal atinge a superfície refletora de frente
e volta em suas trilhas. Uma bola de bilhar em alta velocidade faria o mesmo.

Se o raio de luz estivesse viajando obliquamente em relação à superfície refletora, ele atingiria um ângulo com a normal. O raio de
luz que se move em direção à superfície é o raio incidente, e seu ângulo com a normal é o ângulo de incidência.
O raio refletido retornaria do outro lado da normal, fazendo um novo ângulo, o ângulo de reflexão. O raio incidente, o raio refletido e a
normal estão todos no mesmo plano - isto é, uma folha plana pode passar por todos os três simultaneamente sem que sua planicidade seja
distorcida.

Experimentos com raios de luz e superfícies refletoras no ar empoeirado, que iluminam os raios de luz e os tornam visíveis, mostrarão
que o ângulo de incidência (i) é sempre igual ao ângulo ou reflexão (r). Isso pode ser expresso, simplesmente:

eu = r (Equação 2-1)

Na verdade, é raro encontrar uma superfície verdadeiramente plana. A maioria das superfícies tem pequenos desníveis mesmo
quando parecem planas. Um feixe de luz, composto de raios paralelos, não exibiria o mesmo ângulo de incidência em toda a extensão. Um
raio pode atingir a superfície em um ponto onde o ângulo de incidência é 0 0; outro pode atingir muito perto de onde a superfície tem 0, no
entanto, curvada até que esteja em um ângulo de 10
0 para a luz; em outro lugar é 10 na outra direção, ou 20 0, e continue.
O resultado é que um feixe de luz incidente com raios paralelos será quebrado na reflexão, com os raios refletidos viajando em todas
as direções em um amplo arco. Isso é reflexão difusa.

Quase todas as reflexões que encontramos são desse tipo. Uma superfície que reflete a luz difusamente pode ser vista igualmente
bem de diferentes ângulos, uma vez que em cada um dos vários ângulos numerosos raios de luz viajam do objeto para o olho.

Se a superfície for bastante plana, boa parte dos raios paralelos da luz incidente serão refletidos no mesmo ângulo. Nesse caso, embora
você possa ver o objeto refletor de vários ângulos, verá muito mais luz se se orientar no ângulo adequado para receber o reflexo principal.
Nesse ponto, você verá um destaque."

Se uma superfície for extremamente plana, virtualmente todos os raios paralelos de um feixe de luz incidente serão refletidos ainda paralelos. Como
como resultado, seus olhos interpretarão o feixe refletido como fariam com o original.
Machine Translated by Google

Por exemplo, os raios de luz refletidos difusamente do rosto de uma pessoa formam um padrão que os olhos transmitem e o cérebro interpreta
como o rosto dessa pessoa. Se esses raios atingirem uma superfície extremamente plana, forem refletidos sem distorção mútua e, em seguida,
atingirem seus olhos, você ainda interpretará a luz como representando o rosto dessa pessoa.

Seus olhos não podem, no entanto, contar a história da luz que os atinge. Eles não podem, sem informações independentes, dizer se a
luz foi refletida ou não. Já que você está acostumado desde a mais tenra vida a interpretar a luz como viajando em linhas retas ininterruptas, você
também o faz agora. O rosto da pessoa visto pela luz refletida é visto como se estivesse atrás da superfície de reflexão, onde estaria se a luz viesse
direto para você sem interrupção, em vez de atingir o espelho e ser refletida para você.

O rosto que você vê no espelho é uma imagem. Porque ela não existe realmente no lugar que você parece vê-la (olhe atrás do espelho e não
é então) é uma imagem virtual. (Ele possui as "virtudes" ou propriedades de um objeto sem que esse objeto realmente esteja lá.) É, no entanto, à
mesma distância atrás do espelho que o objeto refletido está diante dele e, portanto, parece ter o mesmo tamanho que o objeto refletido. objeto.

Nos tempos primitivos, praticamente a única superfície plana o suficiente para refletir uma imagem era uma lâmina de água. Tais imagens
são imperfeitas porque a água raramente é bastante imperturbável, e mesmo quando o é, tanta luz é transmitida pela água e tão pouco refletida que a
imagem é tênue e obscura. Sob tais circunstâncias, um homem primitivo pode não perceber que era seu próprio rosto olhando para ele. (Considere o
mito grego de Narciso, que se apaixonou perdidamente por seu próprio reflexo na água e se afogou tentando alcançá-lo.)

Uma superfície de metal polido refletirá muito mais luz, e superfícies de metal foram usadas ao longo dos tempos antigos e medievais como
espelhos. Tais superfícies, no entanto, são facilmente arranhadas e danificadas. Por volta do século XVII a combinação vidro-metal tornou-se comum.
Aqui, uma fina camada de metal é espalhada sobre uma folha de vidro plano. Se olharmos para o lado do vidro, vemos um reflexo brilhante da superfície
de metal que cobre o outro lado. O vidro serve para proteger a superfície metálica de danos. Este é um espelho (de uma palavra latina que significa
"olhar com espanto", que expressa bem sentimentos primitivos sobre imagens de si mesmo) ou espelho. Uma palavra latina para espelho é espéculo,
e por essa razão a expressão para a reflexão imperturbável de uma superfície extremamente plana é reflexão especular.

Uma imagem vista em um espelho não é idêntica ao objeto refletido.

Suponha que você esteja enfrentando um amigo. Seu lado direito está à sua esquerda; seu lado esquerdo está à sua direita. Se você quiser apertar as mãos,
Machine Translated by Google

mão direita com a mão direita, suas mãos fazem uma linha diagonal entre seus corpos. Se vocês dois dividirem o cabelo do lado esquerdo,
verão a parte dele do lado oposto ao seu.

Agora imagine seu amigo se movendo atrás de você, mas um pouco para o lado, para que ambos possam ser vistos no espelho à sua
frente. Ignore sua própria imagem e considere apenas a de seu amigo. Você está enfrentando agora, não o seu amigo, mas a imagem do seu
amigo, e há uma mudança. O lado direito dele está à sua direita e o lado esquerdo dele está à sua esquerda. Agora as partes do seu cabelo
estão do mesmo lado, e se você estender sua mão direita enquanto seu amigo estende a dele, sua mão estendida e a da imagem estarão do
mesmo lado.

Em suma, a imagem inverte para a direita e para a esquerda; uma imagem com tal inversão é uma imagem espelhada. Uma imagem espelhada não
no entanto, inverta para cima e para baixo. Se o seu amigo estiver de pé, a imagem dele também estará.

Espelhos Curvos

O espelho comum com o qual estamos familiarizados é um espelho plano - isto é, é perfeitamente plano. Uma superfície refletora, no
entanto, não precisa ser plana para exibir reflexão especular. Pode ser curvado, desde que seja liso. Raios paralelos de luz refletidos de
uma superfície curva não são mais paralelos, mas também não são refletidos em direções aleatórias. A reflexão é ordenada e os raios de luz
podem convergir (das palavras latinas que significam “apoiar-se”) ou divergir (“afastar-se”).

A curvatura mais simples é a de uma seção de uma esfera. Se você estiver olhando para o lado de fora da seção, de modo que ela forme uma
colina em sua direção com o centro mais próximo de você, é uma superfície convexa (das palavras latinas que significam "puxadas juntas"). Se
você está olhando para o interior da seção esférica, você está olhando para uma cavidade com o centro mais distante de você. Essa é uma
superfície côncava (“com uma cavidade”).

Um segmento esférico de vidro, devidamente prateado, é um espelho esférico. Se for prateado em sua superfície convexa, de modo que
você o veja como um espelho, se olhar em sua superfície côncava, é claro que é um espelho esférico côncavo. O centro da esfera da qual o
espelho curvo faz parte é o centro de curvatura. Uma linha que liga o centro de curvatura com o ponto médio do espelho é o eixo principal do
espelho.

Suponha que um feixe de luz, paralelo ao eixo principal, caia sobre a superfície refletora côncava. O raio que se encontra no próprio eixo
principal atinge perpendicularmente e é refletido de volta sobre si mesmo. Com um raio de luz que incide próximo ao eixo principal, mas não
nele, o espelho se curvou de tal forma que o raio faz um pequeno ângulo com a normal.
Machine Translated by Google

Ela é refletida do outro lado da normal de uma forma que a dobra levemente em direção ao eixo principal. Se o raio de luz incide mais
longe do eixo principal, o espelho se inclinou em um ângulo maior e reflete o raio mais nitidamente em direção ao eixo principal.
Como o espelho é um segmento esférico e se curva igualmente em todas as direções a partir do eixo principal, isso é verdade para
os raios de luz que atingem a direita ou a esquerda do eixo principal, acima ou abaixo dele. Reflexões de todas as partes do espelho
apontam para o eixo principal; os raios refletidos convergem.

Se forem considerados apenas os raios que atingem razoavelmente perto do ponto médio do espelho, verifica-se que eles
convergem de tal maneira que se encontram em uma região restrita - aproximadamente em um ponto, na verdade. Este ponto é
chamado de foco (de uma palavra latina para "lareira", que é onde se esperaria uma concentração de luz). O foco cai no eixo
principal, a meio caminho entre o ponto médio do espelho e o centro de curvatura.

Na verdade, nem todos os raios refletidos se encontram exatamente no foco. Isso se torna óbvio se considerarmos os raios que
incidem sobre o espelho esférico a uma certa distância do eixo principal. As reflexões desses raios perdem o foco por uma distância
considerável. Isso é chamado de aberração esférica (do latim, "vagar para longe"). Esses raios distantes caem entre o foco e o
próprio espelho e, portanto, são refletidos em um ângulo muito grande. O espelho, em outras palavras, curvou-se demais para
focalizar todos os raios.

Para evitar isso, precisamos de um espelho curvo que faça uma curva um pouco menos acentuada do que um segmento esférico.
A curva necessária é a de um parabolóide de revolução.

Uma seção esférica, se continuada, fecha-se sobre si mesma e finalmente forma uma esfera. Um parabolóide de revolução parece
como um segmento esférico se apenas um pequeno pedaço sobre o ponto médio for tomado. Se for continuado e aumentado, não
se fecha sobre si mesmo. Ele se curva cada vez mais suavemente até que suas paredes estejam quase retas, formando um longo
cilindro que se alarga muito lentamente. Um espelho formado por uma seção (sobre o ponto médio) de tal parabolóide de revolução
é chamado de espelho parabólico.

Se um feixe de luz paralelo ao eixo principal de tal espelho parabólico incide sobre sua superfície côncava, os raios
de fato convergem para um foco, e sem aberração.

Para produzir tal feixe de luz, consistindo de raios paralelos, devemos, estritamente falando, pensar em uma fonte pontual de luz
no eixo principal a uma distância infinita do espelho. Se a fonte pontual estiver a uma distância finita, então os raios que
atingem o espelho a partir dessa fonte pontual não são verdadeiramente paralelos, mas divergem ligeiramente. Cada raio atinge a superfície do e
Machine Translated by Google

um ângulo com a normal, que é ligeiramente menor do que seria se os raios fossem verdadeiramente paralelos e,
consequentemente, é refletido por um ângulo menor. Os raios, portanto, convergem mais longe do espelho do que no foco.
Se a distância da fonte pontual for grande em comparação com a distância do foco (que é apenas uma questão de alguns
centímetros para o espelho parabólico médio, o espelho parabólico médio), então os raios convergem em um ponto muito
próximo do foco - perto o suficiente para que a diferença possa ser ignorada.

Se a fonte de luz for movida cada vez mais perto do espelho, os raios refletidos convergem cada vez mais longe do
espelho. Quando a fonte de luz está a duas vezes a distância do foco do espelho, eventualmente os raios refletidos convergem
para a própria fonte de luz. Se a fonte de luz for aproximada ainda mais, os raios refletidos convergem para um ponto além da luz
fonte.

Finalmente, se a fonte de luz estiver localizada no próprio foco, os raios refletidos não convergem mais, mas são paralelos.
(Podemos dizer que o ponto de convergência se afastou infinitamente do espelho.) O farol do automóvel funciona dessa maneira.
Sua superfície interna é um espelho parabólico, e a pequena lâmpada incandescente está em seu foco. Consequentemente, tal
farol lança um feixe de luz bastante direto para a frente.

Vamos chamar a distância da fonte de luz do espelho D(0), e a distância do ponto de convergência dos raios refletidos
do espelho, D(1). A distância do foco do espelho podemos chamar de (f). A seguinte relação então é verdadeira:

1/ D(0) + 1/ D(1) = 1/f Equação (2-2)

Podemos verificar isso para os casos que já discutimos. Suponha que a fonte de luz esteja a uma distância muito grande
(praticamente infinita). Nesse caso, D(0), é extremamente grande e 1/D(0), é extremamente pequeno. De fato, 1/D(0), pode
ser considerado zero. Nesse caso, a Equação 2-2 se torna 1/D(1), = 1/f, e D(1) = f, o que significa que os raios de luz
refletidos convergem no foco.

Se a fonte de luz está no eixo principal, mas a duas vezes a distância do espelho que o foco está, então D(0) = 2f, e a Equação
2-2 se torna: 1/2f +1/D(1) = l/ f.

Se resolvermos esta equação para D(1), descobriremos que D(1) = f. Em outras palavras, os raios refletidos neste caso
convergem para a localização da própria fonte de luz.
Machine Translated by Google

E se a fonte de luz estiver localizada no foco? Nesse caso D(0) = f. A equação 2-2 se torna
1/f + l/D(1) = l/f, a partir do qual você pode ver imediatamente que 1/D(1) = 0. Mas se 1/D(1) = 0, então D(1) deve ser infinitamente grande.
A distância do espelho para a qual os raios refletidos convergem é infinita e, portanto, os raios não convergem, mas são paralelos.

Na seção anterior, considerei a fonte de luz como um ponto. Na verdade, é claro, não é realmente um ponto. Suponha que a fonte
de luz seja a chama de uma vela, que, naturalmente, cobre uma área. Parte da chama está ligeiramente acima do eixo principal, algumas
ligeiramente abaixo, algumas de um lado e outras de outro. Os raios de luz que se originam um pouco acima do eixo principal são
refletidos para um ponto um pouco abaixo do verdadeiro ponto de convergência (ou seja, qual seria o verdadeiro ponto se a chama da
vela fosse uma fonte pontual de luz); as que se originam abaixo do eixo principal são refletidas para um ponto acima do ponto de
convergência; as que se originam à direita são refletidas à esquerda; aqueles que se originam à esquerda são refletidos à direita. Se
tomarmos qualquer raio em particular, quanto maior a distância do eixo principal que ele origina, maior a distância do ponto de
convergência, mas no lado oposto.

O resultado é que na área onde os raios de luz refletidos convergem, obtém-se uma imagem na qual não apenas esquerda e direita
estão trocadas (como em um espelho plano), mas também para cima e para baixo. Uma imagem invertida é formada; na verdade, se
você olhar para a tigela brilhante de uma colher, verá seu rosto de cabeça para baixo.

A imagem produzida por tal espelho côncavo tem outra diferença importante daquela produzida por um espelho plano.
A imagem produzida pelo espelho plano, como foi dito anteriormente, não está realmente atrás do espelho onde parece estar, então é
uma imagem virtual. No caso de um espelho côncavo, a imagem é formada na frente do espelho por meio de raios de luz convergentes.
A imagem está realmente lá e pode ser tocada; portanto, é uma imagem real.

Com certeza, quando você realmente toca uma imagem real, parece que não está tocando nada, porque está acostumado a
considerar o toque apenas em conexão com a matéria. Um espelho parabólico não converge matéria; ela converge a luz e você não
pode tocar a luz no sentido comum. No entanto, você pode sentir a luz quando ela é absorvida pela pele e transformada em calor; e
nesse sentido, ao sentir o calor, você está "tocando" a imagem.

Um dedo mantido a um metro e oitenta da chama de uma vela absorve parte do calor da radiação que incide diretamente sobre ele. O dedo,
no entanto, intercepta apenas uma pequena fração da radiação total da vela, e o efeito de aquecimento é insignificante. Um
espelho côncavo interceptaria mais radiação da vela e a convergiria para um pequeno volume de espaço. O dedo
Machine Translated by Google

colocados na área de convergência sentiriam mais calor nessa área do que em qualquer outro lugar da vizinhança. O aumento
na concentração de calor ainda pode ser muito pequeno para ser sentido, mas se o espelho côncavo for usado para concentrar
os raios do sol, você certamente o sentirá. Grandes espelhos parabólicos foram construídos que interceptam a radiação solar
em uma área considerável e convergem tudo. Temperaturas tão altas quanto 7000 graus C foram alcançadas no foco de tais
fornos solares. Há uma imagem real que pode ser sentida com uma vingança.

Um espelho de curvatura variável pode produzir distorções estranhas e bem-humoradas na imagem, como sabe
quem frequenta parques de diversões. No entanto, uma imagem adequada de um espelho limpo de forma não distorcida
pode parecer completamente legítima, principalmente se os limites do espelho forem mascarados de modo que o espectador
não tenha motivos para sentir que um espelho está lá. O espectador casual confunde imagem com realidade e esta é a base para alguns dos
Naturalmente, uma imagem real é ainda mais tentadora do que uma imagem virtual. No Museu de Ciências de Boston, uma
imagem real é projetada de tal forma que as moedas parecem cair em um cálice de cabeça para baixo, desafiando a gravidade.
Os espectadores (adultos e crianças) não se cansam de colocar as mãos onde as moedas parecem estar. Nem toda a
sua insubstancialidade pode convencer os olhos de que as moedas não estão ali.

Suponha que a fonte de luz seja movida ainda mais perto do espelho do que a distância do foco. Nesse caso, os raios refletidos
um nem convergente nem paralelo; eles realmente divergem. Esses raios divergentes, pulverizando para fora de uma
superfície, podem ser considerados convergentes se você os seguir para trás. De fato, se você os seguir (na imaginação)
através da superfície do espelho e no espaço atrás, eles convergirão para um ponto. Nesse ponto você verá uma imagem. Por
aparecer atrás do espelho onde a luz realmente não penetra, é uma imagem virtual, como no caso do espelho plano; e, como
no caso de um espelho plano, a imagem agora está voltada para cima.

A Equação 2-2 pode ser aplicada a esta situação. Se a fonte de luz estiver mais próxima do espelho do que o foco, então D
(0), é menor que f. e 1/D(0) deve, portanto, ser maior que 1/f. (Se isso não estiver claro para você, lembre-se de que 2 é
menor que 4 e que 1/2 é, portanto, maior que 1/4.) Se resolvermos a Equação 2-2 para 1/D(1), descobrimos que : 1/D(1) = 1/f - 1/
D(0) (Equação 2-3). Como no caso em consideração, 1/D(0) é maior que 1/f, 1/D(1), deve ser um número negativo. Disto segue-
se que o próprio D(1) deve ser um número negativo.

Isso faz sentido. Nos casos anteriores em discussão, as distâncias se estenderam para a frente do espelho. No
presente caso o ponto em que os raios refletidos convergem, e onde a imagem existe, fica atrás do espelho, e sua distância
deve, razoavelmente, ser indicada por um valor negativo.
Machine Translated by Google

Nem a Equação 2-2 precisa ser aplicada apenas a espelhos côncavos; é mais geral do que isso.

Considere um espelho plano novamente. Um feixe de raios paralelos atingindo-o ao longo de seu eixo principal (qualquer linha normal ao plano
espelho pode ser considerado um eixo principal) é refletido de volta ao longo do eixo principal tão paralelo como sempre. Os raios
não convergem e, portanto, a distância do foco ao espelho é infinitamente grande. Mas se (f) é infinitamente grande, então `/f deve ser
igual a zero e para um espelho plano, a Equação 2-2 se torna:

1/ D(0) + 1/ D(1) = 0 (Equação 2-4)

Se a Equação 2-4 for resolvida para D(1), verifica-se que D(1) = - D(0) Porque D(0) (a distância do objeto sendo refletido) deve
sempre ser positivo, pois sempre deve estar antes o espelho para ser refletido, D(1) deve ser sempre negativo. Em um espelho
plano, portanto, a imagem deve estar sempre atrás do espelho e ser virtual. Como, exceto pelo sinal, D(1) e -D(0) são iguais, a imagem
está tão atrás do espelho quanto o objeto refletido está na frente do espelho.

E agora, se tivermos um espelho convexo - isto é, um espelho curvo que é prateado no lado côncavo para que olhemos e vejamos um
reflexo do lado convexo? Um feixe paralelo de raios de luz atingindo tal espelho é refletido para longe do eixo principal (exceto para um
raio que incide diretamente ao longo do eixo principal). Novamente, se os raios refletidos divergentes continuarem para trás (na
imaginação) através do espelho e além, eles convergirão para um foco.

O foco de um espelho convexo, situado atrás do espelho, é um foco virtual, e sua distância do espelho é negativa. Para um espelho
convexo, então, devemos falar de -f e, portanto, de -1/f. Novamente, como os raios refletidos divergem, nenhuma imagem real será
formada na frente do espelho; apenas uma imagem virtual (lado direito para cima) atrás do espelho. Portanto, devemos falar de –D(1) e -1/
D(1). Para um espelho convexo, a Equação 2-2 se torna:

1/ D(0) - 1/ D(1) = -1/f (Equação 2-5)

ou

1/ D(0) = 1/ D(1) - 1/f (Equação 2-6)


Machine Translated by Google

Como o objeto refletido deve estar sempre na frente do espelho, D(0) e, portanto. 1/ D(0) deve ser positivo.
Segue-se então que 1/D(1) -1/f deve ser positivo, e para que isso seja verdade, 1/D(1) deve ser maior que 1/f. Mas isso nos leva um
passo adiante e nos diz que o próprio D(1) deve ser menor que f. Em outras palavras, a distância aparente de todas as imagens virtuais
refletidas por um espelho convexo deve ser menor que a do foco, por mais distante do espelho que esteja o objeto refletido. Por esta
razão, todos os objetos refletidos em um espelho convexo parecem comprimidos em um espaço minúsculo, e pequenos espelhos
convexos em um canto de uma grande sala lotada podem dar uma visão panorâmica (embora distorcida) de toda a sala.

O tamanho da imagem (S(1)) está relacionado ao tamanho do objeto refletido (S(0)), pois as respectivas distâncias são
relacionados, independentemente de essas distâncias se estenderem antes ou atrás do espelho. Em outras palavras:

S(1)/S(0) = D(1)/D(0) (Equação 2-7)

Em um espelho plano, onde a distância da imagem ao espelho é igual à distância do espelho do objeto
sendo refletido, os tamanhos do objeto e da imagem são igualmente iguais. Uma imagem não é diminuída nem ampliada em um
espelho plano. Em um espelho convexo, onde todas as imagens devem estar mais próximas do espelho do que do foco, por mais
distantes que estejam os objetos refletidos, todas as imagens também são pequenas. Quanto mais distante o objeto refletido, mais
próximo e, portanto, menor a imagem.

Em um espelho côncavo, no entanto, quando o objeto refletido está entre o foco e o centro de curvatura, a imagem está além do
centro de curvatura. Nesse caso, como a imagem está mais distante do espelho do que o objeto refletido, a imagem é maior que o objeto.
Quanto mais próximo o objeto estiver do foco, maior será a imagem.
É claro que quanto maior a imagem, mais escura ela é, pois uma determinada quantidade de luz é espalhada por um volume cada
vez maior.

Refração

A luz não precisa ser refletida para se desviar do movimento em linha reta. A luz, ao passar de um meio transparente para
outro, digamos, do ar para a água, geralmente não será refletida, mas continuará viajando para frente e, no entanto, pode mudar
de direção.

Sem dúvida, isso foi notado pela primeira vez pelos homens primitivos quando - uma vara, colocada na água de tal forma que parte permanecesse em
Machine Translated by Google

o ar acima, parecia curvado no ponto em que entrava na água. Se, no entanto, foi retirado, mostrou-se tão reto e rígido como sempre.

Novamente, é possível colocar um objeto no fundo de um copo vazio e olhar para o copo de tal ângulo que o objeto fique apenas
escondido pela borda. Se a água for colocada agora no copo, o objeto no fundo se tornará visível, embora nem ele nem o olho se
movam. Já no tempo dos gregos antigos, percebeu-se que para explicar isso, era preciso supor que a luz mudava sua direção de
viagem ao passar de um meio transparente para outro.

Imagine uma placa plana de vidro transparente, perfeitamente transparente, e imagine um raio de luz caindo sobre ela ao longo da
linha normal, ou seja, atingindo o vidro em ângulos precisamente retos com sua superfície plana. A luz, se investigarmos a situação,
continua através do vidro, sua direção inalterada.

Suponha, porém, que a luz se aproxime obliquamente do vidro, formando o ângulo (i) com a normal. Pode-se suspeitar que a
luz simplesmente continuaria se movendo através do vidro, fazendo o mesmo ângulo (i) com a normal dentro daquele vidro. Isso,
porém, não é o que acontece. O raio de luz é dobrado no ponto onde o ar encontra o vidro (a interface ar-vidro). Além disso, ela é
dobrada em direção à normal de tal forma que o novo ângulo que ela faz com a normal dentro do vidro (r) é menor que (i) o ângulo de
incidência.

Essa mudança na direção de um raio de luz que passa de um meio transparente para outro é chamada de refração (das palavras
latinas que significam "quebrar de volta"). O ângulo (r) é, obviamente, o ângulo de refração.

Se o ângulo de incidência for maior ou menor, o ângulo de refração também se torna maior ou menor. Para cada valor de (i), no
entanto, onde a luz passa do ar para o vidro (r) permanece menor.

Os físicos antigos pensavam que o ângulo de refração era diretamente proporcional ao ângulo de incidência e que, portanto, dobrar
(i) sempre resultaria na duplicação de (r). Isso é quase assim quando os ângulos envolvidos são pequenos, mas à medida que os
ângulos crescem, essa "lei" inicial falha.

0
Assim, suponha que um raio de luz faz um ângulo de 30
à normal ao atingir a interface ar-vidro e o ângulo de
refração que resulta depois que a luz passa no vidro é 19,5 0. Se o ângulo de incidência é dobrado e feito 60 0, o
Machine Translated by Google

ângulo de refração torna-se 35,30. O ângulo de refração aumenta, mas não chega a dobrar.

A relação correta entre i e r foi elaborada pela primeira vez em 1621 pelo físico holandês Willebrord Snell (1591-
1626). Ele não publicou sua descoberta, e o filósofo francês René Descartes (1596-1650) descobriu a lei de forma
independente em 1637, publicando-a na forma (bem mais simples que a de Snell) que usamos agora.

A lei de refração de Snell-Descartes afirma que sempre que a luz passa de um meio transparente para outro, a razão entre
o seno do ângulo de incidência e o seno do ângulo de refração é constante. O seno do ângulo x é geralmente abreviado como
sen x, então a lei de Snell-Descartes pode ser expressa:

pecado (i) / pecado (r) = n (Equação 2-8)

Quando um raio de luz passa (obliquamente) do vácuo para uma substância transparente, a constante (n) é o índice de
refração dessa substância.

Se a luz entrar do vácuo em uma amostra de gás a 00C e 1 atmosfera de pressão (essas condições de temperatura e
pressão são geralmente chamadas de temperatura e pressão padrão, uma frase frequentemente abreviada STP), há apenas
uma refração muito leve. Isso significa que o ângulo de retração é apenas ligeiramente menor do que o ângulo de incidência, e
sen (r) é, consequentemente, apenas um pouco menor do que sen (i). Onde isso for verdade, podemos ver pela Equação 2-8
que o valor de (n) deve ser apenas ligeiramente maior que 1.

De fato, para o hidrogênio nas CNTP, o índice de refração é 1,00013 e para o ar nas CNTP é 1,00029. Há muito pouco
erro, portanto, na determinação do índice de refração onde a luz passa do ar para alguma substância transparente em vez do
vácuo para essa substância transparente.

Para líquidos e sólidos, a situação é bem diferente. A água tem um índice de refração de 1,33, enquanto o índice de
retração do vidro varia de 1,5 a 2,0, dependendo de sua composição química exata. Para um valor incomumente alto, há o
diamante, que tem um índice de refração de 2,42. Um raio de luz que entra no diamante vindo do ar com um ângulo de
incidência de 600 passa para o diamante com um ângulo de refração de apenas 21,10.

Quanto maior o índice de refração de um material, maior é sua densidade óptica. Assim, o diamante é opticamente mais denso do que
Machine Translated by Google

vidro, que é opticamente mais denso que a água, que é opticamente mais denso que o ar. Quando um raio de luz viaja de um
material opticamente menos denso para um opticamente mais denso, a direção do raio de luz é dobrada em direção à normal. Isso
acontece quando a luz viaja do ar para a água, por exemplo, ou da água para o diamante. Um raio de luz viajando de um material
opticamente mais denso para um opticamente menos denso é desviado da normal. Um efeito cancela o outro. Assim, se a luz
passa do ar para o vidro, atingindo o ângulo (i) e entrando no ângulo (r) e depois passa do vidro para o ar, atingindo o ângulo (r),
ela emergirá no ângulo (i).

Suponha, por exemplo, que um raio de luz incida sobre uma lâmina de vidro com um ângulo de incidência de 60 0. O
ângulo de retração é de 35,3 0. Após percorrer a espessura do vidro, o raio de luz atinge o outro vidro-ar interface, que na
folha de vidro usual é precisamente paralela à primeira. Como resultado, qualquer linha que seja normal para uma interface
também é normal para a outra. Na segunda interface, a luz está passando do vidro para o ar, então ela se afasta da normal.
Como agora ela atinge 35,3 0, ela emerge a 60 0. A luz que emergiu da folha de vidro está agora viajando na mesma direção em
que estava viajando quando entrou; o efeito refrativo em uma interface foi cancelado na outra e o leve deslocamento dos raios de
luz resultante passa despercebido. (É por esta razão que olhar obliquamente através de uma janela razoavelmente livre de
imperfeições no vidro não nos confunde. Os objetos vistos através de uma janela estão de fato na direção que parecem estar.)

Suponha que rearranjemos a Equação 2-8 para resolver o sen r. O resultado é:

sen (r) = sen (i) / n (Equação 2-9)

Se o ângulo de incidência é 0 0, então sen (i) é igual a 0, e sen (r) é igual a 0/n, ou 0. O ângulo de incidência pode ser
aumentado até 90 0, momento em que o O raio de luz é perpendicular à normal e apenas desliza paralelamente à interface. Se
o ângulo de incidência tem seu valor máximo de 90 0, sen i é igual a 1 e o valor de sen r é 1/n. Em outros a 90 0, sin r passa por
0
palavras, como (i) passa por sua extrema variação de 0 uma variação extrema de 0 a 1/n. Dentro
no caso da água, quando n é igual a 1,33, a variação extrema para sen r é de 0 a 0,75.

0
O ângulo que tem um seno de 0 é 0 0, e o ângulo que tem um seno de 0,75 é (referindo-se a uma tabela de senos) é 48,6.
0 Portanto, como o ângulo de incidência da luz que passa do ar para a água varia de 0 a 90 0, o ângulo de refração
0 varia de 0 a 48,6 0. O ângulo de refração não pode ser superior a 48,6 0, não importa qual seja o ângulo de incidência.
Machine Translated by Google

Mas e se invertermos a situação e imaginarmos a luz emergindo da água para o ar? A relação dos ângulos é invertida. Agora a luz
é retraída para longe do normal. Como a luz (ao passar da água para o ar) forma um ângulo de incidência variando de 0
0 0a
a 48,6 0, o ângulo de retração (formado pela luz emergindo no ar) varia de 0
0.
90

No entanto, um mergulhador de pele debaixo d'água com uma lanterna pode facilmente direcionar um feixe de luz de modo que ele faça um ângulo em relação ao normal.

(debaixo d'água) de mais de 48,6 0. Deve emergir em um ângulo de mais de 90 0, o que significa que realmente não emergirá 0,
pois um ângulo de mais de 90
ao normal irá direcioná-lo para debaixo d'água novamente. A luz, em outras palavras, em
passando da água para o ar, se atingir a interface em mais do que o ângulo crítico de 48,6 0, será inteiramente refletido. este
é reflexão total.

Como você pode ver na Equação 2-9, quanto maior o índice de refração (n) de uma substância, menor o ângulo crítico.
Para vidro comum, o ângulo crítico é de cerca de 42 0 e para diamante. 24,5 0. A luz pode ser conduzida através de tubos plásticos
transparentes em curvas e cantos se os raios da fonte de luz, brilhando em uma extremidade, sempre atingirem a interface plástico-
ar em ângulos maiores que o ângulo crítico para aquele plástico.

O próprio índice de refração do ar, embora muito pequeno, pode introduzir efeitos perceptíveis onde grandes espessuras estão
envolvidas. Se um corpo celeste está diretamente acima, sua luz passa do vácuo do espaço para o gás de nossa atmosfera 0
com um ângulo de incidência de 0
e não há refração. Um objeto que não está em cima tem um ângulo de
incidência maior que 0 0, e sua luz é levemente inclinada em direção ao normal. Nosso olho, seguindo a luz para trás sem levar em
conta qualquer curvatura, vê a fonte de luz como um pouco mais alta no céu do que realmente é.

Quanto mais baixa no céu uma fonte de luz estiver, maior será o ângulo de incidência e maior será sua diferença do ângulo de incidência.
refração. Quanto maior, portanto, a discrepância entre sua posição aparente e sua real. No momento em que os objetos no horizonte
estão envolvidos, o olho vê um objeto mais alto do que realmente é por mais do que a largura do sol. Consequentemente, quando o sol
está realmente logo abaixo do horizonte, a refração da atmosfera nos permite vê-lo logo acima do horizonte.
Além disso, a parte mais baixa do sol, sendo mais baixa, sofre mais refração e é mais elevada. Como resultado, o sol poente
parece oval e achatado na parte inferior.
Machine Translated by Google

Tampouco a curva refrativa da luz ao entrar em nossa atmosfera vinda do espaço é nítida. O ar não é uniformemente denso
mas aumenta em densidade à medida que se aproxima da superfície da Terra. Seu índice de refração aumenta à medida que sua densidade aumenta.
Consequentemente, à medida que a luz passa do espaço para o nosso olho, ela se curva cada vez mais, seguindo o que equivale
a uma curva suave (em vez da linha reta que damos como certa).

O índice de refração do ar também varia com a temperatura, e quando uma camada de ar próxima ao solo é aquecida e
coberta com ar mais frio, a luz se curvará de modo a tornar visíveis objetos distantes. As condições de temperatura do ar podem
até fazer com que objetos no solo apareçam de cabeça para baixo no ar. As miragens que resultaram dessa maneira (geralmente
em desertos onde as diferenças de temperatura entre as camadas de ar podem ser mais extremas do que em outros lugares)
enganaram vítimas ao longo da história. Nos tempos modernos, tais efeitos podem virar manchetes de jornais, como quando uma
pessoa confunde os faróis de um automóvel distante que o atingem através de uma longa e suave curva refrativa e relata que
"discos voadores" estão acelerando seu caminho pelo céu.

CAPÍTULO 3
Lentes
Foco por transmissão

Quando as duas arestas de um pedaço de vidro não são paralelas, a normal de uma aresta não será paralela à normal da outra
aresta. Sob tais condições, a refração na borda distante não apenas reverterá a refração na borda próxima, e um raio de luz
passando pelo vidro não emergirá na mesma direção que tinha na entrada. Este é o caso, por exemplo, quando a luz passa por
um triângulo de vidro, ou prisma.

Imagine que você está observando um raio de luz tocando a interface ar-vidro de tal prisma, orientado com o vértice para
cima. Se o raio de luz encontra a normal em um ângulo de baixo, ele cruza o vidro acima da normal, mas faz um ângulo menor com
ele porque o vidro é opticamente mais denso que o ar. Quando o raio de luz atinge a interface vidro-ar no segundo lado do prisma,
ele faz um ângulo com uma nova normal, tocando a interface acima dessa normal. À medida que emerge no ar, deve se afastar do
novo normal, porque o ar é opticamente menos denso que o vidro.
Machine Translated by Google

O resultado é que o raio de luz se dobra duas vezes na mesma direção, primeiro ao entrar no vidro e depois ao sair dele. Sobre
deixando o vidro, ele está viajando em uma direção diferente daquela em que entrou. A luz sempre passa através de um prisma
de tal maneira que se desvia do ápice e em direção à base.

Suponha que você tenha dois prismas juntos, base com base, e um feixe de luz paralelo esteja atingindo esse prisma duplo
em uma direção paralela à linha de base mútua. A metade superior do feixe, atingindo o prisma superior, seria dobrada para baixo
em direção à sua base. A metade inferior do feixe, atingindo o prisma inferior, seria dobrada para cima em direção à sua base. As
duas metades do feixe de luz, entrando no paralelo do prisma duplo, convergiriam e se cruzariam do outro lado.

A seção transversal de um prisma duplo tem interfaces que consistem em duas linhas retas antes e duas linhas retas atrás,
então sua forma geral é a de um paralelogramo (algo como o "diamante" no ás de ouros no baralho de cartas).
Em tal prisma duplo, as normais para cada ponto na metade superior são paralelas porque a interface é reta.
Portanto, todos os raios do feixe de luz que o atingem formam ângulos iguais com a normal e são refratados em ângulos iguais.
O mesmo é verdade para a metade inferior do prisma duplo, embora todos os raios sejam dobrados para cima e não para baixo.
Os dois semi-feixes emergem do outro lado do prisma duplo como feixes de raios paralelos de luz e se cruzam sobre uma ampla
frente.

Mas e se as interfaces de prisma duplo forem suavizadas em um par de segmentos esféricos? A figura resultante ainda seria
fina na parte superior e inferior e mais grossa no meio, mas agora a normal à superfície variaria em direção em cada ponto. Se o
sólido for mantido com suas pontas na direção de cima para baixo, então a normal seria horizontal no centro e apontaria cada vez
mais para cima à medida que se viajasse em direção ao vértice superior; apontaria cada vez mais para baixo à medida que se
viajasse em direção ao ápice inferior.

Suponha agora que um feixe paralelo de raios de luz atinja um sólido de tal forma que o raio que atinge a porção central mais
espessa se desloque ao longo da normal. Ele não é refratado, mas emerge do outro lado inalterado na direção. Os raios de luz
que atingem um pouco acima fazem um pequeno ângulo com a normal de inclinação para cima e são refratados ligeiramente para
baixo. Raios de luz que atingem ainda mais alto fazem um ângulo um pouco maior com a normal de inclinação adicional e são
refratados para baixo mais nitidamente, e assim por diante. Abaixo do centro, os raios de luz são refratados para cima cada vez
mais nitidamente à medida que a distância do centro aumenta. O resultado geral é que os raios de luz convergem no outro lado da lente, enco

Um prisma duplo alisado do tipo que acabamos de descrever tem a forma de uma semente de lentilha e, portanto, é
chamado de lente (da palavra latina para tal semente). Por extensão, qualquer pedaço de vidro ou outro material transparente com pelo menos
Machine Translated by Google

superfície curva é chamada de lente.

Ambas as superfícies são convexas no tipo particular de lente que se assemelha a um prisma duplo suavizado. Tal lente é,
portanto, uma lente biconvexa. Este é o tipo que se assemelha a uma semente de lentilha; é o tipo mais familiar e, de fato, é o que o
homem médio imaginaria imediatamente se solicitado a pensar em uma lente.

Não é necessário que as duas superfícies de uma lente sejam uniformemente curvadas. Uma superfície pode ser menos convexa que a outra,
ou pode até ser plana. Neste último caso, a lente é plano-convexa. Uma das superfícies pode ser côncava (côncavo-convexa) de modo
que uma seção transversal da lente se pareça com uma lua crescente. Essa lente pode ser chamada de menisco (de uma palavra latina
que significa "pequena lua"). Quaisquer que sejam as formas comparativas das superfícies da lente, os raios de luz convergirão ao
passar por ela, se a espessura da lente for menor na borda e aumentar ao máximo no centro. Todas essas lentes podem ser agrupadas
como lentes convexas ou lentes convergentes.

O comportamento de uma lente convexa se encaixa perfeitamente ao de um espelho convexo. A luz refletida de um espelho convexo
diverge, mas se imaginarmos que as linhas do raio divergente são transportadas através do espelho, elas se concentrarão no outro lado;
é aí que se forma a imagem virtual (vertical). No caso de uma lente convexa, a luz realmente passa e converge para um foco real onde
uma imagem real (invertida) é formada. Como a imagem é real, a luz é concentrada e a capacidade de uma lente de concentrar a luz solar
e iniciar incêndios é bem conhecida.

Quanto mais espessa a protuberância central em uma lente convergente em relação ao seu diâmetro, mais nitidamente os raios
de luz são convergentes e mais próximo o foco está localizado da própria lente - isto é, menor a distância focal (a distância da foco para
o centro da lente). Uma lente com uma distância focal curta, que desvia mais drasticamente os raios de luz para fora de sua direção
original, é naturalmente considerada uma lente mais poderosa.

A força de uma lente é medida em dioptrias (das palavras gregas que significam "ver através"), que são obtidas tomando o recíproco
da distância focal em metros. Se a distância focal for de 1 metro, a lente tem uma potência de 1/1 ou 1 dioptria. Uma distância focal de 50
centímetros, ou 0,5 metros, implica uma potência de 1/0,5 ou 2 dioptrias. Quanto maior o valor da dioptria, mais poderosa a lente.

Uma lente pode ser côncava em ambos os lados (uma lente bicôncava) de modo que seja mais espessa nas bordas e mais fina no
centro. Pode ser plano de um lado (plano-côncavo) ou mesmo convexo (convexo-côncavo). Desde que seja mais fina no centro, pode
ser considerada uma lente côncava. Como um feixe paralelo de raios de luz passando por qualquer lente côncava diverge após
Machine Translated by Google

surgindo no outro passeio, essas lentes também podem ser chamadas de lentes divergentes.

Aqui, novamente, as propriedades de uma lente côncava e de um espelho côncavo se encaixam perfeitamente. Os raios de luz refletidos
de um espelho côncavo convergem para um foco. Se imaginarmos que os raios convergentes são transportados pelo espelho, eles
divergirão do outro lado. Em uma lente côncava, a luz realmente passa e diverge.

No caso de uma lente côncava, como a luz passa e diverge, não forma imagem. No entanto, os raios de luz divergentes podem ser
levados para trás na imaginação para formar uma imagem virtual no lado da frente, onde um espelho côncavo teria formado um espelho
real.

O poder de uma lente divergente é obtido de maneira semelhante àquela em que o poder de uma lente convergente é tratado
com. No entanto, no caso de uma lente divergente, um foco virtual está envolvido e, portanto, a distância focal tem um valor negativo.
Uma lente divergente teria uma potência de -2 dioptrias, por exemplo.

Óculos

Há um objeto em forma de lente dentro do olho humano, logo atrás da pupila, que é chamado de cristalino (não porque contém
cristais, mas porque, no sentido antigo da palavra "cristalino", é transparente). É uma lente biconvexa e, portanto, uma lente
convergente, com cerca de um terço de polegada de diâmetro. A porção mais avançada do olho, a córnea transparente, também é uma
lente convergente, com o dobro do poder convergente do próprio cristalino.

A córnea e as lentes cristalinas convergem os raios de luz para um foco sobre o revestimento interno sensível à luz (retina) da parte
traseira do globo ocular. Uma imagem invertida termina na retina, e o padrão de claro e escuro é impresso lá. Cada célula sensível à luz no
centro da retina (onde se forma a imagem do que estamos olhando) está conectada a uma fibra nervosa individual, de modo que o padrão
é transportado sem perda de detalhes para o cérebro. O cérebro permite a inversão da imagem e vemos o lado direito para cima.

A imagem formada por uma lente convergente não pode, no entanto, ser sempre contada para cair sobre o foco (que, estritamente
falando, é o ponto em que um feixe de raios paralelos de luz são levados a convergir). Onde a fonte de luz está distante, os raios são de
fato paralelos ou praticamente paralelos, e tudo está bem. À medida que a fonte de luz é aproximada da lente, no entanto, os raios de luz
são cada vez mais perceptivelmente divergentes, e então convergem para além do foco - isto é, a uma distância maior que a distância focal.
Machine Translated by Google

A relação entre as distâncias do objeto que serve como fonte de luz D(0), da imagem D(1) e do foco (f) pode ser expressa
por meio da Equação 2-2. No capítulo anterior, essa equação foi usada em relação aos espelhos, mas também servirá para as
lentes. Na verdade, é tão comumente usado para lentes, e não para espelhos, que geralmente é chamado de fórmula da lente. (Em
ambos os espelhos de extremidade das lentes, um foco virtual produz um valor negativo para f e 1/f; e uma imagem virtual, um
valor negativo para D(1) e 1/D(1). Por outro lado, D(0). ), e 1/ D(0), são sempre positivos. ) Vamos reorganizar a fórmula da lente e
escrevê-la da seguinte forma:

1/D(1) = 1/f - 1/D(0) (Equação 3-1)

Se o objeto está a uma distância infinita, 1/D(0) = 0, e 1/D(1) = 1/f, o que significa que D(1) = f. A imagem, portanto, é formada no
foco. Mas vamos supor que a distância focal da combinação córnea-lente do olho seja de cerca de 1,65 centímetros (o que é) e
que estamos olhando para um objeto a 50 metros (ou 5.000 centímetros) de distância. Nesse caso, 1/D(1) = 1/1,65 - 1/5000 e D(1) =
1,6502. A imagem forma 0,0002 centímetros além do foco, uma discrepância que é pequena o suficiente para ser imperceptível.
Assim, uma distância de 50 metros é infinita para os olhos.

Mas e se o objeto estivesse a 30 centímetros de distância – distância de leitura? Então 1/D(1)= 1/1,65 - 1/30, e D(1) = 1,68. A
imagem se formaria cerca de 0,03 centímetros atrás do foco, e na escala do olho seria uma discrepância séria. A luz atingiria a
retina (na distância focal) antes que os raios de luz se concentrassem. A imagem ainda não seria nítida e a visão seria difusa.

Para evitar isso, o cristalino muda de forma pela ação de um pequeno músculo. É feito para engrossar e se tornar um conversor de
luz mais poderoso. A distância focal diminui. A imagem, ainda se formando além da nova e agora menor distância focal, se forma
na retina. Esse processo é chamado de acomodação.

À medida que um objeto se aproxima cada vez mais do olho, o cristalino deve inchar cada vez mais para refratar a luz o
suficiente para formar a imagem na retina. Eventualmente, ele não pode fazer mais nada, e a distância na qual a acomodação
atinge seu limite é o ponto próximo. Objetos mais próximos do olho do que o ponto próximo parecerão difusos porque sua imagem
não pode ser formada na retina. A capacidade de acomodar diminui com a idade, e o ponto próximo então retrocede. Uma criança
pequena com visão normal pode ser capaz de focalizar objetos tão próximos do olho quanto 10 centímetros; um jovem adulto em
objetos a 25 centímetros de distância; enquanto um homem velho pode não ser capaz de ver claramente nada a menos de 40
centímetros. Em outras palavras, à medida que envelhecemos, começamos a manter a lista telefônica mais distante. Esta recessão com a idade
Machine Translated by Google

presbiopia (de palavras gregas que significam "visão do velho").

Pode acontecer que o globo ocular de uma pessoa seja mais profundo do que a distância focal da combinação córnea-lente.
Nesse caso, as imagens de objetos à distância se formam no foco, que está bem à frente da retina muito profunda. No momento
em que os raios de luz atingem a retina, eles divergiram um pouco e a visão está confusa. À medida que os objetos se aproximam,
a imagem é formada a distâncias maiores que a distância focal, e estas eventualmente caem na retina. Essas pessoas podem
ver claramente objetos próximos, mas não distantes; eles são míopes. Mais formalmente, isso é chamado de miopia.

A condição oposta ocorre quando um globo ocular é muito raso. A distância focal é maior que a profundidade do globo ocular,
e os raios de luz que chegam à retina de objetos a uma grande distância ainda não convergiram completamente. A lente
cristalina acomoda e dobra a luz de forma mais poderosa para que objetos distantes possam ser vistos claramente. À medida
que um objeto se aproxima mais, no entanto, o poder de acomodação da lente rapidamente atinge seu limite, e objetos próximos
só podem ser vistos vagamente. Para tal pessoa, o ponto próximo está anormalmente distante e, embora possa ver objetos
distantes com clareza normal, não pode ver objetos próximos com clareza. Ele é hipermétrope e sofre de hipermetropia ("visão além")

É fácil produzir uma nova distância focal geral colocando uma lente bem na frente da outra. É preciso, então, apenas somar as
dioptrias das duas lentes para encontrar o poder de refração total das duas juntas e, portanto, a distância focal das duas juntas.
Imagine uma lente com poder de refração de 50 dioptrias. Sua distância focal seria 1/50 de um metro, ou 2 centímetros. Se uma
segunda lente convergente de 10 dioptrias fosse colocada na frente dela, o poder de refração da combinação de lentes seria de
60 dioptrias e a nova distância focal seria de 1/60 de um metro, ou 1,667 centímetros. Por outro lado, uma lente divergente com
poder de retração de -10 dioptrias aumentaria a distância focal, pois as duas lentes juntas seriam agora 40 dioptrias e a distância
focal seria 1/40 metro de 2,5 centímetros.

Isso pode ser feito para os olhos em particular e foi feito já no século XIII por homens como o estudioso inglês Roger Bacon
(1214?-1294). Os resultados são os conhecidos óculos ou óculos, e estes representam a grande prática; aplicação de lentes
que foi introduzida durante a Idade Média.

O poder da combinação córnea-lente do olho é de cerca de 60 dioptrias, e as lentes usadas nos óculos têm potências que variam
de -5 a +5 dioptrias. Para pessoas míopes com globos oculares muito rasos, as dioptrias devem ser aumentadas para que a
distância focal seja diminuída. Para aumentar as dioptrias, uma lente com dioptrias positivas (isto é, uma lente convergente) deve
ser colocada diante do olho. O inverso é o caso de indivíduos míopes. Aqui o globo ocular é muito profundo e, portanto, a
distância focal do olho deve ser alongada reduzindo as dioptrias. Uma lente com dioptrias negativas (ou seja, uma lente divergente)
Machine Translated by Google

deve ser colocado diante do olho.

Para indivíduos míopes e míopes, a lente dos óculos geralmente é um menisco. Para o primeiro, porém, o menisco é mais
espesso no centro; para este último é mais fino no centro.

À medida que a idade avança, a complicação adicional da presbiopia pode tornar necessária a aplicação de duas correções diferentes,
uma para visão de perto e outra para visão de longe. Uma solução é ter dois tipos diferentes de óculos e alterná-los conforme
necessário. Em sua velhice, ocorreu ao estudioso americano Benjamin Franklin (1706-1790), quando se cansou de trocar
constantemente de óculos, que duas lentes de diferentes dioptrias e, portanto, de diferentes distâncias focais, poderiam ser
combinadas no mesmo quadro. A parte superior pode ser ocupada por uma lente que corrige a visão de longe, a parte inferior por
uma que corrige a visão de perto. Esses bifocais (e ocasionalmente até trifocais) são agora produzidos rotineiramente.

Para uma lente focar razoavelmente bem, sua curvatura deve ser a mesma em todas as direções. Desta forma, os raios que
atingem a parte superior, inferior e lateral da lente são todos igualmente convergentes para o centro e todos se encontram em um foco verdadeir

Suponha que a lente se curve menos acentuadamente da esquerda para a direita do que de cima para baixo. Os raios de luz à
esquerda e à direita não chegariam a um foco em um ponto onde os raios de luz de cima e de baixo chegariam. Nesse ponto, em vez
de um ponto de luz, haveria uma linha horizontal de luz. Se nos movermos mais para trás, para um ponto onde os raios retardatários
da direita e da esquerda finalmente focalizaram, os raios de cima e de baixo passaram além do foco e estão divergindo novamente.
Agora há uma linha vertical de luz. Em nenhum ponto há um ponto de luz real. Esta situação é comum em relação ao globo ocular, e
a condição é chamada de astigmatismo (das palavras gregas que significam "sem ponto"). Isso também pode ser corrigido usando
óculos que possuem lentes com curvaturas desiguais que equilibram a curvatura desigual do olho, dobrando mais a luz nas direções
em que o próprio olho a dobra menos.

As lentes usuais são retificadas na forma de segmentos de esferas, já que a forma esférica é a mais fácil de produzir. Tal forma,
mesmo que perfeitamente uniforme em curvatura em todas as direções, ainda não converge todos os raios de luz para um ponto
exato, assim como um espelho esférico não reflete todos os raios para um ponto exato. Há aberração esférica aqui, bem como no
caso de espelhos.

A extensão dessa aberração aumenta com a espessura relativa da lente e com a distância do centro da lente.
Por esta razão, a fórmula da lente (Equação 3-1) é válida apenas para lentes finas. Perto do centro da lente, a aberração esférica é
bem pequena e geralmente pode ser ignorada. O olho humano é equipado com uma íris que pode alterar o tamanho da
Machine Translated by Google

aluno. Na luz brilhante, o tamanho da pupila é reduzido para um diâmetro de 1,5 milímetros. A luz que entra ainda é
suficiente para todos os propósitos, e a aberração esférica é reduzida a quase nada. Em luz brilhante, portanto, vê-se com
bastante clareza. Com pouca luz, é claro, é necessário permitir que o máximo de luz entre no olho, de modo que a pupila se expanda
para um diâmetro de até oito ou nove milímetros. No entanto, mais da lente é usada e a aberração esférica aumenta. Com pouca
luz, portanto, há uma maior imprecisão da visão.

Existem outros tipos de aberração (incluindo "aberração cromática"), mas a maneira usual de corrigir tais aberrações em
instrumentos ópticos elaborados é fazer uso de duas lentes em combinação (ou um espelho e uma lente) de modo que a aberração
de uma apenas cancelará a aberração do outro. Por meio de um engenhoso dispositivo desse tipo, em 1930 um oculista russo-
alemão, Bernard Schmidt (1879-1935) inventou um instrumento que podia sem distorção tirar fotografias em amplas seções do
céu porque cada porção de seu espelho tinha suas aberrações anuladas. por uma lente de formato irregular chamada "placa
corretora". (Esse instrumento é chamado de câmera Schmidt ou telescópio Schmidt.)

Câmera

As imagens podem ser formadas fora do olho, é claro, assim como dentro. Considere um único ponto no espaço e um objeto, a
alguma distância, do qual a luz está sendo emitida ou refletida. De cada parte do objeto um raio de luz pode ser desenhado para
o ponto e além. Um raio começando da direita cruzaria para a esquerda uma vez que passasse pelo ponto e vice-versa. Um raio
que começa no topo cruza para o fundo depois de passar pelo ponto e vice-versa.

Suponha que os raios de luz, tendo passado pelo ponto, caiam sobre uma superfície escura. Os raios de luz de uma porção
brilhantemente emanada (ou refletora) da fonte de luz produziriam uma iluminação brilhante; raios de luz originários de uma
porção mal iluminada produziriam uma iluminação fraca. O resultado seria uma imagem real e inventada da fonte de luz.

Na verdade, em condições normais, não podemos considerar um único ponto no espaço, pois há também um grande número
de pontos vizinhos através dos quais os raios de todas as partes da fonte de luz podem ser atraídos. Há, portanto, um grande
número de imagens invertidas que aparecerão na superfície, todas sobrepostas, e a imagem é borrada em uma iluminação
geral; com efeito, nenhuma imagem é formada.

Mas suponha que se use uma caixa fechada com um orifício no lado voltado para a fonte de luz e suponha que se imagine o
orifício cada vez menor. À medida que o buraco é reduzido, o número de imagens sobrepostas é continuamente reduzido.
Eventualmente, uma imagem com contornos difusos pode ser feita na superfície oposta ao buraco, e se o buraco for feito bastante
Machine Translated by Google

pequena, a imagem ficará nítida. A imagem permanecerá nítida qualquer que seja a distância entre o buraco e a superfície sobre a
qual ela cai, pois não se trata de focalizar, pois a imagem é formada por raios de luz em linha reta que não são refratados. Quanto
mais distante a superfície do buraco, maior a imagem, uma vez que os raios continuam a divergir com o aumento da distância do
buraco. No entanto, como a mesma quantidade de luz deve ser espalhada por uma área cada vez maior, a imagem fica mais escura
à medida que cresce.

Em grande escala, isso pode ser feito em uma sala escura com as janelas com cortinas grossas, exceto por um pequeno buraco.
Na parede oposta aparecerá uma imagem do que está fora do buraco - uma paisagem, uma pessoa, um edifício - de cabeça para baixo, de
curso.

O sol brilhando através de tal buraco formará um círculo que é na verdade a imagem do sol, e não do buraco. Se o buraco fosse
triangular, mas não muito pequeno, haveria um ponto triangular de luz na parede, mas esse triângulo seria formado por círculos,
cada um dos quais seria uma imagem separada do sol. À medida que o buraco fica menor, o mesmo acontece com o triângulo, até
ficar menor do que uma imagem circular individual do sol. Nesse ponto, a imagem aparecerá como um círculo, apesar da
triangularidade do buraco.

As folhas de uma árvore formam uma série de pequenas (embora móveis) aberturas através das quais a luz do sol flui. A luz manchada
no chão mostra-se então como pequenos círculos sobrepostos, em vez de reproduzir os espaços irregulares reais entre as folhas.
Durante um eclipse solar, o sol não é mais redondo, mas é mordido e, eventualmente, mostra uma forma crescente.
Quando isso acontece, os círculos de luz sobrepostos sob a árvore tornam-se crescentes sobrepostos. O efeito é bastante
surpreendente.

A formação de imagens em salas escuras começou no início dos tempos modernos, e estudiosos italianos como Giambattista
della Ports (1538?-1615) e Leonardo da Vinci (1452-1519) fizeram uso dela. O dispositivo é chamado de câmera obscura, que é uma expressão la
frase que significa "quarto escuro". Eventualmente, outros dispositivos para produzir imagens dentro de um interior escuro foram
usados, e a primeira parte da frase, "câmera". veio a ser aplicado a todos esses dispositivos de formação de imagem. A câmera
obscura original, com sua abertura muito pequena, agora é comumente chamada de câmera pinhole.

A principal dificuldade com uma câmera pinhole é que, para aumentar a nitidez da imagem, deve-se manter o furo o menor possível.
Isso significa que a quantidade total de luz que passa pelo orifício é pequena e a imagem é fraca. Para alargar a abertura e permitir
a entrada de mais luz, e ainda evitar as sobreposições que destruiriam imediatamente a imagem, deve-se inserir uma lente
convergente na abertura. Isso concentrará a luz de uma grande área em um foco, aumentando
Machine Translated by Google

o brilho da imagem muitas vezes sem perda de nitidez. Em 1599, della Ports descreveu tal dispositivo e inventou a câmera como
a conhecemos hoje.

Uma vez que uma câmera é equipada com uma lente, a imagem não se formará mais a qualquer distância, mas apenas no ponto
onde os raios de luz convergem. Para câmeras de dimensões fixas, imagens nítidas podem ser formadas apenas de objetos
relativamente distantes, se a parte traseira da câmera estiver na distância focal. Para objetos relativamente próximos, os raios de
luz convergem em um ponto além da distância focal e a lente deve ser trazida para frente por meio de uma extensão tipo sanfona
(nas câmeras antigas) ou por meio de um parafuso de fixação (nas mais recentes). Isso aumenta a distância entre a lente e a parte
traseira da câmera e é o análogo mecânico do poder de acomodação do olho.

Em um esforço para distinguir objetos a meia distância, as pessoas míopes aprendem rapidamente que, se apertarem os olhos,
podem ver com mais clareza. Isso é feito para que o olho se aproxime mais do arranjo da câmera pinhole, e uma imagem clara
depende menos da profundidade do globo ocular. (Por isso, "miopia" é o termo usado para miopia, pois vem de uma frase grega
que significa "visão fechada" com referência ao estrabismo contínuo.)
Claro, a dificuldade é que menos luz entra no olho, então um foco mais nítido é obtido às custas do brilho.
Além disso, os músculos das pálpebras se cansam da tarefa perpétua de mantê-las um pouco, mas não totalmente fechadas; o
resultado é uma dor de cabeça. (Na verdade, é a "tensão muscular ocular" e não a "fadiga ocular" que causa o desconforto.)

A câmera com lente atingiu a maioridade quando foram descobertos métodos para fazer um registro permanente da imagem. A
imagem é formada sobre uma superfície contendo substâncias químicas que são afetadas pela luz. Vários homens contribuíram
para isso, incluindo o físico francês Joseph Nicephore Niepce (1765-1833), o artista francês Louis Jacques Mande Daguerre (1789-1833).
1851), e o inventor inglês William Henry Fox Talbot (1800-1877). Em meados do século XIX, a câmera como produtora e
preservadora de imagens era um dispositivo prático, e a fotografia (“escrita pela luz”) tornou-se de uso infinito em todas as fases
do trabalho científico.

Para obter imagens brilhantes, o máximo de luz possível deve ser espremido. Isso requer uma lente de grande diâmetro e foco
curto. Quanto maior o diâmetro, mais luz é reunida e convergida para a imagem. A razão para o foco curto depende do fato (já
discutido em relação aos espelhos e um ponto aplicável também no caso de lentes) que quanto mais próxima a imagem da lente,
menor ela é. Quanto menor a imagem na qual uma determinada quantidade de luz é focalizada, mais brilhante ela é. Para medir o
brilho da imagem que uma lente pode produzir, devemos considerar ambos os fatores e tomar a razão entre a distância focal (f) e o
diâmetro (D). Essa razão, f/D, é chamada de número f. À medida que se diminui f ou aumenta D (ou ambos), o número f diminui.
Quanto menor o número f, mais brilhante a imagem.
Machine Translated by Google

A imagem, como originalmente formada em filme quimicamente revestido, é escura em pontos onde a iluminação intensa atingiu (pois o
efeito da luz é produzir partículas pretas de prata metálica) e luz onde pouca iluminação atingiu. A imagem, portanto, aparece ao contrário –
luz onde vemos escuro e escuro quando vemos luz. Este é um negativo. Se a luz for projetada através de tal negativo em um papel revestido
com produtos químicos sensíveis à luz, um negativo do negativo é obtido. A reversão é invertida e o arranjo claro-escuro original é obtido.
Este positivo é o quadro final.

O positivo pode ser impresso em filme transparente. Nesse caso, uma fonte de luz pequena, mas intensa, pode ser focalizada sobre ela por
uma combinação de lente e espelho, e a imagem projetada para frente em uma tela. Os raios divergem depois de sair do projetor, e a imagem
na tela pode ser muito ampliada, em comparação com o positivo original. Isso pode ser usado para exibição de fotografias em casa, e tem
sido usado, muito mais importante; como meio de entretenimento de massa.

A possibilidade para isso decorre do fato de que, quando as células da retina reagem a um determinado padrão de claro e escuro, elas
levam uma fração de segundo perceptível para se recuperar e estar prontas para outro padrão. Se, em um quarto escuro, você agitar uma
tala longa, fumegante na extremidade, você não verá um ponto distinto de luz mudando de posição, mas uma curva de luz conectada a partir
da qual você pode formar círculos e ovais.

Imagine, então, uma série de fotografias tiradas muito rapidamente de objetos em movimento. Cada fotografia mostraria os objetos em
posições ligeiramente diferentes. Em 1889, o inventor americano Thomas Alva Edison (1847-1931) tirou essas fotografias em uma tira
contínua de filme com perfurações nas laterais. Tais perfurações poderiam ser enfiadas em uma roda dentada, que, ao girar, puxaria o filme
a uma velocidade constante. Se a luz de um projetor pudesse ser feita para piscar e oh rapidamente, ela piscaria na tela uma imagem rápida
de cada imagem que passasse. O olho então veria uma imagem após a outra, cada uma ligeiramente diferente da anterior. Como o olho
experimentaria seu período de latência em reação, ainda estaria vendo uma imagem quando a próxima aparecesse na tela. Desta forma, uma
ilusão de mudança contínua, ou movimento, é produzida. Assim, os filmes foram introduzidos.

Ampliação

Qualquer pessoa que tenha manuseado uma lente convergente sabe que os objetos vistos através dela parecem maiores. É muito provável que
isso era conhecido nos tempos antigos, pois uma tigela de vidro redonda cheia de água produziria tal efeito.

Para entender isso; devemos perceber que não sentimos o tamanho real de um objeto diretamente, mas apenas julgamos esse tamanho
Machine Translated by Google

de uma variedade de sensações indiretas, incluindo o ângulo feito pela luz que atinge o olho das extremidades do objeto.

Suponha, por exemplo, que uma haste de 4 centímetros de comprimento seja mantida horizontalmente a 25 centímetros na frente dos
olhos. A luz que chega ao olho a partir das extremidades da haste faz um ângulo total de cerca de 9,14 0. Em outras palavras, se olharmos
diretamente para uma extremidade da haste e depois virarmos para olhar diretamente para a outra extremidade, teríamos virado através
um ângulo de 9,14 0. Este é o ângulo visual, ou o diâmetro angular de um objeto.

0 0
se tivesse 8 centímetros de comprimento, seria 18,18 .
Se a haste tivesse apenas 2 centímetros de comprimento, o ângulo visual seria de 4,58
O ângulo visual não é exatamente proporcional ao tamanho, mas para valores pequenos é quase exatamente proporcional. Aprendemos
essa proporcionalidade através da experiência e estimamos automaticamente o tamanho relativo pelo valor do ângulo visual.

No entanto, o tamanho regular de qualquer objeto também é uma função de sua distância. Considere a haste de oito centímetros que a 25
centímetros exibiriam um ângulo visual de 18,18 0. A 50 centímetros seu ângulo visual seria 9,14 0 a 100 centímetros,
4,58 0. Em outras palavras, como também sabemos por experiência, um objeto parece cada vez menor à medida que se afasta do olho. Um
objeto grande distante do olho pareceria menor do que um objeto pequeno próximo ao olho. Assim, uma haste de oito centímetros a 100
centímetros do olho produziria um ângulo visual menor do que uma haste de quatro centímetros a 25 centímetros do olho e, portanto, a
primeira pareceria menor em tamanho.

Não é provável que seríamos enganados por isso. Aprendemos desde cedo a levar em consideração a distância, bem como o ângulo
visual, ao avaliar o tamanho real de um objeto. Ao olhar primeiro para a haste distante de oito centímetros e depois para a haste próxima
de quatro centímetros, devemos alterar a acomodação do cristalino, e também devemos alterar a quantidade pela qual nossos olhos devem
convergir para que ambos se concentrem. o mesmo objeto (quanto mais próximo o objeto, maior o grau de convergência). Podemos não
estar especificamente cientes de que nossas lentes estão se acomodando e nossos olhos estão convergindo; no entanto, aprendemos a
interpretar as sensações corretamente e podemos dizer que a haste de quatro centímetros está mais próxima. Levando em conta isso, bem
como o ângulo visual, geralmente podemos dizer sem problemas que a haste que parece menor é na verdade maior. Até nos convencemos
de que parece maior.

Alterações na acomodação da lente e na convergência dos olhos são úteis apenas para objetos relativamente próximos. Para
objetos distantes, julgamos a distância por comparação com objetos vizinhos cujo tamanho real conhecemos. Assim, uma árvore de
sequoia distante pode não parecer muito grande para nós até que notemos um homenzinho aos seus pés. Nós
Machine Translated by Google

então perceba o quão distante deve estar, e seu tamanho real se torna aparente. Começa a parecer grande.

Se não houver objetos vizinhos de tamanho conhecido com os quais comparar um objeto distante, temos apenas o ângulo
0
visual, e isso por si só não nos diz nada. Por exemplo, a lua, no alto do céu, apresenta um ângulo visual de aproximadamente 0,5 .
Se tentarmos julgar o diâmetro real da lua a partir disso, estaremos perdidos. Podemos decidir que a lua parecia ter "cerca de um
0
pé de diâmetro". No entanto, um objeto de um pé de diâmetro produzirá um ângulo visualse denão
0,5 estiver a 18 metros de distância.
Esta é certamente uma subestimação grosseira da distância real da lua, mas muitas pessoas parecem supor, inconscientemente,
que essa é a distância.

Quando a lua está perto do horizonte, é vista além das casas e das árvores, e sabemos imediatamente que deve ser mais
0
a uma
de sessenta metros de distância. Pode ser, digamos, a uma milha de distância. Para produzir um ângulo visual de 0,5 distância de uma milha, o
lua teria que ter 88 pés de diâmetro. Essa alteração (inconsciente) em nossa estimativa da distância da lua também altera nossa
estimativa (inconsciente) de seu tamanho real. A lua, como todos nós notamos, parece muito maior no horizonte do que quando está
alta no céu. Essa ilusão de ótica tem intrigado os homens desde o tempo dos gregos, mas a opinião atual dos homens que estudaram
o problema é que é inteiramente uma questão de falso julgamento da distância.

Uma lente convergente nos oferece um método para alterar o ângulo visual sem alterar a distância real de um objeto.
Considere os raios de luz viajando de um objeto para o olho e fazendo um certo ângulo visual. Se, no caminho, passam por
uma lente convergente, os raios de luz convergem e formam um ângulo visual maior. O olho não pode sentir que os raios de luz
convergiram no caminho; ele julga os raios de luz como se eles viessem em linhas retas de um objeto maior que o objeto real.
Somente ao sentir o objeto ampliado, o olho pode explicar o ângulo visual incomumente grande. Outra maneira de colocar isso é que
o olho não vê o objeto, mas uma imagem virtual ampliada (portanto, o lado direito para cima) do objeto do outro lado da lente
convergente. A relação entre o tamanho da imagem e o tamanho do próprio objeto é a ampliação da lente.

A ampliação pode ser expressa em termos da distância focal (f) da lente, desde que voltemos mais uma vez para a lente ou 3-1).
equação (Equação 2-2 , Como a imagem é uma imagem virtual, sua distância D(1) recebe um sinal negativo, enquanto a,
distância do próprio objeto D(0) permanece positivo, como sempre. A equação pode ser escrita então:

1/ D(0) - 1/ D(1) = 1/f (Equação 3-2)


Machine Translated by Google

A ampliação, como eu disse, é a relação entre o tamanho da imagem e o tamanho do objeto, mas essa relação de tamanho pode ser
julgado de duas maneiras. Pode ser interpretado como a razão dos ângulos visuais, se o objeto e a imagem estiverem à
mesma distância; ou como a razão das distâncias, se tanto o objeto quanto a imagem produzirem o mesmo ângulo visual.
Tomemos a última interpretação e resolvamos a Equação 3-2 para a razão bf a distância da imagem à do objeto D(1)/D(0). Acontece
que:

D(1) / D(0) = f / [f - D(0)] = m (Equação 3-3) onde m é a ampliação.

Se a lente é mantida em contato com o objeto, que pode ser uma página impressa, por exemplo, D(0) é virtualmente zero e f – D
(0) = f. A ampliação m é então igual a f/f ou 1, e a impressão não é ampliada. Se a lente for levantada, D(0) aumenta, o que
significa que f – D(0) deve diminuir e, como você pode ver na Equação 3-3, m deve, consequentemente, aumentar. A impressão
parece cada vez maior à medida que a lente é levantada. Quando a distância da lente da página impressa é igual à distância focal,
f – D(0) torna-se igual a f – f, ou 0. A ampliação é então f/0 e torna-se infinita. No entanto, nenhuma lente é perfeita e, se o objeto é
ampliado infinitamente, todas as imperfeições também o são. Como resultado, tudo o que pode ser visto é um borrão. A ampliação
prática máxima ocorre quando a distância do objeto é um pouco menor do que a distância focal.

Se o objeto estiver a uma distância maior que a distância focal, f – D(0) se torna negativo e, portanto, m se torna negativo,
À medida que D(0) continua a aumentar de tamanho, m permanece negativo, mas seu valor absoluto (seu valor com o
sinal negativo desconsiderado) torna-se menor, isso significa que a imagem se inverte e diminui de tamanho novamente à
medida que a distância do objeto se torna maior que a distância focal e continua a aumentar.

Também segue da Equação 3-3 que, para uma dada distância do objeto D(0, a ampliação aumenta com a diminuição da distância
focal da lente (desde que a distância focal permaneça maior que a distância do objeto). isso, vamos supor que D(0) = 1 e que f
ocupe valores sucessivos de 5, 4, 3 e 2. Como a ampliação (m) é igual a f / [f - D(0)], ela é igual , sucessivamente, 5/4, 4/3, 3/2 e 2/l;
ou 1,2, 1,33, 1,5 e 2,0. Essa é outra razão para considerar que uma lente convergente se torna mais potente à medida que sua
distância focal diminui. seu poder de ampliação aumenta à medida que sua distância focal diminui.

Tudo isso é invertido para lentes divergentes. Aqui, os raios de luz que convergem em sua viagem para o olho das extremidades
opostas de um objeto são divergidos um pouco pela lente e levados a atingir o olho em um ângulo visual menor. Por essa razão,
os objetos parecem menores quando vistos através de uma lente divergente,
Machine Translated by Google

Desta forma, você pode dizer rapidamente se uma pessoa é míope ou hipermetropia por um teste extremamente simples com
seus óculos. Um homem míope deve usar contratos divergentes, então a impressão parece menor se essas lentes forem mantidas
alguns centímetros acima da página impressa. Um homem míope deve usar lentes convergentes, e isso fará com que a impressão pareça maior.

Microscópios e telescópios

As células da retina ou "disparam" quando a luz as atinge, ou não disparam porque a luz não as atinge. Como resultado, a
imagem que é produzida sobre eles é, por assim dizer, uma combinação de manchas claras e escuras. Isso se assemelha à aparência
de uma reprodução de meio-tom de jornal, embora as "manchas" na retina sejam muito mais finas do que as de uma fotografia de jornal.

Quando um objeto é consideravelmente maior do que os pontos que o compõem, o objeto é visto claramente. Se não for muito maior,
é visto vagamente. Assim, se você olhar para uma fotografia de jornal a olho nu, parecerá ver um rosto claramente delineado.
Se você olhar para ele sob uma lente de aumento, a parte que você vê na lente não será muito maior do que os pontos ampliados, e as
coisas não ficarão claras. Você não vai entender "detalhe".

Da mesma forma, há um limite para a quantidade de detalhes que você pode ver em qualquer objeto a olho nu. Se você tentar
distinguir detalhes cada vez mais sutis dentro do objeto, esses detalhes começarão a não ser maiores (na imagem em sua retina) do
que os pontos que compõem a imagem. A imagem da retina torna-se muito grosseira para o efeito.

A luz de dois pontos separados por uma distância angular inferior a uma certa quantidade crucial ativa a mesma retina.
célula ou possivelmente adjacentes. Os dois pontos são então vistos como apenas um único ponto. É somente quando a luz
de dois pontos ativa duas células da retina separadas por pelo menos uma célula inativada que os dois pontos podem realmente ser
vistos como dois pontos. A 25 centímetros (a distância usual para uma visão mais confortável) dois pontos devem ser separados por pelo menos 0,
0.
ser visto como dois pontos; o ângulo visual mínimo necessário é, portanto, algo como 0,006

O poder de resolução do olho humano (sua capacidade de ver dois pontos próximos como dois pontos e, em geral, sua capacidade
para distinguir detalhes finos) é realmente muito bom e é muito melhor do que o dos olhos de outras espécies de animais.
No entanto, além do poder de resolução do olho humano, há um mundo de detalhes que estaria perdido para nosso conhecimento para
sempre, não fossem as lentes.
Machine Translated by Google

Suponha que dois pontos, separados por um ângulo visual de 0,001 0, fossem colocados sob uma lente com uma ampliação de 6. O
ângulo visual formado por esses dois pontos seria aumentado para 0,006 0, e eles poderiam ser vistos como dois. Sem a lente, eles
poderiam parecer apenas um ponto, em geral, uma lente de ampliação não apenas torna o objeto maior na aparência, mas também
torna mais detalhes visíveis aos olhos.

Para tirar proveito disso, deve-se usar boas lentes que tenham superfícies suavemente esmerilhadas e estejam livres de bolhas e
imperfeições. Uma lente mal construída não manterá os raios de luz refratados em boa ordem, e a imagem, embora ampliada,
ficará difusa. Detalhes finos serão desfocados e perdidos.

Não foi até o século XVII que as lentes precisas o suficiente para manter pelo menos alguns dos detalhes finos foram
formadas. Um comerciante holandês, Anton van Leeuwenhoek (1632-1723), usou pequenos pedaços de vidro (é mais fácil ter
um pequeno pino de vidro impecável do que um grande impecável) e os poliu com tanta precisão e amor que ele poderia obter
ampliações de mais de de 200 sem perda de detalhes. Com o uso de tais lentes, ele foi capaz de ver capilares sanguíneos,
corpúsculos sanguíneos e espermatozóides. Mais importante de tudo, ele poderia estudar os detalhes de animais de vida
independente (protozoários) pequenos demais para serem vistos a olho nu.

Esses arrendamentos fortemente ampliados são os microscópios (das palavras gregas que significam "ver o pequeno"). Um microscópio feito
de uma única lente, como as de Leeuwenhock, é um microscópio simples,

Há um limite para o poder de ampliação de uma única lente, por mais bem aterrada que seja. Para aumentar o poder de ampliação,
deve-se diminuir a distância focal, e Leeuwenhoek já estava usando distâncias focais diminutas em suas lentes minúsculas. Seria
impraticável esperar muito mais melhorias a este respeito.

No entanto, suponha que a luz de um objeto passe por uma lente convergente e forme uma imagem real no
outro lado. Como no caso dos espelhos côncavos, essa imagem real pode ser muito maior que o próprio objeto, se o objeto
estiver bem próximo do foco. (A imagem ficaria muito mais escura porque a mesma quantidade de luz seria espalhada por uma área
maior. Por esse motivo, a luz que ilumina o objeto deve ser bastante intensa em primeiro lugar, para permanecer brilhante o suficiente
apesar desse efeito de escurecimento .)

Como a imagem é uma imagem real, ela pode ser tratada opticamente como se fosse o próprio objeto. Uma segunda lente
convergente pode ser usada para ampliar ainda mais a imagem já ampliada. Com o uso de duas ou mais lentes desta forma, podemos
facilmente obter uma ampliação final que será maior do que a melhor que se pode fazer com uma única lente. Microscópios usando
Machine Translated by Google

mais de uma lente são chamados de microscópios compostos.

Os primeiros microscópios compostos supostamente foram construídos um século antes de Leeuwenhoek por um espetáculo holandês
fabricante, Zacharias Janssen, em 1590. Por causa das lentes imperfeitas usadas, demorou muito para que fossem algo mais
do que brinquedos. No final da vida de Leeuwenhock, no entanto, os microscópios compostos estavam começando a superar
qualquer coisa que suas lentes simples pudessem fazer.

O telescópio (da palavra grega que significa "ver o distante") também faz uso de lentes. A luz de um objeto como a lua,
digamos, passa por uma lente convergente e permite formar uma imagem real do outro lado. Esta imagem é então ampliada por
outra lente. A imagem ampliada é maior e mostra mais detalhes do que a própria lua quando vista a olho nu.

Um telescópio também pode ser usado em objetos terrestres. Aqui, como a imagem real formada pela lente convergente é
invertida, e seria desconcertante ver uma perspectiva distante com o solo acima e o céu abaixo, duas lentes são usadas para
formar a imagem, a segunda lente invertendo a imagem invertida e virando-o para cima novamente. Essa nova imagem com o lado
direito para cima pode ser ampliada e temos um vidro de campo para uso em paisagens. Pequenos binóculos, projetados em
pares para serem vistos com os dois olhos ao mesmo tempo, são óculos de ópera.

Os telescópios astronômicos não fazem uso da lente adicional, pois cada lente apresenta imperfeições e problemas,
e quanto menos lentes melhor. Uma estrela ou lua de cabeça para baixo não desconcerta um astrônomo, e ele está disposto a
deixar a imagem permanecer assim.

O telescópio é suposto ter sido inventado por um menino aprendiz na loja do fabricante de óculos holandês Hens
Lippershey por volta de 1608. No ano seguinte, o cientista italiano Galileo Galilei (1564-1642), sobre o qual tive a
oportunidade de falar longamente no primeiro volume deste livro, ouvindo rumores sobre esse novo dispositivo, experimentou
lentes até ter construiu um telescópio. Seu instrumento era extremamente pobre em comparação com os modernos; só aumentou
cerca de trinta vezes. No entanto, ao ligá-lo no céu, ele abriu território virgem e, para onde quer que olhasse, viu o que nenhum
homem jamais havia visto antes.

O maior detalhe visível na imagem da lua tornou possível para ele ver montanhas e crateras lunares. Ele viu manchas no sol e
ampliou Júpiter e Vênus em globos reais. Ele podia ver que Vênus mostrava fases como a lua (como era exigido pela teoria
copernicana) e que Júpiter era circundado por quatro satélites.
Machine Translated by Google

A lente de um telescópio também serve como um coletor de luz. Toda a luz que incide sobre a lente é
concentrada na imagem. Se a lente for maior do que a pupila do olho (e em um telescópio deve ser), mais luz será
concentrada na imagem dentro do telescópio do que está concentrada na imagem dentro do olho. Uma estrela que é
muito fraca para ser vista a olho nu torna-se brilhante o suficiente para ser vista em um telescópio. Quando Galileu
virou seu telescópio para o céu estrelado, ele encontrou uma multiplicidade de estrelas que eram claramente visíveis
com o telescópio e que desapareceram quando ele tirou o instrumento de seu olho.

Naturalmente, quanto maior a lente, mais luz ela pode coletar e mais escuras as estrelas que ela consegue
distinguir. O telescópio Yerkes de hoje (um descendente distante do primeiro telescópio galileu) tem uma lente
coletora de 40 polegadas de diâmetro, em comparação com o diâmetro da pupila não superior a 1/3 de polegada. A
razão dos diâmetros é, portanto, de 120 para 1. A luz coletada depende da área da lente, e esta é proporcional ao quadrado
do diâmetro. O poder de coleta de luz do telescópio Yerkes é, portanto, 14.400 vezes maior que o do olho humano, e
estrelas correspondentemente mais fracas podem ser identificadas por ele.

Além disso, se a luz do telescópio estiver focada no filme fotográfico, e não na retina do olho, há uma vantagem
adicional. A luz que atinge o filme tem um efeito cumulativo (que não tem no olho). Uma estrela muito fraca para
ser vista, mesmo através do telescópio, afetará lentamente os produtos químicos no filme e, após um tempo de
exposição apropriado, pode ser fotografada mesmo que não possa ser vista.

Em teoria, as lentes podem ser cada vez maiores, e o universo sondado cada vez mais profundamente. No
entanto, considerações práticas interferem. Quanto maior a lente, mais difícil e tedioso é triturá-la exatamente e
mais difícil é evitar que ela se deforme sob seu próprio peso (já que ela só pode ser suportada na borda). Além
disso, quanto maior a lente, mais espessa deve ser e, como nenhuma lente é perfeitamente transparente, quanto
mais espessa, mais luz absorve. Depois de um certo ponto, é impraticável construir lentes maiores. O telescópio
do Observatório Yerkes, em Wisconsin, tem uma lente de 40 polegadas e é o maior telescópio desse tipo no mundo.
Foi construído em 1897 e nada maior foi construído desde então. Nem é provável que seja construído.

CAPÍTULO 4
Cor
Machine Translated by Google

Espectro

Até agora, falei da luz como se toda luz fosse a mesma, exceto que um feixe pode diferir de outro em brilho. Na verdade, há outra
característica distintiva, familiar a todos nós, que é a cor. Sabemos que existe luz vermelha, luz azul, luz verde e assim por diante
através de um número muito grande de matizes e sombras.

A tendência nos primeiros tempos era considerar a luz branca do sol como a forma mais simples de luz - como luz "pura" (na
verdade, o branco ainda é o símbolo da pureza, e a jovem noiva caminha para o altar em vestido por essa razão). Se ele viajasse
através de vidro vermelho, ou fosse refletido de uma superfície azul, ele pegaria vermelhidão ou azul e ganharia uma propriedade
que não poderia ter por si mesmo.

Desse ponto de vista, seria muito intrigante se encontrássemos a pura luz branca do sol exibindo cores sem a intervenção de
matéria colorida em nenhum momento. O único fenômeno conhecido pelos homens de todas as idades é o arco-íris, o arco de luz
multicolorida que às vezes aparece no céu, quando o sol surge após uma chuva. O arco-íris era surpreendente o suficiente para
atrair uma série de explicações mitológicas; um comum era que era uma ponte que liga o céu e a terra. O primeiro movimento em
direção a uma explicação racionalista foi o do filósofo romano Lucius Annaeus Seneca (4 aC? - 65 dC), que apontou que o arco-íris
era bastante semelhante ao jogo de cores frequentemente visto na borda de um pedaço de vidro.

No século XVII, os físicos começaram a suspeitar que o arco-íris, assim como as cores na borda do vidro, eram de alguma forma
produzidos pela refração da luz. luz por esferas de água. Dessa forma, ele poderia explicar bem a posição do arco-íris em relação ao
sol, graças à refração da luz do sol por pequenas gotas de água que permanecem suspensas no ar após a chuva, mas não conseguiu
explicar a cor.

Coube ao cientista inglês Isaac Newton – cujo trabalho ocupa grande parte do Volume I deste livro – fazer o avanço crucial. Em
1666, ele permitiu que um raio de sol entrasse em uma sala escura e caísse em um prisma. O feixe de luz, refratado através do
prisma, atingiu uma superfície branca. Lá não apareceu como um ponto de luz solar branca,
mas como uma extensa faixa de cores que se desvaneceram umas nas outras na mesma ordem (vermelho, laranja, amarelo, verde,
azul, violeta) em um arco-íris. Era uma imagem colorida e recebeu o nome de espectro, da palavra latina para "imagem".
Machine Translated by Google

Se a luz do espectro foi formada em uma superfície com um buraco, um buraco disposto de modo que apenas uma
das cores pudesse passar, e se aquele feixe de luz colorida pudesse passar por um segundo prisma, a cor estaria um
pouco espalhado, mas nenhuma cor nova apareceria.

A contribuição de Newton não foi que ele produziu essas cores, pois isso já havia sido feito antes, mas que ele
sugeriu uma nova explicação para elas. Os únicos ingredientes que produziam o espectro eram a pura luz branca da
luz do sol e o puro vidro incolor do prisma. Newton, portanto, afirmou que, apesar da opinião há muito estabelecida da
humanidade, a luz branca não era pura, mas uma mistura complexa de todas as cores do arco-íris. Apareceu branco
apenas porque a combinação estimulou tanto a retina que foi interpretada pelo cérebro como "branco".

Como ponto a favor da validade dessa visão, há a inversão de Newton na formação do espectro. Newton permitiu
que a luz do espectro colorido caísse sobre um segundo prisma mantido de cabeça para baixo em relação ao primeiro.
A luz foi refratada na direção oposta e a situação se inverteu. Onde antes um feixe redondo de luz branca havia se
espalhado em uma linha grossa de cores diferentes, agora essa linha estava comprimida de volta em um círculo de luz branca.

Aparentemente, a luz branca é composta por um vasto conjunto de diferentes variedades de luz, cada uma com sua
forma característica de ser refratada. O conjunto de variedades de luz menos refratadas deu origem à sensação de
vermelho; o grupo seguinte, um pouco mais refratado, à sensação de laranja; e assim por diante até as variedades mais
refrangíveis, que pareciam violetas.

A luz branca, por causa dessa diferença de refrangibilidade de seus componentes, sempre se transforma em cor ao
passar obliquamente de um meio para outro de índice de refração diferente. No entanto, se o segundo meio for
delimitado por interfaces paralelas (como uma folha de vidro comum), o efeito produzido ao entrar é cancelado ao sair.
Por essa razão, a luz branca que entra em uma folha de vidro volta a ser branca ao sair. Quando as bordas de um meio
transparente não são paralelas, como em um prisma, na borda de uma folha de vidro, ou no caso de gotas de água
redondas, o processo de produção de cor não é cancelado e resulta em um espectro ou arco-íris.

Isso significa que na determinação do índice de refração de uma substância transparente, o uso da luz branca
introduz uma incerteza, pois um feixe inteiro de índices de refração é produzido pelas diversas cores presentes na luz.
Por essa razão, costuma-se usar uma determinada luz colorida para determinar os índices de refração. Um dispositivo
frequentemente usado é uma "lâmpada de sódio", um dispositivo no qual a luz é emitida pelo vapor de sódio aquecido
dentro da lâmpada. Esta luz é de cor amarela e é refratada por uma quantidade que varia apenas em uma faixa muito pequena.
Machine Translated by Google

Por essa visão da luz, é fácil explicar objetos coloridos. Não é necessário supor que os objetos devem ser totalmente
transparentes (transmitindo todas as cores da luz) ou totalmente opacos (não transmitindo nenhuma delas). Algumas substâncias
podem ser opacas para algumas cores e transparentes para outras. O vidro vermelho, por exemplo, pode possuir uma mistura
química que absorva outras cores além do vermelho e permita a passagem do vermelho. Nesse caso, a luz branca que passa pelo
vidro vermelho torna-se vermelha, não porque ganhou uma impureza do vidro, mas apenas porque perdeu para o vidro todos os
seus componentes, exceto o vermelho. Da mesma forma, um objeto pode refletir algumas cores e absorver outras, aparecendo colorido aos olh
razão.

Não se deve supor, entretanto, que todos os objetos amarelos reflitam apenas luz amarela, ou que todos os óculos azuis
transmitam apenas luz azul. É importante distinguir entre cor física e cor fisiológica. Uma cor física pode ser identificada pela
quantidade de refração que sofre ao passar de uma substância para outra. A cor fisiológica é o que nosso cérebro interpreta. O
mecanismo fisiológico na retina do olho funciona de tal maneira que uma laranja física dará origem à sensação de laranja; portanto,
será também uma laranja fisiológica. No entanto, a retina pode ser ativada da mesma maneira por uma mistura de cores que não
inclui o laranja físico – por exemplo, por uma mistura de vermelho e amarelo. Essa mistura também será laranja fisiológica.

A luz que é colorida por transmissão através de vidro colorido ou reflexo de uma superfície colorida não precisa realmente
conter as cores físicas que correspondem às cores fisiológicas que vemos. Podemos determinar a cor física presente passando a
luz por um prisma; para a cor fisiológica nossa visão é suficiente, desde que, é claro, nossa visão de cor seja normal.

Em 1807, o cientista inglês Thomas Young (1773-1829) apontou que vermelho, verde e azul poderiam, em combinação adequada,
dar origem à sensação de qualquer outra cor. Isso foi posteriormente ampliado pelo fisiologista alemão Hermann Ludwig Ferdinand
von Helmholtz (1821-1894) e, portanto, é chamado de teoria da visão de cores de Young-Helmholtz.

Muitos fisiologistas pensam que esta capacidade do vermelho, verde e azul para criar todo o espectro é um reflexo da situação
na retina do olho - isto é, que pode haver três tipos de células retinianas sensíveis à cor, uma reagindo mais fortemente para o
vermelho, um para o verde e um para o azul. A medida em que uma determinada cor do espectro ou uma determinada mistura de
dois pontos ativa cada uma das três dá origem, portanto, à sensação de cor da qual nos tornamos conscientes. A luz que ativa
todos os três igualmente pode ser interpretada como “branca”; a luz que ativa os três em uma proporção fixa pode ser “amarela”,
em outra “violeta” e assim por diante.
Machine Translated by Google

Isso é usado na fotografia colorida. Em um processo, o filme consiste em camadas triplas, uma das quais contém um
corante absorvente de vermelho de modo que é particularmente sensível à luz vermelha, outra um corante sensível à luz azul e
a terceira um corante sensível à luz verde. A luz em cada ponto da imagem afeta os três em uma determinada proporção e,
após o desenvolvimento, produz em cada ponto da imagem uma combinação de corantes em uma determinada proporção de
intensidade. A combinação de corantes afeta os três pigmentos de nossa retina de acordo, e vemos a cor na fotografia como a
veríamos no próprio objeto.

Novamente, uma impressão colorida pode ser obtida combinando pontos de algumas cores diferentes. Qualquer cor pode
ser reproduzida variando a proporção dos pontos coloridos representados. Sob uma lupa, os pontos individuais podem ser
grandes o suficiente para serem vistos em sua cor verdadeira, mas se os pontos individuais não puderem ser resolvidos a olho
nu, os pontos vizinhos afetarão a mesma área da retina e produzirão uma combinação ou efeitos que resultam na sensação de
uma cor não nos próprios pontos.

Uma situação semelhante pode ser encontrada na tela de um aparelho de televisão em cores; A tela é coberta por uma
série de pontos, alguns dos quais reagem à luz brilhando em azul, alguns em verde brilhante, alguns tristes em vermelho
brilhante. Cada parte específica da imagem da TV digitalizada e transmitida pela câmera ativa esses pontos em uma determinada
proporção de brilho, e sentimos essa proporção como a mesma cor que estava presente no objeto original.

Telescópios Refletores

O fato de a luz branca ser uma mistura de cores explicava o que havia sido observado como uma imperfeição irritante do
telescópio. Um feixe paralelo de raios de luz passando por uma lente convergente é focalizado no outro lado da lente. A posição
exata desse foco depende da extensão em que a luz é refratada ao passar pela lente, e isso imediatamente introduz uma
complicação, pois a luz branca consiste em uma mistura de cores, cada uma com sua própria refração, e é quase sempre luz
branca estamos passando pelas lentes dos telescópios e microscópios.

O componente vermelho da luz branca é menos refratado ao passar pela lente e se concentra em um ponto específico. O
componente laranja que está sendo refratado em uma extensão um pouco maior chega ao foco em um ponto um pouco mais
próximo da lente do que a luz vermelha. A luz amarela é focalizada ainda mais perto, e em seguida segue o verde, o azul e, mais próximo de t
Isso significa que, se o olho for colocado em uma ocular de telescópio de modo que o componente vermelho da luz de um corpo
celeste seja focalizado na retina, a luz restante passará de seu ponto focal e será mais ampla e difusa. A imagem do
Machine Translated by Google

corpo celeste será circundado com um anel azulado. Se o olho for colocado de forma que a extremidade violeta do espectro
seja focada, a luz restante ainda não terá atingido seu foco e haverá uma borda laranja. O melhor que pode ser feito é focalizar
o olho em algum lugar no centro e suportar as bordas coloridas, que assim são minimizadas, mas não abolidas.

Isso é chamado de aberração cromática, "cromático" que vem de uma palavra grega para cor. Não existiria se a luz fosse
tirada de apenas uma pequena região do espectro (tal luz seria monocromática ou "uma cor"), mas um telescópio ou
microscópio deve pegar o que obtém - geralmente não a luz monocromática.

Newton sentiu que a aberração cromática era um erro absolutamente inevitável das lentes e que nenhum telescópio
que dependesse de imagens formadas pela refração da luz através de uma lente (portanto, um telescópio refrator) jamais seria
limpo dela. Ele começou a corrigir a situação substituindo uma lente por um espelho. Como foi apontado anteriormente no livro,
uma imagem real é formada por um espelho côncavo que reflete a luz, bem como por uma lente convexa que transmite a luz.
Além disso, enquanto diferentes cores de luz são refratadas através de lentes em quantidades diferentes, todas são refletidas
pelos espelhos exatamente da mesma maneira. Portanto, os espelhos não dão origem a aberração cromática.

Em 1668, Newton concebeu um telescópio fazendo uso de tal espelho; foi o primeiro telescópio refletor prático. Era
apenas quinze centímetros de comprimento e dois centímetros de largura, mas era tão bom quanto o primeiro telescópio de Galileu. Pouco tempo
depois, Newton construiu telescópios maiores e melhores refletores.

Além da falta de aberração cromática, os telescópios refletores têm vantagens adicionais sobre os telescópios
refratores. Uma lente deve ser feita de vidro impecável com duas superfícies curvas, frontal e traseira, retificadas o mais
próximo possível da perfeição, para que a luz fraca das estrelas seja transmitida sem perda e focalizada com precisão. No
entanto, um espelho reflete a luz, e para isso apenas a superfície refletora precisa ser perfeita. Em um espelho telescópico, é a
extremidade dianteira que é coberta com uma fina película metálica refletora (não a extremidade traseira como em espelhos
comuns), de modo que o vidro atrás da superfície refletora dianteira pode ser defeituoso e imperfeito. Não tem nada a ver com a
luz; é apenas o material de suporte para a superfície metalizada na frente. Como é muito mais fácil obter um grande pedaço de
vidro ligeiramente defeituoso do que um grande pedaço de vidro perfeito, é mais fácil fazer um grande espelho telescópico do
que uma grande lente telescópica - principalmente porque apenas uma superfície precisa ser perfeitamente retificada em um espelho. , em v

Mais uma vez, a luz deve passar por uma lente e alguma é necessariamente absorvida. Quanto maior e mais espessa a lente, maior a
absorção. Por outro lado, não importa quão grande seja um espelho, a luz é meramente refletida da superfície, e virtualmente
nada é perdido por absorção. Então, uma lente só pode ser apoiada sobre o aro, já que todas as outras panelas devem ser
Machine Translated by Google

aberto à passagem desobstruída da luz: torna-se difícil apoiar uma lente grande e grossa sobre o aro, pois o centro cede e isso introduz
distorção. O espelho, por outro lado, pode ser apoiado em quantos pontos se desejar.

O resultado é que todos os grandes telescópios do mundo são refletores. O maior atualmente em operação é o refletor de 200 polegadas,
que entrou em operação em 1948 em Mount Palomar, Califórnia. Depois, há o refletor de 120 polegadas em Mount Hamilton e o refletor de 100
polegadas em Mount Wilson, ambos na Califórnia. A União Soviética colocou recentemente um refletor de 103 polegadas em uso na Crimeia e
tem um refletor de 236 polegadas em construção.

Compare isso com o refrator de 40 polegadas do Observatório Yerkes em Wisconsin, que tem sido o maior refrator em uso desde 1897
e provavelmente continuará assim.

No entanto, mesmo os refletores atingiram seu limite prático de tamanho. A captação e concentração da luz implicam uma
reunião e concentração das imperfeições do ambiente - a neblina no ar, a luz espalhada de cidades distantes, as variações de temperatura
que introduzem variações rápidas na refração do ar e definem as imagens do ambiente. estrelas para dançar e borrar.

Para a próxima etapa da telescopia óptica, talvez tenhamos que esperar o dia (talvez não muito distante) em que um observatório
astronômico possa ser montado na lua, onde não há ar para absorver, refratar e espalhar a luz fraca do planeta. estrelas, e onde o astrônomo
(dados os meios para sobreviver em um ambiente hostil) pode muito bem considerar-se figurativamente, bem como literalmente, no céu.

Mas Newton estava errado ao pensar que a aberração cromática nas lentes era inevitável. Não lhe ocorreu testar
prismas - feitos de diferentes variedades de vidro para ver se havia as mesmas diferenças na refração das cores da luz em todos eles.
Além do mais, ele ignorou os relatórios daqueles que por acaso testaram as diferentes variedades (até Homer concorda!).

A diferença no grau de refração da luz na extremidade vermelha e na extremidade violeta do espectro determina o grau em que um
espectro é espalhado a uma determinada distância do prisma. Esta é a dispersão do espectro. A dispersão varia com os diferentes tipos
de vidro. Assim, o vidro sílex (que contém compostos de chumbo tem uma dispersão duas vezes maior que o vidro de coroa (que não contém
compostos de chumbo).

Pode-se, portanto, formar uma lente convergente de vidro de coroa e adicionar a ela uma lente divergente menos poderosa de vidro de pederneira. o
Machine Translated by Google

lente divergente de vidro de sílex apenas neutralizará parte do efeito convergente da lente de vidro de coroa, mas equilibrará toda a
dispersão. O resultado será uma lente combinada não tão convergente quanto o vidro da coroa sozinho, mas que não produz um espectro
ou sofre de aberração cromática. É uma lente acromática (de palavras gregas que significam "sem cor"). O oculista inglês John Dollond
(1706-1761) produziu o primeiro telescópio refrator acromático em 1758.
Embora não tenha removido todas as deficiências dos refratores, tornou práticos os afastadores moderadamente grandes.

O desenvolvimento de lentes acromáticas foi de grande importância para a microscopia. Lá não era prático tentar substituir espelhos
por lentes e reflexão por refração. Por essa razão, os microscopistas tiveram que lidar com detalhes destruindo a aberração cromática
muito depois que os telescopistas conseguiram escapar.

Através dos esforços do oculista inglês Joseph Jackson Lister (1786-1869) e do astrônomo italiano Giovanni Batida Amici
(1786?-1863), os microscópios com lentes acromáticas foram finalmente desenvolvidos no início do século XIX.
Foi só depois que os micro-organismos menores puderam ser vistos com clareza e que a ciência da bacteriologia pôde realmente
começar a florescer.

Linhas Espectrais

Na verdade, não devemos pensar na luz do sol como sendo composta de algumas cores diferentes, como se fosse uma mistura de
sete pigmentos. A luz solar é uma mistura de um grande número de componentes separados por diferenças muito pequenas na refração.
Por exemplo, a porção vermelha do espectro não é um vermelho uniforme, mas se transforma imperceptivelmente em laranja.

No arco-íris e em espectros simples como os que Newton formou, a luz parece ser contínua, como se todas as infinitas refratividades
possíveis estivessem presentes na luz solar. Isso é uma ilusão, no entanto.

Se um feixe de luz passa por um pequeno orifício em uma persiana, digamos, e depois por um prisma, forma-se um grande
número de imagens circulares, cada uma impressa em uma variedade de luz de refração particular. Estes se sobrepõem e se misturam
em um espectro. Se faltasse luz de uma certa refração, as imagens vizinhas em qualquer direção se sobreporiam ao ponto onde a refração
ausente deveria estar, e nenhuma lacuna seria visível.

A situação melhoraria se o feixe de luz passasse por uma fenda estreita. O espectro seria
em seguida, consistem em uma miríade de imagens da fenda, cada uma sobrepondo-se apenas muito ligeiramente à sua vizinha. Em
1802, o químico inglês William Hyde Wollaston (1766-1828) viu algumas linhas escuras no espectro, representando imagens de fenda ausentes.
Machine Translated by Google

Ele, no entanto, sentiu que eles representavam as linhas de fronteira entre as cores e não seguiam.

Entre 1814 e 1824, no entanto, um oculista alemão, Joseph von Fraunhofer (1787-1826), trabalhando com prismas
particularmente finos, notou centenas dessas linhas escuras no espectro. Ele rotulou os mais proeminentes com letras de A
a G e mapeou cuidadosamente a posição relativa de tudo o que pôde encontrar. Então as linhas espectrais são, em sua
homenagem, às vezes chamadas de linhas de Fraunhofer.

Fraunhofer notou que o padrão de linhas na luz solar e na luz da luz solar refletida (da lua ou da
Vênus, por exemplo) era sempre o mesmo. A luz das estrelas, no entanto, mostraria um padrão radicalmente diferente.
Ele estudou a luz tênue de outros objetos celestes além do Sol, colocando um prisma na ocular de um telescópio, e esse foi o
primeiro uso de um espectroscópio.

O trabalho de Fraunhofer foi amplamente desconsiderado em sua vida, mas uma geração depois o físico alemão Gustav Robert
Kirchhoff (1824-1881) colocou o espectroscópio em uso como ferramenta química e fundou a ciência da espectroscopia.

Os químicos sabiam que os vapores de diferentes elementos aquecidos à incandescência produziam luzes de cores
diferentes. O vapor de sódio emitia uma luz fortemente amarelada; vapor de potássio uma luz violeta fraca; mercúrio uma luz
esverdeada doentia, e assim por diante. Kirchoff passou essa luz por um espectroscópio e descobriu que os vários elementos
produziam luz de apenas algumas variedades refrativas. Haveria apenas algumas imagens da fenda, amplamente espalhadas,
e isso seria um espectro de emissão. A posição exata de cada linha poderia ser medida contra um fundo cuidadosamente
pautado, e poderia então ser mostrado que cada elemento sempre produzia linhas da mesma cor no mesmo lugar, mesmo
quando estava em combinação química com outros elementos. Além disso, dois elementos não produziam linhas exatamente no mesmo

O espectro da linha de emissão poderia ser usado como um conjunto de "impressões digitais" para os elementos,
portanto. Assim, em 1959, Kirchhoff e seu colaborador mais antigo, o químico alemão Robert Wilhelm Bunsen (1811-1899),
ao aquecer certo mineral à incandescência e estudar o espectro de emissão dos vapores evoluídos, descobriram linhas
que não correspondiam às produzidas por qualquer elemento conhecido. Kirchhoff e Bunsen, portanto, postularam a
existência de um novo elemento, que chamaram de césio (da palavra latina para "azul celeste", por causa da cor azul celeste
da mais brilhante das novas linhas que haviam observado). No ano seguinte, eles fizeram uma descoberta semelhante e
anunciaram o rubídio (de uma palavra latina para “vermelho escuro”).A existência de ambos os metais foi rapidamente confirmada por té

Kirchhoff observou o inverso de um espectro de emissão. Sólidos brilhantes emitem luz de todas as cores, formando uma
Machine Translated by Google

espectro. Se a luz de um arco de carbono, por exemplo, representando um espectro tão contínuo, passar pelo vapor de sódio que está a
uma temperatura mais baixa que a do arco, o vapor de sódio absorverá parte da luz. No entanto, ele absorverá luz apenas de variedades
particulares - precisamente aquelas variedades que o próprio vapor de sódio emitiria se estivesse brilhando. Assim, o vapor de sódio ao
brilhar e emitir luz produz duas linhas amarelas muito próximas que compõem praticamente todo o seu espectro. Quando o vapor de sódio
frio absorve a luz de um espectro contínuo, duas linhas escuras cruzam o espectro exatamente na posição das duas linhas brilhantes do
espectro de emissão de sódio. As linhas escuras representam o espectro de absorção de sódio.

As linhas escuras no espectro solar parecem ser um espectro de absorção. O corpo ardente do sol é suficientemente
complexo em natureza química para produzir o que é essencialmente um espectro contínuo. À medida que a luz passa pela
atmosfera um pouco mais fria, ela é parcialmente absorvida. Aquelas partes que seriam mais fortemente absorvidas, e que apareceriam
como linhas escuras no espectro, corresponderiam aos espectros de emissão dos elementos mais comuns na atmosfera solar. Assim,
existem linhas de absorção de sódio proeminentes no espectro solar (Fraunhofer as rotulou de "linha D"), e isso é uma forte evidência de
que o sódio existe na atmosfera solar.

Desta forma, uma variedade de elementos foram localizados no sol. De fato, um elemento, o hélio, estava localizado no sol uma
geração antes de ser descoberto na Terra. Até a composição das estrelas distantes podia agora ser determinada.
Embora os detalhes da investigação espectroscópica dos céus sejam dados mais apropriadamente em um livro de astronomia, pode ser
bom dizer, em resumo, que foi claramente demonstrado que os corpos celestes são compostos dos mesmos elementos químicos que
compõem a terra – embora não necessariamente nas mesmas proporções.

Também apontou os perigos de estabelecer limites ao esforço humano. O filósofo francês Auguste Comte (1798-
1857), na tentativa de dar um exemplo de um limite absoluto imposto ao conhecimento do homem. disse que seria para sempre
impossível para o homem aprender de que material as estrelas eram compostas. Se ele tivesse vivido mais alguns anos, ele teria visto
seu limite absoluto facilmente violado.

Difração

A descoberta de que enquanto a luz era na verdade uma mistura de muitas cores abriu novos e sérios problemas para os físicos.
Enquanto a luz pudesse ser considerada um fenômeno indiferenciado e puro, a óptica geométrica era suficiente. Linhas poderiam ser
desenhadas representando raios de luz, e os fenômenos de reflexão e refração poderiam ser analisados sem qualquer consideração sobre
qual poderia ser a natureza da luz. Essa questão pode ser deixada para os filósofos.
Machine Translated by Google

Sendo a luz uma mistura de cores, tornou-se necessário buscar alguma explicação para a maneira pela qual a luz de uma cor
diferia da luz de outra cor. Para isso, a questão da natureza da luz em geral teve que ser considerada, e assim nasceu a ótica física.

Como foi apontado no início do livro, há então duas maneiras, em geral, de evitar o problema da ação à distância. Uma é supor
partículas fluindo através de um espaço que poderia então ser considerado vazio; a outra é supor que as ondas se propagam
através de um espaço que não é realmente vazio. Ambos os tipos de explicação foram avançados para a luz na segunda metade do
século XVII.
A mais direta das duas alternativas é a teoria das partículas, que o próprio Newton apoiou. Para começar, isso explica imediatamente
a propagação retilínea da luz. Suponha que objetos luminosos estejam constantemente disparando partículas minúsculas em todas as
direções. Se essas partículas fossem consideradas sem massa, um corpo luminoso não perde peso apenas pelo fato de ser luminoso, e a
própria luz não seria afetada pela gravidade. A luz, ao viajar em um caminho desobstruído, se não for afetada pela força gravitacional,
deve viajar em um caminho reto a uma velocidade constante, conforme exigido pela primeira lei do movimento de Newton. As partículas
de luz seriam detidas e absorvidas por barreiras opacas e, acelerando além da borda da barreira, lançariam uma fronteira nítida entre a
área iluminada além e a área sombreada da barreira.

Para Newton, a alternativa de uma teoria ondulatória parecia insustentável. As formas de onda que eram familiares aos cientistas no
tempo eram ondas de água e ondas sonoras, e estas não necessariamente viajam em linhas retas ou projetam sombras nítidas.
As ondas sonoras se curvam sobre os obstáculos, como sabemos sempre que ouvimos um som em uma esquina; e as ondas da
água se curvam visivelmente em torno de um obstáculo, como um tronco de madeira flutuante. Parecia razoável supor que esse
comportamento fosse característico das formas de onda em geral.

E, no entanto, a teoria das partículas também teve suas dificuldades. Feixes de luz podiam cruzar em qualquer ângulo sem afetar
um ao outro em direção ou cor, o que significava que as partículas de luz não pareciam colidir e ricochetear como as partículas comuns
fariam. Além disso, apesar das sugestões engenhosas, não havia explicação satisfatória sobre por que algumas partículas de luz davam
origem a sensações vermelhas, outras a sensações verdes e assim por diante. As partículas tinham que diferir entre si, é claro, mas
como?

Alguns contemporâneos de Newton, portanto, adotaram a teoria ondulatória que Newton havia descartado. O mais vigoroso
defensor da teoria das ondas no século XVII foi o físico holandês Christiaan Huygens (1629-1695). Ele não tinha nenhuma evidência real a
favor das ondas, mas se esforçou para mostrar que as ondas poderiam ser tratadas de modo a se adequarem aos fatos de
Machine Translated by Google

óptica geométrica. Em 16'78, ele sugeriu que quando uma frente de onda ocupa uma certa linha, cada ponto na frente atua como
uma fonte de ondas circulares, expandindo-se indefinidamente. Essas ondas se fundem, por assim dizer, e uma linha pode ser
traçada tangente ao número infinito de pequenos círculos centrados em cada ponto da frente de onda original. Essa tangente é
uma imagem da nova frente de onda, que serve como região inicial para outro conjunto infinito de ondas circulares para as quais
outra tangente geral pode ser desenhada e assim por diante.

Se as ondas forem analisadas desta forma, através do uso do que hoje é chamado de princípio de Huygen, pode-se mostrar
que uma frente de onda viajará para frente em linha reta (pelo menos se apenas sua porção média for considerada) para ser
refletida com um ângulo de reflexão igual ao ângulo de incidência, e assim por diante. Além disso, as próprias ondas não teriam
massa e teriam um suprimento virtualmente infinito, à maneira das ondas da água e das ondas sonoras. Sendo não materiais,
essas ondas de luz não afetariam umas às outras ao cruzarem (e, de fato, ondas de água e ondas sonoras podem se cruzar sem
interferência).

Parecia, então, que havia muito a ser dito a favor e contra cada teoria. Deve-se, portanto, procurar lugares onde as duas teorias
diferem quanto à natureza dos fenômenos que predizem. Através da observação das condições sob as quais tais fenômenos
deveriam existir, uma ou outra teoria (ou concebivelmente ambas) pode ser eliminada. (Este é o método geralmente usado onde
as teorias entram em conflito ou se sobrepõem.)

Por exemplo, a teoria das ondas de Huygens poderia explicar a refração sob certas condições. Suponha que uma frente de onda
reta de luz atinja a superfície plana do vidro obliquamente. Uma extremidade da frente de onda atinge o vidro primeiro, mas suponha
que seu progresso seja retardado ao entrar no vidro. Nesse carro, quando a próxima seção da frente bate no vidro, ela ganha na
primeira seção, pois a segunda tem viajado pelo ar, enquanto a primeira tem viajado, mais lentamente, através do vidro. À medida
que cada seção da frente de onda atinge, ela é desacelerada e ganha pela porção da frente de onda que ainda não atingiu. Toda a
frente de onda é assim refratada e, ao entrar no vidro, faz um ângulo menor com a normal; Ao emergir do vidro, a primeira seção a
emergir acelera novamente e ganha nas porções que ainda não emergiram. A luz emergente assume sua direção original novamente.

Uma analogia pode ser feita entre isso e uma fila de soldados em marcha saindo de uma estrada pavimentada obliquamente e entrando
um campo arado. Os soldados que saem da estrada são, naturalmente, mais lentos; os primeiros a entrar no domínio são
desacelerados primeiro, e toda a linha de soldados (se não fizerem nenhum esforço para corrigir a mudança de pé) deve
alterar a direção da marcha para a direção da normal para a interface rodovia-campo.
Machine Translated by Google

Assim, a teoria das ondas pode explicar a refração supondo que a velocidade da luz é menor no vidro do que no ar. Ao criar uma suposição
adicional, também pode explicar a formação do espectro. Se a luz é uma forma de onda, ela deve ter um comprimento de onda (o comprimento da crista
de uma onda até a de outra. Suponha, então, que esse comprimento de onda varie com a cor, sendo maior na extremidade vermelha do espectro e menor
na extremidade vermelha do espectro). Parece razoável supor então que os comprimentos de onda curtos são mais lentos ao entrar no vidro vindo do ar
do que os comprimentos de onda longos (novamente como uma analogia, um soldado marchando com um passo curto afundaria no campo arado mais
vezes em uma certa distância do que outro soldado com um passo longo. O soldado de passos curtos seria então mais lento, e a linha de soldados em
marcha, se nenhum esforço fosse feito para corrigir as coisas, se dividiria em grupos marchando em direções ligeiramente diferentes. pendente no
comprimento de seu passo.)

Em suma, a luz vermelha seria a menos refratada, a laranja a seguiria e assim por diante. Desta forma, a luz que passa por um prisma seria
espera-se formar um espectro.

Newton também podia explicar a refração por sua teoria das partículas, mas foi forçado a supor que a velocidade das panículas de luz aumentava ao
passar de um meio de baixa densidade óptica para um de alta densidade óptica. Aqui, então, havia uma clara diferença entre as duas teorias. Bastava medir
a velocidade da luz em diferentes meios e observar a maneira pela qual essa velocidade mudava; poder-se-ia então decidir entre as partículas newtonianas e
as ondas huygensianas. O único problema era que só quase dois séculos depois da época de Newton e Huygens é que tal medida poderia ser feita.

No entanto, havia uma segunda diferença nas previsões das teorias. As partículas de luz de Newton viajavam em linhas retas em todas as partes de um
feixe de luz, de modo que se poderia esperar que o feixe projetasse sombras absolutamente nítidas. Não tão. Ondas de Huygens. Cada ponto na frente de
onda serviu como foco para ondas em todas as direções, mas na maior parte da frente de onda, uma onda à direita de um ponto foi cancelada por uma
onda à esquerda do ponto vizinho à direita, e assim sobre.
Depois que todos os cancelamentos foram levados em consideração, apenas o movimento para frente foi deixado

Houve uma exceção, no entanto, nas extremidades da frente de onda. Na extremidade direita, uma onda para a direita não foi cancelada porque não
havia nenhum vizinho para a direita para enviar uma onda para a esquerda. Na extremidade esquerda, uma onda para a esquerda não foi cancelada. Um
feixe de luz, portanto, teve que "vazar" para os lados se fosse uma forma de onda. Em particular, se um feixe de luz passasse por uma lacuna em uma
barreira opaca, a luz no limite do feixe, apenas passando pela borda da lacuna, deveria vazar para os lados, de modo que a porção iluminada de uma
superfície mais adiante deveria ser mais largo do que se esperaria de uma viagem em linha estritamente reta.
Machine Translated by Google

Esse fenômeno de uma forma de onda que se dobra lateralmente em cada extremidade de uma frente de onda é chamado de
difração, e isso é, de fato, facilmente observado em ondas de água e ondas sonoras. Como a luz, ao passar por uma abertura em uma
barreira, não parecia exibir difração, a teoria da panícula pareceu ganhar a aprovação. Infelizmente, o que não era claramente entendido
na época de Newton era que quanto menor o comprimento de onda de qualquer forma de onda, menor o efeito de difração. Portanto, se
alguém fizesse ainda outra suposição - que o comprimento de onda das ondas de luz era muito pequeno - o efeito de difração seria muito
difícil de observar, e uma decisão ainda poderia ser suspensa.

De fato, a difração da luz foi observada no século XVII. Em 1665, um físico italiano, Francesco Maria Grimaldi (1618?-1663),
passou a luz através de duas aberturas e mostrou que a faixa final de luz na superfície iluminada era um pouco mais larga do que
deveria ter sido se a luz tivesse viajado através das duas aberturas de forma absolutamente reta. Em outras palavras, a difração
ocorreu.

O que foi ainda mais importante foi que os limites da região iluminada mostraram efeitos de cor, com as porções mais
externas do limite vermelho e o mais interno violeta. Isso também acabou sendo entendido, se encaixava na teoria das ondas, pois
se a luz vermelha tivesse os comprimentos de onda mais longos, ela seria mais difratada, enquanto a luz violeta, com os
comprimentos de onda mais curtos, seria menos difratada.

De fato, esse princípio veio a ser usado para formar espectro. Se linhas paralelas finas forem marcadas no vidro, cada uma
representará uma região opaca separada por uma região transparente. Haverá uma série de lacunas, nas bordas das quais a difração
pode ocorrer. De fato, se as lacunas forem muito estreitas, o vidro consistirá inteiramente de bordas de lacunas, por assim dizer. Se a
marcação for muito reta e as lacunas forem muito estreitas, a difração em cada aresta ocorrerá da mesma maneira, e a difração em
qualquer aresta reforçará a difração em todas as outras. Nisto foi produzido um espectro tão bom ou melhor do que qualquer que possa
ser formado por um prisma. As linhas podem ser marcadas mais finamente em metal polido do que em vidro. Nesse caso, cada linha é
uma região opaca separada por uma região refletora, e isso também formará um espectro (embora a reflexão comum de superfícies
ininterruptas não o faça).

Os espectros formados por tais redes de difração são invertidos em comparação aos espectros formados por refração. Onde o
violeta é mais refratado e o vermelho menos, o violeta é menos difratado e o vermelho mais. Conseqüentemente, se o espectro em um
caso é "vermelho-esquerdo-violeta-direito", no outro é "vermelho-direito-violeta-esquerdo". Mais exatamente, no caso do espectro de
refração, o vermelho está mais próximo da linha original na qual a luz estava viajando, enquanto o violeta está mais próximo da linha original na facil
Machine Translated by Google

(Atualmente, grades de difração são usadas muito mais comumente do que prismas na formação de espectros. O
primeiro a fazer uso importante de grades de difração para esse propósito foi Fraunhofer, o homem que primeiro fez
observações completas de linhas espectrais.)

Newton estava ciente dos experimentos de Grimaldi e até os repetiu, notando particularmente as bordas coloridas. No
entanto, o fenômeno parecia tão pequeno para ele que ele não sentiu que poderia suspender a teoria das partículas por causa
disso, e assim ele desconsiderou seu significado. Evidências mais dramáticas de difração e a capacidade de medir a velocidade
da luz em diferentes meios ainda permaneciam distantes no futuro. O que significou, então, foi que os físicos do século XVII
tiveram que escolher entre duas personalidades em vez de entre dois conjuntos de evidências físicas. O grande prestígio de
Newton venceu e, por cem anos depois, ao longo do século XVIII, a luz foi considerada por quase todos os físicos como
indiscutivelmente de natureza particulada.

CAPÍTULO 5

Ondas de luz

Interferência

A confiança do século XVIII na existência de partículas de luz veio a desmoronar no início do século XIX. Em 1801, Young
(da teoria de Young-Helmholtz da visão de cores) realizou um experimento que reviveu a teoria das ondas com mais força.

Young deixou a luz de uma fenda cair sobre uma superfície contendo duas fendas próximas. Cada fenda serviu como fonte de um
cone de luz, e os dois cones se sobrepuseram antes de cair em uma tela.

Se a luz é composta de partículas, a região de sobreposição deve receber partículas de ambas as fendas. Com a
concentração de partículas, portanto, dobrada, a região de sobreposição deve ser uniformemente mais brilhante do que as
regiões nas periferias além da sobreposição, onde a luz de apenas um cone seria recebida. Isto provou não ser assim. Em
vez disso, a região sobreposta consistia em listras - bandas brilhantes e bandas escuras alternadas.

Para a teoria das partículas da luz, isso era uma rolha. Com base na teoria das ondas, no entanto, não havia problema. No
Machine Translated by Google

Em alguns pontos da tela, a luz do primeiro e do segundo cone consistiria em formas de onda que estavam em fase (ou seja, crista combinando
com crista, valendo com vale. Os dois feixes de luz se reforçariam nesses pontos que eles seria uma forma de onda resultante de duas vezes a
amplitude e, portanto, uma região de brilho duplicado. Em outros pontos da tela, os dois feixes de luz estariam fora de fase (com crista combinando
e valendo crista). Os dois feixes seriam então cancele, pelo menos em parte, e a forma de onda resultante teria uma amplitude muito menor do que
qualquer um dos componentes; onde o cancelamento fosse perfeito, não haveria onda alguma.

Resumindo, enquanto uma partícula do tipo que Newton imaginou para a luz não poderia interferir e cancelar outra partícula, uma
forma de onda pode facilmente interferir e cancelar outra forma de onda, padrões de interferência podem ser facilmente demonstrados em ondas
de água, e a interferência é responsável pelo fenômeno das batidas; por exemplo, no caso de ondas sonoras. Young foi capaz de mostrar que a
teoria das ondas explicaria exatamente a interferência observada.

Além disso, a partir do espaçamento das bandas de interferência de luz e escuridão, Young pôde calcular o comprimento de onda da luz.
Se o raio de luz de um cone é para reforçar o raio de tensão do segundo cone, ambos os raios devem estar em fase, e isso significa que as
distâncias do ponto de reforço na tela para uma fenda e para a outra devem diferir por um número inteiro de comprimentos de onda. Ao
escolher as bandas de interferência que exigiam a menor diferença em distâncias, Young pôde calcular o comprimento de um único comprimento
de onda e descobriu que era da ordem de cinqüenta milésimos de polegada, certamente pequeno o suficiente para explicar a dificuldade de
observar os efeitos de difração. . Foi possível mostrar, além disso, que os comprimentos de onda da luz vermelha são cerca de duas vezes os
comprimentos de onda da luz violeta, o que atende aos requisitos da teoria ondulatória para explicar a formação do espectro.

No sistema métrico, provou-se conveniente medir os comprimentos de onda da luz em milimícrons, onde um milimícron é um bilionésimo
de metro (10-9m) ou um décimo milionésimo de centímetro (10-7cm). Usando esta unidade, o espectro se estende de 760 milimícrons para a luz
vermelha de maior comprimento de onda até 380 milimícrons para a luz violeta de menor comprimento de onda. A posição de qualquer linha
espectral pode ser localizada em termos de seu comprimento de onda.

Um dos que fizeram medições particularmente boas dos comprimentos de onda das linhas espectrais foi o astrônomo e físico
sueco Anders Jones Angstrom (1814 - 1874), que fez seu trabalho em meados do século XIX. Ele fez uso de uma unidade que era um décimo
de milícron. Isso é chamado de unidade angstrom (A) em sua homenagem. Assim, o alcance do espectro é de 7600 A a 3800 A.

Os intervalos de comprimento de onda para as diferentes cores podem ser dados aproximadamente (pois as cores se misturam umas com as outras e
Machine Translated by Google

não há ~ divisões nítidas) como: alimentado, 7600-6300 A; laranja, 6300-5900 A; amarelo, 5900-5600 A; verde, 5600-4900 A; azul,
4900-4500 A; violeta 4500-3800 A.

O vapor de sódio incandescente emite uma linha brilhante no amarelo, enquanto a absorção de sódio produz uma linha escura no
mesmo lugar. Esta linha, originalmente considerada única e dada a letra D por Fraunhofer, pelo uso de melhores espectroscópios,
foi resolvida em duas linhas muito próximas, D1 e D2, a primeira está no comprimento de onda 5896 A. a última em 5890 A. Da
mesma forma, a linha C de Fraunhofer (no vermelho) e a linha F no azul) são ambas produzidas por absorção de hidrogênio e têm
comprimentos de onda de 6563 A e 4861 A, respectivamente. (Na verdade, foi Angstrom quem primeiro mostrou, a partir de seu
estudo das linhas espectrais, que o hidrogênio ocorria no sol.) De maneira semelhante, todas as linhas espectrais produzidas por
qualquer elemento, por absorção ou emissão, podem ser localizadas com precisão.

A teoria ondulatória da luz não foi aceita de imediato, apesar da conclusão (em retrospectiva) do experimento de Young.
No entanto, durante todo o século XIX, surgiram evidências adicionais a favor das ondas de luz, e fenômenos adicionais que,
pela teoria das partículas, teriam permanecido intrigantes, encontraram explicações prontas e elegantes através da teoria das ondas.
Considere, por exemplo, a cor do céu.

A luz, ao encontrar um obstáculo em seu P8'h desobstruído, sofre um destino que depende do tamanho do obstáculo. Se o
obstáculo for maior que 1000 milimícrons de diâmetro, a luz é absorvida e termina um raio de luz, pelo menos na forma de luz. Se o
obstáculo for menor que 1 milimícron de diâmetro, o raio de luz provavelmente passará sem ser perturbado. Se, no entanto, o
obstáculo estiver entre 1 mt e 1000 mp de diâmetro, ele será ajustado para vibrar à medida que absorve a luz e pode então emitir um
raio de luz igual em frequência (e, portanto, em comprimento de onda) ao original, mas viajando em uma direção diferente. Isso é
dispersão de luz.

As minúsculas partículas de água ou gelo nas nuvens são do tamanho de dispersar a luz dessa maneira; portanto, um céu
coberto de nuvens é uniformemente branco (ou, se as nuvens são espessas o suficiente para absorver uma fração considerável da
luz, uniformemente cinza).

A poeira normalmente presente na atmosfera também dispersa a luz. As sombras, portanto, não são absolutamente pretas,
mas, embora sejam muito mais escuras do que as áreas sob luz solar direta, recebem luz difusa suficiente para possibilitar a leitura
de jornais à sombra de um prédio ou mesmo em ambientes fechados em um dia nublado.

Depois que o sol se põe, ele está brilhando além da protuberância da terra sobre a atmosfera superior. A luz se espalhou para baixo
Machine Translated by Google

mantém a terra em um crepúsculo lentamente escurecendo. É somente depois que o sol desceu 18 graus abaixo do horizonte que se
pode dizer que a noite inteira começou. De manhã, o nascer do sol é precedido por um segundo período crepuscular, que é o amanhecer.

À medida que as partículas ficam menores, uma diferença pronunciada torna-se perceptível na quantidade de espalhamento com o comprimento de onda.
A luz de comprimento de onda curto é espalhada em maior extensão do que a luz de comprimento de onda longo. Assim, se a luz
do sol incide sobre uma nuvem de fumaça de tabaco, é a luz de ondas curtas que é mais eficientemente espalhada, e a fumaça de
tabaco, portanto, parece azulada.

O físico britânico John Tynndall (1820-1893) estudou esse fenômeno. Ele descobriu que a luz que passa pela água pura ou uma
solução de substâncias de pequenas moléculas, como sal ou açúcar, não sofre espalhamento. O feixe de luz, viajando apenas para a
frente, não pode ser visto de lado e. o líquido é opticamente claro. No entanto, se a solução contiver partículas grandes o suficiente
para dispersar a luz (exemplos são as moléculas de proteínas ou pequenos conglomerados de materiais normalmente insolúveis,
como ouro ou óxido de ferro), parte da luz é emitida lateralmente e o feixe pode ser visto da lado.
Este é o efeito Tyndall.

O físico inglês John William Strutt, Lord Rayleigh (1841-1919), aprofundou o assunto em maiores detalhes em 1871.
Ele elaborou uma equação que mostrava como a quantidade de luz espalhada por moléculas de gás variava com vários fatores,
incluindo o comprimento de onda da luz. Ele mostrou que a quantidade de espalhamento era inversamente proporcional à quarta
potência do comprimento de onda. fator de 2', ou 16.

Em distâncias curtas, a dispersão por partículas tão pequenas quanto moléculas de gás da atmosfera é insignificante. Se,
no entanto, as milhas de atmosfera que se estendem acima são consideradas, a dispersão aumenta e, como Rayleigh mostrou,
deve ser confinada quase inteiramente à extremidade violeta do espectro. Luz suficiente é espalhada para abafar a fraca luz das
estrelas (que estão, é claro, presentes no céu tanto de dia quanto de noite). Além disso, a luz difusa que ilumina o céu, fortemente
representada na região de ondas curtas, é de cor azul; o próprio sol, com aquela pequena quantidade de luz de ondas curtas subtraída
de sua cor, é um pouco mais vermelho do que seria se a atmosfera estivesse ausente.

Este efeito é acentuado quando o sol está no horizonte, pois então ele brilha através de uma maior espessura de ar à medida
que sua luz atravessa obliquamente a atmosfera. Luz suficiente é espalhada até mesmo nas porções médias do espectro para dar
ao céu um tom levemente esverdeado, enquanto o próprio sol, com uma proporção considerável de sua luz espalhada, assume uma
cor avermelhada. Isso, refletido em nuvens quebradas, pode produzir um efeito muito bonito. Desde o céu noturno, depois
Machine Translated by Google

as atividades do dia, mais empoeiradas do que o céu da manhã, e como a poeira contribui para a dispersão, o pôr do sol tende a ser mais
espetacular do que o nascer do sol. Após gigantescas erupções vulcânicas (principalmente a de Krakatoa, que explodiu literalmente em 1883),
incontáveis toneladas de poeira fina são lançadas na atmosfera superior, e o pôr do sol permanece particularmente bonito por meses depois.

Na lua (que não tem atmosfera) o céu é preto mesmo quando o sol está presente no céu. As sombras são breu
preto na lua, e o terminador (a linha entre a parte iluminada pelo sol e a parte sombreada do corpo) é nítida, porque não há amanhecer nem
crepúsculo. A Terra, vista do espaço, também possuiria um terminador, mas difuso que gradualmente ia passando do claro ao escuro. Além
disso, seu globo teria uma aparência distintamente azulada, graças à dispersão da luz por sua atmosfera.

A velocidade da luz

Com o tempo, até mesmo a questão da velocidade da luz em vários meios foi resolvida em favor da visão de Huygens como um clímax.
a dois séculos de trabalho sobre o problema. O primeiro esforço para medir a velocidade da luz foi feito por Galileu cerca de meio século
antes do início da controvérsia onda-partícula.

Galileu se colocou no topo de uma colina e um assistente em outra, a cerca de um quilômetro e meio de distância. Era sua intenção acender uma lanterna
à noite e faça seu assistente acender uma lanterna em troca assim que ele avistar a luz de Galileu. O lapso de tempo entre a exposição da luz
de Galileu e seu avistamento do sinal de retorno representaria então, supostamente, o tempo que a luz levou para viajar de Galileu para o assistente
e voltar. Por volta desse mesmo período, esse princípio também foi usado com sucesso na determinação da velocidade do som.

Galileu encontrou um atraso perceptível entre a emissão e o retorno da luz; no entanto, era óbvio para ele que isso não se devia ao tempo que
a luz levava para viajar, mas ao tempo que o sistema nervoso humano leva para reagir a uma sensação, pois a demora não era maior quando os
dois homens estavam a uma milha de distância do que quando eles estavam a seis pés de distância.

Conseqüentemente, tudo o que Galileu pôde mostrar com seu experimento foi que a luz viajava muito mais rapidamente do que o som. Na verdade, é
permanecia possível que a luz viajasse com velocidade infinita, como de fato muitos estudiosos supunham.

Não foi até a década de 1670 que a evidência definitiva foi apresentada no sentido de que a velocidade da luz, embora muito grande, era, no
entanto, finita. O astrônomo dinamarquês Olaus Roemer (1644-1710) fazia então observações meticulosas de
Machine Translated by Google

Os satélites de Júpiter (que haviam sido descobertos por Galileu em 1610). As órbitas desses satélites haviam sido
cuidadosamente calculadas, e os momentos em que cada satélite deveria passar por trás de Júpiter e ser eclipsado à vista
de um observador na Terra poderiam, em teoria, ser calculados com precisão. Roemer descobriu, no entanto, que os eclipses
ocorreram fora do cronograma, vários minutos atrasados em alguns momentos e vários minutos adiantados em outros.

Em uma investigação mais aprofundada, ele descobriu que nos momentos em que a Terra e Júpiter estavam do mesmo
lado do Sol, os eclipses estavam adiantados; quando os dois planetas estavam em lados opostos do sol, eles estavam atrasados.

Imagine um feixe de luz conectando um satélite joviano com a Terra - isto é, um feixe por meio do qual vemos o satélite.
No momento do eclipse, o feixe é cortado e não vemos mais o satélite. Pelo menos essa seria a situação se a luz viajasse
com uma velocidade infinita. Assim que o feixe fosse cortado, sob essas condições, deixaria de existir ao longo de todo o
seu caminho de viagem, por mais longo que esse caminho pudesse ser. Não importaria se a Terra estava do mesmo lado do Sol
que Júpiter estava, ou do lado oposto.

Se, no entanto, a luz viajasse a uma velocidade finita, uma vez que o feixe fosse cortado por Júpiter, a luz continuaria a viajar.
em direção à terra; o observador terrestre, portanto, continuaria a ver o satélite até que a "ponta quebrada" do feixe de luz o
alcançasse. Então, e só então, o satélite desapareceria no eclipse. Haveria um tempo finito entre o eclipse real e o eclipse visto.
Quanto maior a distância entre Júpiter e a Terra, maior esse lapso de tempo.

Se a distância que separa Júpiter e a Terra fosse sempre a mesma, esse lapso de tempo seria constante e poderia, portanto,
ser ignorado. Mas a distância entre Júpiter e a Terra não é constante. Quando a Terra e Júpiter estão do mesmo lado do Sol,
eles estão separados por apenas 400.000.000 milhas. Quando estão em lados opostos, podem ser separados por essa distância
mais a largura total da órbita da Terra, ou um total de cerca de 580.000.000 milhas. Se na aproximação mais próxima o eclipse
estiver, digamos, oito minutos adiantado, e na distância mais distante, oito minutos atrasado, então a luz levaria cerca de 16
minutos para cruzar o diâmetro da órbita da Terra. Conhecendo o diâmetro da órbita da Terra, pode-se calcular facilmente a
velocidade da luz e, em 1676, Roemer o fez. À luz do conhecimento moderno, o valor que ele obteve foi bastante baixo. No entanto,
ele conseguiu mostrar que a luz viajava a velocidades da ordem de cento e cinquenta mil milhas por segundo.

O trabalho de Roemer não foi aceito de todo coração, mas em 1728 o astrônomo inglês James Bradley (1693-1762) usou
o fenômeno da aberração da luz para realizar um cálculo semelhante. Suponha que a luz de uma estrela próxima ao
Machine Translated by Google

O Pólo Norte Celestial está descendo verticalmente sobre a Terra. A Terra, no entanto, está se movendo em sua órbita em ângulos retos
com essa direção e, portanto, está se movendo para encontrar o feixe de luz. Um telescópio deve ser levemente inclinado para captar esse
feixe de luz, assim como um guarda-chuva deve ser levemente inclinado para captar as gotas de chuva se você estiver andando em uma
tempestade na qual a chuva está caindo verticalmente.

O telescópio deve ser inclinado em uma direção que muda continuamente à medida que a Terra se move em sua órbita curva; portanto,
a estrela parece se mover em uma elipse muito pequena no céu. O tamanho da elipse depende da razão entre a velocidade do movimento
da Terra e a do movimento da luz. (Não haveria aberração se a Terra estivesse parada ou se a luz viajasse em velocidade infinita.) Como a
velocidade da Terra ao redor do Sol é conhecida como 18,5 milhas por segundo, a velocidade da luz poderia ser facilmente calculada.
Bradley mostrou que a velocidade da luz era de quase 190.000 milhas por segundo.

Não foi até 1849, no entanto, que a questão da velocidade da luz foi trazida dos céus e medida na terra. O experimentador que fez
isso foi o físico francês Armand Hippolyte Louis Fizeau (1819-
1896), que voltou ao princípio de Galileu, mas tentou eliminar a questão do tempo de reação humana.

Ele fez isso permitindo que a luz de um morro fosse devolvida de outro morro, não por um ser humano, mas por um espelho. Além
disso, a luz emitida tinha que passar entre as engrenagens de uma roda giratória; consequentemente, a luz foi "cortada" em uma série de
fragmentos - uma linha pontilhada de luz, por assim dizer.

Considere o comportamento de tal feixe interrompido. A luz viaja tão rapidamente que, se a roda estivesse girando a uma taxa
normal de velocidade, cada pedaço de luz que emergisse entre as engrenagens da roda atingiria o espelho, seria refletido e voltaria antes
que a roda tivesse tempo de se mover muito. A luz retornaria pela mesma abertura nas engrenagens por onde havia saído. Uma pessoa
que visse a luz de retorno através de uma ocular veria uma série de pulsos de luz em intervalos tão curtos que pareceria ver um borrão
contínuo de luz. Além disso, a luz seria bastante brilhante, pois quase toda a luz emitida seria devolvida.

Claro, o último pedaço de um dos fragmentos de luz, o pedaço que tinha acabado de deslizar entre as engrenagens como uma engrenagem foi
prestes a cortar o feixe, encontraria a engrenagem completamente no caminho quando voltasse e seria absorvida.
Consequentemente, a luz refletida perderia apenas um pouquinho de sua intensidade e não seria tão brilhante quanto seria se não houvesse
nenhuma roda dentada no caminho.

Se a roda dentada fosse feita para girar cada vez mais rápido, uma fração cada vez maior da luz seria interceptada
Machine Translated by Google

pela engrenagem em seu retorno, e a luz refletida, toda vista através da ocular, ficaria cada vez mais fraca.
Eventualmente, essa obscuridade atingiria um mínimo, porque toda a luz que emergia enquanto a lacuna passava
retornaria enquanto a engrenagem passava. Mas se a roda fosse girada ainda mais rápido, então parte da luz começaria
a deslizar pela próxima abertura, e a luz começaria a brilhar novamente. Em um certo ponto, toda a luz que passa por uma
lacuna retornaria pela próxima, e haveria luz no brilho máximo novamente.

Medindo a velocidade de rotação da roda dentada no momento do brilho mínimo e máximo, e conhecendo a distância
da fonte de luz ao espelho, pode-se calcular a velocidade da luz. Os resultados de Fizeau não foram tão precisos quanto
os de Bradley, por exemplo, mas Fizeau trouxe a medida para a Terra e não envolveu nenhum corpo celeste.

Fizeau teve um colega de trabalho, o físico francês Jean Bernard Leon Foucault (1819-1868), que introduziu
uma melhoria que eliminou ainda mais o erro humano. No aparelho de Fizeau, ainda era necessário escolher os pontos
em que o brilho da luz parecia mínimo ou máximo. Isso exigia julgamento humano, que não era confiável.
Foucault introduziu um segundo espelho no lugar da roda dentada. O segundo espelho foi ajustado para girar. O
espelho giratório enviava luz para o espelho fixo somente quando ele era girado na direção correta. No momento em
que a luz foi refletida do espelho fixo, o espelho giratório havia se movido ligeiramente. A luz de retorno foi refletida,
portanto, não de volta ao espelho fixo novamente, mas em um pequeno ângulo. Com pouca dificuldade, esse pequeno ângulo pode se
A partir disso, a partir da velocidade com que o espelho girava e da distância entre os dois espelhos, a velocidade da
luz podia ser medida com considerável precisão, e foi.

Além disso, Foucault foi capaz de fazer a mesma medida quando a luz foi feita para viajar pela água e não pelo ar.
Isso ele fez em 1850 e descobriu que a velocidade da luz na água era nitidamente menor que a do ar. Isso estava
precisamente de acordo com a previsão de Huygens de quase dois séculos antes e contrária à previsão de Newton. Para
os físicos, isso parecia ser a gota d'água, e não houve resistência importante à teoria ondulatória da luz depois disso.

A velocidade da luz que passa através de qualquer meio transparente é igual à sua velocidade no vácuo dividida pelo índice
de refração (n) do meio. A velocidade da luz no vácuo é usualmente representada como c, que significa celeritas,
uma palavra latina para "velocidade". Poderíamos dizer então:

V = c/n (Equação 5-1)


Machine Translated by Google

Se aceitarmos o valor aproximado de 186.000 milhas por segundo para c, então como o índice de refração da água é 1,33,
a velocidade da luz na água é 186.000/1,33, ou 140.000 milhas por segundo. Da mesma forma, a velocidade da luz no vidro com
índice de refração de 1,5 é de 124.000 milhas por segundo, enquanto no diamante, com índice de refração de 2,42, a velocidade
da luz é de 77.000 milhas por segundo.

Nenhuma substância com índice de refração menor que 1 foi descoberta, nem, com base no conhecimento atual,
pode existir tal substância. Esta é outra maneira de dizer que a luz viaja mais rapidamente no vácuo do que em qualquer
meio material.

Desde a época de Foucault, muitos refinamentos adicionais foram trazidos à técnica de medir a velocidade da luz.
Em 1923, o físico americano Albert Abraham Michelson (1852-1931) fez uso de uma versão refinada da configuração de
Foucault e separou seus espelhos por uma distância de 22 milhas, estimando essa distância com uma precisão de uma polegada.
Ainda mais tarde, em 1931, ele decidiu remover a interferência tri8 do ar (que tem um índice de refração ligeiramente maior que 1 e
que carrega neblina e poeira além disso) evacuando um tubo de uma milha de comprimento e organizando combinações de
espelhos de tal maneira para permitir que o feixe de luz se movesse para frente e para trás até ter viajado dezesseis quilômetros no vácuo, ao

A última medição de Michelson havia fixado a velocidade dentro de dez milhas por segundo do que deveria ser o correto.
valor, mas isso não satisfez os físicos. Em 1905 (como teremos ocasião de ver mais adiante no volume, a velocidade da luz no
vácuo revelou-se uma das constantes fundamentais do universo, de modo que não poderia haver repouso enquanto fosse
possível determinar essa velocidade com um pouco mais de precisão do que era possível até então. Consequentemente, métodos
novos e mais refinados para medir a velocidade da luz foram colocados em uso desde a Segunda Guerra Mundial e, em 1963, o
National Bureau of Standards adotou o seguinte valor para c: 186.281,7 milhas por segundo.

Para ser exato, eles adotaram o valor em unidades métricas, e aqui, por uma curiosa coincidência, a velocidade de
a luz chega a um valor quase uniforme: 299.792,8 quilômetros por segundo.

Como você vê, isso é apenas um pouco menos de 300.000 quilômetros por segundo, ou 130.000.000.000 centímetros por segundo.
Este último valor pode ser dado como 3 X 1010 cm/s.

A esta velocidade, a luz pode viajar da lua para a terra em 1,25 segundos, e do sol para a terra em oito minutos. Em um
ano, a luz viaja 9.450.000.000.000 quilômetros, ou 5.900.000.000.000 milhas, e essa distância é chamada de ano-luz.
Machine Translated by Google

O ano-luz tornou-se uma unidade conveniente para uso em astronomia, já que todos os objetos fora do nosso sistema solar
estão separados de nós por distâncias tão vastas que nenhuma unidade menor serve. Nossos vizinhos mais próximos entre as estrelas,
os membros do sistema Alpha CCntauri, estão a 4,3 anos-luz de distância, enquanto o diâmetro de nossa galáxia como um todo é de
cerca de 100.000 anos-luz.

Efeito Doppler-Fizeau

Com a luz vista como um movimento de onda, era razoável prever que ela exibiria propriedades análogas às mostradas por outros
movimentos de onda. O físico austríaco Johann Christian Doppler (1803-1853) havia apontado que o tom das ondas sonoras variava
com o movimento da fonte em relação ao ouvinte. Se uma fonte sonora estivesse se aproximando do ouvinte, as ondas sonoras se
aglomerariam e mais ondas colidiriam com o ouvido por segundo. Isso seria equivalente a uma frequência elevada, de modo que o som
seria ouvido como sendo de tom mais alto do que teria sido ouvido se a fonte fosse fixa em relação ao ouvinte. Pelo mesmo raciocínio,
uma fonte de som que se afasta emite um som de tom mais baixo, e o apito do trem, à medida que o trem passa, muda repentinamente
de agudo para baixo.

Em 1842, Doppler apontou que esse efeito Doppler deveria se aplicar também às ondas de luz. No caso de uma fonte de luz se
aproximando, as ondas devem se aglomerar e se tornar de frequência mais alta, para que a luz fique mais azul.
No caso de uma fonte de luz em retrocesso, as ondas de luz seriam separadas e se tornariam mais baixas em frequência, de modo
que a luz se tornaria mais vermelha.

Doppler sentiu que todas as estrelas irradiavam luz branca, com a luz mais ou menos distribuída uniformemente pelo espectro.
Estrelas avermelhadas, ele achava, poderiam ser vermelhas porque estavam se afastando de nós, enquanto estrelas azuladas se
aproximavam de nós. Essa sugestão, no entanto, mostrou-se facilmente equivocada, pois a falácia está na suposição de que a luz que
vemos é toda a luz que existe. ...

A luz está tão intimamente ligada à visão que se supõe naturalmente que, se não vir nada, nenhuma luz está presente.
No entanto, a luz pode estar presente na forma de comprimentos de onda aos quais a retina do olho é insensível. Assim, em 1800, o
astrônomo britânico William Herschel (1738-1822) estava verificando a maneira como diferentes porções do espectro afetavam o
termômetro. Para sua surpresa, ele descobriu que o aumento da temperatura era mais alto em um ponto um pouco abaixo da
extremidade vermelha do espectro - um ponto onde o olho não podia ver nada.
Machine Translated by Google

Quando a teoria das ondas foi estabelecida, a explicação se mostrou simples. Havia ondas de luz com comprimentos de onda
maiores que 2600 A. Esses comprimentos de onda não afetam o olho e, portanto, não são vistos; no entanto, eles são reais. A luz de
comprimentos de onda tão longos pode ser absorvida e convertida em calor; eles podem, portanto, ser detectados dessa maneira. Eles
poderiam ser submetidos aos ritmos comuns de reflexão, refração e assim por diante, desde que a detecção fosse realizada por
instrumentos apropriados de absorção de calor e não pelo olho. Essas ondas de luz, recebidas do sol, podem até se espalhar em um
espectro com comprimentos de onda variando de 7.600 A (a fronteira da região do visível) até cerca de 30.000 A.

Esta porção da luz foi referida como "raios de calor" na ocasião, porque eles foram detectados como calor. Um nome melhor,
no entanto, e universalmente usado agora, é a radiação infravermelha ("abaixo do vermelho").

A outra extremidade do espectro visível também não é uma extremidade verdadeira. A luz afeta certos produtos químicos e, por exemplo, trará
sobre a quebra do cloreto de prata, um composto branco, e produzem manchas pretas de prata metálica. O cloreto de prata, portanto,
rapidamente se torna cinza quando exposto à luz solar (e é esse fenômeno que serve de base para a fotografia). Por razões não
compreendidas em 1800, mas que foram eventualmente explicadas em 1900 (ver página 132), a luz na extremidade violeta do espectro é
mais eficiente em provocar o escurecimento do cloreto de prata do que a luz na extremidade vermelha. Em 1801, o físico alemão Johann
Wilhelm Ritter (1776-1810) descobriu que o cloreto de prata estava escurecido em um ponto além da extremidade violeta do espectro em
um lugar onde nenhuma luz era visível. Além do mais, foi escurecido com mais eficiência do que em qualquer lugar do espectro visível.

Assim, viu-se uma região de "raio químico" do espectro, mais apropriadamente chamada de radiação ultravioleta ("além do
violeta"), onde o comprimento de onda era menor que 3600 A. Mesmo os primeiros estudos levaram a região até 2000 A, e no século
XX, comprimentos de onda muito mais curtos foram encontrados.

Em meados do século XIX, então, era perfeitamente percebido que o espectro do sol, e presumivelmente do
outras estrelas, estendidas de longe no ultravioleta para longe no infravermelho. Uma porção relativamente pequena no meio do
espectro (na qual, no entanto, a radiação solar está no pico de intensidade), distinguida apenas pelo fato de os comprimentos de
onda dessa região estimularem a retina do olho, foi o que ao longo da história chamado de "luz". Agora tinha que ser referido como
luz visível. O que antes de 1800 teria sido uma tautologia, agora se tornara uma frase útil, pois havia muita luz invisível em ambos os
lados do espectro visível.

Agora pode-se ver por que a sugestão de Doppler era errônea. A quantidade de deslocamento Doppler em qualquer forma
de onda depende da velocidade da forma de onda em comparação com a velocidade do movimento relativo entre a fonte de onda e
Machine Translated by Google

observador. As estrelas dentro de nossa galáxia se movem (em relação a nós) a velocidades que são apenas dezenas de
quilômetros por segundo, enquanto a velocidade da luz é de 300.000 quilômetros por segundo. Consequentemente, o efeito
Doppler na luz seria realmente pequeno. Haveria apenas uma pequena mudança em direção ao vermelho ou ao azul - longe de
ser suficiente para explicar a vermelhidão visível ou o azul da luz de certas estrelas. (Esta diferença de cor surge de outras causas.)

Além disso, se houver um pequeno deslocamento em direção ao violeta, parte do violeta na extremidade extrema, com certeza,
desaparece no ultravioleta, mas isso é compensado por um deslocamento de parte do infravermelho para o vermelho. O resultado
líquido é que a cor da estrela não muda no geral. O inverso acontece se houver uma mudança para o vermelho, com o infravermelho
ganhando e o ultravioleta perdendo, mas com a cor geral visível inalterada.

Fizeau apontou isso em 1848, mas acrescentou que, se alguém fixasse a atenção em um determinado comprimento de onda,
marcado pela presença de uma linha espectral, poderia detectar seu deslocamento para o vermelho ou para o violeta. Isso acabou
sendo assim, triste em consequência, o efeito Doppler em relação à luz às vezes é chamado de efeito Doppler-Fizeau.

Importantes descobertas astronômicas foram feitas observando mudanças na posição de linhas espectrais proeminentes
nos espectros de corpos celestes, em comparação com a posição dessas mesmas linhas espectrais produzidas em laboratório,
onde nenhum movimento relativo está envolvido. Poderia ser demonstrado apenas por estudos espectrais, por exemplo, que o
sol girava, pois um lado do sol giratório está recuando e o outro avançando; a posição das linhas espectrais ia a luz de um lado
ou do outro, portanto, refletia isso. Novamente, a luz dos anéis de Saturno mostrou que a borda externa estava se movendo muito
mais lentamente do que a borda interna que os anéis não podiam girar como um único peça e deve consistir em fragmentos separados.

Em 1868, o astrônomo inglês William Huggins (1824-1910) estudou as linhas do espectro da estrela Sirius e conseguiu mostrar
que Sirius estava se afastando de nós a uma velocidade de cerca de 40 quilômetros por segundo (valor reduzido por investigações
posteriores). ). Desde então, milhares de estrelas tiveram suas velocidades de rádio (velocidades em direção ou longe de nós)
medidas, e a maioria dessas velocidades cai na faixa de 10 a 40 quilômetros por segundo. Suas velocidades estão em nossa
direção em alguns casos e afastadas de nós em outros.

No século XX, tais medições foram feitas na luz de galáxias fora da nossa. Aqui, rapidamente se descobriu que havia uma
recessão virtualmente universal. Com exceção de uma ou duas galáxias mais próximas de nós, havia um deslocamento invariável
nas linhas espectrais em direção ao vermelho – um efeito que ficou famoso como o deslocamento para o vermelho. Além disso,
quanto mais escura (e, portanto, presumivelmente mais distante) a galáxia, maior o desvio para o vermelho. Essa correlação da
distância com a velocidade de recessão seria esperada se as galáxias estivessem, uma e todas, se movendo cada vez mais longe umas das ou
Machine Translated by Google

embora todo o universo estivesse se expandindo; esta, de fato, é a hipótese geralmente aceita para explicar o desvio para o vermelho.

À medida que o desvio para o vermelho aumenta com a distância das galáxias, a velocidade da recessão, em relação a nós
mesmos, também aumenta. Para as galáxias muito distantes, essas velocidades tornam-se frações consideráveis da velocidade da
luz. Velocidades de até quatro quintos da velocidade da luz foram medidas entre essas galáxias em retrocesso. Sob tais
circunstâncias, há um deslocamento maciço da luz para o infravermelho, um deslocamento maior do que pode ser substituído pela
radiação ultravioleta presente na luz dessas galáxias. A luz visível total dessas galáxias distantes escurece por esse motivo e
estabelece um limite para quanto do universo podemos ver pela luz visível, não importa quão grandes sejam nossos telescópios.

Luz polarizada

Dizer que a luz consiste em ondas não é suficiente, pois existem duas classes importantes de ondas com diferenças
importantes nas propriedades. Assim, as ondas de água são ondas transversais, ondulando para cima e para baixo em ângulos retos
com a direção em que a onda como um todo está viajando. As ondas sonoras são ondas longitudinais, ondulando para frente e para
trás na mesma direção em que a onda como um todo está viajando. Qual variedade representa as ondas de luz?

Até a segunda década do século XIX, a minoria científica que considerava a luz uma forma de onda acreditava
Para ser uma forma de onda longitudinal Huygens pensou isso, por exemplo, no entanto, restava um experimento do século
XVII luz de óleo que nunca foi satisfatoriamente explicado pelas partículas de luz de Newton ou pelas ondas longitudinais de
luz de Huygens, e isso acabou forçando uma mudança de idéia.

O experimento foi relatado pela primeira vez em 1669 por um médico holandês, Erasmus Bartholinus (1625-1698). Ele
descobriu que um cristal de espato da Islândia (um transparente de carbonato de cálcio) produzia uma imagem dupla. Se um
cristal fosse colocado em uma superfície com um ponto preto, por exemplo, dois pontos seriam vistos através do cristal. Se o cristal
fosse girado em contato com a superfície, um dos pontos permanecia imóvel enquanto o outro girava em torno dele. Aparentemente,
a luz que passa pelo cristal se dividiu em dois raios que foram refratados em quantidades diferentes. Este fenômeno foi, portanto,
chamado de dupla refração. O raio que produziu o ponto imóvel, Bartholinus apelidou de raio ordinário: o outro, de raio extraordinário.

Tanto Huygens quanto Newton consideraram esse experimento, mas não chegaram a uma conclusão clara. Aparentemente, se a luz fosse
para serem refratados de duas maneiras diferentes, seus constituintes, sejam partículas ou ondas longitudinais, devem
diferir entre si. Mas como?
Machine Translated by Google

Newton fez algumas especulações vagas no sentido de que as partículas de luz podem diferir entre si como os pólos de
um ímã fez. Ele não seguiu isso, mas o pensamento não foi esquecido.

Em 1808, um engenheiro do exército francês, Etienne Louis Malus (1775-1812), estava experimentando alguns
cristais. Ele apontou um deles para a luz do sol refletida de uma janela a alguma distância do lado de fora de seu quarto e descobriu
que em vez de ver o ponto brilhante da luz do sol refletida em dobro (como ele esperava), ele o viu único. Ele decidiu que, ao refletir a
luz, a janela refletia apenas um dos "pólos" de luz de que Newton havia falado. A luz refletida ele, portanto, chamou de luz polarizada. Era um
nome pobre que não representava os fatos reais, mas foi mantido e, sem dúvida, continuará sendo mantido.

Quando a teoria ondulatória da luz voltou a ganhar destaque com o experimento de Young, logo ficou claro
que a luz fosse considerada apenas ondas transversais, em vez de ondas longitudinais, a luz polarizada poderia ser facilmente
explicada. Em 1817, Young chegou a essa conclusão, e foi retomada por um físico francês, Augustine Jean Fresnel (1788-1827). Em 1814,
Fresnel descobriu padrões de interferência de forma independente e passou a lidar com ondas transversais em uma análise matemática
detalhada.

Para ver como as ondas transversais explicarão a polarização, imagine um raio de luz se afastando de você com as ondas de luz
ondulando em planos perpendiculares a essa linha de movimento, como é exigido das ondas transversais. Digamos que as ondas de luz
estão se movendo para cima e para baixo. Eles também podem, no entanto, mover-se para a direita e para a esquerda e ainda estar em ângulos retos com
Eles podem até estar se movendo diagonalmente em qualquer ângulo e ainda estar em ângulos retos com a linha de movimento. Quando as
ondas componentes da luz ondulam em todas as direções possíveis em ângulos retos com a linha de movimento e são distribuídas
uniformemente por esses planos, temos luz não polarizada.

Vamos nos concentrar em duas formas de ondulação, cima-baixo e esquerda-direita. Todas as ondulações que ocupam posições diagonais
podem ser divididas em uma componente de cima para baixo e uma componente esquerda-direita (assim como as forças podem ser divididas
em componentes perpendiculares entre si). Portanto, para simplificar, podemos considerar a luz não polarizada como consistindo apenas de
um componente de cima para baixo e um componente esquerda-direita, os dois presentes em intensidades iguais.

É possível que o componente de cima para baixo possa deslizar por um meio transparente onde o componente da esquerda para
a direita não. Assim, para usar uma analogia, suponha que você segurasse uma corda que passasse por uma abertura em uma cerca de
estacas. Se você fizesse ondas de cima para baixo na corda, elas passariam pela abertura sem impedimentos. Se você fez ondas esquerda-direita, essas o
Machine Translated by Google

colidiria com os piquetes em ambos os lados da abertura e seria amortecido.

A maneira pela qual a luz passa através de uma substância transparente, então, depende da maneira pela qual os átomos que
compõem a substância estão dispostos – como as lacunas entre os piquetes atômicos são orientadas, em outras palavras. Na
maioria dos casos, o arranjo é tal que as ondas de luz em qualquer orientação podem passar com a mesma facilidade. A luz entra
despolarizada e emerge despolarizada. No caso do espato da Islândia, não é assim; apenas ondas de luz de cima para baixo e
ondas de luz esquerda-direita podem passar, e uma dessas passa com maior dificuldade, é mais lenta e, portanto, é mais refratada.
O resultado é que na outra extremidade dos cristais emergem dois raios - um composto apenas de ondulações para cima e para
baixo e outro composto apenas por ondulações esquerda-direita. Cada um deles é um raio de luz polarizada. Como as ondulações
das ondas de luz em cada um desses raios existem em apenas um plano, essa luz pode ser mais especificamente chamada de luz
polarizada no plano.

Em 1828, o físico britânico William Nicol (1768? -1851) produziu um aparelho que aproveitava as diferentes
direções em que esses raios de luz plano-polarizados viajaram dentro do cristal do espato da Islândia. Ele começou com
um cristal romboédrico da substância (um com cada face um paralelogramo) e cortou na diagonal. As duas metades foram
cimentadas novamente por meio de uma camada de bálsamo do Canadá (uma resina de uma árvore chamada abeto de bálsamo). A
luz que entrasse no cristal seria dividida em dois raios plano-polarizados viajando em direções ligeiramente diferentes. Um raio
atingiria o bálsamo do Canadá em um ângulo tal que a reflexão total ocorreria. O raio refletido então atingiria uma seção pintada do
prisma e seria absorvido. O outro raio, atingindo o bálsamo do Canadá em um ângulo ligeiramente diferente, seria transmitido,
passaria para a outra metade do cristal e sairia novamente para o ar livre.

A luz emergindo de tal prisma de Nicol, então, consistiria em um único raio plano-polarizado, representando cerca de metade
da intensidade de luz original.

Suponha que a luz que passa por um prisma de Nicol passe por um segundo prisma de Nicol. Se o segundo prisma for
alinhada da mesma forma que a primeira, a luz passará pela segunda sem impedimentos. (É como uma corda com ondas para
cima e para baixo passando por duas cercas, uma atrás da outra. Nenhuma das cercas fica no caminho.)

Mas suponha que o segundo prisma de Nicol seja girado em um pequeno ângulo. A luz polarizada emergindo do primeiro prisma
não consegue atravessar o segundo prisma em plena intensidade. Então há alguma perda (como haveria nas ondas para cima e
para baixo da corda se as ripas de madeira na segunda cerca de estacas fossem inclinadas um pouco na diagonal).
Machine Translated by Google

A quantidade de luz que passaria pelo segundo prisma diminuiria à medida que o ângulo pelo qual esse prisma
foi girado aumentado. Uma vez que o segundo prisma foi girado em 90", nenhuma luz poderia passar.

O segundo prisma pode assim ser usado para determinar o plano exato em que a luz que sai do primeiro
prisma é polarizada. Ao torcer o segundo prisma e notar o alinhamento em que a luz que se vê através dele está no
brilho máximo, encontra-se o plano de polarização. Se não se vê nenhuma luz, o alinhamento do Segundo prisma é
perpendicular ao plano de polarização. Como é difícil julgar exatamente onde está o brilho máximo ou mínimo, o
segundo prisma pode ser fabricado de forma a consistir em dois prismas dispostos em um pequeno ângulo um do
outro. Se um estiver alinhado corretamente, o outro estará ligeiramente desalinhado. Olhando através de uma ocular,
então, veríamos uma metade distintamente mais brilhante que a outra. Ajustando o alinhamento de modo que ambas as
metades sejam igualmente brilhantes, localiza-se o plano de polarização. O primeiro prisma em tal instrumento, aquele
que produz a luz polarizada, é o polarizador. O segundo, que determina o plano de polarização, é o analisador. O instrumento com

Mesmo antes da invenção do prisma de Nicol, ele foi descoberto pelo físico francês Jean Baptiste Biot (1774-1862),
em 1815, aquela luz polarizada, viajando através de soluções de certas substâncias, ou através de certos cristais
transparentes, teria seu plano de polarização deslocado.

Suponha, por exemplo, que entre os dois prismas de um polariscópio haja um recipiente cilíndrico contendo ar e
que os prismas estejam alinhados na mesma direção. Se a água for despejada no tubo, nada acontece; as duas
metades do campo como visto na ocular permanecem igualmente brilhantes. O plano de polarização da luz não foi
alterado pela passagem pela água. Se em vez de água pura fosse colocada uma solução de açúcar no tubo, as duas
metades vistas na ocular se tornariam desigualmente brilhantes. O analisador teria que ser girado em algum ângulo
definido para torná-los igualmente brilhantes novamente. Esse ângulo representaria a quantidade pela qual o plano de
luz polarizada foi girado pela solução de açúcar.

O tamanho desse ângulo depende de vários fatores: a concentração da solução e a natureza da substância
dissolvida; a distância através da qual a luz viaja dentro da solução; o comprimento de onda da luz; e a temperatura da
solução. Se padronizarmos esses fatores e observarmos ou calcularmos qual seria o ângulo de rotação para uma luz de
comprimento de onda igual ao produzido por uma lâmpada de vapor de sódio, percorrendo um decímetro de uma
solução contendo 1 grama por centímetro cúbico a uma temperatura de 20 0C, obtém-se a rotação específica.

O valor da rotação específica é característico para cada sistema transparente. Para muitos este valor é 0 0 -- isto é, o
Machine Translated by Google

plano de luz polarizada não é girado. Tais sistemas são opticamente inativos. Os sistemas que giram o plano da luz polarizada
são opticamente ativos.

Alguns sistemas opticamente ativos giram o plano da luz polarizada no sentido horário. Isso é considerado uma curva para
a direita, e tais sistemas são dextro-rotatórios. Outros acendem a luz no sentido anti-horário e são levógiros.

Em 1848, o químico francês Louis Pasteur (1822-1895) conseguiu mostrar que a atividade óptica dos cristais transparentes
dependia do fato de tais cristais serem assimétricos. Além disso, se tais cristais assimétricos pudessem ser moldados em duas
formas de imagem espelhada, uma seria dextro-rotatória e a outra, levógira. O fato de certas soluções também exibirem atividade
óptica argumentava que a assimetria deve estar presente nas próprias moléculas dessas substâncias.
Em 1874, o físico-químico holandês Jacobus Hendricus van't Hoff (1852-1911) apresentou uma teoria da estrutura molecular que
explicava tal assimetria em substâncias opticamente ativas. Uma discussão sobre isso, no entanto, pertence mais apropriadamente
a um livro sobre química e não entrarei mais no assunto aqui.

Os prismas de Nicol não são os únicos meios pelos quais os feixes de luz polarizada no plano podem ser formados. Existem
alguns tipos de cristal que não apenas dividem a luz em dois feixes plano-polarizados, mas absorvem um e transmitem o outro.
Cristais de sulfato de iodo-quinina farão isso. Infelizmente, é impossível fabricar cristais grandes e úteis deste material, uma vez que
tais cristais são frágeis e se desintegram ao menor distúrbio.

Em meados da década de 1930, no entanto, ocorreu a um estudante de Harvard, Edwin Herbert Land (1909- ), que cristais
grandes não eram necessários. Pequenos cristais, todos orientados na mesma direção, serviriam ao propósito. Para mantê-los
assim orientados e evitar uma maior desintegração, eles podem ser embutidos em uma folha de plástico transparente e flexível.
Land abandonou a escola em 1936 para entrar no negócio e produziu o que hoje é conhecido como Polaroid. Ele pode atender a
todas as funções dos prismas Nicol de forma mais econômica e conveniente (embora não com a mesma precisão).

Como Malus havia descoberto, feixes de luz polarizada também podem ser produzidos por reflexão, em algum ângulo apropriado,
de material como vidro; o tamanho exato do ângulo depende do índice de refração do material. "Óculos de sol" feitos de Polaroid
podem bloquear a maior parte dessa luz polarizada refletida e reduzir o brilho.

Assim, o século XIX viu a luz estabelecida não apenas como uma forma de onda, mas como um termo de onda transversal;
se isso resolveu muitos problemas, também levantou alguns.
Machine Translated by Google

Capítulo 6
O éter

Movimento Absoluto

Se a luz é uma forma de onda, então parecia à maioria dos cientistas, até o início do século XX, que algo
deve estar acenando. No caso das ondas de água, por exemplo, as moléculas de água se movem para cima e para baixo;
no caso de ondas sonoras, os átomos ou moléculas do meio transmissor se movem para frente e para trás. Alguma coisa, ao
que parece, teria, portanto, de estar presente no vácuo; algo que se moveria para cima e para baixo, ou para frente e para trás, a fim de produ

Este algo, seja o que for, não interferiu nos movimentos dos corpos celestes de forma detectável, então
parecia razoável supor que não fosse nada mais do que um gás extremamente rarefeito. Esse gás
extremamente rarefeito (ou seja lá o que for que preenchia o vácuo do espaço) foi chamado de éter, palavra
usada pela primeira vez por Aristóteles para descrever a substância que compõe os céus e os corpos celestes.
O éter também pode ser a substância através da qual a força da gravidade foi transmitida, e isso pode ser
idêntico ao éter que transmitia ou não luz. Para especificar o éter particular que transmitia a luz (caso existisse
mais de uma variedade), a expressão éter luminífero ("éter portador de luz") tornou-se popular no século XIX.

Em conexão com o éter, a diferença de propriedades entre ondas transversais e longitudinais torna-se importante. As
ondas longitudinais podem ser conduzidas por material em qualquer estado: sólido, líquido ou gasoso. As ondas transversais,
no entanto, só podem ser conduzidas através de sólidos ou, em um campo gravitacional, ao longo de superfícies líquidas. As
ondas transversais não podem ser conduzidas através do corpo de um líquido ou gás. Foi por esta razão que os primeiros
proponentes da teoria ondulatória da luz, supondo que o éter fosse um gás, também supunham que a luz consistia em ondas longitudinais que
Machine Translated by Google

em vez de ondas transversais que não poderiam.

Quando a questão da polarização, no entanto, parecia estabelecer o fato de que a luz consistia em ondas transversais, o conceito
de éter teve de ser drasticamente revisto. O éter tinha que ser sólido para transportar ondas de luz transversais; tinha que ser uma
substância na qual todas as partes estivessem firmemente fixadas no lugar.

Se fosse assim, então se uma porção do éter fosse distorcida em ângulo reto com o movimento de um feixe de luz (como parecia
seria necessário se a luz fosse um fenômeno de onda transversal), as forças que tendiam a manter essa porção no lugar a trariam
de volta. Essa parte ultrapassaria a marca, voltaria da outra direção, ultrapassaria a marca novamente e assim por diante.
(Isso é o que acontece no caso das ondas da água, onde a gravidade fornece a força necessária para o snapback, e nas ondas sonoras,
onde as forças intermoleculares fazem o trabalho.)

O movimento para cima e para baixo do éter forma a onda de luz. Além disso, a taxa na qual uma onda transversal viaja através
de um meio depende do tamanho da força que retrai a região distorcida. Quanto maior a força, mais rápido o snap back, mais rápida a
progressão da onda. Com a luz viajando a mais de 186.000 milhas por segundo, o snap-back deve ser realmente rápido, e a força que
mantém cada porção do éter no lugar foi calculada como sendo consideravelmente mais forte que o aço.

O éter luminífero, portanto, deve ser ao mesmo tempo um gás extremamente tênue e possuir rigidez maior que a do aço. Essa
combinação de propriedades é difícil de visualizar, mas em meados do século XIX, os físicos trabalharam duro para descobrir as
consequências de um gás tão rígido e estabelecer sua existência. Eles fizeram isso por dois motivos. Primeiro, parecia não haver
alternativa, se a luz consistisse em ondas transversais. Em segundo lugar, o éter era necessário como ponto de referência para medir o
movimento. Esta segunda razão é extremamente importante, pois sem tal ponto de referência, a própria ideia de movimento torna-se
vaga, e todo o desenvolvimento da física no século XIX torna-se instável.

Para explicar por que isso acontece, vamos supor que você esteja em um trem capaz de se mover com velocidade uniforme ao longo de um
conjunto perfeitamente reto de trilhos com menos movimento de vibração. Normalmente, você poderia dizer se seu trem estava
realmente em movimento pela presença de vibrações ou por efeitos inerciais quando o trem acelera, desacelera ou faz uma curva.
No entanto, com o trem se movendo uniformemente e sem vibração, tudo isso é eliminado e os métodos comuns para notar que você
está em movimento são inúteis.

Agora imagine que há uma janela no trem através da qual você pode ver outro trem na próxima linha. Existe um
Machine Translated by Google

janela naquele outro trem, e alguém está olhando para você através dela. Falando com você por linguagem de sinais, ele
pergunta: "Meu trem está se movendo?" Você olha para ele, vê claramente que está imóvel e responde: "Não, está parado".
Então ele sai e é morto imediatamente, pois ambos os trens estão se movendo na mesma direção a 70 milhas por hora em
relação à superfície da Terra.

Como ambos os trens estavam se movendo na mesma direção e na mesma velocidade, eles não mudaram de posição, um
em relação ao outro, e cada um parecia imóvel para um observador do outro. Se houvesse uma janela do outro lado de cada
trem, alguém poderia olhar para a paisagem e notá-la se movendo rapidamente em direção à parte traseira do trem. Como
assumimos automaticamente que o cenário não se move, a conclusão óbvia seria que o trem está realmente em movimento,
embora não pareça estar.

Novamente, suponha que, ao observar o outro trem, você notou que ele estava se movendo para trás a três quilômetros
por hora. Você sinaliza esta informação para o homem no outro trem. Ele sinaliza para trás violentamente negativo. Ele está
parado, insiste, mas você está avançando a três quilômetros por hora. Qual de vocês está certo?

Para decidir isso, verifique o cenário. Pode então acontecer que o Trem A esteja imóvel enquanto o Trem B está realmente
se movendo para trás a três quilômetros por hora. Ou o Trem B pode estar imóvel enquanto o Trem A está avançando a três
quilômetros por hora. Ou o Trem A pode estar se movendo para frente a uma milha por hora enquanto o Trem B está se movendo
para trás a uma milha por hora. Ou ambos os trens podem estar avançando: o trem A a 70 milhas por hora e o trem B a 68 milhas
por hora. Há um número infinito de movimentos possíveis, em relação à superfície da Terra, que podem dar origem ao movimento
observado do Trem A e do Trem B em relação um ao outro.

Por meio de um longo costume, as pessoas nos trens tendem a diminuir a importância do movimento relativo de um trem para
outro. Eles consideram que é o movimento em relação à superfície da Terra que é o movimento "real".

Bia é? Suponha que uma pessoa em um trem, acelerando suavemente ao longo de uma seção reta de trilhos a 70 milhas por
hora, deixe cair uma moeda. Ele vê a moeda cair em linha reta até o chão do trem. Uma pessoa parada na beira da estrada, vendo
o trem passar e capaz de ver a moeda cair, veria que ela estava submetida a dois tipos de movimento. Ele cai em uma velocidade
acelerada por causa da força gravitacional e também participa do movimento para frente do trem. O efeito líquido dos dois
movimentos é fazer com que a moeda se mova em uma parábola.

Concluímos que a moeda se move em linha reta em relação ao trem e em uma parábola em relação à superfície da Terra.
Machine Translated by Google

Agora, qual é o movimento "real"? A parábola? A pessoa no trem que está deixando cair a moeda pode estar pronta para
acreditar que, embora pareça estar parada, está "realmente" se movendo a uma velocidade de 70 milhas por hora. Ele pode não
estar igualmente pronto para acreditar que uma moeda que ele vê se movendo em linha reta está "realmente" se movendo em uma parábola.

Este é um ponto muito importante na filosofia da ciência. A primeira lei do movimento de Newton afirma que um objeto
não sujeito a forças externas se moverá em linha reta com velocidade constante. No entanto, o que parece uma linha reta
para um observador não necessariamente parece uma linha reta para outro observador. Nesse caso, que significado tem a
primeira lei de Newton? Afinal, o que é movimento em linha reta?

Ao longo dos tempos antigos e medievais, quase todos os estudiosos acreditavam que a Terra estava afixada ao centro
do universo e nunca se movia a partir desse ponto. A terra, então, estava realmente imóvel. Estava (assim se acreditava) em
estado de repouso obsoleto. Todo movimento poderia ser medido em relação a tal ponto em repouso absoluto, e então teríamos
movimento absoluto. Este movimento absoluto seria o movimento "verdadeiro" sobre o qual todos os observadores poderiam
concordar. Qualquer movimento observado que não fosse equivalente ao movimento absoluto era o resultado do movimento absoluto do ob

Havia alguma dúvida, é claro, se a Terra era realmente imóvel, mesmo nos tempos antigos. As estrelas pareciam estar se
movendo ao redor da Terra em 24 horas a uma velocidade constante. A terra estava parada e a esfera celeste girando, ou a esfera
celeste estava parada e a terra girando? O problema era como o de dois trens movendo-se um em relação ao outro com o
"movimento real" inverificável até que alguém se virasse para olhar a paisagem. No caso da terra e da esfera celeste, não havia
cenário a que recorrer e nenhuma decisão rápida, portanto, sobre a qual todos pudessem concordar.

A maioria das pessoas decidiu que era a esfera celeste que girava, porque era mais fácil acreditar nisso do que acreditar que
a vasta Terra estava girando sem que pudéssemos sentir que estávamos nos movendo. (Ainda falamos do sol, da lua, dos
planetas e das estrelas como "nascente" e "poente".) que a Terra está girando em vez de ficar parada.

Nesse caso, enquanto a Terra como um todo não está em repouso absoluto, o eixo pode estar. No entanto, no início
dos tempos modernos, mais e mais astrônomos começaram a acreditar que mesmo o eixo da Terra não era imóvel. A terra,
toda ela, circulou loucamente ao redor do sol junto com os outros planetas. Nenhuma parte dele estava mais em repouso do
que qualquer trem deslizando ao longo de sua superfície. O trem pode ter um movimento fixo em relação à superfície da Terra,
mas esse não era o movimento "verdadeiro" do trem.
Machine Translated by Google

Por alguns séculos depois que o movimento da Terra passou a ser aceito, ainda havia alguma desculpa para acreditar que o
sol poderia ser o centro do universo. O sol girou visivelmente, pois as manchas solares em sua superfície circundaram seu
globo em um período constante de cerca de 27 dias. No entanto, o eixo do sol ainda pode representar aquele estado procurado de repouso ab

Infelizmente, tornou-se cada vez mais claro, à medida que o século XIX se aproximava, que o sol era apenas uma estrela entre
estrelas, e que estava se movendo entre as estrelas. Na verdade, agora sabemos que, assim como a Terra se move ao redor
do Sol em um período de um ano, o Sol se move em torno do centro de nossa Galáxia em um período de 200 milhões de anos.
E. é claro, a própria Galáxia é apenas uma galáxia entre galáxias e deve estar se movendo em relação às outras.

Em meados do século XIX, havia fortes razões para supor que nenhum objeto material em qualquer lugar do universo
representasse um estado de repouso absoluto e que o movimento absoluto não poderia, portanto, ser medido em relação a
qualquer objeto material. Isso pode ter levantado sérias dúvidas de arrepiar o coração quanto à validade universal das leis do
movimento de Newton, nas quais toda a física do século XIX se baseava. No entanto, um objeto material não era necessário
para estabelecer o movimento absoluto.

Parecia aos físicos do século XIX que, se o espaço estivesse cheio de éter, era justo supor que esse éter servia apenas
para transmitir forças como a gravidade e ondas como as da luz e não era ele próprio afetado, em geral, por forças. Nesse
caso, eu não poderia ser posto em movimento. Poderia vibrar para frente e para trás, como na transmissão de ondas de luz,
mas não teria um movimento geral. O éter, então, pode ser considerado como estando em repouso absoluto. Todo movimento
se tornou movimento absoluto se medido em relação ao éter. Este espaço cheio de éter, idêntico a todos os observadores,
distante, imutável, imóvel, atravessado por corpos e forças sem ser afetado por eles, um recipiente passivo de matéria e
energia, é o espaço absoluto.

Na época de Newton e por dois séculos depois, não havia como realmente medir o movimento de qualquer corpo material
em relação ao éter. No entanto, isso não importava. Em princípio, o movimento absoluto foi considerado como existindo, quer
fosse prático medi-lo ou não, e as leis do movimento foram consideradas válidas para tal movimento absoluto e, portanto, devem
certamente valer para outros movimentos relativos (que eram apenas um movimento absoluto). adicionado a outro movimento absoluto).

A Experiência Michelson-Morley
Machine Translated by Google

Na década de 1880, entretanto, pareceu a Michelson (o medidor moderno da velocidade da luz) que um método de
determinar o movimento absoluto poderia ser trabalhado.

A luz consiste em ondas de éter, de acordo com a visão da época, e se o éter se movesse, deveria levar consigo suas próprias vibrações
(luz). Se o éter estivesse se afastando de nós, ele deveria levar a luz para longe de nós e, portanto, retardar a luz em seu movimento em direção
a nós - reduzir a velocidade da luz, em outras palavras. Se o éter estivesse se afastando de nós a metade da velocidade da luz, então a luz
perderia metade de sua velocidade em relação a nós e, portanto, levaria o dobro do tempo para chegar até nós de algum ponto fixo. Da mesma
forma, se o éter estivesse se movendo em nossa direção, a luz nos alcançaria mais rapidamente do que de outra forma.

Para ter certeza, os físicos estavam assumindo que o próprio éter não estava se movendo sob nenhuma circunstância. No entanto, a terra
devia, ao que parecia, estar inevitavelmente se movendo em relação ao éter. Nesse caso, se a terra for tomada como imóvel, então o éter parece
estar se movendo em relação a nós, fixo como estamos na terra. Parece haver o que veio a ser chamado de "vento de éter".

Se não houvesse vento de éter, se a Terra estivesse em repouso absoluto, então a luz viajaria com a mesma velocidade em todas as
direções. Para ter certeza, ele realmente parece fazer exatamente isso, mas certamente é apenas porque o vento de éter está se movendo a
uma velocidade muito pequena em comparação com a velocidade da luz; portanto, a luz sofre apenas mudanças percentuais minúsculas em sua
velocidade com mudança de direção. Em vista da dificuldade de medir a velocidade da luz com alguma precisão em primeiro lugar, não seria
surpreendente que pequenas diferenças de velocidade com a mudança de direção passassem despercebidas.

Michelson, no entanto, em 1881, inventou um dispositivo que talvez fosse delicado o suficiente para fazer o trabalho.

Neste dispositivo, a luz de um determinado comprimento de onda incide sobre uma placa de vidro em um ângulo de 45 0. A superfície traseira do vidro
placa é "meio prateada". Ou seja, a superfície foi revestida com prata suficiente para refletir metade da luz e permitir que a metade restante
seja transmitida. A luz transmitida emerge, viajando na mesma direção em que estava viajando originalmente, enquanto a luz refletida se
move em ângulos retos nessa direção. Ambos os feixes de luz são refletidos por um espelho e viajam de volta para a placa de vidro meio
prateada. Parte do feixe originalmente refletido agora passa, enquanto parte do feixe originalmente transmitido agora é refletida. Desta forma, os
dois feixes se unem novamente.

Com efeito, um único feixe de luz foi dividido em dois; as duas metades foram enviadas em direções em ângulos retos para cada
outro, retornaram e foram obrigados a se unir em um feixe combinado novamente.
Machine Translated by Google

Os dois feixes, juntando-se, estabelecem franjas de interferência, assim como os dois feixes no experimento de Young. Um dos
espelhos pode ser ajustado para que o comprimento da jornada do feixe de luz para aquele espelho em particular e para trás possa
ser variado. À medida que o espelho é ajustado, as franjas de interferência se movem. A partir do número de franjas que passam pela
linha de visão quando o espelho é movido a uma certa distância, o comprimento de onda da luz pode ser determinado. Quanto maior
o número de franjas passando pela linha de visão, menor o comprimento de onda.

Michelson determinou comprimentos de onda de luz com seu instrumento, que ele chamou de interferômetro ("para medir por
interferência"), tão precisamente que ele sugeriu que o comprimento de onda de alguma linha espectral particular fosse
estabelecido como a unidade fundamental de comprimento. em uma barra de liga de platina-irídio mantida em Sèvres, um subúrbio
de Paris.

Em 1960, a sugestão de Michelson foi finalmente aceita e a unidade fundamental de comprimento tornou-se um
fenômeno natural e não um objeto feito pelo homem. A linha espectral laranja-avermelhada de uma variedade do raro gás criptônio foi
tomada como padrão. O n agora é oficialmente igual a 1.650.763.73 comprimentos de onda de luz.

Mas Michelson estava atrás de um jogo maior do que a determinação dos comprimentos de onda das linhas espectrais. Ele
considerou o fato de o feixe de luz no interferômetro ser dividido em duas metades que viajavam em ângulos retos entre si. Suponha
que um desses dois raios de luz estivesse indo com o vento de éter. Sua velocidade seria c (a velocidade da luz em relação ao éter)
mais v (a velocidade da fonte de luz em relação ao éter). Se a distância do espelho refletor do prisma semiprateado for tomada como
d, então o tempo que a luz levaria para passar do prisma semiprateado para o espelho refletor seria d/(c+V). Após a reflexão, a luz se
moveria ao longo da distância d precisamente na direção oposta. Agora ele estaria se movendo em direção ao vento de éter, e seria
desacelerado, sua velocidade total sendo (c – v). O tempo de retorno seria d/(c - v). O tempo total t (1) que esse feixe de luz leva para ir
e voltar é, portanto:

2
t(1) = d/(c + v) + d / (c – v) = 2dc / (c2 - v ) (Equação 6-1)

Enquanto isso, no entanto, a segunda metade do feixe está indo em ângulo reto com a primeira; ele também retorna em ângulos retos para
o primeiro. Não está indo nem com o vento de éter nem contra ele. Está indo "vento cruzado" nos dois sentidos.

O tempo que o feixe de luz leva para ir e voltar do vento cruzado t(2) pode ser calculado com a ajuda da geometria plana
Machine Translated by Google

e fica:

t(2) = 2d / [ raiz quadrada (c2 - v2 )] (Equação 6-2)

Se dividirmos a Equação 6-1 pela Equação 6-2, determinaremos a razão do tempo necessário para cobrir o terreno com e
contra o vento de éter e o tempo necessário para cobrir a mesma distância do vento cruzado. Nós teríamos:

t(1) / t(2) = 2dc / (c2 - v2 ) (dividido por) 2d / [ raiz quadrada (c2 - v2 )] = c raiz quadrada (c2 - v2 )] / (c2 - v2 )
(Equação 6-3)
A expressão na extremidade direita da Equação 6-3 é da forma [{a} raiz quadrada) (x) /x], e se o numerador e o denominador
de tal expressão forem divididos pela raiz quadrada (x), o equivalente expressão a / raiz quadrada (x) é obtida.
A Equação 6-3 pode, portanto, ser simplificada para:

t(1) / t(2) = c / raiz quadrada (c2 - v2) (Equação 6-4)

Uma simplificação adicional pode ser obtida se o numerador e o denominador forem multiplicados pela raiz quadrada de (1/c2) (O
a multiplicação do numerador e do denominador de uma fração pela mesma quantidade não altera, obviamente, o valor da
expressão como um todo.)

O numerador da Equação 6-4 então se torna c raiz quadrada de (1/c2) ou c/c ou 1. O denominador se torna [raiz
quadrada (c2 - v2)] x [raiz quadrada de (1/c2)] ou quadrado raiz de [1 - v2 / c2]

A Equação 6-4 pode, portanto, ser expressa como:

t(1) / t(2) = 1 / [raiz quadrada de (1 - v2 / c2)] (Equação 6-5)

Se a fonte de luz está em repouso em relação ao éter, v = 0 e t(1) / t(2) = 1. Nesse caso, o tempo gasto pelo feixe de luz
indo contra e a favor do vento de éter é o mesmo que o tempo que o feixe de luz leva para ir contra o vento. (Na verdade, o
tempo é o mesmo para os feixes de luz indo em qualquer direção.) Se o espelho móvel for ajustado de modo que os dois feixes
de luz percorram exatamente a mesma distância, eles retornarão exatamente no mesmo passo e não haverá franjas de interferência.
Além disso, não haverá franjas de interferência se o instrumento for girado de modo que os feixes de luz viajem em
Machine Translated by Google

mudou de direção.

No entanto, se a fonte de luz está se movendo em relação ao éter, então v é maior que 0,
(1 - v2 / c2 ) é menor que t(1) / t(2) é maior que 1. A luz viajando contra e a favor do éter levaria mais tempo para
cobrir uma distância fixa do que a luz viajando contra o vento. Para ter certeza, a razão não é muito maior que 1 para
qualquer velocidade razoável em relação ao éter. Mesmo se a fonte de luz estivesse se movendo a um décimo da
velocidade da luz (de modo que v fosse igual ao tremendo número de 30.000 quilômetros por segundo), a razão seria de
apenas 1,005. Em velocidades normais, a razão seria realmente muito pequena.

No entanto, a diferença de tempo seria suficiente para desfasar os comprimentos de onda dos dois feixes de luz e
criar franjas de interferência. Naturalmente, você não poderia saber de antemão qual direção seria a favor e contra o
vento de éter e qual seria o vento cruzado, mas isso não importaria. O instrumento pode ser apontado aleatoriamente
em alguma direção, e o espelho móvel pode ser ajustado para remover as franjas de interferência. Se o instrumento
fosse girado agora, os feixes de luz mudariam de direção e seriam afetados de forma diferente pelo vento de éter, de
modo que apareceriam franjas de interferência.

A partir do espaçamento das franjas pode-se determinar a velocidade da fonte de luz em relação ao éter. Como a fonte
de luz estava firmemente presa à Terra, isso era equivalente a encontrar a velocidade da Terra em relação ao éter - isto é,
o movimento absoluto da Terra. Uma vez feito isso, todos os corpos, desde que seus movimentos em relação à Terra
fossem conhecidos, teriam movimentos absolutos que eram conhecidos.

Michelson obteve a ajuda de um químico americano, Edward Williams Morley (1838-1923), e em 1886 ele tentou isso
experimentar. Michelson já havia tentado sozinho, antes, mas nunca em condições que considerasse satisfatórias.
Agora ele e Morley cavaram no leito rochoso para ancorar o interferômetro e equilibraram o instrumento com precauções fantásticas
erro.

Repetidas vezes, eles repetiram o experimento e sempre os resultados foram os mesmos - negativos! Uma vez que
eles ajustaram o dispositivo para remover as franjas de interferência, essas franjas não apareceram de forma significativa
quando o interferômetro foi reorientado. Alguém poderia pensar que eles tiveram o azar de tentar o experimento em um
momento em que a Terra estava imóvel em relação ao éter. No entanto, a terra viaja em uma elipse em torno do sol e
muda a direção de seu movimento a cada momento. Se estivesse em repouso em relação ao éter em um dia, não poderia
estar em repouso no dia seguinte.
Machine Translated by Google

Michelson e Morley fizeram milhares de observações ao longo de muitos meses e, em julho de 1887, finalmente anunciaram sua
conclusão. Não havia vento de éter!

Entrei em detalhes sobre esse experimento por causa da natureza chocante do resultado. Para dizer que não havia
vento de éter significava que muito provavelmente não havia maneira de determinar o movimento absoluto. Na verdade, o
próprio conceito de movimento absoluto de repente parecia não ter significado. E se assim fosse, o que seria das leis do movimento
de Newton e de toda a imagem do universo baseada nessas leis?

Os físicos teriam ficado aliviados ao descobrir que o experimento de Michelson-Morley estava errado e que havia uma
vento de éter, afinal. No entanto, o experimento foi repetido várias vezes desde 1887. Em 1960, dispositivos muito mais precisos
do que o interferômetro foram usados para esse propósito, e o resultado foi sempre o mesmo. Não há vento de éter. Este fato
simplesmente teve que ser aceito, e a visão do universo mudou de acordo.

A contração de Fitzgerald

Naturalmente, foram feitas tentativas para explicar os resultados do experimento de Michelson-Morley em termos do éter. A
tentativa mais bem-sucedida foi a do físico irlandês George Francis Fitzgerald (1851-1901), que em 1893 propôs que todos os objetos
se encurtassem na direção de seu movimento absoluto, sendo encurtados, por assim dizer, pela pressão do vento de éter. . As
distâncias entre dois corpos que se movem em uníssono também diminuiriam na direção do movimento, pois os dois corpos seriam
empurrados juntos pelo vento de éter. A quantidade desse "encurtamento" aumentaria com a velocidade do movimento absoluto, é
claro, à medida que a pressão do vento de éter aumentasse.

Fitzgerald sugeriu que em qualquer velocidade dada, o comprimento (L) de um objeto ou da distância entre objetos teria uma
razão fixa para o comprimento (L 0) desse mesmo objeto ou distância em repouso; e eu 0, pode ser chamado de comprimento de
22/c
repouso. Essa razão seria expressa pela quantidade [raiz quadrada de (1 - v)] onde c é a velocidade da luz no vácuo e v é a velocidade
do corpo, ambas em relação ao éter. Em outras palavras:
22/c
L = L0 [raiz quadrada de (1 - v )] (Equação 6-6)

A razão de Fitzgerald é igual ao denominador da expressão na Equação 6-5, que representa a razão das distâncias percorridas
pelos dois feixes de luz no interferômetro. Multiplicado pelo índice de Fitzgerald o valor na Equação
Machine Translated by Google

6-5 torna-se 1. A distância coberta pelo feixe de luz movendo-se contra e a favor do vento de éter é agora diminuída pelo
encurtamento exatamente na extensão que permitiria que o feixe cobrisse a distância no mesmo tempo exigido por o feixe
viajando no vento cruzado. Em outras palavras, a existência do vento de éter faria com que um dos feixes demorasse mais
tempo, mas a existência da contração de Fitzgerald produzida pelo mesmo vento de éter permite que o feixe complete sua
jornada no mesmo tempo que se esperaria se não havia vento de éter.

Os dois efeitos do vento etéreo se cancelam perfeitamente, e isso lembrou a mil físicos uma passagem de um
poema em Através do Espelho, de Lewis Carroll.

"Mas eu estava pensando em um plano


Para tingir o bigode de verde,
E sempre use um ventilador tão grande
Que eles não podiam ser vistos."

O livro de Carroll foi escrito em 1872, então não poderia ter se referido deliberadamente à contração de Fitzgerald, mas
a referência é perfeita, do mesmo jeito. A contração é extremamente pequena em velocidades normais. A terra se move em sua
órbita ao redor do sol a 30 quilômetros por segundo em relação ao sol), o que pelos padrões terrestres é uma grande
velocidade. Se v for igual a 30 e isso for inserido na razão de Fitzgerald, teremos [raiz quadrada de {1 - (30) 2/(300.000) 2}] que é igual
para 0,999995. O diâmetro encurtado da Terra na direção de seu movimento seria então 0,999995 de seu diâmetro perpendicular
a essa direção (assumindo que a Terra é uma esfera perfeita). A quantidade de escorço seria de 62,5 metros.

Se o diâmetro da Terra pudesse ser medido em todas as direções, e a direção na qual os diâmetros fossem anormalmente
curto pudesse ser localizado, então a direção do movimento da Terra em relação ao éter poderia ser determinada. Além
disso, a partir do tamanho da diminuição anormal do diâmetro, a velocidade absoluta da Terra em relação ao éter poderia ser
calculada.

Mas há uma dificuldade. Essa dificuldade não está na pequenez do escorço, porque por menor que seja
tudo pode estar bem se puder ser detectado em princípio. Não pode ser detectado, no entanto, enquanto permanecermos na terra.
Enquanto estivermos na Terra, todos os instrumentos que poderíamos usar para medir o diâmetro da Terra compartilhariam
o movimento da Terra e seu escorço. O diâmetro encurtado seria medido com instrumentos encurtados por força, e nenhum
encurtamento seria detectado.
Machine Translated by Google

Poderíamos fazer melhor se pudéssemos sair da Terra e, sem compartilhar do movimento da Terra, medir seu diâmetro em todas as
direções (com muita precisão) à medida que passa. Isso não é exatamente prático, mas é algo concebível em princípio.

Para tornar tal coisa prática, devemos encontrar algo que se mova muito rapidamente e de cujo movimento não compartilhamos. Esses
objetos parecem ser as partículas subatômicas em alta velocidade que têm movimentos em relação à superfície da Terra de 10.000 quilômetros por
segundo a quase a velocidade da luz.

A contração de Fitzgerald torna-se muito significativa em tais supervelocidades. A velocidade pode ser alta o suficiente, por exemplo, para que
o comprimento do corpo em movimento seja reduzido para apenas metade do seu comprimento de repouso. Nesse caso [raiz quadrada (1 –
2
2v /c 2)] = 1/2, e resolvemos para v, descobrimos que é igual a [raiz quadrada de [3c] /4]. Como c = 300.000 quilômetros por
2 segundos, [raiz quadrada 3c /4] = 260.000 quilômetros por segundo. Nesta velocidade feroz, sete oitavos da luz, um
objeto é encurtado para metade do seu comprimento de repouso, e algumas partículas subatômicas se movem mais rapidamente (em relação
à superfície da Terra) do que isso.

Em velocidades ainda mais rápidas, o escorço torna-se ainda mais acentuado. Suponha que a velocidade de um corpo se torne igual à
velocidade da luz. Sob essas condições v é igual a c, e a razão de Fitzgerald se torna [raiz quadrada (1 –
2 c /c 2)] que é igual a 0. Isso significa que pela Equação 6-6 o comprimento do corpo em movimento (L) é igual ao seu comprimento de repouso L(0)

multiplicado por zero. Em outras palavras, na velocidade da luz, todos os corpos, qualquer que seja seu comprimento em repouso, foram
completamente encurtados e se tornaram panquecas de extrema magreza.

Mas então o que acontece se a velocidade da luz for excedida nesse caso, (v) se tornar maior que (c), a expressão v2 / se tornar maior que 1 e a
2 c expressão (1 - v2 / c 2) se tornar um número negativo. A razão de Fitzgerald é o quadrado

raiz de um número negativo, e isso é o que os matemáticos chamam de "número imaginário". Um comprimento representado por um número
imaginário tem interesse matemático, mas ninguém conseguiu descobrir o significado físico de tal comprimento.

Esta foi a primeira indicação de que a velocidade da luz pode ter algum significado geral importante no universo -
como algo que pode, de alguma forma, representar uma velocidade máxima. Com certeza, nenhuma partícula subatômica jamais foi observada
movendo-se a uma velocidade maior que a da luz no vácuo, embora tenham sido observadas velocidades melhores que 0,99 vezes a da luz no vácuo.
Em tais velocidades, as partículas subatômicas devem ser finas como bolachas na direção
Machine Translated by Google

de seu movimento, mas, infelizmente, eles são tão pequenos que é completamente impraticável tentar medir seu comprimento enquanto
eles passam rapidamente, e não se pode dizer se eles são encurtados ou não. Se, no entanto, o comprimento das partículas subatômicas
em alta velocidade não servir como um teste prático da validade da contração de Fitzgerald, outra propriedade servirá.

A contração de Fitzgerald foi colocada em uma forma matemática pura e estendida pelo físico holandês Hendrik Antoon
Lorentz (1853-1928), de modo que o fenômeno às vezes é chamado de contração de Lorentz-Fitzgerald.

Lorentz continuou mostrando que, se a contração de Fitzgerald for aplicada a partículas subatômicas carregando uma carga elétrica, pode-
se deduzir que a massa de um corpo deve aumentar com o movimento exatamente na mesma proporção em que seu comprimento diminui. Em
resumo, se sua massa em movimento é (m) e sua massa de repouso é m(0), então:

m = m(0) / [raiz quadrada (1 - v2 / c 2)] (Equação 6-7)

Novamente, o ganho de massa é muito pequeno em velocidades comuns. A uma velocidade de 260.000 quilômetros por segundo, a massa
do corpo em movimento é o dobro da massa de repouso e, acima dessa velocidade, aumenta cada vez mais rapidamente. Quando a
velocidade de um corpo em movimento é igual à da luz, v = c e a Equação 6-7 se torna m = m(0) / 0. Isso significa que a massa do corpo em
movimento se torna maior do que qualquer valor que possa ser atribuído para isso. (Isso é usualmente expresso dizendo-se que a massa do
corpo em movimento se torna infinita.) Mais uma vez, velocidades mais saudosas que a luz produziram massas expressas por números
imaginários, para os quais parece não haver interpretação física. A importância chave da velocidade da luz no vácuo é novamente enfatizada.

Mas as partículas subatômicas carregadas que se movem muito rapidamente, possuindo velocidades de até 0,99 vezes a da luz,
aumentam acentuadamente em massa; e enquanto o comprimento das partículas subatômicas em alta velocidade não pode ser medido
enquanto elas passam, sua massa pode ser medida facilmente.

A massa de tais partículas pode ser obtida medindo-se sua inércia - isto é, a força necessária para impor uma dada aceleração sobre
elas. Na verdade, é essa quantidade de inércia que Newton usou como definição de massa em sua segunda lei do movimento.

Partículas carregadas podem se curvar em um campo magnético. Esta é uma aceleração imposta a eles pela força magnética, e
o raio de curvatura é a medida da inércia da partícula e, portanto, de sua massa.
Machine Translated by Google

A partir da curvatura da trajetória de uma partícula se movendo em baixa velocidade, pode-se calcular a massa da partícula e então
prever qual curvatura ela sofrerá quando passar pelo mesmo campo magnético em velocidades mais altas, desde que sua massa
permaneça constante. A medição real das curvaturas para partículas que se movem em velocidades mais altas mostrou que tais
curvaturas eram menos marcadas do que o esperado. Além disso, quanto maior a velocidade, mais a curvatura real ficou aquém do
esperado. Isso poderia ser interpretado como um aumento de massa com a velocidade, e quando isso foi feito a relação seguiu
exatamente a equação de Lorentz.

O ventilador havia escorregado e os bigodes verdes podiam ser vistos. A equação de Lorentz se ajusta aos fatos observados. Por
se basear na equação de Fitzgerald, o fenômeno do escorço também se ajustava aos fatos, e isso explicava os resultados negativos
do experimento de Michelson-Morley.

CAPÍTULO 7

Relatividade

A teoria especial

Se o ganho de massa de uma partícula carregada em alta velocidade é o resultado de seu movimento em relação ao éter, então um
novo método de medir tal movimento pode se apresentar. Suponha que algumas partículas carregadas sejam medidas conforme
aceleram em uma direção, outras conforme aceleram em outra direção e assim por diante. Se todas as direções forem levadas em
consideração, algumas partículas estão fadadas a se mover com o vento de éter, enquanto outras, acelerando na direção oposta, estão
se movendo contra ele. Aqueles que se movem contra o vento de éter (pode-se suspeitar) terão um movimento mais rápido em relação
ao éter e ganharão mais massa do que aqueles que se movem na mesma velocidade (em relação a nós) com o vento de éter. Pelas
mudanças no ganho de massa à medida que a direção é alterada, a velocidade do vento de éter e, portanto, o movimento absoluto da
Terra podem ser determinados.

No entanto, esse método também falha, exatamente como o experimento de Michelson-Morley falhou. O ganho de massa com o movimento é
o mesmo, não importa em que direção as partículas se movam. Além disso, todos os experimentos projetados para medir o
movimento absoluto falharam.
Machine Translated by Google

Em 1905, de fato, um jovem físico suíço nascido na Alemanha, Albert Einstein (1879-1955), já havia decidido que poderia ser inútil buscar
métodos para determinar o movimento absoluto. Suponha que alguém pegasse o touro pelos chifres e simplesmente decidisse que era
impossível medir o movimento absoluto por qualquer método concebível e considerasse as consequências.

Essa, então, foi a primeira suposição de Einstein: que todo movimento deve ser considerado em relação a algum objeto ou a
algum sistema de objetos arbitrariamente tomado como em repouso; e que qualquer objeto ou sistema de objetos (qualquer quadro de
referência, isto é) pode ser tomado, com igual validade, como estando em repouso. Não há objeto, em outras palavras, que esteja mais
"realmente" em repouso do que qualquer outro.

Como nessa visão todo movimento é considerado apenas movimento relativo, Einstein estava avançando no que veio a ser
chamado de teoria da relatividade. Em seu primeiro artigo sobre o assunto, em 1905, Einstein considerou apenas o caso especial do
movimento em velocidade constante; portanto, esta parte de seus pontos de vista é sua teoria da relatividade especial.

Einstein então fez uma segunda suposição: que a velocidade da luz no vácuo, medida, seria sempre a mesma, qualquer que fosse o
movimento da fonte de luz em relação ao observador. (Observe que falo da velocidade "como medida".)

Essa constância medida da velocidade da luz parece violar os "fatos" sobre o movimento que foram
aceito desde os dias de Galileu e Newton.

Suponha que uma pessoa jogue uma bola por nós e medimos a velocidade horizontal da bola em relação a nós mesmos como x
pés por minuto. Se a pessoa está em uma plataforma que está se movendo na direção oposta a y pés por minuto e joga a bola com a
mesma força, sua velocidade horizontal em relação a nós deve ser x - y pés por minuto. Se a plataforma estivesse se movendo na
mesma direção em que ele jogou a bola, a velocidade horizontal da bola em relação a nós deveria ser x + y pés por minuto.

Esta realmente parece ser a situação observada e medida na vida real. Não deveria, portanto, ser o mesmo se
a pessoa estava "jogando" luz de uma lanterna em vez de uma bola de seu punho?

Para que a segunda suposição de Einstein seja verdadeira, devemos supor que essa situação não se aplica à luz
de todo e, de facto, também não vale para a bola.
Machine Translated by Google

Suponha que o efeito da plataforma móvel sobre a velocidade da bola não seja tão grande quanto suspeitamos e que
quando o movimento da plataforma é adicionado ao da bola, a velocidade total da bola é uma quantidade muito pequena
menor que x + y. Novamente, quando o movimento da plataforma é subtraído do movimento da bola, a velocidade total da
bola é uma quantidade muito pequena maior que x - y. Suponha, também, que essa discrepância aumente à medida que xey
aumentam, mas que em todas as velocidades dos corpos materiais, que fomos capazes de observar antes de 1900, a
discrepância permaneceu pequena demais para ser medida. Conseqüentemente, seria muito natural chegarmos à conclusão de
que a velocidade era exatamente x + y ou exatamente x - y, e que isso permaneceria verdadeiro para todas as velocidades.

Mas se pudéssemos observar velocidades muito grandes, velocidades da ordem de milhares de quilômetros por segundo,
a discrepância se tornaria grande o suficiente para ser notada. Se formos de fato a velocidade y elevada à velocidade x, a
velocidade combinada seria então visivelmente menor do que x $-y e dificilmente maior do que x sozinho. Da mesma forma, se y
fosse subtraído de x, a velocidade combinada poderia ser consideravelmente maior que x-y e dificilmente menor que I sozinho.
Finalmente, na velocidade da luz, o efeito do movimento da fonte do corpo em movimento terá diminuído para zero, de modo que
r + y = x e x - y = x, independentemente de quão grande seja y. E essa é outra maneira de expressar a segunda suposição de Einstein.

Para salvar essa suposição, de fato, é necessário adicionar velocidades de tal forma que a soma nunca exceda
a velocidade da luz. Suponha, por exemplo, que uma plataforma esteja avançando (em relação a nós mesmos) a 290.000
quilômetros por segundo, ou apenas 10.000 quilômetros por segundo a menos que a velocidade da luz no vácuo. Suponha,
ainda, que uma bola seja lançada da plataforma para frente com uma velocidade, em relação à plataforma, de 290.000 quilômetros por segundo.
A velocidade da bola em relação a nós deveria ser 290.000+290.000 quilômetros por segundo naquela direção, mas
nessas velocidades o efeito da plataforma móvel diminuiu tanto que a velocidade total é, na verdade, apenas 295.000 quilômetros
por segundo e ainda é menor que a velocidade da luz.

De fato, isso pode ser expresso matematicamente. Se duas velocidades [V(1) e V(2)] forem adicionadas, então a nova velocidade (V)
de acordo com Newton seria V = V(1) + V(2) De acordo com Einstein, a nova velocidade seria:
2
V = [V (1) + V (2)] / [1 + V (1) V (2) / C ]

Onde C é igual à velocidade da luz no vácuo. Se V(1) for igual a C, então a equação de Einstein se tornaria:
V = [V(1) + V(2)] / [ 1 + V(1) V(2) / C 2] = [C + V(2)] [C / [C + V(2)] = C
Machine Translated by Google

Em outras palavras, se uma velocidade fosse igual à velocidade da luz, acrescentando-lhe outra velocidade, mesmo novamente até o
velocidade da luz, deixaria a velocidade total apenas na velocidade da luz.

Para resumir, é possível deduzir da suposição de Einstein da velocidade constante da luz medida que
a velocidade de qualquer corpo em movimento será sempre medida como menor do que a velocidade do aperto.'

Parece estranho e desconfortável aceitar um conjunto de circunstâncias tão incomum apenas para salvar a suposição de Einstein da
constância medida da velocidade da luz. No entanto, sempre que foi possível medir a velocidade da luz, essa velocidade sempre foi colocada
em um valor constante, e sempre que foi possível medir a velocidade de corpos em alta velocidade, essa velocidade sempre foi menor que a
velocidade da luz. . Em suma, nenhum físico ainda detectou qualquer fenômeno que possa ser considerado como uma violação da suposição
de Einstein sobre a relatividade do movimento ou sua suposição de constância medida da luz; e eles olharam assiduamente, você pode ter
certeza.

Einstein também pôde deduzir de suas suposições a existência da contração de Lorenz Fitzgerald, bem como a
Lorentz ganho de massa com movimento. Além disso, ele mostrou que não eram apenas partículas eletricamente carregadas que
ganhavam massa com o movimento, mas também panículas não carregadas. Na verdade, todos os objetos ganharam massa com o movimento.

Pode parecer que não há quase nenhuma razão para exaltar a teoria especial até agora. Qual é a diferença entre
começando com a suposição da contração de Lorenz Fitzgerald e deduzindo dela a constância medida da velocidade da luz, ou começando
com a suposição da constância medida da velocidade da luz e deduzindo dela a contração de Lorenz Fitzgerald?

Se isso fosse tudo, não haveria diferença significativa, de fato. No entanto, Einstein combinou sua suposição
sobre a constância medida da velocidade da luz com sua primeira suposição de que todo movimento é relativo.

Isso significava que o escorço ou ganho de massa não era um fenômeno "real", mas apenas uma mudança na medição. A quantidade
pela qual o comprimento diminuiu ou a massa aumentou não era algo que pudesse ser absolutamente determinado, mas diferia de
observador para observador.

Para considerar o que isso significa, imagine duas naves espaciais idênticas movendo-se em direções opostas em um curso sem
colisão, cada nave espacial possuindo equipamentos que permitirão medir o comprimento e a massa da outra nave espacial enquanto ela
passa.
Machine Translated by Google

A nave espacial X observa a nave espacial Y passar (em uma direção específica) a 260.000 quilômetros por segundo, e nessa
velocidade a nave espacial Y é medida como tendo apenas metade de seu comprimento de repouso e totalmente o dobro de sua massa de
repouso. A espaçonave X, que para as pessoas a bordo parece estar imóvel, está para eles, naturalmente, exatamente em repouso e massa em repouso.

Mas as pessoas na espaçonave Y não têm a sensação de se mover (assim como não temos a sensação de acelerar pelo espaço
em nossa viagem ao redor do sol). As pessoas na espaçonave Y sentem-se imóveis e encontram-se em repouso e em repouso. O que
eles vêem é a nave espacial X passando (na direção oposta) a 260.000 quilômetros por segundo. Para eles, é a espaçonave X que é
medida como tendo apenas metade de seu comprimento de repouso e o dobro de sua massa de repouso.

Se os observadores pudessem se comunicar em movimento, poderiam ter uma discussão gloriosa. Cada um poderia dizer: "Estou em
descansar e você está se movendo. Eu sou comprimento normal, você está encurtado. Eu sou massa normal, você é pesado."

Bem, qual é realmente "certo"?

A resposta é nenhum e ambos. Não é uma pergunta; você vê, do que "realmente" aconteceu com comprimento e massa ou de
qual navio é "realmente" encurtado ou muito massivo. A questão é apenas de medida. (É - para fazer uma analogia trivial - como medir
o lado de um retângulo que tem quatro metros por dois metros e depois discutir se o comprimento do retângulo é "realmente" quatro
metros ou "realmente" dois metros. depende do lado que você está medindo.)

Mas suponha que você tente realizar algum tipo de teste que, talvez, vá além da medição para a "realidade".
Suponha, por exemplo, que você junte os dois navios e os compare diretamente para ver qual é mais curto e mais pesado. Na verdade,
isso não pode ser feito dentro dos limites da teoria especial de Einstein, uma vez que trata apenas do movimento uniforme. Reunir os
navios significa que pelo menos um deles deve dar meia-volta e voltar e, assim, sofrer um movimento não uniforme ou acelerado. Mesmo
que fizéssemos isso, no entanto, e imaginássemos os dois navios lado a lado e em repouso um em relação ao outro, depois de terem
passado um pelo outro em supervelocidades, não poderíamos tomar nenhuma decisão quanto às "realidades".
Estando em repouso um em relação ao outro, cada um mediria o outro como sendo normal em comprimento e massa. Se houvesse uma
mudança "real" no comprimento ou na massa em qualquer um dos navios no passado, não haveria registro dessa mudança.

Apesar de tudo, é difícil deixar de se preocupar com a "realidade". É animador, então, lembrar que houve momentos em que
abandonamos uma "realidade" espúria e não apenas sobrevivemos, mas fomos incomensuravelmente o
Machine Translated by Google

melhor por isso.

Assim, uma criança tem certeza de que sabe o que é "para cima" e "para baixo". Sua cabeça aponta "para cima", seus pés apontam "para baixo" (se ele
está de pé na forma normal); ele pula "para cima", ele cai "para baixo". Além disso, ele descobre logo que todos ao redor; ele concorda
em qual direção é "para cima" e qual "para baixo".

Se uma criança com tais convicções vê uma imagem do globo terrestre, com os Estados Unidos acima e a Austrália abaixo, e com pequenos
americanos de cabeça erguida e pequenos australianos de cabeça para baixo, seu primeiro pensamento pode ser: "Mas isso é impossível. Os
pequenos australianos cairiam."

Claro, uma vez que o efeito da força gravitacional é entendido (e isso foi entendido desde Aristóteles,
pelo menos no que diz respeito à própria terra), então não há mais medo de que alguém caia de qualquer parte da terra. No entanto, você ainda
pode estar questionando a natureza pf "para cima" e "para baixo". Você pode ligar para um australiano em um telefone de longa distância e dizer:
"Estou de cabeça erguida, então você deve estar de cabeça para baixo". Ele responderia. "Não, não. Estou claramente de cabeça erguida, então
deve ser você quem está de cabeça para baixo."

Você vê, então, como é sem sentido perguntar agora quem está certo e quem está "realmente" de cabeça erguida? Ambos estão certos e
ambos estão errados. Cada um está de cabeça para cima em seu próprio referencial, e cada um está de cabeça para baixo no referencial do
outro.

A maioria das pessoas está tão acostumada com isso que não vê mais um "relativo em alta" e um "relativo em baixo" como uma violação do
"senso comum". para baixo" isso parece uma violação agora. Se alguém argumentasse seriamente que os australianos andavam suspensos por
seus pés, ele seria ridicularizado por sua ignorância.

Uma vez que os princípios do universo relativista são aceitos (tão cedo quanto possível), ele também deixa de ir contra
senso comum.

Equivalência massa-energia

Durante o século XIX, os químicos estavam cada vez mais convencidos de que a massa não podia ser criada nem destruída (a lei da
conservação de Marte). Para Lorentz e Einstein, no entanto, a massa foi criada à medida que a velocidade aumentou
Machine Translated by Google

e foi destruído à medida que a velocidade diminuiu. Para ter certeza, as mudanças na massa são muito pequenas em
todas as velocidades comuns, mas elas existem. De onde, então, vem a massa criada e para onde vai a massa destruída?

Vamos começar considerando um corpo de uma dada massa (m) submetido a uma dada força (f) Sob tais condições o corpo
sofre uma aceleração (a), e da segunda lei do movimento de Newton (ver página I-30) pode-se afirmar que a = f/m. A
presença de uma aceleração significa que a velocidade do corpo está aumentando, mas na antiga visão newtoniana isso não
afetava a massa do corpo, que permanecia constante. Se a força também é vista como permanecendo constante, então f/m
era constante e a, a aceleração, também era constante. Como resultado de uma aceleração tão constante, a velocidade do
corpo (na visão newtoniana) s aumentaria indefinidamente e atingiria qualquer valor que você queira nomear - se você esperar
o suficiente.

No universo einsteiniano, no entanto, um observador medindo a velocidade de um objeto sob uma constante contínua
força nunca pode observá-lo exceder a velocidade da luz no vácuo. Conseqüentemente, embora sua velocidade aumente
sob a influência de uma força constante, essa velocidade aumenta cada vez mais lentamente e, à medida que a velocidade
se aproxima da da luz, aumenta excessivamente lentamente. Em suma, a aceleração de um corpo sob a influência de uma
farsa constante diminui à medida que a velocidade aumenta e torna-se zero quando a velocidade atinge a da luz.

Mas, novamente pela segunda lei do movimento de Newton, a massa de um corpo é igual à força exercida sobre ele dividida por
a aceleração produzida por essa força - isto é, m = f/a Se a força é constante e a aceleração diminui com a velocidade,
então a diminui com a velocidade enquanto f não; consequentemente, f/a aumenta com a velocidade. E isso significa,
como m = f/a, que a massa aumenta com a velocidade. (Assim, o aumento da massa com a velocidade pode ser deduzido
da suposição de Einstein da constância medida da velocidade da luz no vácuo.)

Quando um corpo é submetido a uma força, ele ganha energia cinética, que é igual a metade de sua massa vezes o quadrado de
sua velocidade (e(k)=1/2mva). Na visão newtoniana esse aumento da energia cinética resulta apenas do aumento da
velocidade, pois a massa é considerada imutável. Na visão einsteiniana, o aumento da energia cinética é o resultado de
um aumento tanto na velocidade quanto na massa.

Onde a massa não está envolvida nas mudanças de energia (como na visão newtoniana) é natural pensar na massa como
algo separado da energia e pensar que, por um lado, existe uma lei de conservação de energia e, por outro, , uma lei de
conservação da massa, e que as duas são independentes.
Machine Translated by Google

Onde a massa muda e, portanto, está intimamente envolvida nas mudanças de energia (como na visão einsteiniana), é natural pensar em
massa e energia como aspectos diferentes da mesma coisa, então uma lei de conservação de energia incluiria massa.
(Para deixar isso perfeitamente claro, em vista de nossas convicções anteriores, às vezes falamos da lei da conservação da massa-energia,
mas a palavra "massa" não é realmente necessária.) dentro

O movimento não cria massa em nenhum sentido real; massa é apenas um aspecto de um aumento geral na energia cinética
ganho da força que é mantida pelo gasto de energia em outras partes do sistema.

Mas agora suponha que a lei da conservação da energia (incluindo a massa) permaneça válida no universo relativístico (e até agora parece
tê-lo feito). De acordo com essa lei, embora a energia não possa ser criada nem destruída, ela pode ser alterada de uma forma para outra. Isso
parece significar que uma certa quantidade de massa pode ser convertida em uma certa quantidade de outras formas de energia, como calor,
por exemplo; e que uma certa quantidade de uma forma de energia como o calor pode, concebivelmente, ser convertida em uma certa quantidade
de massa. E nisso, de fato, Einstein insistiu.

Essa equivalência de massa e energia anunciada por Einstein em seu artigo de 1905 foi de grande utilidade para os físicos da
A Hora. A descoberta da radioatividade nove anos antes (algo que discutirei no volume 3) havia revelado uma situação em que a energia
parecia ser criada infinitamente do nada. Uma vez que a teoria da relatividade especial apontou o caminho, os cientistas procuraram a massa
que desaparecia e a encontraram.
Pode parecer surpreendente que ninguém tenha notado o intercâmbio de massa e energia até que Einstein o apontou teoricamente.
A razão para isso está na natureza da equivalência – na determinação de exatamente quanta energia é equivalente a quanta massa.

2
Para determinar isso, vamos considerar a recíproca da razão de Fitzgerald, que é (1 – v /c 2) -1/2. Uma expressão .
-uma

escrito desta forma pode ser definido para pertencer a uma família do tipo (1 – b) Pelo teorema binomial (uma matemática pode ser
-uma
relação elaborada pela primeira vez pelo próprio Newton), a expressão (1 – b) termos expandida em uma série infinita de
2
que começa assim: 1 + ab + .5 (a 2 + a) b + ….

2 Para aplicar essa expansão ao recíproco da razão de Fitzgerald, devemos definir a = .5 e b = v /c2 . A proporção de Fitzgerald
4
2 então se torna: 1 + v / 2c2 + 3c / 8c4
Como c, a velocidade da luz pode ser considerada como tendo um valor constante, o segundo e o terceiro termos (e, de fato, todos os termos
subsequentes desta série finita) crescem à medida que v aumenta. Mas v atinge um máximo quando a velocidade de um corpo em movimento
atinge a velocidade da luz (pelo menos, não podemos medir uma velocidade maior), portanto, os vários termos são
Machine Translated by Google

então em seu valor máximo, e v = c a série se torna 1 + ½ + 3/8 ….. Como você vê, o segundo termo é, no máximo,
menor que o primeiro, enquanto o terceiro termo é, no máximo, menor que o segundo, e assim por diante.
A diminuição é ainda mais acentuada em velocidades mais baixas, e os termos sucessivos tornam-se rapidamente cada vez mais insignificantes.
Quando v = c/2 (150.000 quilômetros por segundo) a série é 1 + 1/8 + 3/128… quando v = c/4 (75.000 quilômetros por segundo),
a série é 1 + 1/32 + 3/2048 …
Em uma série decrescente desse tipo é possível mostrar que o final da série (mesmo que inclua um número infinito de
termos) atinge um total finito e pequeno. Podemos, portanto, eliminar todos, exceto os primeiros termos da série e considerar
esses primeiros uma boa aproximação de toda a série.
Em velocidades comuns, por exemplo, todos os termos da série, exceto o primeiro (que é sempre 1), tornam-se frações tão
pequenas que podem ser completamente ignorados. Nesse caso, a recíproca da razão de Fitzgerald pode ser considerada igual a
1 com alto grau de precisão (é por isso que as mudanças de comprimento e massa com o movimento passaram despercebidas
até o século XX). Para torná-lo ainda mais preciso, especialmente em velocidades muito altas, podemos incluir os dois primeiros
termos da série. Isso é preciso o suficiente para todos os propósitos razoáveis, e não precisamos nos preocupar com o terceiro
mandato ou qualquer outro além dele.

Podemos dizer, então, com suficiente precisão que:

22/c 2
1 / [raiz quadrada de (1 – v )=1+v 2/2c (Equação 7-1)

Agora voltemos à relação de massa de Lorentz (Equação 6-7), que afirma que a massa m(1) de um corpo em movimento
é igual à sua massa de repouso m(0) dividida pela razão de Fitzgerald. Isso equivale a dizer que m(1) é igual a m
(0) multiplicado pelo inverso do índice de Fitzgerald; portanto, usando a nova expressão para aquele recíproco dado na Equação
7-1, podemos escrever a relação de massa da seguinte forma:

2 m(1) = m(0) (1 + v 2/2c ) (Equação 7-2)


O aumento de massa como resultado do movimento é m(1) – m(0), e podemos chamar essa diferença simplesmente de m. Se
resolvermos a Equação 7-2 para m(1) – m(0) (ou seja, para m), encontramos isso.

2 m = m(0) v 2/2c 2 = ½ m(0) v 2/c (Equação 7-3)

2
A expressão ½ m(0) v , encontrado na porção direita da Equação 7-3, acontece ser o valor da cinética
Machine Translated by Google

2 energia do corpo em movimento (energia cinética é igual a ½ mv ), se possui sua massa de repouso. Na verdade, ele possui
uma massa ligeiramente maior devido ao seu movimento, mas exceto por velocidades extremamente altas, a massa real é
apenas ligeiramente 2 maior que a massa de
repouso - tão pouco maior que podemos deixar ½ m(0) v igualar sua energia cinética e ter certeza de um
alto grau de precisão. Se deixarmos essa energia cinética ser representada como e. então a Equação 7-3 se torna:

2 m = e/c (Equação 7-4)

Lembre-se que m representa o ganho de massa com o movimento. Como o movimento muito rápido, representando um valor
muito alto de r, (a energia cinética) produz apenas um pequeno aumento de massa, vemos claramente que uma grande quantidade
de energia comum é equivalente a uma pequena quantidade de massa. A Equação 7-4, que limpando frações pode ser escrita
como muito mais familiar:

2e = mc (Equação 7-5)

pode ser usado para calcular essa equivalência.

No sistema cgs, onde todas as unidades estão em termos de centímetros, gramas e segundos, o valor de c (a velocidade de
2
luz no vácuo) é de 30.000.000.000 centímetros por segundo. O valor de c é, portanto, 900.000.000.000.000.000.000
2
cm 2/ seg 2. Se definirmos o valor de m em 1 grama, então mcvez que é igual a 900.000.000.000.000.000.000 gm-cm 2/seg 2; ou, uma
1 gm-cm 2/seg 2 é definido como um "erg", 1 grama de massa é igual a 900.000.000.000.000.000.000, ergs de energia.

Uma quilocaloria é igual a 41.860.000.000 ergs. Isso significa que 1 grama de massa equivale a 21.500.000.000 quilocalorias.
A combustão de um galão de gasolina libera cerca de 32.000 quilocalorias. A equivalência em massa dessa quantidade de
energia é 32.000/21.500.000.000 ou 1/670.000 de um grama. Isso significa que na combustão de um galão cheio de gasolina, a
evolução de energia na forma de calor, luz, movimento mecânico dos pistões e assim por diante envolve a perda total para o
sistema de 1/670.000 de um grama de massa. . Não é de admirar que químicos e físicos não tenham notado essas pequenas
mudanças de massa até que lhes dissessem para procurá-las.
Por outro lado, se gramas inteiras de massa pudessem ser convertidas por atacado em energia, a vasta concentração de energia
produzida teria efeitos tremendos. No Volume III serão descritos os passos pelos quais se aprendeu como fazer isso. Os
resultados são as bombas de núcleon que agora ameaçam toda a humanidade com a destruição e os reatores nucleares que
oferecem uma nova esperança para o futuro.
Machine Translated by Google

Além disso, a Equação 7-5 ofereceu a primeira explicação satisfatória da fonte de energia do sol e de outras estrelas. Para que o
sol irradie as vastas energias que irradia, ele deve perder 4.600.000 toneladas de massa a cada segundo. Esta é uma grande quantidade
para os padrões humanos, mas é insignificante para o sol. Nesse ritmo, ele pode continuar a irradiar de maneira essencialmente inalterada
por bilhões de anos.

A equação de Einstein, e = mc 2, como você vê, é derivada inteiramente da suposição da velocidade constante da luz medida,
e a mera existência de bombas nucleares é uma evidência terrível da validade da teoria da relatividade especial 2. Não é de admirar
que de todas as equações da física, e = mc
quase se tornou uma palavra familiar entre os
população geral de não-físicos.

Tempo Relativo

Einstein deduziu uma conclusão adicional de suas suposições e foi além das relações de Lorenz Fitzgerald com comprimento e
massa para abordar também a questão do tempo.

A passagem do tempo é invariavelmente medida através de algum movimento periódico constante: a rotação da Terra, o
gotejamento da água, o bater de um pêndulo, a oscilação de um pêndulo, até mesmo a vibração de um átomo dentro de uma
molécula. No entanto, as mudanças no comprimento e na massa com o aumento da velocidade devem inevitavelmente resultar em uma
desaceleração do período de todo movimento periódico. O tempo, portanto, deve ser medido como procedendo mais lentamente à
medida que a velocidade relativa ao observador aumenta.

Novamente, o índice de Fitzgerald está envolvido. Isto é, o lapso de tempo (t) observado em um corpo se movendo a uma dada velocidade
em relação ao lapso de tempo em repouso t(0) é a seguinte:

2
t = t(0) [raiz quadrada de (1 - v 2/c ) (Equação 7-6)

A uma velocidade de 260.000 quilômetros por segundo passando por um observador, t seria igual a t(0)/2. Em outras palavras, levaria
uma hora do tempo do observador para que meia hora parecesse passar sobre o objeto em movimento. Assim, se o relógio de um
observador marcava 1:00 e o relógio do objeto em movimento também marcava 1:00, então uma hora mais tarde o. O relógio do
observador diria 2:00, mas o relógio do objeto em movimento diria apenas 1:30.
Machine Translated by Google

A uma velocidade igual à da luz, t seria igual a 0. Levaria então uma eternidade para o relógio do objeto em movimento mostrar
qualquer lapso de tempo para o observador. Até onde o observador pudesse notar, o relógio do objeto em movimento sempre marcaria
1:00; o tempo ficaria parado no objeto. Essa desaceleração do tempo com o movimento é chamada de dilatação do tempo.

Por mais estranho que pareça esse estado de coisas, ele foi verificado no caso de certas partículas subatômicas de vida curta.
Ao se mover lentamente, eles se quebram em um determinado tempo fixo. Quando se movem muito rapidamente, eles duram
consideravelmente mais antes de se decomporem. A conclusão natural é que observamos uma desaceleração do tempo para as partículas em movimento
Eles ainda decaem em, digamos, um milionésimo de segundo, mas para nós esse milionésimo de segundo parece se estender por causa
do movimento rápido da partícula.

Como no caso do comprimento e da massa, essa mudança no tempo é apenas uma mudança na medição (desde que as condições da
teoria especial sejam respeitadas), e isso varia de acordo com o observador.

Suponha, por exemplo, que retornemos à nave espacial X e à nave espacial Y enquanto elas passam rapidamente uma pela
outra. Os homens na espaçonave X, observando a espaçonave Y passar a 260.000 quilômetros por segundo e observando um relógio de
pêndulo a bordo da espaçonave Y, veriam o relógio bater seus segundos em intervalos de dois segundos. Tudo na espaçonave Y levaria
o dobro do tempo normal para acontecer (ou assim pareceria ao observador na espaçonave X). Os próprios átomos se moveriam com
apenas metade de sua velocidade normal.

As pessoas na espaçonave Y não saberiam disso, é claro, considerando-se em repouso, elas insistiriam que era a espaçonave X
que estava passando pelo tempo lento. (De fato, se as naves espaciais tivessem passado uma pela outra de tal maneira que cada uma
medisse a velocidade da outra como igual à velocidade da luz, cada uma insistiria que havia observado o tempo na outra nave ter parado
completamente.)

Essa questão de tempo é mais complicada, no entanto: do que a de comprimento e massa. Se as espaçonaves forem reunidas após
o flash-by e colocadas em repouso mútuo, comprimento e massa são agora "normais" e nenhum registro é deixado de quaisquer mudanças
anteriores, então não há necessidade de se preocupar com a "realidade".

Mas quanto ao tempo, considere... Uma vez em repouso mútuo, os relógios estão novamente seguindo a taxa "normal" e os lapsos de
tempo são iguais em ambas as naves. No entanto, as mudanças anteriores em lapsos de tempo deixaram um registro. Se um relógio foi retardado e tem,
Machine Translated by Google

no passado, registrava apenas meia hora enquanto o outro relógio registrava uma hora, o primeiro relógio agora estaria meia
hora atrasado! Cada nave afirmaria firmemente que o relógio da outra nave estava registrando o tempo em um ritmo mais lento
do que o normal, e cada um esperaria que o relógio do outro estivesse lento.

Seria assim? Qualquer um dos relógios estaria lento? E se sim, qual?

Este é o paradoxo do relógio, que se tornou famoso entre os físicos.

Não há paradoxo do relógio se as condições da teoria especial forem observadas estritamente - isto é, se ambos os navios
continuarem eternamente em movimento uniforme. Nesse caso, eles nunca podem ser reunidos novamente, e a diferença de
medição continua sendo uma que nunca pode ser verificada em relação à "realidade".

Para aproximar os navios, pelo menos um deles deve desacelerar, executar uma curva, acelerar e ultrapassar o
outro. Em tudo isso, ela sofre uma velocidade ou aceleração não uniforme, e estamos prontamente fora da teoria especial.

Einstein trabalhou em problemas desse tipo por dez anos depois de ter enunciado sua teoria especial e, em 1915,
publicado sua teoria geral da relatividade, na qual são abordadas as consequências do movimento não uniforme ou acelerado.
Este é um aspecto muito mais sutil e difícil da relatividade do que a teoria especial, e nem todos os físicos teóricos concordam
inteiramente com as consequências da teoria geral.

Suponha que consideremos nossas naves espaciais como únicas no universo. A espaçonave Y executa a
desaceleração, o giro e a aceleração que a colocam lado a lado com a espaçonave X. Mas, pelo princípio da relatividade, os
homens da espaçonave Y têm todo o direito de se considerarem em repouso. Se eles se consideram em repouso, então é a
espaçonave X que (assim parece a eles) desacelera, vira e depois volta para eles. Qualquer que seja o efeito que os homens da
espaçonave X observem na espaçonave Y, os homens a bordo da espaçonave Y observarão na espaçonave X. Assim, pode ser
que quando as duas naves estiverem finalmente lado a lado, os dois relógios de alguma forma digam a mesma hora.

Na verdade, porém, isso não ocorrerá, pois as duas espaçonaves não estão sozinhas no universo. O universo está repleto
de uma vasta quantidade de matéria, e a presença dessa quantidade de matéria estraga a simetria da situação das naves X e Y.

Assim, se a espaçonave Y executa seu turno, a espaçonave X a observa fazer esse turno. Mas como a Spaceship X se considera
Machine Translated by Google

em repouso, ele continua a ver o resto do universo (as estrelas e galáxias) passar por ele a uma velocidade constante e uniforme,
refletindo sua própria velocidade constante e uniforme. Em outras palavras, a espaçonave X vê apenas a espaçonave Y e nada mais
sofre movimento não uniforme.

Por outro lado, se a espaçonave Y se considera em repouso, observa que não só a espaçonave X parece sofrer
uma aceleração, mas também todo o resto do universo.

Em outras palavras, a espaçonave Y e a espaçonave X sofrem movimento não uniforme em relação uma à outra, mas o universo
como um todo sofre movimento não uniforme apenas em relação à espaçonave Y. As duas naves, naturalmente, são influenciadas de
forma diferente por essa tremenda diferença em suas histórias, e quando eles são reunidos, é a espaçonave Y (que sofreu um movimento
não uniforme em relação ao universo como um todo) que carrega o relógio desacelerado. Não há paradoxo aqui, pois as tripulações de
ambas as naves devem ter observado o movimento não uniforme do universo em relação à espaçonave Y. -é-tão-bom-quanto-seu"
argumento.

Agora suponha que um viajante espacial deixe a Terra e, depois de um tempo, esteja viajando para longe de nós a uma velocidade
próxima à da luz. Se pudéssemos observá-lo enquanto ele viajava, veríamos seu tempo passar apenas talvez um centésimo da
velocidade que o nosso. Se ele nos observasse, veria nosso tempo passar apenas um centésimo da velocidade dele. Se o viajante espacial
quisesse retornar, no entanto, ele teria que se virar e experimentaria um movimento não uniforme em relação ao universo como um todo.
Em outras palavras, ao girar, ele observaria todo o universo girando ao seu redor, se insistisse em se considerar em repouso. O efeito
disso é tornar o lapso de tempo menor para ele, tanto quanto ele e os terráqueos que ficam em casa estão envolvidos.

A viagem de ida e volta pode ter parecido para ele que durou apenas um ano, mas na Terra cem anos teriam se passado. Se o
viajante espacial tivesse um irmão gêmeo, deixado para trás na terra, esse irmão teria morrido de velhice há muito tempo, enquanto o
próprio viajante dificilmente teria envelhecido. (Isso é chamado de paradoxo dos gêmeos.) É importante, no entanto, perceber que o
viajante espacial não descobriu uma fonte da juventude. Ele pode ter envelhecido apenas um ano em um século terrestre, mas teria vivido
apenas um ano naquele século terrestre. Além disso, não importa qual seja sua velocidade, o tempo nunca pareceria, nem para ele nem
para os observadores terrestres, retroceder. Ele nunca ficaria mais jovem.

A variação da taxa na qual o tempo passa à medida que a velocidade muda destrói nosso conceito de absolutismo do tempo.
Por causa disso, torna-se impossível localizar um evento no tempo de tal forma que todos os observadores possam concordar. Além disso,
Machine Translated by Google

nenhum evento pode ser localizado no tempo até que alguma evidência do evento chegue ao observador, e essa evidência só pode viajar na
velocidade da luz.

Como um exemplo simples, considere o viajante espacial retornando à Terra, depois de ter experimentado um lapso de tempo de um
ano, e descobrindo que seu irmão gêmeo havia morrido cinquenta anos antes no tempo da Terra. Para o viajante isso pode parecer
impossível, pois cinquenta anos antes (para ele) seu irmão gêmeo ainda nem havia nascido.

De fato, no tratamento matemático da teoria da relatividade, não faz sentido lidar apenas com o espaço ou apenas com o tempo. Em vez
disso, as equações lidam com uma fusão dos dois (geralmente chamada de espaço-tempo). Para localizar um ponto no espaço-tempo, deve-
se expressar um valor para cada uma das três dimensões espaciais, mais um valor para o tempo; tempo sendo tratado um pouco (mas não
exatamente) como as três dimensões comuns. É nesse sentido que o tempo às vezes é chamado de "quarta dimensão".

Argumenta-se às vezes que a existência do tempo relativo torna possível medir uma velocidade maior do que a do tempo.
leve. Suponha, por exemplo, que uma nave espacial viaje da Terra para um planeta a dez anos-luz de distância e faça isso a uma velocidade
tão grande que a dilatação do tempo faz parecer aos tripulantes que apenas um ano se passou no curso da viagem.

Como o navio percorreu em um ano uma distância percorrida pela luz em dez anos, o navio não percorreu dez
vezes a velocidade da luz?

A resposta é que não tem. Se os tripulantes argumentassem que sim, estariam medindo o lapso de tempo de um ano contra seu próprio
quadro de referência e a distância do planeta à Terra (dez anos-luz) pelo quadro de referência da Terra. Em vez disso, eles devem perguntar:
Qual é a distância do planeta de destino da Terra no quadro de referência da nave?

No quadro de referência da nave, a nave está, é claro, imóvel, enquanto o universo, incluindo a Terra e o planeta de destino, desliza
para trás a uma velocidade enorme. Todo o universo é encurtado, como seria de esperar da contração de Fitzgerald, e a distância da Terra ao
planeta de destino é muito inferior a dez anos-luz. A distância é inferior a um ano-luz, de fato, de modo que o navio pode percorrer essa
distância em um ano sem exceder a velocidade da luz.

Mais uma vez, embora o navio tenha demorado apenas um ano para chegar ao seu destino, isso não significa que eles venceram a luz lá, mesmo
Machine Translated by Google

embora um feixe de luz, lançado da Terra simultaneamente com a nave, levasse dez anos para cobrir uma distância de dez
anos-luz. Esse lapso de tempo de dez anos seria verdadeiro apenas no quadro de referência da Terra. Para o próprio
referencial do feixe de luz, uma vez que viaja na velocidade da luz, a taxa de passagem do tempo diminuiria para zero, e o
feixe de luz chegaria a Alpha Centauri (ou a qualquer ponto do universo, por mais distante que seja) em nenhum momento.

Nem se pode usar isso para argumentar que no próprio referencial do feixe de luz sua velocidade é então infinita; pois
no próprio referencial do feixe de luz, a espessura total do universo, na direção de sua viagem, é reduzida a zero, e é claro
que não levaria tempo para a luz cruzar um universo de espessura zero, mesmo que sua velocidade é o finito de 300.000
quilômetros por segundo.

A Teoria Geral

Uma das suposições básicas da teoria especial era que era impossível medir o movimento absoluto; que qualquer
observador teve o privilégio de se considerar em repouso; e que todos os quadros de referência eram igualmente válidos.

No entanto, quando consideramos o movimento não uniforme (fora do domínio da teoria especial), surge a possibilidade
de que não seja assim. Suponha, por exemplo, que duas naves espaciais estejam se movendo lado a lado com velocidade
uniforme. Os tripulantes de cada navio podem considerar a si mesmos e o outro navio em repouso. Então, de repente, a
espaçonave Y começa a se mover em relação à espaçonave X.

Os tripulantes da espaçonave X podiam afirmar que ainda estavam em repouso enquanto a espaçonave Y começava
a avançar em velocidade acelerada. Os tripulantes da espaçonave Y, no entanto, podiam afirmar que, ao contrário, estavam
em repouso enquanto a espaçonave X começava a se mover para trás em velocidade acelerada. Existe alguma maneira,
agora, de decidir entre essas observações conflitantes?

No caso de tal movimento não uniforme, talvez. Assim, a espaçonave Y estava "realmente" acelerando para frente, os
homens dentro dela sentiriam uma pressão inercial para trás (como você é pressionado de volta ao seu assento quando
pisa no acelerador do carro). acelerando para trás, os homens dentro dele sentiriam uma pressão inercial para a frente
(quando você cambaleia em direção ao pára-brisa ao pisar no freio do carro). Conseqüentemente, as tripulações das naves
espaciais podiam decidir qual nave estava "realmente" se movendo, tomando nota de qual grupo de tripulantes sentia
pressões inerciais.
Machine Translated by Google

A partir disso, talvez se possa determinar o movimento absoluto a partir da natureza e do tamanho dos efeitos inerciais. Einstein, em seu
teoria geral da relatividade, elaborou quais propriedades o universo deve possuir para impedir a determinação do
movimento absoluto no caso de movimento não uniforme.

A visão newtoniana da massa tratava, na verdade, de dois tipos de massa. Pela segunda lei do movimento de Newton, a massa
foi definida através da inércia associada a um corpo. Isso é "massa inercial". A massa também pode ser definida pela
força do campo gravitacional ao qual ela dá origem. Esta é a "massa gravitacional". Desde Newton, supunha-se que as
duas massas eram realmente completamente idênticas, mas parecia não haver maneira de provar isso. Einstein não tentou
provar isso; ele simplesmente assumiu que a massa inercial e a massa gravitacional eram idênticas e continuou a partir daí.

Foi então possível argumentar que tanto a gravitação quanto os efeitos inerciais não eram propriedade de corpos individuais.
sozinho, mas da interação da massa desses corpos com toda a massa restante no universo.

Se uma nave espacial começa a acelerar para a frente, os tripulantes sentem uma pressão inercial impelindo-os para a
retaguarda. Mas suponha que os tripulantes da espaçonave insistam em se considerar em repouso. Eles devem então
interpretar suas observações do universo como indicando que todas as estrelas e galáxias fora da nave estão se movendo
para trás em uma velocidade acelerada. O movimento acelerado para trás dos corpos distantes do universo também arrasta
os tripulantes para trás, produzindo um efeito inercial sobre eles, exatamente como teria acontecido se o universo fosse
considerado em repouso e a nave acelerando para frente.

Em suma, os efeitos inerciais não podem ser usados para provar que a nave está "realmente" acelerando. O mesmo
efeito seria observado se a nave estivesse em repouso e o universo estivesse se acelerando. Apenas o movimento não
uniforme relativo é demonstrado por tais efeitos inerciais: ou um movimento não uniforme da nave em relação ao universo ou
um movimento não uniforme do universo em relação à nave. Não há como demonstrar qual dessas duas alternativas é a "real"
1.

Também podemos perguntar se a Terra está "realmente" girando. Durante a maior parte da história do homem, a terra foi considerada imóvel
porque parecia imóvel. Depois de muito trabalho intelectual, sua rotação foi demonstrada para a satisfação dos
cientistas em geral e para aqueles não cientistas que seguiram os argumentos ou estavam dispostos a aceitar a palavra
de autoridade. Mas é "realmente" girando?

Um argumento a favor da rotação da Terra baseia-se na existência do bojo equatorial do planeta. Isto é
Machine Translated by Google

explicado como o resultado de um efeito centrífugo que certamente deve surgir de uma rotação. Se a Terra não girasse,
não haveria efeito centrífugo e ela não incharia. A existência do bojo, portanto, é muitas vezes tomada como prova de uma
rotação "real" da Terra.

Esse argumento poderia valer, talvez, se a Terra estivesse sozinha no universo, mas não está. Se a Terra é
considerada imóvel, para fins de argumentação, deve-se pensar também na enorme massa do universo girando rapidamente
em torno da Terra. O efeito dessa enorme massa giratória é puxar para fora a protuberância equatorial da Terra – exatamente
como o efeito centrífugo faria se a Terra girasse e o resto do universo ficasse imóvel. Pode-se sempre explicar todos os
efeitos da rotação igualmente bem em qualquer quadro de referência.

Você também pode argumentar que, se a Terra estivesse imóvel e o resto do universo girasse em torno dela, as
estrelas distantes, para viajar completamente em torno de suas órbitas gigantescas ao redor da Terra em meras 24
horas, deveriam se mover a muitas, muitas vezes a velocidade de luz. A partir disso, pode-se concluir que a rotação do
universo em torno da Terra é impossível e que, portanto, a Terra está "realmente" girando. No entanto, se o universo for
considerado girando em torno da Terra e se as estrelas distantes estiverem viajando, consequentemente, em grandes
velocidades, a contração de Fitzgerald reduzirá as distâncias que elas devem percorrer até o ponto em que sua velocidade será medida co

Claro, pode-se levantar o argumento de que simplesmente não é razoável supor que todo o universo está girando
sobre a Terra – que se deve naturalmente preferir acreditar que é a rotação da Terra que produz a aparente revolução
do universo. Da mesma forma, é muito mais sensato acreditar que uma nave espacial está acelerando para frente do que
supor que um universo inteiro está acelerando para trás parte de uma nave imóvel, razoável para

Isso é verdade o suficiente, e é tão razoável supor uma Terra em rotação (ou uma nave em movimento) que os
astrônomos continuarão a supor, independentemente dos princípios da relatividade. No entanto, a teoria da relatividade
não argumenta que um referencial não pode ser mais simples ou mais útil do que outro – apenas que um referencial não
é mais válido que outro.

Considere que às vezes é a imobilidade da terra que é assumida porque isso contribui para uma maior simplicidade.
Um arremessador jogando uma bola de beisebol nunca leva em conta o fato de que a Terra está girando. Uma vez que
ele, a bola e o batedor que espera estão compartilhando qualquer velocidade que a terra possua, é mais fácil para o
arremessador supor que a terra está imóvel e julgar a força e a direção de seu arremesso com base nisso. Para ele, o
referencial da Terra imóvel é mais útil do que o referencial da Terra em rotação – mas isso não torna o referencial da Terra imóvel.
Machine Translated by Google

de referência mais válida.

Gravitação

Em sua teoria geral, Einstein também deu uma nova olhada na gravitação. Para Newton, parecia que, se a Terra girava em
torno do Sol, deveria haver uma força de atração mútua entre a Terra e o Sol. Einstein mostrou que se poderia explicar a revolução
da Terra em torno do Sol em termos da geometria do espaço.

Considere uma analogia. Um taco está dirigindo uma bola de golfe em direção ao copo sobre um green nivelado. A bola de golfe atinge o
No entanto, ele está indo rápido demais para girar sobre o lado vertical do copo (moda bobsled) e emergir na outra extremidade,
rolando em uma nova direção. Ele circulou parcialmente o centro do copo, mas ninguém suporia que havia uma força de atração
entre a bola de golfe e o centro do copo.

Imaginemos um green perfeitamente nivelado, sem atrito, de extensão infinita. Uma bola atingida pelo taco de golfe
continuar para sempre em uma linha perfeitamente reta.

Mas e se o green for irregular; se há solavancos e cavidades nele? Uma bola subindo parcialmente na lateral de uma saliência
se curvará em uma direção distante do centro da saliência. Uma bola caindo ao lado de uma cavidade se curvará em direção ao
centro da cavidade. Se as saliências e cavidades são, por alguma razão, invisíveis e indetectáveis, podemos ficar intrigados com
os desvios ocasionais das bolas do movimento em linha reta. Poderíamos supor a existência de forças ocultas de atração ou repulsão
puxando ou empurrando a bola de um lado para o outro.

Suponha que alguém imagine uma cavidade em forma de cone com lados íngremes em tal verde. Uma bola pode ser visualizada
como ocupando uma "órbita" fechada circulando ao redor e ao redor dos lados como um trenó acelerando infinitamente ao longo de
um banco circular. A fricção existia; a bola circulante perderia energia cinética e, pouco a pouco, afundaria até o fundo do cone. Na
ausência de atrito, manteria sua órbita.

Não é difícil formar uma imagem análoga da versão einsteiniana da gravidade. O espaço-tempo seria uma analogia
quadridimensional de um green plano, se estivesse vazio de matéria. A matéria, no entanto, produz "ocos"; quanto mais massiva a
matéria, mais profundo o "oco". A terra se move em torno do sol como se estivesse circulando o oco do sol.
Se houvesse atrito no espaço, ele afundaria lentamente no fundo do "oco" (isto é, espiralaria em direção ao sol). Sem atrito, ele
mantém sua órbita indefinidamente. A órbita elíptica da Terra indica que a órbita em torno do "oco" é
Machine Translated by Google

não perfeitamente nivelado com o nivelamento do green quadridimensional. (A órbita seria um círculo, se fosse.) Uma
leve inclinação da órbita produz uma leve elipticidade, enquanto uma inclinação mais acentuada produz uma elipticidade maior.

São esses "ocos" produzidos pela presença de matéria que dão origem à noção de espaço curvo.

As consequências da teoria da relatividade especial – aumento de massa com movimento e equivalência de massa e
energia, por exemplo – foram facilmente demonstradas. A validade da teoria geral era muito mais difícil de provar.
A imagem da gravitação de Einstein produz resultados tão parecidos com os da imagem de Newton que é tentador
considerar as duas equivalentes e então aceitar aquela que é mais simples e mais "senso comum", e essa, é claro, é a
imagem newtoniana.

No entanto, restavam algumas áreas em que as consequências da imagem einsteiniana eram de fato um pouco
diferentes daquelas da imagem newtoniana. Ao estudar essas consequências, pode-se escolher entre as duas em uma
base mais satisfatória do que a da mera simplicidade. A primeira dessas áreas envolveu o planeta Mercúrio.

Os vários corpos do sistema solar se movem, na visão newtoniana, em resposta às forças gravitacionais às quais
eles são submetidos. Cada corpo está sujeito às forças gravitacionais de todos os outros corpos do universo, de modo
que a solução exata e completa dos movimentos de qualquer corpo não é de se esperar. No entanto, dentro do sistema solar,
o efeito do campo gravitacional do sol é esmagador. Embora os campos gravitacionais de alguns outros corpos bem
próximos ao corpo cujo movimento está sendo analisado também sejam significativos, eles são menores. Se isso for levado
em consideração, o movimento de um planeta do sistema solar pode ser explicado com um grau de precisão que satisfaça a
todos. Se os desacordos residuais entre o movimento previsto e o movimento real permanecerem, a suposição é que algum
efeito gravitacional foi ignorado.

A presença de uma discrepância no movimento de Urano, por exemplo, levou à busca de um efeito gravitacional
ignorado e à descoberta, em meados do século XIX, do planeta Netuno.

Na época da descoberta de Netuno, uma discrepância no movimento de Mercúrio, o planeta mais próximo do Sol,
também estava sendo estudada. Como os outros planetas, Mercúrio viaja em uma elipse em torno do sol, com o sol em um
dos focos da elipse. Isso significa que o planeta nem sempre está à mesma distância do sol. Há um ponto em sua órbita
onde está mais próximo do sol, o periélio, e um ponto na extremidade oposta da órbita, onde está mais distante do sol, o
afélio. A linha que liga os dois é o eixo principal. Mercúrio não repete sua órbita exatamente, mas se move em tal
Machine Translated by Google

maneira que a órbita é na verdade uma roseta, com o eixo maior da elipse girando lentamente.

Isso pode ser explicado pelo efeito gravitacional de planetas próximos em Mercúrio, mas nem tudo pode ser explicado.
Depois de contabilizados todos os efeitos gravitacionais conhecidos, a taxa real na qual o eixo principal (e seus dois pontos
extremos, o periélio e o afélio) girava era ligeiramente maior do que deveria ter sido - maior em 43,03 segundos de arco por
século. Isso significava que o eixo principal da órbita de Mercúrio deu uma volta completa e inexplicável em 3.000.000 de anos.

Leverrier, um dos homens que descobriram Netuno, sugeriu que um planeta não descoberto poderia existir entre Mercúrio
e o Sol, e que o efeito gravitacional desse planeta sobre Mercúrio poderia explicar esse movimento adicional do periélio. No
entanto, o planeta nunca foi encontrado, e mesmo que existisse (ou se existisse um cinturão de planetóides de massa equivalente
perto do sol), também haveria efeitos gravitacionais em Vênus, e estes nunca foram detectados.

A situação permaneceu intrigante por cerca de setenta anos até que Einstein, em 1915, mostrou que a teoria geral da
a relatividade alterou a visão da gravidade apenas o suficiente para introduzir um fator adicional que explicaria a porção
inexplicada do movimento do periélio de Mercúrio. (Haveria efeitos semelhantes, mas muito menores, nos planetas mais
distantes do Sol - pequenos demais para serem detectados com certeza.)

Einstein também previu que os feixes de luz seriam afetados pela gravidade, um ponto que não era permitido na
visão newtoniana. A luz das estrelas passando muito perto do sol, por exemplo, seria afetada pela geometria do espaço e se
curvaria para dentro em direção ao centro do sol. Nossos olhos seguiriam o raio de luz para trás ao longo da nova direção e
veriam a estrela localizada mais longe do centro do sol do que realmente estava. O efeito foi muito pequeno. Mesmo que a luz
apenas roçasse o sol, a mudança na posição de uma estrela seria de apenas 1,75 segundos de arco, e se a luz passasse mais
longe do sol, a mudança na posição da estrela seria ainda menor.

Claro, a luz das estrelas perto do sol não pode ser observada normalmente. Por alguns minutos durante o curso de um
eclipse total, no entanto, eles podem ser. Na época em que a teoria geral foi publicada, a Primeira Guerra Mundial estava em
andamento e nada podia ser feito. Em 1919, no entanto, a guerra acabou e um eclipse total seria visível da ilha do Príncipe,
no Golfo da Guiné, na África Ocidental. Sob os auspícios britânicos, uma expedição elaborada foi enviada à ilha com o
propósito específico de testar a teoria geral. As posições das estrelas na vizinhança do sol foram medidas e comparadas com
suas posições meio ano depois, quando o sol estava na extremidade oposta do céu. Os resultados confirmaram a teoria geral.
Machine Translated by Google

Finalmente, a teoria de Einstein previu que a luz perderia energia se subisse contra a gravidade e ganharia energia se
"caiu", assim como um objeto comum faria. No caso de um objeto em movimento, como uma bola, essa perda de energia
seria refletida como uma perda de velocidade. No entanto, a luz só podia se mover em uma velocidade; portanto, a perda de
energia teria que ser refletida em uma frequência decrescente e comprimento de onda crescente. Assim, a luz que sai de uma
estrela sofreria um leve "desvio para o vermelho" à medida que perdia energia. O efeito foi tão pequeno, no entanto, que não pode ser medido.

No entanto, acabavam de ser descobertas estrelas (anãs brancas) que eram incrivelmente densas e que tinham campos
gravitacionais milhares de vezes mais intensos que os das estrelas comuns. A luz que sai de tal estrela deve perder energia
suficiente para mostrar um desvio pronunciado para o vermelho de suas linhas espectrais. Em 1925, o astrônomo americano
Welter Sydney Adams (1876-1956) conseguiu tirar o espectro da anã branca companheira da estrela Sirius e confirmar essa previsão.

A teoria geral da relatividade havia, assim, conquistado três vitórias em três disputas sobre a antiga visão da gravitação. Tudo,
no entanto, foram vitórias astronômicas. Não foi até 1960 que a teoria geral foi trazida para o laboratório.

A chave para esta demonstração de laboratório foi descoberta em 1958 pelo físico alemão Rudolf Ludwig Mossbauer
(1929-), que mostrou que sob certas condições um cristal poderia ser feito para produzir um feixe de raios gama de
comprimentos de onda idênticos. Raios gama de tais comprimentos de onda podem ser absorvidos por um cristal semelhante
ao que o produziu. Se os raios gama forem de comprimento de onda ligeiramente diferente, eles não serão absorvidos. Isso é
chamado de efeito Mossbouer.

Agora, então, se tal feixe de raios gama é emitido para baixo de modo a "cair" com a gravidade, ele ganha energia e seu
comprimento de onda se torna mais curto - se a teoria geral da relatividade estiver correta. Ao cair apenas algumas centenas
de pés, ele deve ganhar energia suficiente para a diminuição do comprimento de onda dos raios gama, embora muito pequena,
para se tornar suficientemente grande para evitar que o cristal absorva o feixe.

Além disso, se o cristal que emite o raio gama é movido para cima enquanto a emissão está ocorrendo, o
comprimento de onda do raio gama é aumentado através do efeito Doppler-Fizeau. A velocidade na qual o cristal é movido
para cima pode ser ajustada de modo a neutralizar o efeito da gravitação na queda do raio gama. O raio gama será então
absorvido pelo cristal absorvente. Experimentos realizados em 1960 corroboraram a teoria geral da relatividade com grande
precisão, e esta foi a demonstração mais impressionante de sua validade até agora.
Machine Translated by Google

Não é surpreendente, então, que a visão relativista do universo seja agora geralmente aceita (pelo menos até
aviso) entre os físicos do mundo.

CAPÍTULO 8

Quanta

Radiação de corpo negro

A teoria da relatividade não afirma categoricamente que um éter não existe. No entanto, elimina a necessidade de um, e se não for
necessário, por que se preocupar com isso?

Assim, o éter não era necessário para servir como um padrão absoluto para o movimento, uma vez que a relatividade começou assumindo que
tal padrão absoluto não existia e passou a demonstrar que não era necessário. Novamente, o éter não é necessário como meio para
transmitir a força da gravidade e impedir a "ação à distância". Se a gravidade é uma questão de geometria do espaço-tempo e não é
uma força transmitida, a possibilidade de ação à distância não surge.

Isso ainda deixa um uso possível para o éter - o de servir como um meio para transmitir ondas de luz através de um
vácuo. Um segundo artigo escrito por Einstein em 1905 (além de seu artigo sobre a relatividade especial) também eliminou essa
possibilidade. O trabalho de Einstein sobre a relatividade evoluiu a partir do paradoxo sobre a luz que foi revelado pelo experimento de
Michelson-Morley. O segundo artigo de Einstein surgiu de um paradoxo diferente, também relacionado à luz, que também havia surgido
nas últimas décadas do século XIX. (Foi por este segundo artigo que ele mais tarde recebeu o Prêmio Nobel.)

Este segundo paradoxo começou com o trabalho de Kirchhoff em espectroscopia. Ele mostrou que uma substância que absorvia certas
frequências de luz melhores do que outras também emitiriam essas frequências melhor do que outras, uma vez que fosse aquecida
à incandescência.

Suponha, então, que se imagine uma substância capaz de absorver toda a luz, de todas as frequências, que incidiu sobre ela. Tal
um corpo não refletiria luz de qualquer frequência e, portanto, apareceria perfeitamente preto. É natural chamar tal
Machine Translated by Google

substância um corpo de bloco por esse motivo. Se um corpo negro é levado à incandescência, sua emissão deve ser tão
perfeita quanto sua absorção, pela regra de Kirchhoff. Deve emitir luz em todas as frequências, pois absorve em todas as frequências.
Além disso, uma vez que absorve luz em cada frequência com mais eficiência do que um corpo não-negro, ele também deve
irradiar com mais eficiência em cada frequência.

O trabalho de Kirchhoff serviu para aumentar o interesse dos físicos nos aspectos quantitativos da radiação e na maneira
como essa radiação variava com a temperatura. Era do conhecimento geral que a energia total irradiada por um corpo aumentava
à medida que a temperatura aumentava, mas isso foi tornado quantitativo em 1879 pelo físico austríaco Josef Stefan (1835-1893).
Ele mostrou que a energia total irradiada por um corpo aumentava à medida que a quarta potência da temperatura absoluta. (A
temperatura absoluta, simbolizada como 0K, é igual à temperatura centígrada, 0 0C, mais 273 0)

Considere um corpo, por exemplo, que é mantido à temperatura ambiente, 300 0K, e então irradia uma certa quantidade
de energia. Se a temperatura for aumentada para 600 0K, que é a do chumbo derretido, a temperatura absoluta foi dobrada
e a quantidade total de energia irradiada é aumentada em 2 4, ou 16 vezes. Se o mesmo corpo é elevado a uma temperatura
de 6.000 0K, que é a da superfície do sol, ele está a uma temperatura absoluta vinte vezes mais alta do que à temperatura ambiente
e irradia 20 4, ou 160.000 vezes. tanta energia.

Em 1884, Boltzmann (que ajudou a elaborar a teoria cinética dos gases) deu a essa descoberta uma base matemática
firme e mostrou que se aplicava, estritamente, aos corpos negros, apenas deslizou que os corpos não-negros sempre irradiam
menos calor do que a lei de Stefan exigiria. Por causa de sua contribuição, a relação às vezes é chamada de lei de Stefan-Boltzmann.

Mas não é apenas a quantidade total de energia que se altera com o aumento da temperatura. A natureza das ondas de
luz emitidas também muda, como é, de fato, a experiência comum da humanidade. Para objetos na temperatura de um
radiador de vapor, por exemplo (menos de 400 0K), a radiação emitida está no infravermelho de baixa frequência. Sua pele
absorve o infravermelho e você sente a radiação como calor, mas não vê nada. Um radiador em um quarto escuro é invisível.

À medida que a temperatura de um objeto aumenta, ele não apenas irradia mais calor, mas a frequência da radiação também
muda um pouco. No momento em que uma temperatura de 950 0K é atingida, radiação suficiente, de uma frequência alta o
suficiente para afetar a retina, é emitida para que o corpo pareça uma cor vermelha opaca. À medida que a temperatura sobe ainda mais, o verme
Machine Translated by Google

e eventualmente fica primeiro laranja e depois amarelo à medida que mais e mais frequências de luz ainda mais altas são emitidas. A uma
temperatura de 2.000 0K, um objeto, embora brilhando intensamente, ainda está emitindo radiação que está em grande parte no
infravermelho. É somente quando a temperatura atinge 6000 0K, a temperatura da superfície do sol, que a radiação emitida está
principalmente na região da luz visível do espectro. (De fato, é provavelmente porque a superfície do sol está nessa temperatura específica,
que nossos olhos evoluíram de forma a serem sensíveis a essa porção específica do espectro.)

No final do século XIX, os físicos tentaram determinar quantitativamente a distribuição da radiação entre a luz de diferentes
frequências em diferentes temperaturas. Para fazer isso com precisão, era necessário um corpo negro, pois só assim se poderia ter certeza
de que em cada frequência toda a luz possível (para essa temperatura) estava sendo irradiada.
Para um corpo não-negro, é muito provável que certas frequências sejam irradiadas de maneira deficiente; a posição exata dessas
frequências depende da natureza química do corpo radiante.

Como nenhum corpo real absorve toda a luz que incide sobre ele, nenhum corpo real é um corpo negro verdadeiro, e isso parecia
interpor um sério obstáculo no caminho desse tipo de pesquisa. Na década de 1890, porém, um físico alemão, Wilhelm Wien (1864-1928),
pensou em uma maneira engenhosa de contornar essa dificuldade.

Imagine uma fornalha com um buraco. Qualquer luz de qualquer comprimento de onda que entrasse naquele buraco atingiria uma
parede interna áspera e seria principalmente absorvida. O que não fosse absorvido seria espalhado em reflexões difusas que atingiriam
outras paredes e seriam ali absorvidas. A cada contato com uma parede, ocorreria absorção adicional, e apenas uma fração muito pequena
da luz conseguiria sobreviver tempo suficiente para ser refletida novamente pelo buraco. Esse buraco, portanto, atuaria como um perfeito
absorvedor (dentro da razão) e, portanto, representaria um corpo negro. Se o forno foi elevado a uma certa temperatura e mantido lá, então
a radiação emitida por esse buraco é radiação de corpo negro e sua distribuição de frequência pode ser estudada.

Em 1895, Wien fez esses estudos e descobriu que, a uma determinada temperatura, a energia irradiada em determinadas frequências,
aumentou à medida que a frequência foi aumentada, atingiu um pico e depois começou a diminuir à medida que a frequência foi
aumentada ainda mais.

Se Wien aumentasse a temperatura, ele descobriria que mais energia era irradiada em todas as frequências e que um pico era
alcançado novamente. O novo pico, no entanto, teve uma frequência maior do que o primeiro. De fato, à medida que ele continuava a
aumentar a temperatura, o pico de frequência da radiação se movia continuamente na direção de frequências cada vez mais altas. o
Machine Translated by Google

valor da frequência de pico v(max) variou diretamente com a temperatura absoluta (T), então a lei de Wien pode ser expressa da seguinte
forma:

v(max) = kT (Equação 8-1)

onde k é uma constante de proporcionalidade.

Tanto a lei de Stefan quanto a lei de Wien são importantes na astronomia. A partir da natureza do espectro de uma estrela, pode-
se obter uma medida de sua temperatura superficial. A partir disso, pode-se obter uma noção da taxa em que está irradiando energia e,
portanto, de seu tempo de vida. Quanto mais quente uma estrela, mais curta pode ser esperada.

A lei de Wien explica as cores das estrelas em função da temperatura (e não como uma questão de aproximação ou recessão,
como Doppler pensava). Estrelas avermelhadas são comparativamente frias, com temperaturas de superfície de 2000-3000 0K.
As estrelas laranja têm temperaturas de superfície de 3000-5000 0K e estrelas amarelas (como o nosso sol) de 5000-8000 0K. Há
também estrelas brancas com temperaturas de superfície de 8.000-12.000 0K e estrelas azuladas que são ainda mais quentes.

Constante de Planck

Nesse ponto surgiu o paradoxo, pois permanecia um enigma sobre por que a radiação do corpo negro deveria ser distribuída
da maneira observada por Wien. Na década de 1890, os físicos assumiram que um corpo radiante poderia escolher aleatoriamente
uma frequência para irradiar. , e se a radiação pudesse escolher qualquer frequência aleatoriamente, muito mais frequências altas
seriam escolhidas do que baixas.

Lord Rayleigh elaborou uma equação baseada na suposição de que todas as frequências poderiam ser irradiadas com igual
probabilidade. Ele descobriu que a quantidade de energia irradiada em uma determinada faixa de frequências deveria variar como
a quarta potência da frequência. Dezesseis vezes mais energia deve ser irradiada na forma de luz violeta do que na forma de luz
vermelha, e muito mais ainda deve ser irradiada no ultravioleta. De fato, pela fórmula de Raleigh, virtualmente toda a energia de um
corpo radiante deve ser irradiada muito rapidamente no ultravioleta distante. Algumas pessoas se referiam a isso como a "catástrofe
violeta".
Machine Translated by Google

O ponto sobre a catástrofe violeta, no entanto, é que isso não aconteceu. Para ter certeza, em frequências muito baixas a
equação de Rayleigh se manteve, e a quantidade de radiação subiu rapidamente à medida que a frequência da radiação
aumentou. Mas logo a quantidade de radiação começou a ficar aquém da previsão. Atingiu um pico em alguma frequência
intermediária, um pico que estava consideravelmente abaixo do que a equação de Rayleigh previa para essa frequência, e
então, em frequências ainda mais altas, a quantidade de radiação diminuiu rapidamente, embora a fórmula de Rayleigh
previsse um aumento ainda contínuo.

Por outro lado, Wien elaborou uma equação projetada para expressar o que foi realmente observado em altas frequências.
Infelizmente, ela não levou em conta a distribuição de radiação em baixas frequências.

Em 1899, um físico alemão, Max Karl Ernst Ludwig Planck (1858-1947), começou a considerar o problema.
A análise de Rayleigh, parecia a Planck, estava matematicamente e logicamente correta, desde que suas suposições
fossem aceitas; e como a equação de Rayieigh não se ajustava aos fatos, foi necessário questionar as suposições. E se
todas as frequências não fossem, afinal, irradiadas com a mesma probabilidade? Uma vez que a suposição de probabilidade
igual exigia que mais e mais luz de frequência cada vez mais alta fosse irradiada, enquanto o inverso era observado, Planck
propôs que a probabilidade de radiação diminuía à medida que a frequência aumentava.

Assim, haveria dois efeitos governando a distribuição da radiação do corpo negro. Primeiro foi o fato inegável
que havia mais frequências altas do que frequências baixas, de modo que haveria uma tendência a irradiar mais luz de
alta frequência do que luz de baixa frequência. Segundo, como a probabilidade de radiação diminui à medida que a
frequência aumenta, haveria uma tendência a irradiar menos na faixa de alta frequência.

Em frequências muito baixas, onde a probabilidade de radiação é bastante alta, o primeiro efeito é dominante e a radiação
aumenta à medida que a frequência aumenta, de acordo com a fórmula de Rayleigh. No entanto, à medida que a frequência
continua a aumentar, o segundo efeito torna-se cada vez mais importante. O maior número de altas frequências é mais do que
equilibrado pela menor probabilidade de irradiar em uma frequência tão alta. A quantidade de radiação começa a subir mais
lentamente à medida que a frequência continua a aumentar, atinge um pico e depois começa a diminuir.

Suponha que a temperatura seja elevada. Isso não mudará o primeiro efeito, pois o fato de haver mais frequências
altas do que frequências baixas é inalterável. No entanto, e se um aumento na temperatura aumentasse a probabilidade de
que a luz de alta frequência pudesse ser irradiada? O segundo efeito seria, portanto, enfraquecido. Nesse caso, a radiação
(a uma temperatura mais alta) poderia continuar a aumentar, com frequências mais altas, por mais tempo antes de ser ultrapassada e
Machine Translated by Google

reprimido pelo segundo efeito enfraquecido. O pico de radiação, consequentemente, se moveria para frequências
cada vez mais altas à medida que a temperatura aumentasse. Isso foi exatamente o que Wien observou.

Mas como explicar o fato de que a probabilidade de radiação diminuiu à medida que a frequência aumentou? Planck
assumiu que a energia não fluía continuamente (algo que os físicos sempre tinham dado como certo), mas era emitida em
quantidades discretas. Em outras palavras, Planck imaginou que havia "átomos de energia" e que um corpo radiante poderia
emitir um átomo de energia ou dois átomos de energia, mas nunca um átomo e meio de energia ou, de fato, qualquer coisa
além de um número inteiro. de tais entidades. Além disso, Planck passou a supor, o conteúdo de energia de tal átomo de
energia deve variar diretamente com a frequência da luz na qual foi irradiado.

Planck chamou esses átomos de energia de quanta (singular, quântico) de uma palavra latina que significa "quanto?" já
que o tamanho dos quanta era uma questão crucial.

Considere as consequências dessa teoria quântica. A luz violeta, com o dobro da frequência da luz vermelha, teria que
irradiam em quanta duas vezes o tamanho da luz vermelha. Nem poderia um quantum de luz violeta ser irradiado até
que energia suficiente tivesse sido acumulada para formar um quantum completo, pois menos do que um quantum
completo não poderia, pelas suposições de Planck, ser irradiado. A probabilidade, no entanto, era que antes que a energia
necessária para formar um quantum completo de luz violeta fosse acumulada, parte dela teria sido sangrada para formar o
quantum de metade do tamanho de luz vermelha. Quanto maior a frequência da luz, menor a probabilidade de que energia
suficiente se acumule para formar um quantum completo sem ser sangrado para formar quanta de menor conteúdo de
energia e menor frequência. Isso explicaria por que a "catástrofe violeta" não aconteceu e por que, de fato, a luz foi irradiada
principalmente em baixas frequências e mais lentamente do que se poderia esperar também.

À medida que a temperatura aumentasse, a quantidade geral de energia disponível para radiação aumentaria como a
quarta potência da temperatura absoluta. Sob esse fluxo crescente de radiação, seria cada vez mais provável que os quanta
de luz de alta frequência tivessem tempo para se formar. Assim, como Planck assumiu, a probabilidade de radiação nas altas
frequências aumentaria e o pico de radiação avançaria para frequências mais altas. Em temperaturas de 6000 0K, o pico
estaria na região da luz visível, embora os quanta ainda maiores de ultravioleta fossem formados em quantidades menores
mesmo assim.

Se o conteúdo de energia (e) de um quantum de radiação é proporcional à frequência dessa radiação (v), podemos dizer
que:
Machine Translated by Google

e=h (Equação 8-2)

onde h é uma constante de proporcionalidade, comumente chamada de constante de Planck. Se resolvermos a Equação 8-2 para h,
descobriremos que h = E/v. Como as unidades de e no sistema cgs são "ergs" e as de v são "1/segundos", as unidades de h são "ergs"
divididas por "1/segundos" ou "erg-segundos". o tempo é considerado pelos físicos como ação, portanto, a constante de Planck pode
ser considerada medida em unidades de ação.

Planck derivou uma equação contendo h - que, ele descobriu, descreveria a distribuição da radiação do corpo negro, como
realmente observado, em toda a faixa de frequências. Pelo menos, fez isso se h recebesse um valor muito pequeno e apropriado. O
melhor valor de h atualmente aceito é 0,0000000000000000000000000066256 erg-segundos ou 6,6256 X 10-27 erg-segundos.

Para ver o que isso significa, considere que a luz laranja de comprimento de onda 6000 A tem uma frequência de
50.000.000.000.000.000, ou 5 x 1016 ciclos por segundo, se isso for multiplicado pela constante de Planck, descobrimos que o
conteúdo de energia de um quantum dessa luz laranja é 5 x 1016 x 6,6256 x 10-27, ou cerca de 3,3 x 10-10 ergs. Isso
cerca
é apenas
de um terço
de um bilionésimo de um erg, e um erg em si é apenas uma pequena unidade de energia.

Não é de admirar, então, que os quanta individuais de energia radiante não tenham sido casualmente observados antes dos dias de Planck.
A teoria quântica de Planck, anunciada em 1900, provou ser um divisor de águas na história da física. Toda a teoria física que levou
em conta os quanta, mas assumiu que a energia é contínua, às vezes é agrupada como física clássica, enquanto a teoria física que
leva os quanta em vigor é a física moderna, com 1900 como o ponto de divisão conveniente.

No entanto, a teoria de Plank, quando anunciada pela primeira vez, causou pouca agitação. O próprio Plank não fez nada com isso
a princípio, a não ser explicar a distribuição da radiação do corpo negro, e os físicos não estavam prontos para aceitar uma mudança
tão radical de visão da energia apenas para alcançar essa vitória. O próprio Planck tinha dúvidas e às vezes tentava aproximar sua
teoria quântica o mais possível das noções clássicas, supondo que a energia estivesse na forma quântica apenas quando irradiada e
que pudesse ser absorvida continuamente.

E ainda (com a sabedoria da retrospectiva) podemos ver que os quanta ajudaram a explicar uma série de fatos sobre a absorção de
Machine Translated by Google

luz que a física clássica não podia. Na época de Planck, era bem conhecido que a luz violeta era muito mais eficiente do
que a luz vermelha para provocar reações químicas, e que a luz ultravioleta era ainda mais eficiente. A fotografia foi um
excelente exemplo disso, pois o filme fotográfico do tipo usado no século XIX era muito sensível à extremidade violeta do
espectro e bastante insensível à extremidade vermelha. De fato, a luz ultravioleta havia sido descoberta um século antes
de Planck por meio de seu efeito pronunciado sobre o nitrato de prata. Não era razoável supor que os grandes quanta de
luz ultravioleta pudessem produzir reações químicas com maior facilidade do que os pequenos quanta de luz vermelha?
E não se poderia dizer que isso só explicaria os fatos de que se supunha que a energia era absorvida apenas em quanta inteiros?

Este argumento não foi usado para estabelecer a teoria quântica em conexão com a absorção, no entanto. Em
vez disso, Einstein fez uso de um argumento muito semelhante em relação a um fenômeno muito mais recentemente
descoberto e ainda mais dramático.

O Efeito Fotoelétrico

Nas últimas duas décadas do século XIX, descobriu-se que alguns metais se comportam como se estivessem emitindo
eletricidade sob a influência da luz. Naquela época, os físicos começavam a entender que a eletricidade estava associada
ao movimento de partículas subatômicas chamadas elétrons e que o efeito da luz era provocar a ejeção de elétrons de
superfícies metálicas. Este é o efeito fotoelétrico.

Em um estudo mais aprofundado, o efeito fotoelétrico tornou-se um quebra-cabeça principal. Parecia justo supor que, em
condições normais, os elétrons estivessem ligados à estrutura do metal e que uma certa quantidade de energia fosse
necessária para quebrar essa ligação e estabelecer a árvore de elétrons. Além disso, parecia que à medida que a luz se
tornava cada vez mais intensa, mais e mais energia podia ser transferida para a superfície do metal. Não apenas os elétrons
seriam liberados, mas uma considerável energia cinética estaria disponível para eles, então eles disparariam em grandes
velocidades. Quanto mais intensa a luz, maiores as velocidades. Nem parecia que a frequência da luz deveria ter algo a ver
com isso; apenas a energia total transportada pela luz, qualquer que seja sua intensidade.

Assim parecia, mas não foi isso que aconteceu.

O físico alemão Philipp Lenard (1862-1947), após cuidadosos estudos em 1902, descobriu que para cada superfície
que apresentava o efeito fotoelétrico, havia uma frequência limite limite acima da qual, e somente acima da qual, o
efeito deveria ser observado.
Machine Translated by Google

Suponhamos, por exemplo, que essa frequência limite para uma superfície específica seja de 500 quatrilhões de ciclos
por segundo (a frequência da luz laranja de comprimento de onda de 6.000 A). Se a luz de frequência mais baixa, como a
luz vermelha de 420 quatrilhões de ciclos por segundo, cair sobre a superfície, nada acontece. Nenhum elétron é ejetado. Não
importa quão brilhante e intensa seja a luz vermelha e quanta energia ela carrega; nenhum elétron é ejetado.

Assim que a frequência da luz sobe para 500 quatrilhões de ciclos por segundo, os elétrons começam a ser ejetados, mas
praticamente sem energia cinética. É como se a energia que eles receberam da luz fosse apenas suficiente para quebrar a
ligação que os prende à superfície, mas não suficiente para fornecer-lhes qualquer energia cinética adicional.
Lenard descobriu que aumentar a intensidade da luz nessa frequência limiar não fazia nada para fornecer energia cinética
adicional aos elétrons. Como resultado do aumento da intensidade, mais elétrons foram emitidos da superfície, o número
sendo proporcional à energia da luz laranja, mas todos eles careciam de energia cinética.

Se a frequência fosse aumentada ainda mais e se fosse usada luz violeta de 1000 quatrilhões de ciclos por segundo,
os elétrons seriam emitidos com considerável energia cinética. O número emitido variava com a energia total da luz, mas
novamente todos teriam a mesma energia cinética.

Em outras palavras, uma fraca luz violeta provocaria a emissão de alguns elétrons de alta energia; uma intensa luz laranja
provocaria a emissão de muitos elétrons de baixa energia; e uma luz vermelha extremamente intensa não provocaria a emissão de
nenhum elétron.

As teorias físicas do século XIX não podiam explicar isso, mas em 1905 Einstein apresentou uma explicação que
fez uso da teoria quântica de Planck, que agora tinha cinco anos, mas ainda era muito negligenciada.

Einstein supôs que a luz não era apenas irradiada em quanta, como Planck sustentava, mas que também era absorvida
em quanta. Quando a luz incidia sobre uma superfície, os elétrons ligados à superfície absorviam a energia um quantum de
cada vez. Se a energia desse quantum foi suficiente para superar as forças que o mantêm na superfície, ele foi liberado, caso
contrário não.

Se é claro, um elétron poderia ganhar energia suficiente para se soltar depois de absorver um segundo quantum, mesmo
que o primeiro quantum fosse insuficiente. Este, no entanto, é um fenômeno improvável. As chances são enormes de que,
antes que ele possa absorver um segundo quantum, ele tenha irradiado o primeiro. Consequentemente, um quantum teria
Machine Translated by Google

fazer o trabalho sozinho; caso contrário, simplesmente multiplicar o número de quantum (que permanecem individualmente
insuficientes) não resolveria o trabalho. Para usar uma analogia, se um homem não é forte o suficiente para levantar uma pedra
sozinho, não importa se um milhão de homens, cada um tão forte quanto o fiat, tente um após o outro para levantá-lo sozinho. A pedra não se mo

O tamanho do quantum, no entanto, aumenta à medida que a frequência aumenta. Na frequência limite, o quantum é grande
o suficiente para superar a ligação eletrônica a uma superfície específica. À medida que a frequência (e o conteúdo de energia do
quantum) aumentam ainda mais, mais e mais energia sobrará, após a quebra da ligação eletrônica, para ser aplicada como energia
cinética.

Para cada substância, haverá uma energia de limiar diferente e característica, dependendo de quão fortemente os elétrons
estão ligados à sua substância. Para um metal como o césio, onde os elétrons são ligados muito fracamente, a frequência limite
está no infravermelho. Mesmo os pequenos quanta de infravermelho fornecem energia suficiente para quebrar essa ligação fraca.
Para um metal como a prata, onde os elétrons são mantidos com mais força, a frequência limite está no ultravioleta. Einstein
sugeriu, então, a seguinte relação:

2 ½ mv = hv - w (Equação 8-2)

2 onde 1/2mv é a energia cinética do elétron emitido; hv (frequência de tempo constante de Planck) o conteúdo de energia de
os quanta sendo absorvidos pela superfície; e w a energia necessária para libertar o elétron. Na frequência limite, os
elétrons mal seriam liberados e não teriam energia cinética. Por essa razão, a Equação 8-2 se tornaria 0 = hv - w; e isso
significaria que hv = w. Em outras palavras, w representaria a energia dos quanta de luz na frequência limite.

A explicação de Einstein para o efeito fotoelétrico era tão elegante e se encaixava tão bem nas observações, que o fenômeno quântico
teoria saltou subitamente em proeminência. Ele havia sido desenvolvido, originalmente, para explicar os fatos da radiação, e
agora, sem modificação, de repente foi encontrado para explicar o efeito fotoelétrico, um fenômeno completamente diferente.
Isso foi o mais impressionante.

Tornou-se ainda mais impressionante quando, em 1916, o físico americano Robert Andrews Millikan (1868-1953) realizou
experimentos cuidadosos nos quais mediu a energia dos elétrons emitidos pela luz de diferentes frequências e descobriu que as
energias que ele mediu se encaixavam perfeitamente na equação de Einstein. Além disso, medindo a energia do
Machine Translated by Google

elétrons (1/2mv2), a frequência da luz que ele usou (v) e a frequência limite para a superfície que ele estava usando (w), ele foi
capaz de calcular o valor de h (constante de Planck) da Equação 8-2 . Ele obteve um valor muito próximo ao que Planck havia
obtido de sua equação de radiação.

Desde 1916, então, a teoria quântica tem sido universalmente aceita pelos físicos. Agora é a suposição geral
essa energia só pode ser irradiada ou absorvida em números inteiros de quanta e, de fato, essa energia em todas as suas
formas é "quantizada" - isto é, só pode ser considerada como se comportando como se fosse feita de quanta indivisíveis. Esse
conceito ofereceu as visões mais úteis da estrutura atômica até agora, como veremos no Volume III deste livro.

Fótons

Einstein levou a noção de quanta de energia à sua conclusão lógica. Um quantum parecia ser análogo a um "átomo de
energia" ou a uma "partícula de energia", então por que não considerar tais partículas como partículas? A luz, então, consistiria
em partículas, que acabaram sendo chamadas de fótons do grego para "luz".

Essa noção foi um choque para os físicos. A teoria ondulatória da luz havia sido estabelecida apenas cem anos antes e por
um século inteiro vinha conquistando vitória após vitória, até que a teoria das partículas de Newton foi aterrada no que parecia
ser o completo esquecimento. Se a luz, afinal, consistia em partículas, o que fazer com todas as evidências que apontavam
incontestavelmente para as ondas? O que deveria ser feito com experimentos de interferência, experimentos de polarização e
assim por diante?

A resposta é que nada precisa ser feito com eles. É simplesmente errado pensar que um objeto deve ser uma partícula ou
uma onda. Você também pode argumentar que ou estamos de cabeça para baixo e um australiano de cabeça para cima, ou
estamos de cabeça para cima e um australiano de cabeça para baixo. Um fóton é uma partícula e uma onda, dependendo do
ponto de vista. (Alguns físicos, meio brincando, falam de “ondículas”.) partículas e ondas.

É difícil para uma afirmação como essa se encaixar, pois a resposta quase inevitável é: "Mas como um objeto pode ser tanto um
partícula e uma onda ao mesmo tempo?"

O problema aqui é que automaticamente tentamos pensar em objetos desconhecidos em termos de objetos familiares;
descrevemos novos fenômenos dizendo algo como "Um átomo é como uma bola de bilhar" ou "Ondas de luz são como ondas de água".
Machine Translated by Google

Mas isso realmente significa apenas que certas propriedades proeminentes de átomos ou ondas de luz se assemelham a certas propriedades
proeminentes de bolas de bilhar ou ondas de água. Nem todas as propriedades correspondem: um átomo não é tão grande quanto uma bola de
bilhar; uma onda de luz não é tão úmida quanto uma onda de água.

Uma bola de bilhar tem propriedades de partícula e de onda. No entanto, as propriedades das partículas são tão proeminentes e a onda
propriedades tão obscuras e indetectáveis que pensamos em uma bola de bilhar apenas como uma partícula. A onda da água também é onda e
partícula, mas aqui são as propriedades da onda que são proeminentes e as propriedades das partículas que são obscuras. Na verdade, todos os
objetos comuns são extremamente desequilibrados a esse respeito, então chegamos a supor que um objeto deve ser uma partícula ou uma onda.

Os fótons que compõem a luz estão em melhor equilíbrio a esse respeito, tanto com propriedades ondulatórias quanto
propriedades das partículas bastante proeminentes. Não há nada na experiência comum entre partículas e ondas a que isso possa ser comparado.
No entanto, só porque estamos sem uma analogia familiar, não precisamos pensar que uma onda-partícula é "contra o senso comum" ou
"paradoxal" ou, pior ainda, que "os cientistas não podem se decidir".

Podemos ver isso mais claramente se considerarmos uma analogia indireta. Imagine um cone construído de algum sólido rígido
como o aço. Se você segurar esse cone com a ponta para cima, nivelado com o olho, verá que seu limite é um triângulo.
Segurando-o nessa orientação (apontado para cima), você poderá passá-lo por uma abertura triangular bem ajustada em uma chapa de aço,
mas não por uma abertura circular da mesma área.

Em seguida, imagine o cone apontado para você e ao nível dos olhos. Agora você vê seu limite como o de um círculo. Nessa orientação, ele
passará por uma abertura circular bem ajustada em uma chapa de aço, mas não por uma abertura triangular da mesma área.

Se dois observadores, familiarizados com a geometria plana bidimensional, mas não com a geometria sólida tridimensional, estivessem
conduzindo tais experimentos, alguém poderia insistir veementemente que o cone era triangular, pois poderia passar por um orifício triangular
que se encaixasse perfeitamente; o outro poderia insistir, com a mesma veemência, que era um; círculo, uma vez que poderia passar por um
buraco circular que apenas se encaixasse. Eles podem argumentar assim por toda a eternidade e não chegar a nenhuma conclusão.

Se os dois observadores foram informados de que ambos estavam parcialmente errados e parcialmente certos e que o objeto em questão
tinha propriedades triangulares e circulares, a primeira reação (baseada na experiência bidimensional) poderia ser uma indignação: "Como pode um
objeto ser um círculo e um triângulo?"
Machine Translated by Google

No entanto, não é que um cone seja um círculo e um triângulo, mas que tenha seções transversais circulares e triangulares,
o que significa que algumas de suas propriedades são como as dos círculos e algumas são como as dos triângulos.

Da mesma forma, os fótons são em alguns aspectos semelhantes a ondas e, em outros, a partículas. As propriedades
ondulatórias tão belamente demonstradas ao longo do século XIX foram o resultado de experimentos que serviram para captar
a luz em seu aspecto ondulatório (como orientar o cone adequadamente para mostrá-lo como um triângulo).

As propriedades semelhantes a partículas não foram tão facilmente demonstradas. Em 1901, com certeza, o físico
russo Peter Nikolaevich Lebedev (1866-1911) demonstrou o fato de que a luz pode exercer uma pressão muito leve. Um
espelho suspenso no vácuo por uma fibra fina reagiria a essa pressão girando e torcendo a fibra. A partir da ligeira torção
que resultou quando um feixe de luz brilhou no espelho, a pressão pode ser medida.

Sob algumas condições, apontou Lebedev, a pressão da radiação pode se tornar mais importante que a gravitação. o
gases congelados que compõem a superfície de um cometa evaporam à medida que o cometa se aproxima do sol, e as
partículas de poeira normalmente mantidas no lugar pelo gás congelado são liberadas. Essas partículas estão sujeitas
à insignificante força gravitacional do cometa e também à pressão da tremenda radiação do sol. A pressão de radiação
excepcionalmente grande é maior do que a gravitação excepcionalmente fraca, e as partículas de poeira são varridas (em parte)
pela radiação que está fluindo para fora em todas as direções do sol.

É isso que faz com que a cauda de um cometa, que consiste em luz refletida por essas partículas de poeira, esteja sempre
do lado oposto ao sol. Assim, um cometa que se afasta do sol é precedido por sua cauda. Essa orientação da cauda do cometa
fez com que o astrônomo alemão Johannes Kepler (1571-1630) especulasse sobre a existência de pressão de radiação três
séculos antes que essa existência pudesse ser demonstrada em laboratório.

A existência de pressão de radiação pode normalmente servir como um exemplo das propriedades das partículas da luz,
uma vez que tendemos a pensar nessa pressão como resultante do bombardeio de partículas, como no caso da pressão do
gás. No entanto, em 1873, Maxwell (que também havia trabalhado na teoria cinética dos gases) mostrou que havia bons
argumentos teóricos em favor do fato de que as ondas de luz poderiam, como ondas e não como partículas, exercer pressão de radiação.

Um exemplo mais claro de propriedades semelhantes a partículas foi apresentado em 1922 pelo físico americano Arthur Holly
Compton (1892-1962). Ele descobriu que na matéria penetrante um raio X (uma forma de luz de alta frequência, a ser
Machine Translated by Google

discutido com algum detalhe no Volume III deste livro) às vezes atingia elétrons e não apenas exercia pressão ao fazê-lo, mas também
era afetado. Ao ser desviado, a frequência diminuiu ligeiramente, o que significava que o raio X havia perdido energia. O elétron, por
outro lado, recuou em uma direção que explica a detecção do raio X e ganhou energia exatamente igual àquela perdida pelo raio X. Essa
deflexão e transferência de energia era bastante análoga ao que teria acontecido se um elétron tivesse atingido um elétron ou, nesse
caso, se uma bola de bilhar tivesse atingido uma bola de bilhar. Não poderia ser facilmente explicado pela teoria das ondas. O efeito
Compton demonstrou claramente que um fóton de raios X poderia agir como uma partícula. Havia boas razões para supor que quanto
mais energético um fóton, mais proeminentes suas propriedades de partícula eram comparadas às suas propriedades de onda. Portanto,
o efeito Compton foi mais facilmente demonstrado para um fóton de raios X do que para os fótons muito menos energéticos da luz visível,
mas o resultado foi considerado válido para todos os fótons. A natureza partícula-onda dos fótons não foi questionada desde então.

Enquanto alguns experimentos iluminam as propriedades ondulatórias da luz e alguns demonstram suas propriedades de partículas,
nenhum experimento jamais foi projetado mostrando a luz se comportando como uma onda e uma partícula simultaneamente. (Da
mesma forma, um cone pode ser orientado de modo a passar por um triângulo, ou de modo a passar por um círculo, mas não de modo
a passar por ambos.) O físico dinamarquês Niels Bohr (1865-1962). ) sustentou que projetar um experimento mostrando que a luz se
comporta simultaneamente como onda e partícula simultaneamente não apenas não foi feito, mas não pode ser feito em princípio. Isso é
chamado de princípio da complementaridade.

Isso não é realmente frustrante para os cientistas, embora pareça. Estamos acostumados a determinar a forma geral de um
objeto sólido estudando-o primeiro de um lado e depois de outro, e depois combinando, na imaginação, as informações assim
coletadas. Geralmente não nos ocorre suspirar pelo fato de que não podemos ver um objeto de todos os lados simultaneamente, ou
imaginar que somente por uma visão de todos os lados ao mesmo tempo poderíamos realmente entender a forma do objeto.
Na verdade, se pudéssemos ver todos os lados simultaneamente, poderíamos ficar mais confusos do que esclarecidos, como quando
vemos pela primeira vez um retrato de Picasso destinado a mostrar uma mulher de rosto inteiro e perfil ao mesmo tempo.

Se a luz é considerada como tendo as propriedades de uma partícula e de uma onda, certamente não há necessidade de uma
éter luminoso, não mais do que precisamos de um éter para a gravitação ou como padrão para o movimento absoluto.

Por mais que a luz pareça ser uma forma de onda, em sua transmissão no vácuo, são as propriedades das partículas que são
proeminentes. Os fótons fluem através de infinitas extensões de vácuo, exatamente como Newton uma vez imaginou que suas próprias
partículas menos sofisticadas estariam fazendo.
Machine Translated by Google

Consequentemente, uma vez que a relatividade e a teoria quântica entraram em aceitação geral - digamos, em 1920 - os físicos
deixou de se preocupar com o éter.

No entanto, mesmo se considerarmos que a luz consiste em fótons, continua sendo verdade que os fótons têm um
aspecto de onda – que algo ainda está ondulando. O que é que está acenando, e é algo material?

Para responder a isso, vamos retomar os dois fenômenos restantes que, desde os tempos antigos, têm sido exemplos do que
parecia ser ação à distância. Serão necessários vários capítulos para fazê-lo, mas a resposta será finalmente alcançada.

Capítulo 9

Magnetismo

Pólos magnéticos

As forças de atração entre os corpos foram, sem dúvida, observadas desde os tempos pré-históricos, mas (de acordo
com a tradição, pelo menos) o primeiro dos antigos gregos a estudar sistematicamente as forças de atração foi Tales
(640?-546 aC).

Uma força atrativa em particular parecia envolver ferro e minério de ferro. Certos tipos naturais de minério de ferro
("Loadstone") foram encontrados para atrair ferro e, tanto quanto os antigos podiam dizer, nada mais. Tales vivia na cidade
de Mileto (na costa do mar Egeu do que é hoje a Turquia) e a amostra de minério de ferro que que ele estudou supostamente
veio do bairro da cidade vizinha de Magnesia.Tales chamou de "no magnetes lithos" ("a rocha magnesiana") e esses materiais
que atraem o ferro são agora chamados de ímãs, em consequência, enquanto o fenômeno em si é o magnetismo.

Thales descobriu que o âmbar (uma resina fossilizada chamada "elektron" pelos gregos), quando esfregado, também exibia uma
Machine Translated by Google

força atrativa. Isso era diferente da força magnética, pois enquanto o magnetismo parecia limitado ao ferro, o âmbar atritado
atrairia qualquer objeto leve: penugem, pena, pedaços de folhas secas. Nos séculos posteriores, outros objetos além do âmbar
mostraram essa propriedade quando esfregados, e em 1600 o médico e físico inglês William Gilbert (1540-1540-
1603) sugeriu que todos esses objetos fossem chamados de "elétricos" (da palavra grega para âmbar). A partir disso,
eventualmente, a palavra eletricidade passou a ser aplicada ao fenômeno.

O magnetismo, enquanto a força mais restrita, parecia sob as condições experimentais que prevaleciam nos tempos antigos
e medievais ser muito mais forte. Era magnetismo; portanto, isso foi investigado mais detalhadamente nos dois mil anos que se
seguiram a Tales.

Aprendeu-se, por exemplo, que a propriedade do magnetismo podia ser transferida. Se uma lasca de aço é acariciada com
o minério de ferro magnético natural, ela se torna um ímã por si só e pode atrair pedaços de ferro, embora anteriormente não
fosse capaz de fazê-lo.

Além disso, se tal agulha magnetizada fosse colocada em um pedaço de cortiça e colocada para flutuar na água, ou se
fosse girada em um eixo para poder girar livremente, descobria-se que a agulha não tomava nenhuma posição ao acaso, mas se
orientou em uma direção específica. Essa direção se aproxima da linha norte-sul. Então, também, marca-se uma ponta da agulha
magnetizada de alguma forma, como por um entalhe ou uma pequena gota de tinta, torna-se rapidamente aparente que é sempre
a mesma ponta que aponta para o norte, enquanto a outra ponta sempre aponta para o sul. .

Como as pontas da agulha magnetizada apontavam, ao que parecia, para os pólos da Terra, tornou-se costume
fale da extremidade que apontava para o norte como o pólo norte do ímã, e da outra o pólo sul do ímã.

Estava fadado a ocorrer aos homens que, se se pudesse realmente confiar na pálida norte de uma agulha magnetizada
para girar de tal maneira que sempre apontasse para o norte, um método insuperável de encontrar a direção estava à mão. Até
então, a posição da Estrela Polar à noite e a posição do sol durante o dia tinham sido usadas, mas nenhuma delas serviria
exceto em tempo razoavelmente claro.

Os chineses deveriam ter feito uso da agulha magnetizada como um localizador de direção em seu caminho
através da vastidão sem trilhas da Ásia Central. No entanto, os primeiros usos da agulha em viagens oceânicas são
registrados entre os europeus do século XII. A agulha acabou sendo montada em um cartão no qual as várias direções foram
marcadas ao redor da borda de um círculo. Como as direções englobavam a borda do cartão, a agulha magnetizada
Machine Translated by Google

passou a ser chamado de bússola.

Não há dúvida de que a bússola é uma daquelas invenções simples que mudam o mundo. Os homens podiam atravessar
grandes extensões do oceano sem uma bússola (cerca de dois mil anos atrás, os polinésios colonizaram as ilhas que pontilhavam
o oceano Pacífico sem a ajuda de uma), mas uma bússola certamente ajuda. Provavelmente não é por acaso que foi somente após
a invenção da bússola que os marinheiros europeus se lançaram corajosamente no Oceano Atlântico, e a "Era da Exploração"
começou.

Os pólos de um ímã se distinguem por serem os pontos nos quais o ferro é atraído mais fortemente. Se uma agulha magnetizada
for mergulhada em limalha de ferro e depois levantada, as limalhas se aglomerarão mais densamente nas extremidades. Nesse
sentido, um ímã de qualquer forma possui pólos que podem ser localizados dessa maneira. Nem os pólos ocorrem isoladamente.
Sempre que um polo norte pode ser localizado, um polo sul também pode ser localizado e vice-versa.

Tampouco é difícil dizer qual pólo é o norte e qual é o sul, mesmo sem fazer uma bússola direta do
magnético. Suponha que duas agulhas magnetizadas tenham se orientado norte-sul e que o pólo norte de cada uma eu identifiquei.
Se o pólo norte de um ímã for aproximado do pólo sul do segundo ímã, os dois pólos exibirão uma atração mútua e, se permitido o
toque, permanecerão tocando. Será preciso força para separá-los.

Por outro lado, se o pólo norte de um ímã for aproximado do pólo norte do outro, haverá uma repulsão mútua. O mesmo é
verdadeiro se o pólo sul de um for aproximado do pólo sul do outro. Se os ímãs estiverem livres para girar, eles se desviarão e se
reorientarão espontaneamente para que o pólo norte de um fique voltado para o pólo sul do outro. Se o polo norte for forçado contra
o polo norte ou o polo sul contra o polo sul, haverá uma separação assim que os ímãs forem liberados. É preciso força para mantê-
los em contato.

Podemos resumir isso dizendo: Pólos iguais se repelem Pólos diferentes se atraem.

Uma vez que o pólo norte de um ímã específico tenha sido identificado, ele pode ser usado para identificar os pólos de qualquer
outro ímã. Qualquer pólo para o qual é atraído é um pólo sul. Qualquer pólo pelo qual é repelido é um pólo norte. Isso foi esclarecido
pela primeira vez em 1269 por um dos poucos experimentalistas da Idade Média, o francês Peter Peregrinus.

(Em vista disso, poderia ter sido melhor se os pólos norte dos ímãs, atraídos como são na direção do
Machine Translated by Google

Pólo Norte, foram chamados de pólos sul. No entanto, é tarde demais para fazer algo sobre isso agora.)

É fácil ver que a força exercida por um pólo magnético varia inversamente com a diferença. Se alguém permite um pólo norte
ao aproximar-se de um pólo sul, pode-se sentir a força de atração crescer mais forte. Da mesma forma, se alguém empurra um
pólo norte para perto de outro pólo norte, pode sentir a força de repulsão aumentar. Quanto menor a distância, maior a força.

Claro, não podemos falar de um pólo norte por si só e um pólo sul por si só. Todo pólo norte é acompanhado por seu pólo
sul. Portanto, se um pólo norte do ímã A está atraindo o pólo sul do ímã B, o pólo sul do ímã A deve estar repelindo
simultaneamente o pólo sul do ímã B. Isso tende a complicar a situação.

Se alguém usa ímãs longos e finos, no entanto, essa fonte de complicação é minimizada. O pólo norte do ímã A é
próximo ao pólo sul do ímã B, enquanto o pólo sul do ímã A (na outra extremidade de um longo pedaço de metal) está
consideravelmente mais distante. A confusa força repulsiva do pólo sul é enfraquecida por causa dessa distância extra e
pode ser ignorada com mais segurança.

Em 1785, o físico francês Charles Augustin de Coulomb (1736 - 1806) mediu a força entre polos magnéticos a distâncias
variadas, utilizando para isso uma delicada balança de torção. Assim, se uma agulha magnética estiver suspensa por uma fibra
fina, a atração (ou repulsão) de outro ímã sobre um dos pólos da agulha suspensa forçará essa agulha suspensa a girar
levemente. Ao fazer isso, ele torcerá a fibra pela qual está suspenso. A fibra resiste à torção adicional em uma quantidade que
depende de quanto já foi torcida. Uma determinada força sempre produzirá uma determinada quantidade de torção e, a partir
dessa quantidade de torção, o tamanho de uma força desconhecida pode ser calculado. (Quinze anos depois. Cavendish usou tal
balança para medir forças gravitacionais fracas, ainda um século depois; Lebedev usou uma para detectar a pressão de radiação.)

Ao fazer suas medições, Coulomb descobriu que a força magnética variava inversamente com o quadrado da distância,
como no caso da gravitação. Ou seja, a força da força magnética caiu para um quarto do seu valor quando a distância foi
aumentada duas vezes, e a força aumentou para nove vezes o seu valor quando a distância foi diminuída para um terço do seu
valor anterior. Isso era verdade se a força era de atração ou repulsão.

Isso pode ser expresso matematicamente da seguinte forma: Se a força magnética entre os pólos é chamada de F, a força de
os dois pólos, m e m', e a distância entre os dois pólos, d, então:
Machine Translated by Google

F = mm'/d2 (Equação 9-1)

Se a distância é medida em centímetros, então a força é determinada em dinas (onde 1 dina é definido como 1 grama
centímetro por segundo por segundo). Suponha, então, que dois pólos de igual intensidade estejam separados por uma
distância de 1 centímetro e que a força de atração magnética seja igual a 1 dina. Acontece então que m = m' e, portanto, mm'
= m2. Então, como F e d foram iguais a 1, segue-se da Equação 9-1 que, nessas condições, m2 = 1 e, portanto, m = 1.

Conseqüentemente, fala-se de pólos unitários como representando pólos de tal força que, separados por 1
centímetro, exercem uma força magnética (de atração ou repulsão) de 1 dina. Na Equação 9-1, onde F é medido em
dinas e d em centímetros, m e m' são medidos em pólos unitários.

Se um pólo magnético de 5 pólos unitários exerce uma força de 10 dines em um pólo unitário em um certo ponto, a
intensidade da força magnética é de 2 dines por pólo unitário. Um dina por unidade de pólo é definido como 1 oersted (em
homenagem ao físico dinamarquês Hans Christian Oersted, cuja contribuição para o estudo do magnetismo será discutida). O
oersted é uma medida de força magnética por pólo unitário ou intensidade magnética, que normalmente é simbolizada como H. Podemos diz

H = F/m, ou: F = mH (Equação 9-2)

onde F é a força magnética medida em dinas, m é a força magnética em pólos unitários e H é a intensidade magnética
em oersteds.

Domínios magnéticos

Na existência de pólos norte e sul, e na consequente existência de repulsão magnética, bem como atração magnética,
há uma diferença fundamental entre magnetismo e gravitação. A força gravitacional é inteiramente de atração, e nenhuma força
correspondente de repulsão gravitacional foi descoberta ainda.

Por esta razão, a força gravitacional está sempre no seu máximo ideal sem a existência de quaisquer efeitos neutralizantes.
Um corpo com a massa da Terra exercerá uma atração gravitacional fixa, qualquer que seja sua temperatura ou constituição
química. Por outro lado, a atração magnética sempre pode ser neutralizada em maior ou menor grau pela repulsão magnética,
de modo que os efeitos magnéticos ocorrerão apenas em certos tipos de matéria e, em seguida, em intensidades muito variadas.
Machine Translated by Google

Pode-se supor (e, como veremos no Volume III deste livro, a suposição está correta) que o magnetismo é
amplamente difundida na natureza e que as forças magnéticas existem em toda a matéria. A matéria pode então ser
considerada como consistindo de ímãs submicroscópicos. Um ponto a favor dessa visão (pelo menos no caso do ferro e do
aço) é o fato, descoberto cedo, de que, se uma longa agulha magnética for quebrada em duas, ambas as metades serão ímãs. A
extremidade quebrada oposta ao pólo norte original torna-se um pólo sul; a extremidade quebrada oposta ao pólo sul original torna-
se um pólo norte. Isso se repete quando cada metade é quebrada várias vezes. É fácil imaginar a agulha original quebrada em comprimentos submi
Cada um deles é um pequeno ímã, cada um com um pólo norte e um pólo sul.

Esses ímãs submicroscópicos, na maioria das substâncias e na maioria das condições, seriam orientados aleatoriamente, então não há
pouca ou nenhuma concentração de pólos norte (ou pólos sul) em qualquer direção e, portanto, pouco ou nenhum magnético
geral detectável, forte. Em algumas substâncias naturais, no entanto, haveria uma tendência de os ímãs submicroscópicos se
alinharem, pelo menos até certo ponto, ao longo da linha norte-sul. Aí haveria então uma concentração de pólos norte em uma
direção e de pólos sul na outra; concentração suficiente para dar origem a uma força magnética detectável.

Se, digamos, o pólo norte de tal ímã for aproximado do ferro, os ímãs submicroscópicos no ferro são orientados de tal
maneira que os pólos sul estão voltados para o ímã e os pólos norte estão voltados para fora. O ferro e o ímã então se atraem. Se é o
pólo sul do ímã que é trazido para perto do ferro, então os ímãs submicroscópicos no ferro são orientados da maneira oposta e,
novamente, há atração. Qualquer um dos pólos de um ímã atrairá, por essa razão, o ferro. Enquanto o ferro está próximo ao ímã ou
em contato com ele, de modo que seus próprios componentes magnéticos sejam orientados, ele próprio é um ímã. O processo pelo
qual o ferro se torna um ímã pela proximidade de outro ímã é a indução magnética.
Assim, um clipe de papel suspenso por um ímã atrairá um segundo clipe de papel que atrairá um terceiro e assim por diante. Se o ímã
for removido, todos os clipes de papel se desfazem.

Normalmente, os ímãs submicroscópicos em ferro são orientados com relativa facilidade sob a influência de um ímã e são
desorientados com igual facilidade quando o ímã é removido. O ferro geralmente forma um ímã temporário. Se uma lasca de aço é
submetida à ação de um ímã, no entanto, os ímãs submicroscópicos dentro do aço são orientados apenas com dificuldade
consideravelmente maior. Uma vez que o ímã é removido do aço, no entanto, a desorientação é igualmente difícil - difícil o suficiente
para não ocorrer em condições normais, de fato; portanto, o aço geralmente permanece um ímã permanente.
Machine Translated by Google

Tampouco é apenas o ferro que é composto de ímãs submicroscópicos, pois não é apenas o ferro que é atraído por um ímã.
Outros metais, como cobalto e níquel (que são quimicamente relacionados ao ferro) e gadolínio (que não é) são atraídos
por um ímã. O mesmo acontece com várias ligas metálicas, algumas das quais contêm ferro e outras não. Assim, o Alnico,
que como o nome indica é composto de alumínio, níquel e cobalto (mais um pouco de cobre), pode ser usado para fazer ímãs
mais poderosos que os de aço. Por outro lado, o aço inoxidável, que é quase três quartos de ferro, não é afetado por um ímã.

Nem precisa a substância magnética ser um metal. O próprio Loadstone é uma variedade de óxido de ferro, uma
substância terrosa em vez de metálica. Desde a Segunda Guerra Mundial, uma nova classe de substâncias magnéticas foi
estudada. São as ferritas, que são óxidos mistos de ferro e de outros metais como cobalto ou manganês.

Um material que exibe, ou que pode ser feito para exibir, uma forte força magnética do tipo a que estamos acostumados em
um ímã comum é chamado de ferromagnético. (Isso vem do latim "ferrum" que significa "ferro", já que o ferro é o exemplo mais
conhecido de tal substância.) Níquel, cobalto, alnico e, claro, ferro e aço são exemplos de substâncias ferromagnéticas.

A questão surge, porém, por que alguns materiais são ferromagnéticos e outros não. Se as forças magnéticas são uma
propriedade comum de toda a matéria (como são), por que os ímãs submicroscópicos de cobre puro ou alumínio puro, por
exemplo, não podem ser alinhados por um ímã já existente? Aparentemente, esse alinhamento não pode ser imposto de fora, a
menos que a própria substância coopere, por assim dizer.

Em substâncias ferromagnéticas (mas apenas sob condições apropriadas, mesmo nessas) já existe um alinhamento de
mosquito existente em estado de natureza. Os ímãs submicroscópicos tendem a se orientar paralelamente aos bilhões de
bilhões, produzindo concentrações de pólos norte e sul aqui e ali dentro do ferro. As regiões sobre as quais as forças magnéticas
estão concentradas são chamadas de domínios magnéticos.

O ferro e outras substâncias ferromagnéticas são constituídos por tais domínios magnéticos, cada um dos quais está realmente no
fronteira de visibilidade. Um pó finamente dividido de óxido de ferro magnético espalhado sobre o ferro tenderá a se
acumular nos limites entre domínios adjacentes e torná-los visíveis a olho nu.

Apesar da existência desses domínios, o ferro normalmente produzido não é magnético. Isso ocorre porque os próprios
domínios são orientados de forma aleatória para que a força magnética de um seja neutralizada pelas de seus vizinhos.
Machine Translated by Google

Portanto, acariciar com um ímã comum não orienta os próprios ímãs submicroscópicos (isso está além de seu poder); apenas
orienta os domínios. Assim, o próprio material ferromagnético já fez quase todo o trabalho de alinhamento para começar, e o
homem passa a adicionar um toque final de alinhamento, insignificante em comparação com o que já é feito, para produzir um
ímã.

Se uma substância ferromagnética é moída em partículas menores que os 2 domínios individuais que a compõem, cada
partícula tenderá a consistir em um único domínio, ou em parte de um. Os ímãs submicroscópicos dentro de cada um serão
completamente alinhados. Se tal pó estiver suspenso em plástico líquido, os domínios podem ser alinhados pela influência de
um ímã facilmente e completamente pela rotação corporal das partículas contra a pequena resistência do líquido (em vez de
contra a resistência muito maior do próprio ferro). no estado sólido). Ao permitir que o plástico solidifique enquanto o sistema
ainda está sob a influência do ímã, os domínios serão alinhados permanentemente e ímãs particularmente fortes serão formados.
Além disso, esses ímãs podem ser preparados em qualquer formato e podem ser facilmente usinados em outros formatos.

Qualquer coisa que tenda a perturbar o alinhamento dos domínios enfraquecerá ou destruirá a força magnética de até mesmo um
"ímã permanente. Dois ímãs colocados em paralelo, pólo norte a pólo norte e pólo sul a pólo sul, irão, através da repulsão
magnética, afastar lentamente os domínios, arruinando o alinhamento e enfraquecendo a força magnética. (É por isso que os
ímãs devem sempre ser empilhados de norte a sul.) De um ponto de vista mais mecânico, se um ímã for batido com um martelo,
a vibração interromperá o alinhamento e enfraquecerá a força magnética.

Em particular, o aumento da vibração atômica, causado pelo aumento da temperatura, romperá os domínios. De fato, para
cada substância ferromagnética existe uma temperatura característica acima da qual o alinhamento dos domínios é
completamente rompido e acima da qual, portanto, a substância não apresentará propriedades ferromagnéticas.

Isso foi demonstrado pela primeira vez pelo físico francês Pierre Curie (1859-1906) em 1895, e por isso é chamado de
Ponto de Curie O ponto de Curie está geralmente abaixo do ponto de fusão de uma substância, então os líquidos
geralmente não são ferromagnéticos. O ponto de Curie para o ferro, por exemplo, é 760 0C, enquanto seu ponto de fusão é
1539 0C. Para o cobalto o ponto de Curie é consideravelmente maior, 1130 0C, enquanto para o gadolínio é consideravelmente
menor, 16 0C. Gadoliniun só é ferromagnético em temperaturas abaixo da temperatura ambiente. O ponto de Curie pode
estar localizado em temperaturas muito baixas. Para o metal disprósio, seu valor é de cerca de -188 0C (85 0K), portanto, é
somente na temperatura do ar líquido que o disprósio forma domínios e se torna ferromagnético.
Machine Translated by Google

Em algumas substâncias, os ímãs submicroscópicos se alinham espontaneamente - mas não com os pólos norte apontando
todos na mesma direção. Em vez disso, os ímãs são alinhados de maneira paralela, mas com os pólos norte apontando em
uma direção na metade dos casos e na outra direção no restante. Tais substâncias são antiferromognéticas e, como as forças
magnéticas de um tipo de alinhamento são neutralizadas pelas do outro, a força magnética geral é zero. Pode ser, no entanto, que a
estrutura da substância seja tal que os ímãs com pólos norte apontando em uma direção sejam distintamente mais fortes do que
aqueles com pólos norte apontando na outra. Neste caso, há uma força magnética residual considerável, e tais substâncias são
chamadas de ferrimagnéticas. (Observe a diferença na vogal.)

As ferritas são exemplos de materiais ferrimagnéticos. Naturalmente, um material ferrimagnético não pode ser tão
fortemente magnético quanto um material ferromagnético seria, pois neste último todos os domínios estão, idealmente,
apontando na mesma direção, enquanto no primeiro ocorre uma certa neutralização. Assim, as ferritas exibem apenas cerca de um
terço da força máxima que um ímã de aço exibiria.

A Terra como um ímã

A maneira como a agulha da bússola apontava para o norte e para o sul era um fato tentador para os primeiros físicos. Alguns
especularam que existia uma enorme montanha de ferro no extremo norte e que a agulha magnetizada foi atraída por ela. Em 1600, o
físico inglês William Gilbert (1540 - 1603) relatou experimentos sistemáticos que levaram a uma solução sustentável.

Uma agulha de bússola, como normalmente girada, pode girar apenas em torno de um eixo vertical e é restrita a permanecer perfeitamente
horizontal. E se for girado em torno de um eixo horizontal e puder, se as condições permitirem, apontar para cima ou para baixo?
Uma agulha assim girada (no hemisfério norte) de fato mergulha seu pólo norte vários graus abaixo do horizonte e em direção ao
solo. Isso é chamado de mergulho magnético.

Gilbert moldou uma pedra-ímã em uma esfera e a usou para representar a terra. Ele localizou seus pólos e decidiu que seu
pólo sul, que atraía o pólo norte de uma agulha de bússola, seria equivalente à região ártica da Terra, enquanto o outro seria
equivalente à Antártida.

O pólo norte de uma agulha de bússola colocada nas proximidades dessa pedra esférica apontava para o "norte", como poderia ser
Machine Translated by Google

esperado. No "hemisfério norte" da pedra-ímã, no entanto, o pólo norte de uma agulha de bússola, devidamente girada, também mostrou mergulho
magnético, girando em direção ao corpo da pedra-ímã. Acima do pólo sul na "região ártica" da pedra-ímã, o pólo norte da agulha da bússola apontava
diretamente para baixo. No "hemisfério sul" da pedra-ímã, o pólo norte da agulha da bússola se afastava do corpo da pedra-ímã e acima de sua "região
antártica" apontava para cima.

Gilbert sentiu que o comportamento da agulha da bússola em relação à Terra (tanto em sua orientação norte-sul quanto em seu mergulho
magnético) era estritamente análogo ao seu comportamento em relação à pedra-ímã. Ele chegou à conclusão de que a própria Terra era um ímã esférico
com seus pólos no Ártico e na Antártida. A agulha da bússola localizou o norte pela mesma força que a atraiu para o pólo de qualquer outro ímã. (É este
n natural da terra que orienta lentamente os domínios em certos t:óxido de ferro e cria a pedra de carga magnetizada de todos os estudos magnéticos
anteriores ao século XIX.)

Pode-se facilmente supor que os pólos magnéticos da Terra estão localizados em seus pólos geográficos, mas não é assim. Se
eles eram; a agulha da bússola apontaria para o norte mais ou menos verdadeiro, e isso não acontece. Na época de Gilbert (1580), por exemplo, a
0
agulha da bússola em Londres apontava 11 leste do norte. O ângulo pelo qual a agulha se desvia do verdadeiro
norte é a declinação magnética. Varia de lugar para lugar na terra, e em qualquer lugar varia de ano para ano. A declinação magnética em Londres é
0
agora 8 a oeste do norte, e desde o tempo de Gilbert, a declinação tem sido tão
0
ótimo como 25 oeste do norte. Ao passar de uma declinação para o leste no século XVI para uma declinação para o oeste agora,
tinha que haver um tempo em que a declinação fosse, temporariamente, zero, e quando uma agulha de bússola em Londres apontasse para o
norte. Isso era verdade em 1657.

A variação na declinação com a mudança de posição foi notada pela primeira vez por Cristóvão Colombo (1451-1506) em sua viagem de
descoberta em 1492. A agulha da bússola, que apontava distintamente a leste do norte na Espanha, deslocou-se para oeste quando ele cruzou o Oceano
Atlântico, apontou para o norte quando atingiu o meio do oceano, e distintamente para o oeste do norte depois.
Ele manteve esse segredo de sua tripulação, pois eles precisavam apenas desse exemplo claro do que parecia a subversão da lei natural em pânico e
motim.

A existência da declinação magnética e sua variação de ponto a ponto na superfície terrestre seriam explicadas se os pólos magnéticos estivessem
localizados a alguma distância dos pólos geográficos. Isso é realmente assim. O pólo sul do ímã terrestre (que atrai o pólo norte da agulha da bússola)
está localizado no extremo norte e é chamado, por causa de
Machine Translated by Google

sua posição, o pólo norte magnético. Ele agora está localizado ao largo da costa do Ártico do Canadá, - cerca de 1200 milhas do pólo norte
geográfico. O pólo sul magnético (o pólo norte do ímã terrestre) está localizado nas margens da Antártida, a oeste do Mar de Ross, a cerca de
1200 ácaros do pólo sul geográfico.

Os dois pólos magnéticos não estão exatamente em lados opostos da Terra, então a linha que os conecta (o eixo magnético)
0
não está apenas em um ângulo de cerca de 18ao eixo geográfico, mas também não passa pelo centro da Terra.

O fato de que a declinação magnética se altera com o tempo parece indicar que os pólos magnéticos mudaram suas posições e, de fato, a posição
do pólo magnético norte mudou vários graus desde o momento, um século atrás, quando foi localizado pela primeira vez.

Apesar de todo o seu tamanho, a Terra é apenas um ímã fraco. Assim, mesmo em um pequeno ímã em forma de ferradura, a intensidade
magnética entre os pólos pode ser tão alta quanto 1000 oersteds, mas a intensidade do magnetismo da Terra é apenas cerca de 3/4 oersted mesmo
perto dos pólos magnéticos, onde a intensidade é mais alta. Ele desce a 1/4 de oersted em pontos equidistantes dos pólos magnéticos (o equador
magnético).

Linhas podem ser desenhadas na face da terra através de pontos que mostram declinação igual. Estas são chamadas de linhas isogônicas (de
palavras gregas que significam "ângulos iguais"). Idealmente, eles podem ser considerados linhas de "longitude magnética".
No entanto, ao contrário da longitude geográfica, eles não são arcos de grandes círculos, mas curvam-se irregularmente de acordo com as
propriedades magnéticas locais da estrutura da Terra. E, claro, eles mudam com o tempo e devem ser constantemente redesenhados.

Se se concorda que a Terra é um ímã, resta ainda determinar por que ela é um ímã. Na segunda metade do século XIX, passou a parecer cada
vez mais provável, a partir de várias linhas convergentes de evidência, que a Terra tinha um núcleo de ferro-níquel com um terço de sua massa. Nada
parecia mais simples do que supor que esse núcleo estava, por algum motivo, magnetizado. No entanto, também parecia cada vez mais provável que as
temperaturas no núcleo da Terra fossem altas o suficiente para manter essa massa de níquel-ferro líquida e bem acima do ponto de Curie. Portanto, o
núcleo não pode ser um ímã comum, e o magnetismo da Terra deve ter uma origem mais sutil. Este é um assunto ao qual voltarei.

Campos magnéticos

A força magnética pode diminuir com a distância de acordo com uma lei do inverso do quadrado (veja a Equação 9-1) como força gravitacional.
Machine Translated by Google

força faz, mas há diferenças importantes. Até onde sabemos, a força gravitacional entre dois corpos não é minimamente afetada pela
natureza do meio entre eles. Em outras palavras, seu peso é o mesmo se você ficar no chão nu ou inserir uma placa de ferro, uma
prancha de madeira, um colchão de espuma de borracha ou qualquer outra substância entre você e o solo nu. Aliás, a atração do sol
sobre a terra não é alterada quando a espessura de 2.000 milhas da lua desliza entre os dois corpos.

A força entre os pólos magnéticos, entretanto, altera-se com a natureza do meio entre eles, e a Equação 9-1 se aplica estritamente
apenas onde há vácuo entre os pólos. Para explicar isso, devemos considerar as pesquisas do cientista inglês Michael Faraday
(1791-1867).

Em 1831, ele notou algo que havia sido notado mais de cinco séculos antes por Peter Peregrinus e, sem dúvida, por
muitos outros homens que brincaram com ímãs ao longo dos séculos... Comece com uma folha de papel colocada sobre um ímã de
barra. Se limalha de ferro é espalhada sobre o papel e o papel é então sacudido de modo que a limalha se mova e assuma uma
orientação preferencial, essas limalhas parecem seguir linhas que se curvam de um pólo do ímã para o outro, aglomerando-se perto
dos pólos. e espalhando-se a distâncias maiores. Cada linha começa em um pólo e termina no outro, e duas linhas não se cruzam. (É
claro que algumas das linhas parecem incompletas porque escorrem do papel ou porque, a grandes distâncias dos pólos, são fracas
demais para serem seguidas com precisão pelas limalhas de ferro.
No entanto, é razoável supor que todas as linhas, por mais distantes que tenham de se estender no espaço e por mais fracas
que sejam, sejam contínuas de pólo a pólo.)

A forma das linhas depende da forma do ímã e da relação mútua dos pólos. Em um ímã em forma de ferradura, as linhas se
agrupam em torno dos dois pólos e no espaço entre eles são retas. O mesmo é verdade se o pólo norte de um ímã de barra for
aproximado do pólo sul de outro. Por outro lado, se o pólo norte de um ímã de barra é trazido para perto do pólo norte de outro ímã
de barra, as linhas de força se curvam para longe, as de um pólo parecem evitar tocar as do outro.

Faraday chamou essas linhas magnéticas de força e acreditava que elas tinham existência real. Ele sentiu que eles eram feitos
de algum material elástico que era esticado quando estendido entre dois pólos diferentes e que exercia uma força tendendo a se
encurtar como um elástico estendido faria. Foi essa tendência de encurtamento que foi responsável pela atração magnética, de
acordo com Faraday.

As linhas de força em torno de um ímã de qualquer forma, ou em torno de qualquer sistema de ímãs, podem ser mapeadas sem o uso de
Machine Translated by Google

limalhas de ferro. Uma agulha de bússola sempre se orienta de forma a ficar ao longo de uma dessas linhas. Portanto,
traçando a direção da agulha da bússola em vários pontos do espaço, pode-se conseguir mapear as linhas. Desta forma, a
forma das linhas de força em torno do ímã terrestre pode ser determinada.

A visão de Faraday da existência material de linhas de força não sobreviveu por muito tempo. Em meados do século XIX,
o conceito de éter se fortaleceu em relação à luz, e as linhas magnéticas de força passaram a ser vistas como distorções do
éter.

Com o desaparecimento do conceito de éter no início do século XX, mais um passo teve que ser dado. Mais uma vez,
tornou-se uma questão de geometria do próprio espaço. Suponha, por exemplo, que você deixou cair um lápis em uma
cavidade cilíndrica. Ele se orientaria automaticamente paralelo ao eixo do cilindro. Se o cilindro fosse um tubo que se
estendesse por quilômetros, curvando-se suavemente para um lado ou para o outro, um lápis jogado nele em qualquer ponto
se orientaria paralelo ao eixo do tubo, qualquer que fosse a direção daquele lugar. De fato, se você não pudesse ver o tubo,
mas apenas o lápis, você poderia facilmente mapear as curvas e sinuosidades do tubo observando a posição ocupada pelo
lápis em vários pontos. O mesmo vale para a agulha da bússola e as linhas de força magnética.

Cada pólo magnético afeta a geometria de todo o espaço, e essa geometria alterada (em comparação com o que a
geometria seria na ausência do pólo magnético) é chamada de campo magnético. A intensidade do campo magnético (a
medida em que sua geometria difere da geometria não magnética comum do espaço) diminui como o quadrado da distância
do pólo e logo se torna pequena demais para ser detectada. No entanto, o campo magnético de cada pólo magnético
existente preenche todo o espaço, e a situação se torna suportável apenas pelo fato de que na vizinhança imediata de
qualquer pólo dado predomina sobre todos os outros, a tal ponto que pode ser considerados isoladamente. (Isso também é
verdade, é claro, para campos gravitacionais.)

O conceito de campo magnético elimina a necessidade de supor a força magnética para representações à distância.
Não é que um ímã atrai o ferro à distância, mas um ímã dá origem a um campo que influencia um pedaço de ferro dentro de
si. O campo (que é a geometria espacial que ele representa) toca tanto o ímã quanto o ferro e nenhuma ação à distância precisa
ser assumida.

Apesar do fato de que as linhas de força magnética não têm existência material, muitas vezes é conveniente imaginá-las de
maneira literal e usá-las para explicar o comportamento de objetos dentro de um campo magnético. (Ao fazer isso, estamos usando um "mo
isto é, uma representação do universo que não é real, mas que auxilia o pensamento. Os cientistas usam muitos modelos que são
Machine Translated by Google

extremamente útil. O perigo é que há sempre a tentação de presumir, descuidadamente, que os modelos são reais; para que possam
ser levados para além do seu âmbito de validade. Também pode surgir uma resistência inconsciente a quaisquer mudanças exigidas
pelo aumento do conhecimento que não pode ser adaptado ao modelo.)

Podemos definir as linhas de força entre dois pólos magnéticos no sistema cgs (usando medidas em centímetros e
dinas) de tal forma que uma linha de força pode ser igual a 1 maxwell (em homenagem a Maxwell, que fez tanto em conexão
com gases e luz). No sistema mks, onde as mesmas medidas são feitas em metros e newtons, uma linha de força é definida igual a
1 weber (em homenagem ao físico alemão Wilhelm Eduard Weber [1804-1891). O Weber é a unidade muito maior, sendo 1 Weber
igual a 100.000.000 maxwells. Maxwells e webers são unidades de linho magnético, uma medida que você pode imaginar como
representando o número de linhas de força que passam por qualquer área traçada perpendicularmente a essas linhas.

O que conta na medição da intensidade de um campo magnético é o número de linhas de força que passam por uma área de
o tamanho da unidade. Essa é a densidade de fluxo magnético. A densidade de fluxo mede a proximidade das linhas de
força; quanto mais eles se aglomeram, maior a densidade de fluxo e mais forte o campo magnético naquele ponto. No sistema
cgs, a unidade de área é um centímetro quadrado, de modo que a unidade de densidade de fluxo é 1 maxwell por centímetro
quadrado. Isso é chamado de 1 gauss, em homenagem ao matemático alemão Karl Friedrich Gauss (1777-1855). No sistema mks, a
unidade de área é um metro quadrado e a unidade de densidade de fluxo é, portanto, 1 weber por metro quadrado, uma unidade que não tem no
Como existem 10.000 centímetros quadrados em um metro quadrado e 100.000.000 maxwells em um weber, 1 weber por metro
quadrado é igual a 10.000 gausses

Imagine um pólo norte magnético e um pólo sul separados por um vácuo. Linhas de força vão de pólo a pólo e o fluxo
densidade em qualquer ponto entre eles teria um certo valor, dependendo da força do ímã. Se alguma substância material fosse
colocada entre os pólos, mesmo que a força do ímã permanecesse inalterada, a densidade do fluxo mudaria. A razão entre a
densidade de fluxo através da substância e aquela através do vácuo é chamada de permeabilidade magnética relativa. Uma vez
que esta é uma razão, é um número puro e não tem unidades.

A permeabilidade do vácuo é fixada em 1 e para a maioria das substâncias materiais; a permeabilidade é muito próxima de 1.
No entanto, medições refinadas mostram que nunca é exatamente 1, mas às vezes é um pouco maior que 1 e às vezes um pouco
menor. As substâncias com permeabilidade um pouco maior que 1 são ditas paramagnéticas, enquanto aquelas com permeabilidade
um pouco menor que 1 são diamagnéticas.
Machine Translated by Google

Em uma substância paramagnética, com permeabilidade superior a 1, a densidade de fluxo é maior do que seria no vácuo.
As linhas de força aglomeram-se na substância paramagnética, por assim dizer, parecendo preferi-la ao vácuo circundante (ou ar). Uma
substância paramagnética, portanto, tende a se orientar com seu maior eixo paralelo às linhas de força, de modo que essas linhas de força
possam se mover através de sua substância preferida por uma distância máxima. Novamente, como a densidade de fluxo aumenta à medida
que se aproxima de um polo, há uma tendência da substância paramagnética de se aproximar do polo (isto é, de ser atraída por ele) para que
tantas linhas de força quanto possível possam passar por ele

Por outro lado, uma substância diamagnética, com permeabilidade menor que 1, tem uma densidade de fluxo menor que a do vácuo
(ou ar). As linhas de força parecem evitá-lo e se aglomeram no vácuo circundante. Portanto, uma substância diamagnética tende a se
orientar com seu maior eixo perpendicular às linhas de força, de modo que essas linhas de força precisam passar pela substância apenas
por uma distância mínima. Além disso, a substância diamagnética tende a se afastar do pólo (isto é, ser repelida por ele) para uma região de
menor densidade de fluxo, de modo que o menor número possível de linhas precisa passar por ela.

Ambos os efeitos são bastante pequenos e tornam-se perceptíveis apenas quando são usados campos magnéticos muito fortes. O primeiro a gravar
tais efeitos foi Faraday, que encontrou em 1845 esse vidro; enxofre e borracha eram levemente repelidos por pólos magnéticos e, portanto,
eram diamagnéticos. A substância mais diamagnética conhecida, em temperaturas normais, é o elemento bismuto.
(Em temperaturas extremamente baixas, próximas do zero absoluto, a permeabilidade de algumas substâncias cai para zero e o
diamagnetismo é então máximo.)

O paramagnetismo é consideravelmente mais comum e, para algumas substâncias, a permeabilidade pode ser muito alta, mesmo na
casa dos milhares. Essas substâncias de alta permeabilidade são aquelas anteriormente chamadas de ferromagnéticas. Aqui a atração do
ímã e a orientação das limalhas de ferro paralelas às linhas de força são tão marcadas que são facilmente notadas.

A permeabilidade (simbolizada pela letra grega "mu") deve ser incluída na equação de Coulomb (Equação 9-2) para cobrir os casos em
que os pólos são separados por mais do que o vácuo:

2
F = mm'/(mu)d (Equação 9-3)

Como (mu) está no denominador, uma relação inversa é indicada. Uma substância diamagnética com permeabilidade inferior a 1 aumenta
a força magnética entre os pólos, enquanto uma substância paramagnética diminui a força. Este último efeito é particularmente acentuado
quando o ferro ou o aço, com permeabilidades da ordem das centenas e mesmo dos milhares, estão entre as
Machine Translated by Google

pólos. Uma barra de ferro sobre os dois pólos de um ímã em forma de ferradura reduz a força magnética fora de si a tal ponto que
quase atua como um isolante magnético.

CAPÍTULO 10

Eletrostática

Carga elétrica

Gilbert, que originou a ideia do ímã terrestre, também estudou as forças atrativas produzidas pela fricção do âmbar. Ele
girou uma flecha de metal leve com tanta delicadeza que ela giraria sob a aplicação de uma força minúscula. Ele poderia, dessa
forma, detectar forças atrativas muito fracas e passou a encontrar outras substâncias além do âmbar, que, ao esfregar, produziriam
tais forças. A partir de 1570, ele descobriu que várias gemas como diamante, safira, ametista, opala, carbúnculo, azeviche e até
cristal de rocha comum produziam forças tão atrativas quando esfregadas. Ele chamou essas substâncias de "elétricas". Dizia-se
que uma substância que mostrava tal força atrativa estava eletrificada ou ganhava uma carga elétrica.

Por outro lado, várias substâncias, incluindo os metais em particular, não podiam ser eletrificadas e, portanto, eram
"não elétricos".

Eventualmente, a eletricidade passou a ser considerada um fluido. Quando uma substância como o âmbar era eletrificada, considerava-se
ganharam fluido elétrico que então permaneceu estacionário. Tal carga foi chamada de eletricidade estática, de uma palavra latina
que significa "estar estacionário". e o estudo das propriedades da eletricidade sob tais condições é chamado de eletrostática.

Antes que as forças elétricas pudessem ser estudadas facilmente, o fluido tinha que ser concentrado em quantidades consideráveis em maior quantidade.
do que poderia ser espremido em pequenos pedaços de materiais preciosos e semipreciosos. Algum "elétrico" barato e
disponível em quantidades consideráveis teve que ser encontrado.

Na década de 1660, o físico alemão Otto von Guericke (1602-1686) encontrou tal material no enxofre. Ele preparou um
Machine Translated by Google

esfera de enxofre, maior que a cabeça de um homem, disposta de forma que pudesse ser girada por uma manivela. Uma mão
colocada sobre ele enquanto girava gradualmente eletrizou-o a uma extensão sem precedentes. Guericke construiu a primeira máquina de fricção

Usando-o, Guericke descobriu várias semelhanças entre forças eletrostáticas e forças magnéticas. Ele encontrou, por
Por exemplo, que havia repulsão eletrostática, bem como atração eletrostática, assim como há repulsão e atração no caso
de ímãs. Mais uma vez, uma substância aproximada do próprio enxofre eletrificado exibiu eletrificação temporária, assim
como um pedaço de ferro mantido perto de um ímã torna-se temporariamente magnetizado. Assim, há indução eletrostática,
bem como indução magnética.

Em 1729, um eletricista inglês, Stephen Gray (1696-1736), eletrificou longos tubos de vidro e descobriu que rolhas colocadas em
as extremidades dos tubos, bem como bolas de marfim presas nas rolhas por longos paus, ficavam eletrificadas quando o próprio
vidro era esfregado. O fluido elétrico, que surgiu no ponto de fricção, deve obviamente se espalhar por toda a substância, através
da rolha e do bastão até o marfim, por exemplo. Esta foi a primeira indicação clara de que a eletricidade não precisa ser totalmente
estática, mas pode se mover.

Enquanto o fluido elétrico, uma vez formado dentro de um "elétrico" por fricção, pode se espalhar para todas as partes do
a substância, ela não passaria corporalmente por ela, entrando em um ponto, por exemplo, e saindo em outro. Foi diferente
no caso de "não-elétricos". onde tal passagem corporal ocorreu, de fato, o arco de fluido elétrico ocorreu com extrema facilidade
através de substâncias como metais; tão prontamente que uma carga elétrica perdia completamente sua carga - era descarregada -
se fosse colocada em contato com um metal que, por sua vez, estava em contato com o solo. O fluido passava do elétrico, através
do metal, para o amplo corpo da terra, quando se espalhava tão finamente que não podia mais ser detectado.

Isso parecia explicar por que os metais não podiam ser eletrificados pela fricção. O fluido elétrico, tão rápido quanto se formou,
passou pelo metal para quase tudo o que o metal tocou. Gray colocou metais em blocos de resina (que não permitiam uma passagem
pronta para o fluido elétrico). Sob tais circunstâncias, pedaços de metal, se cuidadosamente esfregados, eram de fato eletrificados,
pois o fluido denominado no metal, incapaz de passar facilmente pela resina, estava preso, por assim dizer, no metal. Em suma,
como se viu, as forças elétricas estavam universalmente presentes na matéria, assim como as forças magnéticas
nós estamos.

Como resultado do trabalho de Gray, a matéria passou a ser dividida em duas classes. Uma classe, da qual os metais - particularmente
ouro, prata e cobre e alumínio - foram os melhores exemplos, permitiram a passagem do fluido elétrico com grande
Machine Translated by Google

prontidão. São condutores elétricos. O outro grupo, como o âmbar, o vidro, o enxofre e a borracha – apenas aqueles materiais que
são facilmente eletrificados pela fricção – apresentam enorme resistência ao fluxo de fluido elétrico. Estes são isolantes elétricos
(de uma palavra latina para "ilha", porque tal substância pode ser usada para isolar objetos eletrificados, impedindo que o fluido saia
e, portanto, tornando os objetos uma ilha de eletricidade, por assim dizer).

As idéias sobre atração e repulsão eletrostática foram aguçadas em 1733 pelo químico francês Charles François Du Fay
(1698-1739). Ele eletrificou pequenos pedaços de cortiça tocando-os com uma vareta de vidro já eletrificada, de modo que parte do
fluido elétrico passasse do vidro para a rolha. Embora a vareta de vidro tenha atraído a rolha enquanto esta estava descarregada, a
vareta e a rolha se repeliram uma vez que a rolha foi carregada. Além disso, os dois pedaços de cortiça, uma vez carregados do
vidro, repeliam-se mutuamente.

A mesma coisa acontecia se dois pedaços de cortiça fossem eletrificados ao serem tocados com uma haste de resina já
eletrificada. No entanto, um pedaço de cortiça eletrificado com vidro atraiu um pedaço de cortiça eletrificado novamente.
Pareceu a Du Fay, então, que havia dois tipos de fluido elétrico, e ele os chamou de "eletricidade vítrea" (de uma palavra latina
para "vidro") e "eletricidade resinosa". Aqui, também, como no caso dos pólos norte e sul dos ímãs, os gostos são repelidos e os
opostos são atraídos.

Esta teoria foi contestada por Benjamin Franklin. Na década de 1740, ele conduziu experimentos que mostraram claramente que
uma carga de "eletricidade vítrea" poderia neutralizar uma carga de "eletricidade resinosa", não deixando nenhuma carga para
trás. Os dois tipos de eletricidade, portanto, não eram apenas diferentes; eram opostos.

Para explicar isso, Franklin sugeriu que então havia apenas um fluido elétrico, e todos os corpos o possuíam em alguma
quantidade normal. Quando este fluido estava presente em sua quantidade normal, o corpo estava descarregado e não apresentava
efeitos elétricos. Em alguns casos, como resultado da fricção, a parte do fluido elétrico foi removida do material a ser friccionado;
em outros casos foi adicionado ao material. Onde o corpo terminasse com um excesso de fluido, Franklin sugeriu, ele poderia ser
considerado carregado positivamente, e onde terminasse com um déficit, seria carregado negativamente. Um corpo carregado
positivamente atrairia um corpo carregado negativamente à medida que o fluido elétrico se esforçasse (por assim dizer) para
uniformizar sua distribuição e, em contato, o fluido elétrico fluiria de seu local de excesso para o local de deficiência. Ambos os
corpos terminariam com uma concentração normal do fluido e, portanto, ambos os corpos seriam descarregados.

Por outro lado, dois corpos carregados positivamente se repeliriam, pois o excesso de fluido em um corpo não teria tendência a
se somar ao excesso igual no outro – ao contrário. Da mesma forma, dois corpos carregados negativamente
Machine Translated by Google

repelir uns aos outros.

A indução eletrostática também foi facilmente explicada nesses termos. Se um objeto carregado positivamente fosse aproximado de um corpo
não carregado, o excesso de fluido no primeiro repeliria o fluido no segundo e o levaria para a parte mais distante do corpo não carregado, deixando a
parte mais próxima desse corpo carregada negativamente e a parte mais distante carregada positivamente. (O corpo não carregado ainda permaneceria
sem carga, em geral, pois a carga negativa em uma parte apenas equilibraria a carga positiva da outra.)

Haveria agora uma atração entre o corpo carregado positivamente e a porção carregada negativamente do corpo não carregado. Também
haveria repulsão entre o corpo carregado positivamente e a porção carregada positivamente do corpo não carregado. No entanto, uma vez que a parte
carregada positivamente do corpo não carregado está mais distante do corpo carregado positivamente do que a parte carregada negativamente, a
força de repulsão é mais fraca que a força de atração, e há uma força atrativa líquida.

A mesma coisa acontece se um corpo carregado negativamente se aproxima de um corpo não carregado. Aqui, o fluido elétrico no corpo não
carregado é atraído para o corpo carregado negativamente. O corpo não carregado tem uma porção carregada positivamente perto do corpo
carregado negativamente (resultando em uma forte atração) e uma porção carregada negativamente mais distante do corpo carregado negativamente
(resultando em uma repulsão mais fraca). Novamente, há uma força atrativa líquida. Dessa forma, pode-se explicar por que corpos eletricamente
carregados de qualquer variedade atraem corpos não carregados com igual facilidade.

Franklin visualizou uma carga positiva e uma carga negativa como sendo análogas aos pólos norte e sul magnéticos, como
no que diz respeito à atração e repulsão. Há uma diferença importante, no entanto. O magnetismo da Terra oferecia um método padrão de
diferenciação entre os pólos magnéticos, dependendo se um determinado pólo apontava para o norte ou para o sul. Não existia uma maneira tão
fácil de diferenciar uma carga positiva de uma carga negativa.

Uma carga positiva, segundo Franklin, resultava de um excesso de fluido elétrico, mas como não há diferença absoluta de comportamento
entre “eletricidade vítrea” e “eletricidade resinosa”, como se poderia dizer qual carga elétrica representa um excesso de fluido e qual déficit de
líquidos? As duas formas diferem apenas com referência uma à outra.

Franklin foi forçado a adivinhar, percebendo muito bem que suas chances de estar certo eram apenas uma em duas - uma chance equilibrada.
Ele decidiu que o vidro, quando atritado, ganhava fluido elétrico e ficava carregado positivamente; por outro lado, quando a resina era esfregada, ela
perdia fluido elétrico e ficava carregada negativamente. Uma vez que isso foi decidido, todas as cargas elétricas poderiam ser
Machine Translated by Google

determinado como positivo ou negativo, dependendo se eles foram ou repelidos por uma carga que já foi determinada
como positiva ou negativa.

Desde os dias de Franklin, os eletricistas consideram que o fluxo de fluido elétrico vai do ponto de maior
concentração positiva até o ponto de maior concentração negativa, sendo o processo retratado como análogo à água
fluindo morro abaixo. A tendência é sempre uniformizar o desnível da distribuição de cargas, diminuindo as regiões de
excesso e elevando as regiões de déficit.

O ponto de vista de Franklin implica que a carga elétrica não pode ser criada nem destruída. Se uma carga positiva
é produzida pelo influxo de fluido elétrico, esse fluido deve ter vindo de outro lugar, e um déficit deve existir no ponto de
onde veio. O déficit produzido em seu ponto de origem deve ser exatamente igual ao excesso produzido em seu ponto de
descanso final. Assim, se o vidro é atritado com seda e se o vidro ganha uma carga positiva, a seda ganha uma carga negativa igual.
A carga elétrica líquida no vidro mais seda era zero antes da fricção e zero depois.

Essa visão foi bem fundamentada desde os dias de Franklin, e podemos falar da baixa conservação da carga elétrica.
Podemos dizer que a carga elétrica líquida não pode ser criada nem destruída; a carga elétrica líquida total do universo é
constante. Devemos lembrar que estamos falando de carga elétrica líquida. A neutralização de uma quantidade de carga
elétrica positiva por uma quantidade igual de carga elétrica negativa não é a destruição da carga elétrica. A soma de + x e - x
é 0, e em tal neutralização não é a carga líquida que mudou, apenas a distribuição de carga.
O mesmo é verdade se um sistema sem carga é transformado em um em que uma parte do sistema contém uma carga
positiva e outra parte uma carga negativa igual. Esta situação é exatamente análoga àquela envolvida na lei da conservação
do momento.

Elétrons

Na verdade, tanto a teoria de dois fluidos da eletricidade de Du Fay quanto a teoria de um fluido de Franklin acabaram
por possuir elementos de verdade. Uma vez que a estrutura interna do átomo passou a ser compreendida, a partir da década
de 1890 (assunto que será abordado em detalhes no Volume III deste livro), descobriu-se que existiam partículas subatômicas,
e que algumas delas possuíam uma força elétrica cobrar enquanto outros não.

Das panículas subatômicas que possuem carga elétrica, as mais comuns são o próton e o elétron, que possuem cargas
de natureza oposta. Em certo sentido, então, o próton e o elétron representam os dois fluidos de Du Fay. No
Machine Translated by Google

por outro lado, o próton, nas condições de experimentos eletrostáticos, é uma partícula completamente imóvel, enquanto o
elétron, que é muito mais leve dos dois, é facilmente deslocado de um corpo para outro. Nesse sentido, o elétron representa o
único fluido elétrico de Franklin.

Em um corpo não carregado, o número de elétrons é igual ao número de prótons e não há carga líquida. O corpo é
preenchido com carga elétrica de ambos os tipos, mas os dois se equilibram. Como resultado da fricção, os elétrons se deslocam.
Um corpo ganha um excesso de elétrons; o outro fica com um déficit.

Há um ponto triste a ser feito, no entanto. Os elétrons se movem na direção oposta à que Franklin havia imaginado para o fluido
elétrico. Franklin havia perdido sua aposta de mesmo dinheiro. Onde ele pensava que existia um excesso de fluido elétrico, existia
um déficit de elétrons, e vice-versa. Por esta razão, era necessário considerar a carga elétrica do elétron como negativa; um excesso
de elétrons produziria então a carga negativa exigida pela deficiência de fluido de Franklin, enquanto um déficit de elétrons produziria
a carga positiva do excesso de fluido de Franklin. Como o elétron é considerado como tendo uma carga negativa, o próton deve ter
uma carga positiva.

(Os engenheiros elétricos ainda consideram o "fluido elétrico" de positivo para negativo, embora os físicos reconheçam
que os elétrons fluem do negativo para o positivo. Para todos os propósitos práticos, não importa qual direção de fluxo é
escolhida, desde que a direção seja mantida a mesma o tempo todo e não haja mudanças na convenção no meio do fluxo.)

Coulomb, que mediu a maneira pela qual a força entre os pólos magnéticos estava relacionada à distância, fez o mesmo
para a força entre corpos eletricamente carregados. Aqui sua tarefa se tornou um pouco mais fácil por causa de uma importante
diferença entre magnetismo e eletricidade. Os pólos magnéticos não existem isoladamente. Qualquer corpo que possua um pólo
norte magnético também deve possuir um pólo sul magnético. Ao medir forças magnéticas entre pólos, portanto, existem forças
atrativas e repulsivas, e elas complicam as medições. No caso da eletricidade, no entanto, as cargas podem ser isoladas. Um corpo
pode carregar apenas uma carga negativa ou apenas uma carga positiva. Por essa razão, as atrações podem ser medidas sem o
acompanhamento de repulsões complicadas e vice-versa.

Coulomb descobriu que a força elétrica, como a força magnética, variava inversamente com o quadrado da distância. De fato, a
equação que ele usou para expressar a variação da força elétrica com a distância era bastante análoga à que ele encontrou para as
forças magnéticas (veja a Equação 9-1).

Se a carga elétrica em dois corpos é q e q', e a distância entre eles é d, então F, a força entre eles (a
Machine Translated by Google

força de atração se as cargas forem opostas ou de repulsão se forem iguais) pode ser expressa:

2
F = q q' / d (Equação 10-1)

desde que as cargas sejam separadas por um vácuo.

No sistema cgs, as distâncias são medidas em centímetros e as forças em dinas. Se imaginarmos, então, duas cargas
iguais separadas por uma distância de 1 centímetro e exercendo uma força de 1 dina uma sobre a outra, pode-se dizer que
cada carga tem 1 unidade eletrostática (geralmente abreviada esu) em magnitude. O esu é, portanto, a unidade cgs de carga elétrica.

A menor carga possível em qualquer corpo é a de um elétron. As medições mostraram que é igual a - 4,8 X 10-10 esu, onde
o sinal deexcesso
menos indica uma carga negativa.
de aproximadamente Issode
2 bilhões significa que
elétrons, um corpo
enquanto umcarregando uma carga
corpo carregando umanegativa de 1 esudecontém
carga positiva 1 esu um
contém um déficit de aproximadamente 2 bilhões de elétrons.

Outra unidade de carga comumente usada no sistema mks é o coulomb, nomeado em homenagem ao físico. Um
coulomb é igual a 3 bilhões de esu. Portanto, um corpo com carga negativa de 1 coulomb contém um excesso de
aproximadamente 6 bilhões de elétrons, enquanto um corpo com carga positiva de 1 coulomb contém um déficit dessa
quantidade.

Imagine dois elétrons separados por um centímetro. Como cada um tem uma carga de - 4,8 X 10-10 esu, a força total (de repulsão,
2
neste caso) entre eles, usando a Equação 10-1, é (-4,8X 10-10 ) ou 2,25 x 10-19 dinas.

Os dois elétrons também exercem uma força gravitacional de atração um sobre o outro. A massa de cada elétron é agora conhecida
igual a 9,1 X 10-28 2 gramas. A força de atração gravitacional entre eles é igual a Gmm'/d quando G é a
constante gravitacional que é igual a 6,67 x 10-8 dine-cm 2/gm 2. A força gravitacional entre os elétrons é, portanto, igual a (9,1
2
x 10-28 ) multiplicado por 6,67 x 10-8, ou 5,5 x 10-62 dinas.

Podemos agora comparar a força da força elétrica e a da força gravitacional dividindo 2,25 x 10-19 por 5,5 x 10-62. O
quociente é 4 x 1042, o que significa que a força elétrica (ou a força magnética comparável no caso
Machine Translated by Google

de ímãs) é cerca de quatro milhões de trilhões de trilhões de trilhões de trilhões de vezes mais forte que a força gravitacional. É justo
dizer, de fato, que a força gravitacional é de longe a força mais fraca conhecida na natureza.

O fato de a gravitação ser uma força avassaladora em escala cósmica se deve inteiramente ao fato de estarmos lidando com as
enormes massas de estrelas e planetas. Mesmo assim, se pararmos para pensar que nós, com nossos próprios músculos débeis, podemos
facilmente erguer objetos para cima contra a atração gravitacional de toda a terra ou, aliás, que um pequeno ímã de brinquedo pode fazer
o mesmo, deve ser osso. sobre nós que as forças gravitacionais são inimaginavelmente fracas. E, de fato, quando lidamos com corpos de
tamanho comum, negligenciamos completamente quaisquer forças gravitacionais entre eles.

Objetos eletricamente carregados servem como centros de campos elétricos, que são análogos aos campos magnéticos. Existem elétricas
linhas de força, assim como existem as magnéticas.

Como no caso das linhas de força magnéticas, as linhas de força elétricas podem passar mais facilmente através de uma substância material, ou
menos, prontamente, do que passariam por um volume equivalente no vácuo. A razão entre a densidade de fluxo de linhas elétricas
de força através de um meio e através do vácuo é a permissividade relativa. (Este termo é análogo à permeabilidade relativa no caso do
magnetismo.)

Em geral, os isolantes têm uma permissividade relativa maior que 1; em alguns casos, muito maior. A permissividade relativa do ar é
1,00054, enquanto a da borracha é cerca de 3, e a da mica cerca de 7. Para a água, o valor é 78. Onde a permissividade relativa é maior
que 1, as linhas elétricas de força se aglomeram no material e passam por ela mais do que passariam por um volume equivalente de
vácuo. Por esta razão, os isolantes são frequentemente chamados de dielétricos (o prefixo vem de uma palavra grega que significa
"através", uma vez que as linhas de força passam por eles). A permissividade relativa é, portanto, freqüentemente chamada de constante
dielétrica.

A equação de Coulomb para a força entre duas partículas carregadas pode ser escrita de forma mais geral, então:

2
F = qq ”/ (limite) d (Equação 10-2)

onde as partículas são separadas por um meio com uma constante dielétrica de (a letra grega "kappa").

As forças elétricas entre partículas carregadas diminuem, então, se um dielétrico é colocado entre elas; eles diminuem mais à
medida que a constante dielétrica é aumentada. As partículas constituintes de uma substância como o sal de cozinha comum, por exemplo, são manti
Machine Translated by Google

juntos por atrações elétricas. Na água, com sua constante dielétrica extraordinariamente alta, essas forças diminuem
correspondentemente, e essa é uma das razões pelas quais o sal se dissolve facilmente na água (suas partículas se desfazem, por assim
dizer) e por que a água é, em geral, um solvente tão bom.

Força eletromotriz

Se esfregarmos um bastão de vidro com um pedaço de seda, os elétrons passarão do vidro para a seda; portanto, o vidro fica
carregado positivamente e a seda, negativamente. Com cada deslocamento de elétron, a carga positiva no vidro e a carga negativa na seda
aumentam, e fica cada vez mais difícil mover mais elétrons. Arrastar mais elétrons carregados negativamente do vidro já carregado
positivamente significa puxar os elétrons para longe contra a atração do vidro carregado de forma oposta. Adicionar esses elétrons à seda
já carregada negativamente significa empurrá-la contra a repulsão de corpos com carga semelhante. À medida que se acumula carga
positiva no vidro e carga negativa no lodo, a atração e a repulsão tornam-se cada vez maiores até que, por mera fricção das mãos, nenhuma
outra transferência de elétrons possa ser realizada.

Esta situação é bastante análoga à que surge em conexão com as forças gravitacionais quando estamos cavando um buraco. À
medida que se joga terra até a borda do buraco, o nível da terra ao redor da borda aumenta enquanto o nível da terra dentro do buraco
desce. A distância do fundo do furo até o topo da borda aumenta e torna-se cada vez mais um esforço para transferir terra adicional de
baixo para cima. Eventualmente, o escavador não pode mais jogar a pá de terra alto o suficiente para atingir a altura da borda, e ele
cavou o buraco o mais longe que pode.

Isso aponta o valor de usar as situações familiares envolvendo a gravidade como uma analogia às situações menos familiares
envolvendo forças elétricas. Vamos então, por um momento, continuar a pensar no campo gravitacional da Terra.

Podemos considerar que um determinado corpo possui uma certa energia potencial dependendo de sua posição em relação ao
campo gravitacional da Terra. Quanto mais alto um corpo (ou seja, quanto maior sua distância do centro da Terra), maior sua energia
potencial. Para levantar um corpo contra a gravidade da Terra, devemos, portanto, aumentar sua energia potencial e retirar essa energia
de algum outro lugar (de nossos próprios músculos, talvez). A quantidade de energia que deve ser adicionada, entretanto, não depende
do valor absoluto da energia potencial original do corpo ou de sua energia potencial final, mas apenas da diferença de energia potencial
entre os dois estados. Podemos diminuir essa diferença de energia potencial a diferença de potencial gravitacional.
Machine Translated by Google

Assim, um objeto no 80º andar de um arranha-céu tem uma energia potencial maior do que um na 10ª porta do mesmo
arranha-céu. Todos os pontos no 80º andar têm a mesma energia potencial e todos os pontos no 10º andar têm a mesma energia
potencial. Ambos os pisos representam superfícies equipotenciais. Deslizar um objeto de um ponto no 10º andar para outro
ponto no 10º andar (ignorando o atrito) não consome energia, pois a diferença de potencial gravitacional é zero. O mesmo acontece
ao deslizar um objeto de um ponto no 80º andar para outro ponto no 80º andar. Embora o valor absoluto da energia potencial no 80º
andar seja maior, a diferença de potencial gravitacional ainda é zero.

Da mesma forma, não é mais difícil levantar um corpo do 80º para o 82º andar do que do 10º para o 12º andar. (Na verdade, o
a força gravitacional é um pouco mais fraca no 80º andar do que no 10º, mas a diferença é tão pequena que pode ser ignorada.)
É a diferença de dois andares que conta e é a mesma em ambos os casos. Podemos medir a diferença de altura (que é tudo o
que conta) pela quantidade de energia que devemos investir para elevar um corpo de unidade de massa através dessa diferença.
No sistema mks, o joule é a unidade de energia e o quilograma é a unidade de massa. Portanto, a unidade de diferença de
potencial gravitacional é um joule por quilograma.

Existe uma analogia exata entre isso e a situação em um campo elétrico. Assim como se adiciona energia para mover uma massa
longe de outra massa, então deve-se adicionar energia para mover um corpo carregado negativamente para longe de um corpo
carregado positivamente, ou vice-versa, (É preciso também adicionar energia para mover um corpo carregado negativamente em
direção a outro corpo carregado negativamente ou um corpo carregado positivamente em direção a outro corpo carregado
positivamente. Para isso não há analogia exata no sistema gravitacional, uma vez que não existe repulsão gravitacional.) A
separação de corpos carregados diferentes ou a aproximação de corpos carregados semelhantes representa uma aumento na
energia potencial elétrica, e uma vez que os corpos carregados mudaram de posição em relação um ao outro, a diferença na energia
potencial elétrica é a diferença de potencial elétrico. (O conceito de uma mudança na energia potencial é muito mais comumente
usado em trabalho elétrico do que em outros ramos da física que, quando o termo diferença de potencial é usado sem qualificação,
pode invariavelmente ser tomado como referência a uma diferença de potencial elétrico em vez de, digamos, para um gravitacional.)

Novamente, a diferença de potencial elétrico pode ser medida em termos da energia que deve ser adicionada a uma carga unitária para
movê-lo uma determinada distância. No sistema mks, a unidade de carga é o coulomb, de modo que a unidade de diferença
de potencial elétrico é o joule por coulomb. Esta unidade é usada com tanta frequência que um nome especial foi dado a ela, o
volt, em homenagem ao físico italiano Alessandro Volta (1745-1827), cujo trabalho será descrito. Como resultado, a diferença de
potencial elétrico às vezes é chamada de "tensão".

Voltemos novamente à analogia gravitacional e consideremos um objeto repousando sobre uma superfície plana. Não tem tendência a
Machine Translated by Google

mover-se espontaneamente para outra porção da superfície plana, pois existe uma diferença de potencial gravitacional de zero entre
um ponto da superfície e outro. Por outro lado, se o objeto estiver suspenso um metro acima da superfície e for solto, ele cairá
espontaneamente, movendo-se do ponto de maior energia potencial para o de menor energia potencial. É a diferença de potencial
gravitacional que provoca o movimento espontâneo.

Da mesma forma, uma carga elétrica não terá tendência espontânea para se mover de um ponto em um campo elétrico para outro
ponto no mesmo nível de energia potencial. Se existir uma diferença de potencial elétrico, no entanto, a carga elétrica terá uma
tendência espontânea de se mover do ponto de maior energia para o de menor. Uma vez que é a diferença de potencial elétrico que
provoca o movimento espontâneo da carga elétrica, essa diferença de potencial pode ser chamada de força eletromotriz (uma força que
"move a eletricidade"), e essa frase é geralmente abreviada como fem. Em vez de falar de uma diferença de potencial de tantos volts,
fala-se frequentemente de uma fem de tantos volts.

Para criar uma diferença de potencial, ou uma fem, em primeiro lugar, deve-se de uma forma ou de outra – provocar uma separação
de cargas diferentes ou uma aglomeração de cargas semelhantes. Assim, ao esfregar um bastão de vidro, remove-se elétrons
carregados negativamente de um bastão cada vez mais carregado positivamente e adiciona-se elétrons carregados negativamente a
um pedaço de lodo cada vez mais carregado negativamente.

Às vezes é possível criar uma fem apertando certos cristais. Um cristal é muitas vezes composto de partículas carregadas
positiva e negativamente dispostas de forma ordenada de tal forma que todas as partículas carregadas positivamente e todas as
panículas carregadas negativamente estão agrupadas em torno do mesmo ponto central. Se duas faces opostas de um cristal são
colocadas sob pressão, o cristal pode ser ligeiramente encrespado e distorcido, e as partículas carregadas que compõem os cristais
são empurradas juntas e espalhadas lateralmente. Na maioria dos casos, ambos os tipos de partículas mudam de posição de maneira
idêntica e permanecem distribuídos em torno do mesmo ponto central. Em alguns casos, no entanto, a mudança é tal que a posição
média das partículas carregadas negativamente muda ligeiramente em relação à posição média das panículas carregadas positivamente.
Isso significa que há, de fato, uma separação de cargas positivas e negativas e, portanto, uma diferença de potencial é criada entre as
duas faces do cristal.

Este fenômeno foi descoberto por Pierre Curie (que descobriu o ponto Curie) e seu irmão, Jacques, em
1880. Eles chamaram o fenômeno de piezoeletricidade ("eletricidade por pressão").

A situação também pode ser revertida. Se um cristal capaz de exibir piezoeletricidade é colocado dentro de um campo elétrico de
modo que exista uma diferença de potencial através do cristal, o cristal altera sua forma de forma correspondente. Se a diferença de potencial
Machine Translated by Google

é aplicado e retirado, uma e outra vez, o cristal pode ser feito vibrar e produzir ondas sonoras. Se o cristal tiver o tamanho e a forma adequados,
ondas sonoras de frequência tão alta podem ser produzidas na faixa ultrassônica. Essas interconversões de som e potencial elétrico são úteis nos
toca-discos de hoje.

Condensadores

Ao trabalhar com eletricidade, às vezes é conveniente tentar colocar o máximo de carga possível dentro de um corpo, com o mínimo de esforço possível.
Suponha que você tenha uma placa de metal isolada de tal forma que qualquer carga elétrica adicionada a ela permaneça. Se você tocar a placa com um
bastão carregado negativamente, os elétrons entrarão na placa de metal e lhe darão uma carga negativa.

Você pode continuar este processo enquanto puder manter uma diferença de potencial entre a barra e a placa - isto é, enquanto
como você pode manter a haste, por fricção prolongada, mais carregada negativamente do que a placa. Eventualmente, no entanto, você aumentará a
carga negativa da placa a um nível tal que nenhuma quantidade de atrito tornará a barra mais carregada negativamente do que isso. A diferença de
potencial entre a barra e a placa será então zero, e uma carga não mais se moverá espontaneamente.

Suponha, no entanto, que você traga uma segunda placa de metal, uma que esteja carregada positivamente, sobre a primeira e paralela
para ele, mas não tocá-lo. Os elétrons da primeira placa são puxados em direção à segunda placa, carregada positivamente, e aglomeram-se na
superfície voltada para a placa positiva. (Os elétrons que se aglomeram nessa superfície estão agora mais próximos do que antes, quando foram
espalhados uniformemente. Eles estão "condensados", por assim dizer, e assim esse dispositivo de duas placas planas mantidas paralelas e a uma
curta distância, pode ser chamado de condensador.)

Com os elétrons na placa negativa se aglomerando na superfície voltada para a placa positiva, a superfície oposta tem menos elétrons e um
potencial menor. Há mais uma vez uma diferença de potencial entre o bastão carregado negativamente e aquela superfície da primeira placa, que está
afastada da segunda placa. Os elétrons podem passar mais uma vez da barra para a placa, e a carga total da placa pode ser consideravelmente maior do
que seria possível na ausência da segunda placa.

Da mesma forma, a carga positiva na segunda placa pode ser maior devido à presença da primeira placa carregada negativamente. Como as
placas emprestam umas às outras uma maior capacidade de carga, um condensador também pode ser chamado de capacitor.
Machine Translated by Google

Quanto mais carregadas as duas placas (uma positiva e outra negativa), maior a diferença de potencial entre elas; isso é o
mesmo que dizer que quanto mais alto o pico de uma montanha e quanto mais baixo um vale, maior a distância para cair. Existe,
portanto, uma relação direta entre a quantidade de carga e a diferença de potencial. Se imaginarmos um vácuo entre as placas,
podemos esperar que a razão entre a carga e a diferença de potencial seja uma constante, e podemos expressar isso da seguinte
forma:

q/v = c (Equação 10-3)

onde q é a carga em coulombs e v é a diferença de potencial em volts. A constante c é a capacitância, para a qual as unidades
são coulombs por volt. Um coulomb por volt é chamado de farad, em homenagem a Michael Faraday.

Assim, um condensador (ou capacitor) com capacitância de 1 farad, acumulará uma carga de 1 coulomb em cada placa, uma
negativa e uma positiva para cada volt de diferença de potencial entre as placas. Na verdade, condensadores com essa capacitância
grande geralmente não são atendidos. É comum, portanto, usar um micro-farad (um milionésimo de farad) ou mesmo um micro-
micro-farad (um milionésimo de um milionésimo de farad) como unidades de capacitância.

Suponha, agora, que um dielétrico seja colocado entre as placas de um condensador. Um dielétrico diminui a força de
atração entre determinadas cargas positivas e negativas e, portanto, diminui a quantidade de trabalho necessária para separar essas cargas.
Mas, como foi explicado, a diferença de potencial é a medida do trabalho necessário para separar cargas diferentes. Isso significa
que a diferença de potencial através do condensador, uma vez que o dielétrico é colocado entre as placas, é v/(kappa), onde, é a
constante dielétrica.

Se chamarmos a capacitância do condensador com o dielétrico, c' então, em vista disso:

c' = q / [v/(kappa)] = [(kappa) q] / v = (kappa)[q / v] (Equação 10-4)

Combinando as Equações 10-3 e 10-4:

c' = (kapa) c (Equação 10-5)

Vemos, então, que colocar um dielétrico entre as placas de um condensador multiplica a capacitância do condensador por
Machine Translated by Google

a constante dielétrica A constante dielétrica do ar é apenas 1,0006 (onde a do vácuo é tomada como 1), então a separação das placas
por entreferro pode ser aceita como uma aproximação da separação por vácuo. A constante dielétrica do vidro é cerca de 5, no entanto,
se as placas de um condensador são separadas por vidro, sua capacitância aumenta cinco vezes o valor das placas separadas pelo ar.
Para uma dada diferença de potencial, um condensador separado por vidro acumulará cinco vezes a carga que um condensador separado
por ar.

A capacitância pode ser aumentada ainda mais reduzindo a distância entre as placas ou aumentando a área das placas ou ambas.
Se a distância entre as placas diminui, a diferença de potencial diminui (como a diferença de potencial gravitacional diminuiria se dois
objetos estivessem separados por um andar em vez de dois andares). Se for assim, então v na Equação 10-3 diminui enquanto q
permanece inalterado e c necessariamente aumenta. Novamente, se as placas fossem aumentadas em área, haveria espaço para mais
carga elétrica se aglomerar, por assim dizer. Consequentemente, q aumentaria na Equação 10-3 e, portanto, c.

Um condensador com placas grandes pode ser difícil de manejar, mas o mesmo efeito pode ser obtido se empilharmos vários
condensadores pequenos e conectarmos todas as placas positivas por um material condutor, como uma haste de metal, e todas as
placas negativas por outra haste de metal. . Dessa forma, qualquer carga adicionada a uma das placas se espalharia por todas as
placas do mesmo tipo, e os muitos pequenos pares de placas agiriam como um grande par. Neste caso, diz-se que os condensadores
estão ligados em série.

Em tal condensador, um conjunto de placas pode ser fixado enquanto o outro conjunto é girado. Girando um botão conectado a uma
haste sobre a qual o outro conjunto é girado, pode-se girar as placas negativas, digamos, cada vez mais alinhadas com as positivas.
Essencialmente, apenas as porções das placas, que estão diretamente voltadas uma para a outra, têm muita ação condensadora.
Consequentemente, à medida que o conjunto de placas giratórias se move cada vez mais em linha, a capacitância aumenta de forma
constante. Se as placas ficarem fora de linha, a capacitância diminui. Temos aqui um condensador variável.
Um objeto eletricamente carregado pode ser descarregado se, por exemplo, um dedo for colocado nele e se o homem preso ao dedo
estiver de pé, sem isolamento, sobre o solo essencialmente descarregado – isto é, se o homem estiver aterrado. Se o objeto estiver
carregado negativamente, os elétrons fluirão dele através do homem e para a terra até que a carga negativa seja dissipada.
Se o objeto estiver carregado positivamente, os elétrons fluirão da terra através do homem e para dentro do objeto até que a carga positiva
seja neutralizada. Em ambos os casos, então há um fluxo de carga através do corpo.

Como as sensações de um corpo vivo são mediadas pelo fluxo de pequenas quantidades de carga através dos nervos, não é
surpreendente que o fluxo de carga resultante da descarga de um objeto carregado possa ser sentido. Se o fluxo de carga é um
Machine Translated by Google

pequeno, a sensação pode não ser mais do que um formigamento. Se for grande, a sensação pode ser uma dor forte como
aquela produzida por um golpe repentino. Fala-se então de choque elétrico. (Como no caso de um golpe físico, um choque
elétrico forte o suficiente pode matar.) Como os condensadores podem acumular grandes cargas de eletricidade, o choque
recebido de tal condensador é muito maior do que o recebido pela descarga de uma haste eletrificada comum de similar Tamanho.

Essa propriedade desagradável dos condensadores foi descoberta acidentalmente em 1745, quando os primeiros
condensadores surgiram mais ou menos casualmente. Este condensador original evoluiu para um frasco de vidro, revestido por
dentro e por fora com folha de metal. Foi arrolhado e uma haste de metal perfurou a rolha. Uma corrente de metal suspensa da
haste tocou a folha de metal dentro da jarra de vidro.

Suponha que a folha de metal fora do vidro esteja aterrada. Se a haste de metal saindo da rolha for tocada com uma
haste carregada negativamente, os elétrons entrarão no metal e se espalharão para baixo no revestimento interno da folha. A
carga negativa dessa folha interna repele os elétrons da parte externa da folha externa e os força para baixo no condutor que a
conecta ao solo, onde esses elétrons se espalham pelo corpo geral do planeta e podem ser esquecidos. Se isso for repetido
várias vezes, uma grande carga negativa é acumulada na folha interna e uma grande carga positiva na folha externa; uma carga
muito maior (graças ao fato de que as camadas de papel alumínio agem como um condensador separado por vidro) do que os
primeiros experimentadores poderiam ter esperado.

Os primeiros homens a produzir condensadores deste tipo (o experimentador alemão Ewald George von Kleist em 1745 e o
físico holandês Pieter van Musschenbroek [1692-1761] em 1746, ficaram surpresos e até horrorizados quando descarregaram os
dispositivos e se viram entorpecidos e atordoados pelo choque, Von Kleist abandonou imediatamente tais experimentos e Van
Musschenbroek prosseguiu apenas com a maior cautela.Desde que Musschenbroed seu trabalho na Universidade de Leyden, na
Holanda, o condensador passou a ser chamado de frasco de Leyden.

Até a segunda metade do século XVIII, a jarra de Leyden foi usada para importantes experimentos elétricos. Uma carga
poderia ser coletada e então liberada em quantidades tão sem precedentes que poderia ser usada para chocar centenas de
pessoas que estavam de mãos dadas, matar pequenos animais e assim por diante. Esses experimentos não foram importantes
em si mesmos, mas serviram para fenômenos elétricos de dermatite e para despertar o interesse da comunidade científica (e
do público em geral também).

Em particular, o frasco de Leyden dramatizou a questão da descarga pelo ar. O ar seco é um isolante, mas o isolamento
nunca é perfeito, e se a carga de qualquer objeto for grande o suficiente, ele se forçará através de uma substância que normalmente é um
Machine Translated by Google

isolante. (Assim, você pode imaginar um peso repousando sobre uma prancha de madeira suspensa em suas extremidades e vários
pés acima do solo. A prancha de madeira atua como um "isolante" no sentido de que o peso não pode se mover para baixo, apesar
de sua tendência a fazê-lo. resultado da diferença de potencial gravitacional entre ele e o solo. Se o peso for ficando cada vez mais
pesado, chegará a um ponto em que a prancha quebra e o peso cai. O "isolante" foi quebrado e o peso é "descarregado", para usar
a terminologia elétrica.)

Quando uma carga elétrica se força através de uma lacuna de ar normalmente isolante, o ar é aquecido pela energia elétrica até o
ponto em que brilha. A descarga é, portanto, acompanhada por uma faísca. O ar aquecido se expande e então, perdendo seu calor
para a atmosfera circundante, se contrai novamente. Isso cria vibrações de ondas sonoras, de modo que a descarga não é apenas
acompanhada por uma faísca, mas também por um estalo. Tais faíscas e crepitações foram notadas até mesmo por Guericke em seu
trabalho com sua bola carregada de enxofre. Com o frasco de Leyden e seu acúmulo de carga muito maior, as faíscas e o embalar
tornaram-se mais dramáticos, e a descarga ocorreria em intervalos de ar mais longos.

Franklin, que experimentou diligentemente com a jarra de Leyden, não pôde deixar de ver a semelhança entre tal descarga
e os trovões e relâmpagos que acompanham as tempestades. A jarra de Leyden parecia produzir relâmpagos em miniatura e
pequenos trovões e, ao contrário, terra e nuvens durante uma tempestade pareciam ser as placas de uma gigantesca jarra de
Leyden. Franklin pensou em uma maneira de demonstrar que isso era mais do que fantasia poética.

Em junho de 1752, ele empinou uma pipa durante uma tempestade. Ele amarrou uma haste de metal pontiaguda à estrutura de
madeira da pipa e prendeu um pedaço de barbante nela. Isso ele prendeu no cordão que segurava a pipa. Ele também prendeu uma
chave de ferro na ponta do barbante. Para evitar a eletrocussão, ele permaneceu sob um galpão durante a tempestade e segurou a
corda da pipa não diretamente, mas por meio de um pedaço seco de fio de seda isolante.

A pipa desapareceu em uma das nuvens e Franklin notou as fibras do cordão da pipa se separando como se todas estivessem
carregadas e se repelindo. Presumivelmente, a chave tinha ar ganhou uma carga. Cautelosamente, Franklin aproximou o nó da mão
da chave; uma faísca saltou, o mesmo tipo de faísca, acompanhada pelo mesmo crepitar, seria de esperar de uma garrafa de Leyden.
Franklin então trouxe uma jarra de Leyden que tinha consigo e a carregou com eletricidade das nuvens.
O resultado foi exatamente o mesmo que ele teria carregado de uma máquina de fricção elétrica. Franklin tinha, assim, sem
dúvida, mostrado que então havia eletricidade nos altos céus assim como havia no chão, que o relâmpago era uma descarga
elétrica gigante, e que o trovão era o crepitar gigante que o acompanhava.

Ele foi mais longe. Franklin experimentou a maneira de descarga onde corpos de diferentes formas estavam envolvidos.
Machine Translated by Google

Assim, se uma esfera de metal fosse aproximada de um corpo carregado, haveria uma descarga, digamos, através de um espaço de
ar de uma polegada. Se uma agulha de metal fosse aproximada do mesmo corpo carregado na mesma extensão, a descarga ocorreria
através de um entreferro de seis a oito polegadas. Isso só poderia significar que era mais fácil descarregar um corpo carregado por
meio de um objeto pontiagudo do que um objeto contundente. Além disso, a descarga por meio da ponta de uma torre de agulha
ocorreu com tal facilidade que não foi acompanhada por faíscas e crepitações perceptíveis. (No entanto, o fato da descarga pode ser
detectado com bastante facilidade, uma vez que o corpo carregado de repente perdeu a capacidade de repelir uma pequena bola de
cortiça com carga semelhante pendurada nas proximidades.)

Ocorreu a Franklin que esse fenômeno poderia ser usado em larga escala em conexão com tempestades.
Se uma haste de metal pontiaguda fosse levantada acima do telhado de um prédio, ela descarregaria as nuvens
carregadas de carga de forma mais eficiente e silenciosa do que o próprio prédio. As nuvens seriam
descarregadas antes de acumularem carga suficiente para fechar a lacuna violentamente por meio de um
relâmpago entre elas e a hora. Se os condutores fossem presos a tal para-raios, a carga extraída das nuvens
poderia ser conduzida inofensivamente para a terra e para a casa, dessa maneira, protegida dos raios.

O pára-raios funcionou muito bem e, nas duas décadas seguintes, estruturas em toda a América e Europa
ficaram sob o manto protetor da invenção de Franklin. Franklin foi o primeiro cientista de mosquitos produzido
pelo Novo Mundo e, através dessa invenção em particular, ele se tornou famoso entre os cientistas da Europa
(fato que teve importantes consequências políticas quando Franklin foi enviado em missão à França durante a
Revolução Americana. século depois que ele empinou sua pipa). Com a invenção do pára-raios, o estudo da
eletrostática atingiu um clímax. No final do século XVIII, um novo aspecto da eletricidade veio à tona, e a
eletrostática ficou em segundo plano.

CAPÍTULO 11

Correntes elétricas

Fluxo de elétrons contínuo


Machine Translated by Google

A carga pode se mover de um ponto a outro (algo que também pode ser descrito como o fluxo de uma corrente elétrica),
como se entende desde a época de Gray no início do século XVIII. No entanto, antes de 1800, apenas fluxos momentâneos
desse tipo foram encontrados. A carga poderia ser transferida de um frasco de Leyden, por exemplo, para o corpo
humano, mas depois de uma faísca rápida, a transferência foi feita. Uma transferência de carga muito maior é a do relâmpago,
mas "tão rápido quanto um relâmpago" é um ditado popular.

A fim de providenciar uma transferência contínua de carga, ou um fluxo contínuo de corrente do ponto A para o ponto B,
é necessário produzir um novo suprimento de carga no ponto A tão rápido quanto ele é afastado e consumi-lo no ponto B tão
rápido quanto é trazido para lá.

Os métodos para fazê-lo foram desenvolvidos a partir das observações feitas pela primeira vez em 1791 pelo médico e físico
italiano Luigi Galvani (1737-1798). Galvani estava interessado na ação muscular e também em experimentos elétricos. Ele
manteve um frasco de Leyden e descobriu que as faíscas dele fariam com que os músculos da coxa de sapos dissecados se
contraíssem, mesmo que não houvesse vida neles. Outros haviam observado isso, mas Galvani descobriu algo novo quando
um bisturi de metal tocou o músculo no momento em que uma faísca foi retirada de uma jarra de Leyden próxima, o músculo se
contraiu mesmo que a faísca não fizesse contato direto.

Suspeitando que isso pudesse ser causado por uma carga elétrica induzida no bisturi, Galvani expôs os músculos da coxa
das rãs à atmosfera eletrificada de uma tempestade, suspendendo-os por ganchos de latão em uma grade de ferro. Ele obteve
suas contrações, mas descobriu que uma tempestade não era, afinal, necessária. Bastava que o músculo fosse tocado
simultaneamente por dois metais diferentes, existindo ou não uma faísca elétrica nas proximidades, e existindo ou não uma
tempestade.

Dois metais diferentes em contato simultâneo com um músculo podem não apenas produzir contrações musculares, mas
podem fazê-lo várias vezes. Parecia certo que a eletricidade estava de alguma forma envolvida e que o que quer que produzisse
a carga elétrica não era posto fora de ação após a descarga e a contração muscular; em vez disso, a carga poderia ser
regenerada espontaneamente várias vezes. Galvani assumiu que a fonte da eletricidade estava no músculo e falou de
"eletricidade animal".

Outros, no entanto, suspeitavam que a origem da carga elétrica pudesse estar na junção dos dois metais e não no músculo,
destacando-se nesse grupo o físico italiano Alessandro Volta (1745-1827). Em 1800, ele estudou combinações de metais
diferentes, ligados não por tecido muscular, mas por soluções simples que não
Machine Translated by Google

a imaginação pode ser considerada como tendo qualquer conexão com uma "força vital".

Ele usou correntes de metais diferentes; suspeitando com razão que ele poderia obter melhores resultados de várias fontes
combinadas do que de uma única. Ele primeiro usou uma série de tigelas meio cheias de água salgada (cada uma tomando o lugar de
um músculo de rã) e as conectou por pontes de tiras de metal, cada uma composta de cobre e zinco soldados juntos. A extremidade de
cobre foi mergulhada em uma tigela e a extremidade de zinco em outra. Cada tigela continha uma extremidade de cobre de uma ponte de
um lado e a extremidade de zinco de outra ponte do outro lado.

Essa "coroa de taças", como Volta a chamava, poderia ser usada como fonte de eletricidade, que se mostrou claramente originária
dos metais e não do tecido animal. Além disso, a eletricidade era produzida continuamente e podia ser retirada como um fluxo
contínuo.

Para evitar quantidades de fluido que poderiam espirrar e derramar, Volta experimentou outro dispositivo. Ele preparou pequenos
discos de cobre ou prata (moedas se saíram muito bem) e outros discos de zinco. Ele então os empilhou: prata, zinco, prata, zinco, prata, zinco e assim
Entre cada par de prata-zinco, ele colocou discos de papelão umedecidos com água salgada e que serviam ao propósito do músculo
de rã de Galvani ou da própria tigela de água salgada de Volta. Se o topo de tal "pilha voltaica" fosse tocado com um fio de metal, uma
faísca poderia então ser extraída do fundo, supondo que o fundo fosse tocado com a outra extremidade do mesmo fio. De fato, se a parte
superior e a inferior estivessem conectadas, uma corrente contínua fluiria através do fio.

A razão para isso não foi completamente compreendida por mais um século, mas baseou-se no fato de que os átomos de toda a
matéria incluem, como parte de sua estrutura interna, elétrons carregados negativamente e prótons carregados positivamente. A carga
elétrica produzida por uma pilha voltaica em operação contínua não é, portanto, verdadeiramente criada, mas está presente constantemente
na matéria. Para que uma pilha funcione basta que ela sirva, de alguma forma, para separar as cargas negativas e positivas já existentes.

Tal separação é descrita de forma mais simples quando apenas dois metais diferentes estão envolvidos. Imagine dois metais; diga zinco
e cobre, em contato. Cada metal contém elétrons, ligados por forças de maior ou menor extensão aos átomos do metal. As forças
que ligam os elétrons aos átomos de zinco são um pouco mais fracas do que aquelas que ligam os elétrons ao cobre. Na fronteira, então,
os elétrons tendem a deslizar do zinco para o cobre. O cobre, com seu aperto mais forte, arranca os elétrons, por assim dizer, do zinco.

Isso não continua por muito tempo, pois à medida que os elétrons entram no cobre, esse metal ganha uma carga negativa enquanto o zinco
Machine Translated by Google

passa a ter carga positiva. A transferência adicional de elétrons para longe da atração do zinco carregado positivamente e para a
força de repulsão do cobre carregado negativamente rapidamente se torna impossível, de modo que um equilíbrio é alcançado
enquanto a carga de cada metal ainda é extremamente pequena. Ainda assim, a carga é grande o suficiente para ser detectada e,
como as cargas diferentes foram separadas, uma diferença de potencial de contato foi estabelecida entre os dois metais.

Se a temperatura for alterada, a força que atrai os elétrons para os átomos também é alterada, mas geralmente em
quantidades diferentes para diferentes metais. Imagine uma longa tira de zinco e uma longa tira de cobre em contato apenas nas
duas extremidades (um termopar) e extremidade mantida em uma temperatura diferente. Há uma diferença de potencial de contato
em cada extremidade, mas os dois têm valores diferentes. O cobre pode ser capaz de capturar mais elétrons na extremidade A do
que em B, porque na temperatura da extremidade A, sua força de ligação de elétrons foi reforçada em maior extensão do que a do zinco.

Como a concentração de elétrons no cobre na extremidade A é maior do que no cobre na extremidade B, os elétrons fluem através do
cobre de A para B. Na extremidade B, agora estão presentes muitos elétrons para que o cobre retenha em sua temperatura
específica. Alguns dos elétrons deslizam para o zinco, portanto. Enquanto isso, na extremidade A, com alguns elétrons perdidos, o
cobre pode ganhar ainda mais do zinco.

O processo continua indefinidamente, com elétrons viajando da extremidade A para a extremidade B através do cobre e depois de volta.
de B até a extremidade A através do zinco, e isso continua enquanto a diferença de temperatura entre as duas extremidades
for mantida. Tal termoeletricidade foi observada pela primeira vez em 1821 pelo físico alemão Thomas Johann Seebeck (1770-
1831).

Possíveis aplicações práticas do fenômeno são difíceis de ver. A quantidade de corrente que flui através do
termopar varia diretamente com o tamanho da diferença de temperatura entre as duas extremidades; consequentemente,
um termopar pode ser usado como termômetro. De fato, se metais de alto ponto de fusão, como a platina, são usados, termopares
podem ser usados para medir a temperatura em faixas muito altas para termômetros comuns. Além disso, como correntes elétricas
muito pequenas podem ser facilmente detectadas e medidas, termopares podem ser usados para detectar fontes de calor muito
fracas; por exemplo, o que surge da lua ou de Vênus.

Células Químicas

A junção de metais diferentes por meio de uma solução condutora provoca uma situação análoga à de um
termopar, mas sem a necessidade de diferença de temperatura.
Machine Translated by Google

Suponha, por exemplo, que uma tira de zinco seja parcialmente inserida em uma solução de sulfato de zinco. O zinco tem
uma tendência distinta para entrar em solução. Cada átomo de zinco, à medida que vai para a solução, deixa dois elétrons para
trás, de modo que a barra de zinco ganha uma carga negativa. O átomo de zinco menos dois dos elétrons que normalmente carrega
tem uma carga positiva igual à carga negativa dos elétrons perdidos. Um átomo eletricamente carregado é chamado de íon, então
podemos resumir as coisas dizendo que o zinco no sulfato de zinco produz íons carregados positivamente que entram na solução,
enquanto o zinco remanescente ganha uma carga negativa.

Imagine também uma tira de cobre inserida em uma solução de sulfato de cobre. A solução de sulfato de cobre contém íons de
cobre carregados positivamente. Não há tendência de o metal de cobre formar mais íons de cobre. Pelo contrário, o inverso é
verdadeiro. Os íons de cobre tendem a retornar à haste carregando consigo sua carga positiva. Agora suponha que o ácido com sua
tira de zinco e o sulfato de cobre com sua tira de cobre estejam conectados por uma barreira porosa de modo que o líquido possa se
infiltrar lentamente de um lado para o outro. Temos uma tira de zinco carregando uma pequena carga negativa de um lado e uma tira
de cobre carregando uma pequena carga positiva do outro.

Se as duas tiras estiverem conectadas por um fio, os elétrons excedentes no zinco carregado negativamente fluem facilmente através do
fio na tira de cobre, que sofre um déficit de elétrons. À medida que o zinco perde seu excesso de elétrons e, portanto, sua
carga negativa, mais íons de zinco entram em solução para produzir um novo excesso de elétrons. Além disso, à medida que
o cobre ganha elétrons e perde sua carga positiva, íons de cobre mais carregados positivamente podem ser atraídos para a haste.

Em suma, os elétrons fluem do zinco para o cobre por meio do fio e, em seguida, fluem de volta do cobre para o zinco por meio do fio.
da solução. O fluxo continua em seu caminho fechado até que todo o zinco tenha se dissolvido ou todos os íons de cobre tenham
se estabelecido (ou ambos). No termopar, o fluxo de elétrons foi mantido por uma diferença de temperatura; em uma pilha voltaica,
foi mantida por uma reação química.

Embora o fluxo de elétrons através do fio seja do zinco para o cobre, os eletricistas, seguindo a suposição errada de Franklin,
aceitam a convenção de que o fluxo de corrente é do cobre (o pólo positivo) para o zinco (o pólo negativo).

Uma geração após o experimento de Volta, Faraday denominou a haste de metal que servia de pólos quando colocada em
soluções, eletrodos, das palavras gregas que significam "rota da eletricidade". O pólo positivo ele chamou de ânodo ("rota superior")
e o pólo negativo de cátodo ("rota inferior"), uma vez que ele visualizou a eletricidade fluindo ladeira abaixo de ânodo para cátodo.
Machine Translated by Google

Diferentes substâncias químicas dispostas de modo a dar origem a um fluxo constante de eletricidade formam uma célula química, ou
uma célula elétrica, ou uma célula eletroquímica. Todos os três nomes são usados. Muitas vezes, como nos experimentos originais de Volta,
são usados grupos de células. Grupos de objetos semelhantes são chamados de "baterias" e, por essa razão, grupos de células, como a
pilha voltaica, são chamados de baterias elétricas, ou simplesmente baterias. (Na conversação comum, até mesmo uma única célula química
pode ser chamada de "bateria".)

Com a descoberta de Volta tornou-se possível estudar fluxos de corrente elétrica estáveis e de longa duração. Era popular no início
chamar esse fenômeno de "galvanismo" ou "eletricidade galvânica", em homenagem a Galvani. No entanto, é mais lógico chamar o estudo;
eletrodinâmica ("eletricidade em movimento") em oposição à eletrostática. O estudo dessas reações químicas que dão origem a correntes
elétricas é, naturalmente, eletroquímica.

As correntes elétricas foram colocadas em uso surpreendente quase de uma vez. Uma vez que um fluxo de elétrons é produzido como resultado de
reações, não é surpreendente que os elétrons de uma corrente, encaminhados através de uma mistura de substâncias químicas, sirvam
para iniciar uma reação química. Além disso, as reações químicas que podem ser facilmente realizadas por esse método podem ser apenas
aquelas que se mostram muito difíceis de realizar de outras maneiras.

Em 1800, apenas seis semanas após o relatório inicial de Volta, dois cientistas ingleses, William Nicholson (1753-1815) e Anthony
Carlisle (1768-1840), passaram uma corrente elétrica pela água e descobriram que podiam decompô-la em hidrogênio e oxigênio.
Este processo de provocar uma reação química através de uma corrente elétrica é denominado eletrólise ("afrouxamento por
eletricidade") porque muitas vezes, como no caso da água, a reação serve para quebrar uma molécula em substâncias mais simples.

Em 1807 e 1808, o químico inglês Humphrey Davy (1778-1829), usando uma bateria de potência sem precedentes, conseguiu decompor
os compostos líquidos de certos metais muito ativos. Ele liberou os próprios metais livres e foi o primeiro a formar metais como sódio,
potássio, cálcio, estrôncio, bário e magnésio – um feito que até então estava além das habilidades não elétricas dos químicos.

O assistente de Davy, Faraday, passou a estudar a eletrólise quantitativamente e mostrou que a massa da substância separada pela
eletrólise estava relacionada à quantidade de eletricidade que passava pelo sistema. As leis da eletrólise de Faraday (que serão abordadas
com algum detalhe no Volume III) contribuíram muito para ajudar a estabelecer a visão atomística da matéria então introduzida pelo químico
inglês John Dalton (1766-1844), No curso do próximo século, eles ajudaram a guiar os físicos para a descoberta do elétron e a elaboração da
estrutura interna do átomo.
Machine Translated by Google

Como resultado dos estudos de Faraday, um coulomb pode ser definido não apenas em termos de quantidade total de carga, ou de carga total
corrente (algo não muito fácil de medir com precisão), mas como a quantidade de corrente que provoca uma certa quantidade fixa de
reação química (e essa última poderia ser medida com bastante facilidade). Por exemplo, um coulomb de corrente elétrica passado por
uma solução de um composto de prata provocará a formação de 1,18 miligramas de prata metálica.

Os químicos estão particularmente interessados em uma massa de 107,87 gramas de prata, pois isso é algo que eles chamam de "peso
grama-atômico de prata". Portanto, eles estão interessados no número de coulombs de corrente necessários para produzir 107,87 gramas
de prata. Mas 107,87 gramas é igual a 107.870 miligramas, e dividindo isso por 1,18 miligramas (a quantidade de prata produzida por um
coulomb), descobrimos que são necessários cerca de 96.500 coulombs para depositar um peso grama-atômico de prata de uma solução de
prata. composto. Por esta razão, 96.500 coulombs são referidos como 1 faraday de corrente.

Um coulomb de eletricidade depositará uma quantidade fixa de prata (ou provocará uma quantidade fixa de qualquer reação
química particular) quer a corrente passe pela solução rápida ou lentamente. No entanto, a taxa na qual a prata é depositada (ou a reação
realizada) depende do número de coulombs que passam pela solução por unidade de tempo. Seria natural falar da taxa de fluxo da corrente
(ou da intensidade da corrente) como tantos coulombs por segundo.
Um coulomb por segundo é chamado de 1 ampere, em homenagem ao físico francês André Marie Ampere (1775-1836), cujo trabalho será
descrito mais adiante. O ampère, então, é a unidade de intensidade da corrente.

Se, então, uma corrente que flui através de uma solução de composto de prata deposita 1,18 miligramas de prata metálica cada
segundo, podemos dizer que 1 ampere de corrente está fluindo através da solução.

Resistência

A taxa de fluxo de corrente elétrica entre o ponto A e o ponto B depende da diferença de potencial elétrico entre esses dois
pontos. Se uma diferença de potencial de 20 volts serve para estabelecer uma intensidade de corrente de 1 ampere entre esses dois
pontos, uma diferença de potencial de 40 volts produzirá uma intensidade de corrente de 2 amperes e uma diferença de potencial de
10 volts, uma de 0,5 amperes.

Essa proporcionalidade direta entre a diferença de potencial e a intensidade da corrente só é verdadeira se a corrente passar por um
vitória particular sob condições particulares. Se a natureza do caminho sobre o qual a corrente flui é alterada, a relação entre a
diferença de potencial e a intensidade da corrente também é alterada.
Machine Translated by Google

O alongamento de um fio, por exemplo, reduzirá a intensidade da corrente produzida nele por uma determinada diferença de potencial. Se 20
volts produzirá uma intensidade de corrente de 1 ampere em um fio de um metro de comprimento, o mesmo, 20 volts produzirá apenas
0,5 amperes em um fio da mesma composição e espessura, mas com dois metros de comprimento. Por outro lado, se o fio for engrossado, a
intensidade da corrente produzida por uma dada diferença de potencial será aumentada como a área da seção transversal ou, o que é a mesma
coisa, como o quadrado do diâmetro do fio. Se 20 volts produzirem uma corrente de 1 ampere através de um fio de um milímetro de espessura,
produzirá uma corrente de 4 amperes através de um comprimento igual de dois milímetros de espessura.

Então, também, a natureza da substância que conduz a eletricidade conta. Se 20 volts produz uma corrente de 3 amperes em um
um fio de cobre específico, ele produziria uma corrente de 2 amperes em um fio de ouro do mesmo comprimento e espessura, e uma corrente de 1-
corrente de amperes através de um fio de tungstênio do mesmo comprimento e espessura. Através de uma fibra de quartzo do mesmo
comprimento e espessura, uma intensidade de corrente de 0,00000000000000000000000003 amperes seria produzida – tão pequena que
poderíamos dizer nenhuma.

Esse tipo de coisa foi investigado pelo físico alemão Georg Simon Ohm (1787-1854). Em 1826, ele sugeriu que a intensidade da corrente
produzida em uma determinada via sob a influência de uma determinada diferença de potencial dependia da resistência dessa via. Dobrar o
comprimento de um fio dobrava sua resistência; dobrar seu diâmetro reduziu a resistência a um quarto do valor original. A substituição do
cobre pelo tungstênio aumentou três vezes a resistência, e assim por diante.

A resistência pode ser medida como a razão entre a diferença de potencial e a intensidade da corrente. se nós simbolássemos
diferença de potencial como E (para "força eletromotriz"), intensidade de corrente como I e resistência como R, então podemos dizer:

R = E/I (Equação 11-1)

Este é o mínimo de Ohm.


Por transposição de termos, a lei de Ohm também pode ser escrita como I = E/R e como E = IR.

A resistência é medida, como se poderia esperar, em ohms. Ou seja, se 1 volt de diferença de potencial produz uma intensidade de
corrente de 1 ampere através de algum caminho condutor, então a resistência desse caminho é de 1 ohm. Da Equação 11-1, aplicada às
unidades dos termos envolvidos, vemos que 1 ohm pode ser definido como 1 volt por ampere.

Às vezes é conveniente pensar na condutância de uma substância em vez da resistência. A condutância é


Machine Translated by Google

o recíproco da resistência, e a unidade de condutância foi (em um raro acesso de capricho científico) definida como o mho, que é
"ohm" soletrado para trás.

Um caminho com uma resistência de 1 ohm tem uma condutância de mho. Uma resistência de 3 ohms implica uma condutância de 1/3
mhos; uma resistência de 100 ohms implica uma condutância de 1/100 mhos, e assim por diante. Se simbolizamos a condutância
por C, da Equação 11-1, dizemos que:

C=1/R=I/R (Equação 11-2)

de modo que 1 mho é igual a 1 ampere por volt.

Para qualquer substância, a resistência depende do comprimento e do diâmetro da via condutora (entre outras coisas). Em geral,
a resistência varia diretamente com o comprimento (L) e inversamente com a área da seção transversal (A) da via. A resistência é,
portanto, proporcional a L/A. Se introduzirmos uma constante de proporcionalidade (a letra grega "rho"), podemos dizer que:

R = (rho) L/A (Equação 11-3)

A constante de proporcionalidade p é a resistividade, e cada substância tem uma resistividade característica para si mesma. Se nós resolvermos
para resistividade reorganizando a Equação 11-3, descobrimos que:

(rho) = RA/L (Equação 11-4)

Já que no sistema mks, a unidade de R é o ohm, a de A é o metro quadrado (ou metros) e a de L é o metro. A unidade de (rho), de acordo
com a Equação 11-4, seria ohm-metros por metro, ou ohm-metro. Quanto melhor o condutor, menor a resistividade. O melhor condutor
conhecido é o metal prata, que a 0 0C tem uma resistividade de cerca de 0,0000000152, ou 1,52 X 10-8 ohm-metros. O cobre está logo
atrás com 0,0000000154, enquanto o ouro e o alumínio vêm em seguida com 0,0000000227 e 0,0000000263, respectivamente. Em geral, os
metais têm baixa resistividade e, portanto, são excelentes condutores. Mesmo Nichrome, uma liga de níquel, ferro e cromo, que tem uma
resistividade excepcionalmente alta para um metal, tem uma resistividade de apenas 0,000001 ohm-metros. Essa baixa resistividade dos
metais ocorre porque sua estrutura atômica é tal que cada átomo tem um ou dois elétrons que estão fracamente ligados. A carga pode,
portanto, ser facilmente transferida através do metal por meio desses elétrons.
Machine Translated by Google

Substâncias com estruturas atômicas tais que todos os elétrons são mantidos firmemente no lugar têm resistividades muito
altas. Mesmo diferenças de potencial tremendas podem forçar muito pouca corrente através deles. Substâncias com resistividades
de mais de um milhão de ohm-metros são, portanto, não condutoras. A madeira de bordo tem uma resistividade de 300 milhões de
ohm-metros; vidro uma resistividade de cerca de um trilhão; enxofre um de um quatrilhão; e quartzo algo como 500 quatrilhões.

Entre os condutores de baixa resistividade e os não condutores de alta resistividade, existe um grupo de substâncias
caracterizadas por resistividades moderadas, superiores à do Nicromo mas inferiores à da madeira. Os exemplos mais
conhecidos são os elementos germânio e silício. A resistividade do germânio é de 2 ohm-metros a 0 0C e a do silício é de
30.000. Substâncias como germânio e silício são, portanto, chamadas de semicondutores.

Observe que as resistividades dadas acima são para 0 0C. O valor muda à medida que a temperatura aumenta, aumentando no
caso dos metais. Pode-se imaginar as coisas dessa maneira. Os elétrons que se movem através de um condutor são obrigados a
encontrar os átomos da substância como barreiras ao movimento, e alguma energia elétrica é perdida ao superar essa barreira.
Esta perda de energia é devido à resistência do meio. Se a temperatura do condutor aumenta, os átomos do condutor vibram mais
rapidamente e os elétrons têm mais dificuldade em passar; consequentemente, a resistividade aumenta. (Compare sua própria
situação, por exemplo, abrindo caminho primeiro por uma multidão silenciosa e depois pela mesma multidão quando ela está
circulando.)

Se a resistividade é um determinado valor em 0 0C p(0), ela aumenta em uma pequena fração fixa dessa quantidade p(0)
(alfa) para cada grau de aumento na temperatura (t). O aumento da resistividade para qualquer temperatura é, portanto, p(0)(alfa)
(t). A resistividade total a essa temperatura p(t) é, portanto, igual à resistividade a 0 0C mais o aumento, ou:

p(t) = p(0) p(0) (alfa) (t) = p(0) [1 + (alfa) t] (Equação 11-5)

A constante, (alfa), que é o aumento fracionário da resistividade por grau, é o coeficiente de resistência da temperatura.

Enquanto o coeficiente de resistência da temperatura permanecer inalterado, a resistência real de um determinado condutor
varia com a temperatura de uma maneira muito simples. A partir da resistência de um fio de metal de alto ponto de fusão de
determinadas dimensões, é possível estimar altas temperaturas.
Machine Translated by Google

Para semicondutores, o coeficiente de resistividade da temperatura é negativo - isto é, a resistência diminui à medida que a
temperatura aumenta. O pedreiro para isso é que, à medida que a temperatura sobe, a retenção do material em alguns de seus
elétrons é enfraquecida; mais estão disponíveis para movimentação e transferência de carga. O aumento no número de elétrons
disponíveis mais do que compensa a resistência adicional oferecida pelos átomos de vibração mais forte, de modo que a resistência geral diminu

Se o coeficiente de resistência da temperatura dos condutores fosse realmente constante, seria de esperar que a resistência
diminuiria para zero em temperaturas um pouco acima do zero absoluto. No entanto, em baixas temperaturas, a resistividade diminui
lentamente e a taxa na qual a resistência diminui à medida que a temperatura cai diminui de tal forma que, no início do século XX, os
físicos estavam certos de que a resistência de um metal diminuiria para zero apenas a uma temperatura de zero absoluto e nem um
pouco antes. Isso parecia fazer sentido, pois somente no zero absoluto os átomos metálicos perderiam completamente sua energia
vibracional e não ofereceriam nenhuma resistência ao movimento dos elétrons.

No entanto, medições reais de resistência em temperaturas próximas ao zero absoluto só se tornaram possíveis depois que os holandeses
o físico Heike Kamerlingh-Onnes (1853-1926) conseguiu liquefazer o hélio em 1908. De todas as substâncias, o hélio tem o ponto
de liquefação mais baixo, 4,2 0K, e é somente no hélio líquido que o estudo de temperaturas ultrabaixas é prático. Em 1911,
Kamerlingh-Onnes descobriu, para sua surpresa, que a resistência do mercúrio, que estava crescendo cada vez menos conforme
a temperatura caía, de repente declinou vertiginosamente para zero a uma temperatura de 4,16 0K.

Vários outros metais mostram essa propriedade de supercondutividade em temperaturas de hélio líquido. Existem algumas
ligas, de fato, que se tornam supercondutoras em temperaturas de hidrogênio quase líquido. Uma liga de nióbio e estanho permanece
supercondutora até uma temperatura de 18,1 0K. Outros, como o titânio, tornam-se supercondutores apenas em temperaturas abaixo
de 0,39 0K. Embora até 900 substâncias tenham sido encontradas com propriedades supercondutoras na vizinhança do zero absoluto,
ainda existem muitas substâncias (incluindo os realmente bons condutores em temperaturas normais, como prata, cobre e ouro) que,
até agora, mostraram nenhuma supercondutividade mesmo nas temperaturas mais baixas testadas.

Energia elétrica

É preciso energia para manter uma corrente elétrica contra a resistência. A quantidade de energia necessária varia diretamente
com a quantidade total de corrente enviada através da resistência. Também varia diretamente com a intensidade da corrente. Desde,
Machine Translated by Google

para uma dada resistência, a intensidade da corrente varia diretamente com a diferença de potencial (como é exigido pela lei de Ohm),
podemos dizer que a energia representada por uma determinada corrente elétrica é igual à quantidade total de carga transportada
multiplicada pela diferença de potencial.

Como a energia pode ser transformada em trabalho, vamos simbolizar a energia elétrica como W. Isso nos permite manter E para
diferença de potencial, e podemos deixar e representar a quantidade total de carga transportada. Podemos então dizer:

W = EQ (Equação 11-6)

A unidade de diferença de potencial é o volt e a da carga total, o coulomb. Se a energia é igual à diferença de potencial
multiplicada pela carga total transferida, a unidade de energia deve ser igual a volts multiplicada por coulombs. No entanto, um volt foi
definido como um joule por coulomb. As unidades de energia devem, portanto, ser (joule/coulomb) (coulomb), ou joules.
O joule na unidade de energia mks, e podemos dizer, então, que quando 1 coulomb de carga elétrica é transportado através de uma
resistência sob uma diferença de potencial de 1 volt, então 1 joule de energia é gasto e pode ser convertido em outras formas de energia
como trabalho, luz ou calor.

Muitas vezes, é mais útil investigar a taxa na qual a energia é gasta (ou trabalho realizado) do que a energia total (ou trabalho
total). Se dois sistemas consomem a mesma quantidade de energia ou realizam a mesma quantidade de trabalho, mas um faz isso
em um minuto e o outro em uma hora, a diferença é claramente significativa.

A taxa na qual a energia é gasta ou o trabalho realizado é chamado de potência. Se considerarmos a energia gasta por segundo,
as unidades de potência se tornam joules por segundo. Um joule por segundo é definido como 1 watt, em homenagem ao engenheiro
escocês James Watt (1736-1819), cujo trabalho foi tratado anteriormente.

Se 1 watt é igual a 1 joule por segundo e 1 joule é igual a 1 volt-coulomb (como a Equação 11-6 indica), então 1 watt
pode ser considerado igual a 1 volt-coulomb por segundo. Mas 1 coulomb por segundo é igual a 1 ampere; portanto, um volt-coulomb
por segundo é equivalente a um volt-ampere, e podemos concluir que 1 watt é igual a 1 volt-ampere. O que isso significa é que uma
corrente, impulsionada por uma diferença de potencial de 1 volt e possuindo uma intensidade de 1 ampere, possui uma potência de 1
watt. Em geral, a potência elétrica é determinada multiplicando-se a diferença de potencial e a intensidade da corrente.
Se simbolizarmos a potência como P, podemos dizer:

P = EI (Equação 11-7)
Machine Translated by Google

Um aparelho elétrico é normalmente avaliado em watts; o que é indicado, em outras palavras, é sua taxa de consumo de energia elétrica
energia. Estamos mais familiarizados com isso no caso de lâmpadas. Aqui a energia gasta é usada para aumentar a temperatura do
filamento dentro da lâmpada. Quanto maior a taxa de gasto de energia, maior a temperatura atingida e mais intensa é a luz irradiada. É
por esta razão que uma lâmpada de 100 watts é mais brilhante do que uma lâmpada de 40 watts.
-e mais quente ao toque, também.

A diferença de potencial da corrente doméstica é geralmente na vizinhança de 120 volts, e isso permanece constante.
Da Equação 11-7, vemos que I = P/E. Para uma lâmpada de 100 watts funcionando com corrente doméstica, então, I = 100/120 = 5/6. A intensidade
da corrente em uma lâmpada de 100 watts é, portanto, 5/6 amperes. A partir disso, podemos dizer imediatamente qual deve ser a resistência (R)
da lâmpada. Uma vez que, pela lei de Ohm, R = E/I. R = 120 dividido por 5/6, ou 144 ohms.

O watt é a unidade de potência no sistema mks, mas não é a unidade mais familiar. Com bastante frequência, utiliza-se o
quilowatt, que é igual a 1000 watts. Completamente fora do sistema de unidades mks está a potência, que, pelo menos nos Estados Unidos,
mantém sua popularidade como medida da potência dos motores de combustão interna. A potência é uma unidade maior que o watt; 1
cavalo de potência = 746 watts. Segue-se que 1 quilowatt = 1,34 cavalos de potência.

Como potência é energia por tempo, energia deve ser potência multiplicada por tempo. Essa relação (como sempre) é transferida para as
unidades. Como 1 watt = 1 joule/segundo, 1 joule = 1 watt-segundo. O watt-segundo é, portanto, uma unidade de energia mks perfeitamente boa
- tão boa quanto o joule ao qual é equivalente. Uma unidade maior de energia nesta classe é o quilowatt-hora.
Como um quilowatt é igual a 1000 watts e uma hora é igual a 3600 segundos, um quilowatt-hora é igual a (1000)(3600) watt-segundos, ou
joules. Em outras palavras, 1 quilowatt-hora = 3.600.000 joules. Uma lâmpada de 100 watts (0,1 quilowatts) queimando por 24 horas gasta 2,4
quilowatts-hora de energia. A conta de eletricidade doméstica geralmente é baseada no número de quilowatts-hora de energia consumida.

Pela lei de Ohm (Equação 11-1) sabemos que E=IR. Combinando isso com a Equação 11-7, encontramos que:

2
P = eu R (Equação 11-8)

Em outras palavras, a taxa na qual a energia é gasta na manutenção de uma corrente elétrica varia diretamente com a
resistência envolvida, e também com o quadrado da intensidade da corrente.
Machine Translated by Google

Há momentos em que é desejável gastar o mínimo de energia possível no mero transporte de corrente, como na condução
da corrente da bateria (ou outro ponto de origem) até o ponto em que a energia elétrica será convertida em alguma outra fonte
útil. forma de energia (digamos a lâmpada, onde parte dela será convertida em luz). Nessa facilidade, queremos que a resistência
seja a menor possível. Para um determinado comprimento e espessura de fio, a resistência mais baixa é encontrada no cobre e
na prata. Como o cobre é muito mais barato dos dois, é o cobre que é comumente usado como fiação elétrica.

Para o transporte de eletricidade de longa distância, mesmo o cobre se torna proibitivamente caro, e a terceira escolha, o
alumínio muito mais barato, pode ser usado. Na verdade, isso não é nada ruim, embora a resistividade do alumínio seja 1,7
vezes maior que a do cobre. A resistividade mais alta pode ser equilibrada pelo fato de que o alumínio é apenas um terço tão
denso quanto o cobre, então um comprimento de fio de alumínio de 1 milímetro de espessura não é mais pesado que o mesmo
comprimento de fio de cobre de 0,6 milímetros de espessura. A resistência diminui com o aumento da área da seção transversal
do fio; consequentemente, o fio de alumínio mais espesso na verdade possui menos resistência do que o mesmo peso do fio
de cobre mais fino (e consideravelmente mais caro).

Por outro lado, às vezes é desejável que a maior parte possível da energia elétrica seja convertida em calor, como em ferros
elétricos, torradeiras, fogões, secadores e assim por diante. Aqui, gostaríamos de ter a resistência comparativamente alta (mas
não tão alta que uma intensidade de corrente razoável não possa ser mantida). O uso é frequentemente feito de ligas de alta
resistência, como o nicromo.

Dentro de uma lâmpada, temperaturas muito altas são particularmente desejadas, temperaturas altas o suficiente para
provocar a radiação de quantidades consideráveis de luz visível. São poucos os condutores elétricos capazes de suportar as
altas temperaturas exigidas; um deles é o tungstênio. O tungstênio tem um ponto de fusão de 3370 0C, o que é suficiente para o propósito.
No entanto, sua resistividade é apenas 1/20 da do Nicromo. Para aumentar a resistência do tungstênio usado, o filamento da
lâmpada deve ser fino e longo.

(Na alta temperatura do filamento de tungstênio incandescente, o tungstênio se combinaria imediatamente com o oxigênio do
ar e ser consumido. Por esta razão, as lâmpadas foram evacuadas nos primeiros dias de iluminação incandescente.
No vácuo, no entanto, os fios finos de tungstênio evaporaram muito rapidamente e tiveram uma vida útil limitada. Para
combater isso, tornou-se costume encher o bulbo com um gás inerte, primeiro nitrogênio e depois argônio. Esses gases não
reagiram nem mesmo com o tungstênio quente e branco, e a pressão do gás minimizou a evaporação e estendeu a vida útil das lâmpadas.
Machine Translated by Google

Circuitos

Suponha que uma corrente flua através de um condutor com uma resistência (R) de 100 ohms. Depois de passar por ele,
passa-se por outro com resistência (R') de 50 ohms e depois por outro com resistência (R") de 30 ohms.
Falaremos de cada um desses itens meramente como "resistências". e para simplificar vamos supor que a resistência dos
materiais condutores, exceto esses três itens, é desprezível e pode ser ignorada.

Essas resistências estão em série: toda a corrente deve passar primeiro por uma, depois pela segunda e depois pela terceira.
É claro que o efeito é o mesmo que se a corrente tivesse passado por uma única resistência de 100 + 50 + 30, ou 180 ohms.
Sempre que os itens são conectados em série para que uma corrente passe por todos, a resistência total é igual à soma das
resistências separadas.

Se estivermos usando corrente doméstica com uma diferença de potencial de 120 volts, e se assumirmos que R, R' e R" são
as únicas resistências pelas quais a corrente está passando, podemos usar a lei de Ohm para encontrar a intensidade da corrente
que passa pelo A resistência total é de 180 ohms, e como I=E/R, a intensidade da corrente é igual a 120 volts divididos por 180
ohms, ou 2/3 amperes. Toda a corrente passa por todas as resistências, e sua intensidade deve ser o mesmo por toda parte.

A lei de Ohm pode ser aplicada a parte de um sistema através do qual a eletricidade está fluindo, bem como a todo o sistema.
Por exemplo, qual é a diferença de potencial na primeira de nossas três resistências, R? Sua resistência é dada como 100
ohms, e calculamos que a intensidade da corrente dentro dela (assim como dentro de todas as outras partes do sistema em
série) é de 2/3 amperes. Pela lei de Ohm, E=IR, então a queda de potencial na primeira resistência é 100 ohms multiplicada por
2/3 amperes, ou 66 2/3 volts. Através da segunda resistência, R', seriam 50 ohms multiplicados por 2/3 amperes, ou 33 1/3 volts.
Através da terceira resistência, R", é 30 ohms tempo 2/3 amperes, ou 20 volts. A diferença de potencial total é 66 2/3 + 33 1/3 + 20,
ou 12O volts. Sempre que os itens estão em série, o a diferença de potencial total entre todos é igual à soma das diferenças de
potencial entre cada um separadamente.

Suponha que uma quarta resistência seja adicionada à série - uma, digamos, de 60.000.000.000.000 ohms. As outras
resistências acrescentariam tão pouco a isso que poderiam ser ignoradas. A intensidade da corrente seria de 120 volts divididos
por 60 trilhões de ohms, ou dois trilionésimos de uma intensidade de ampere tão pequena que poderíamos dizer que nenhuma corrente está f
Machine Translated by Google

Se dois condutores estiverem separados por um entreferro considerável, a corrente não fluirá, pois o entreferro tem uma
resistência extremamente alta. Para que a corrente flua através dos condutores, não deve haver entreferros significativos. A corrente
deve viajar ao longo de um caminho ininterrupto de materiais razoavelmente condutores, desde um pólo de uma célula química (ou
outra fonte de eletricidade) até o outro pólo. O caminho, tendo saído da célula, deve circular de volta a ela, então se fala de circuitos elétricos.

Se um entreferro for inserido em qualquer lugar de um circuito composto de objetos em série, uma alta resistência é adicionada
e a corrente praticamente cessa. O circuito está "aberto" ou "quebrado". Se o entreferro for removido, a corrente se enfileira
novamente e o circuito é "fechado". As tomadas elétricas na parede não envolvem fluxo de corrente se deixadas desconectadas,
porque existe um espaço de ar entre os dois "terminais". Este entreferro é fechado quando um aparelho é conectado. Entretanto, um
aparelho geralmente é equipado com um entreferro dentro de si mesmo, de modo que mesmo depois de conectado, a corrente não
fluirá. É somente quando um interruptor é acionado ou um botão é girado, e esse segundo entreferro também é fechado, que uma corrente significa

Pode ser desejável formar uma abertura de ar repentinamente. Existem condições sob as quais a intensidade da corrente
através de um determinado circuito pode atingir alturas indesejáveis. À medida que a intensidade da corrente aumenta, a taxa de
gasto de energia e, portanto, a taxa na qual o calor pode se desenvolver, aumenta com o quadrado dessa intensidade (veja a Equação
11-8). O calor pode ser suficiente para danificar um aparelho elétrico ou incendiar materiais inflamáveis na vizinhança,

Para evitar isso, costuma-se incluir nos circuitos algum ponto crucial em série, uma tira de liga de baixo ponto de fusão.
Um sinônimo para "fundir" é "fusível", então um material de baixo ponto de fusão é uma "liga fusível". O pequeno dispositivo que
contém uma tira dessa liga é, portanto, um fusível elétrico. Um aumento na intensidade da corrente além de algum limite marcado no
fusível (um limite de 15 amperes em um tipo comum de fusível doméstico, por exemplo) produzirá calor suficiente para derreter a liga
e introduzir um espaço de ar no circuito. A corrente é interrompida até que o fusível seja substituído, é claro, se o fusível for "queimado"
repetidamente, é aconselhável verificar o circuito para ver o que está errado.

Quando os objetos estão em série dentro do circuito, toda a corrente elétrica que passa pelo primeiro passa por cada um dos objetos
sucessivos consecutivamente. É possível, no entanto, que a corrente tenha rotas alternativas para ir do ponto A ao ponto B, que podem,
por exemplo, ser conectadas separadamente pelas três resistências diferentes, R, R' e R", que mencionei anteriormente como sendo de
100, 50 e 30 ohms respectivamente. A corrente flui em resposta à diferença de potencial entre os pontos A e B, e isso tem que ser o
mesmo, independentemente da rota tomada pela corrente. do décimo segundo andar ao décimo andar de um edifício, a mudança no
potencial gravitacional - dois andares - é a mesma, quer a descida seja por meio de escadas, elevador ou corda suspensa na escada.)
Machine Translated by Google

Como em tais circunstâncias as três resistências são geralmente mostradas, em diagramas, em arranjo paralelo, diz-se que
estão em paralelo. Podemos então dizer que quando objetos são colocados em paralelo dentro de um circuito elétrico, a queda de
potencial é a mesma em cada objeto.

É fácil calcular a intensidade da corrente em cada resistência nessas circunstâncias, pois a diferença de potencial e a
resistência são conhecidas para cada uma. Se for usada corrente doméstica, com uma diferença de potencial de 120 volts, essa
é a diferença de potencial em cada uma das três resistências em paralelo. Como pela lei de Ohm, I = E/R, a intensidade da
corrente na primeira resistência é 120/100, ou 1,2 amperes, a da segunda é 120/50, ou 2,4 amperes, e a da terceira é 120/30, ou 4
amperes.

Como você vê, existe uma relação inversa entre intensidade de corrente e resistência entre objetos em paralelo. Como o
recíproco da resistência é a condutância (C = 1/R), também podemos dizer que a intensidade da corrente em objetos em paralelo
é diretamente proporcional às condutâncias dos objetos.

Imagine um longo fio que se estende do ponto A ao ponto B e disposto em um circuito quase fechado de modo que os
pontos A e B, embora separados por vários metros de fio, também estejam separados por 1 centímetro de entreferro. O fio e o
entreferro podem ser considerados como estando dispostos em paralelo. Isto é, a corrente pode fluir de A para B através do fio
longo ou através do entreferro curto. A resistência da coluna de ar entre os pontos é, no entanto, muito maior do que a do fio
longo, e apenas uma intensidade de corrente muito pequena será encontrada no ar entre os dois pontos. Para todos os efeitos
práticos, toda a corrente flui através do fio.

Se o entreferro for reduzido, entretanto, a resistência total da coluna de ar encurtada entre A e B diminui, e cada vez mais
intensidade de corrente é encontrada ali. A passagem de corrente serve para expulsar elétrons dos átomos no ar, aumentando
assim a capacidade do ar de conduzir eletricidade por meio desses elétrons e dos íons carregados positivamente que os elétrons
deixam para trás. Como resultado, a resistência através do entreferro diminui ainda mais. Em algum ponto crucial, esse ciclo
vicioso de corrente causando íons causando mais corrente causando mais íons aumenta rapidamente ao ponto em que a corrente
pode ser transferida através do ar em grande quantidade, produzindo a faísca e crepitação que atraiu tanta atenção no caso do
Leyden jarra. Como a corrente pega o atalho do ponto A ao B, falamos de um curto-circuito. O fio de A a B, mais quaisquer
aparelhos ou outros objetos em série ao longo desse fio, não está mais na rota da corrente e a eletricidade foi desligada.

Quando um curto-circuito ocorre de modo que uma parte considerável do que anteriormente era o circuito total é cortada, há
Machine Translated by Google

um declínio súbito na resistência total do circuito. A resistência através do entreferro de centelha agora é muito baixa, provavelmente
muito menor do que a do fio e seus aparelhos. Existe uma intensidade de corrente correspondentemente maior no que resta do circuito
e, consequentemente, mais calor se desenvolve. O melhor que pode acontecer é que o fusível queime. Se houver algum atraso nisso, as
faíscas que se formam no entreferro podem incendiar qualquer coisa inflamável que esteja nas proximidades.

Para minimizar a possibilidade de curtos-circuitos, costuma-se enrolar os fios em isolamento – seda, borracha, plástico e assim por diante.
Essas substâncias não só possuem resistividades maiores que o ar, mas, por serem sólidas, limitam a aproximação de dois fios, que
permanecem sempre separados (mesmo quando pressionados com força) pela espessura do isolamento. No entanto, quando o isolamento
está desgastado e aparecem falhas ou rachaduras, os curtos-circuitos tornam-se muito possíveis.

Se voltarmos às nossas três resistências em paralelo, podemos perguntar qual é a resistência total do sistema. Conhecemos a
intensidade total da corrente no sistema, pois essa é claramente a soma das intensidades da corrente em cada parte do sistema. A
intensidade total da corrente no caso particular que estamos considerando seria 1,2 + 2,4 + 4,0 = 7,6 amperes. A diferença de potencial
de A para B em qualquer uma ou todas as rotas em paralelo é de 120 volts. Como, pela lei de Ohm, R = E/I, a resistência total de A a B é
de 120 volts dividida pela intensidade total da corrente, ou 7,6 amperes. A resistência total, então, é 120/7,6, ou um pouco menos de 16
ohms.

Observe que a resistência total é menor que a de qualquer uma das três resistências tomadas separadamente. Para ver por que isso
deve ser, considere a relação da lei de Ohm, R(t) = E / I (t), aplicada a um conjunto de objetos em paralelo. Aqui R(t) representa
a resistência total e I, a intensidade total da corrente; E, é claro, é o mesmo se um dos objetos ou todos eles são tomados. A intensidade
de corrente é igual à soma das intensidades de corrente (I, I' e I") nos itens individuais.
Podemos então dizer que:

R (t) = E / [I + I' + I''] (Equação 11-9)

Se tomarmos o recíproco de cada lado, então:

1/R(t) = [I + I' + I''] / E = I / E + I' / E + I'' / E (Equação 11-10)

Pela lei de Ohm, esperamos que IE seja igual a R. E seja igual a R', e I"·E seja igual a R", as resistências individuais dos
itens em paralelo. Portanto:
Machine Translated by Google

1/R(t) = 1/R + 1/R' + 1/R'' (Equação 11-11)

Estamos lidando com recíprocos na Equação 11-11. Podemos dizer, por exemplo, que o recíproco da resistência total é a
soma dos recíprocos das resistências individuais. Acontece que quanto menor o valor de uma quantidade, maior o valor de
sua recíproca e vice-versa. Assim, uma vez que o recíproco da resistência total (1/R') é a soma dos recíprocos das resistências
separadas e, portanto, maior do que qualquer um dos recíprocos das resistências separadas, a própria resistência total R(t)
deve ser menor do que qualquer uma das resistências separadas.

Uma propriedade importante dos arranjos em paralelo é esta: se houver uma interrupção no circuito em algum lugar do
arranjo em paralelo, a eletricidade cessará apenas naquele ramo do arranjo em que ocorre a quebra do ladrilho. A corrente
continua como nas demais rotas de A para B. Como os arranjos paralelos são muito comuns, uma determinada tomada elétrica
pode ser usada mesmo que todas as outras permaneçam abertas. Arranjos paralelos também explicam por que uma lâmpada
pode queimar (formando um espaço de ar no lugar do filamento) sem fazer com que todas as outras lâmpadas se apaguem.

Baterias

Ao longo da primeira metade do século XIX, a principal fonte de corrente elétrica era a célula química e, embora há
muito tenha ganhado um lugar de destaque no que diz respeito à carga de trabalho, continua popular e, de fato, praticamente
insubstituível para muitos. tarefas especiais.

Um tipo de célula elétrica muito comum hoje em dia tem como pólo negativo uma xícara de zinco metálico, e como pólo positivo
pólo, uma haste de carbono embutida em dióxido de manganês. Entre os dois está uma solução de cloreto de amônio e
cloreto de zinco em água. O amido é adicionado à solução em quantidades suficientes para formar uma pasta rígida, de modo
que a solução não flua e a célula se torne "não derramável". A impossibilidade de derramamento é uma característica tão
impressionante que o dispositivo é comumente chamado de célula seca. Também é chamada de "bateria de lanterna" porque é
tão comumente usada em lanternas. Pode até ser chamada de célula de Leclanche porque a combinação zinco-carbono foi
concebida pela primeira vez em 1868 pelo químico francês Georges Leclanche (1839-1882), embora só vinte anos depois ela foi convertida

A diferença de potencial entre os pólos positivo e negativo de uma célula química depende da natureza das reações
químicas que ocorrem - isto é, da força da tendência das substâncias que compõem os pólos de ganhar ou perder elétrons.
No caso da célula seca, a diferença de potencial é, idealmente, 1,5 volts.
Machine Translated by Google

A diferença de potencial pode ser aumentada se duas ou mais células estiverem conectadas em série - isto é, se o pólo
positivo de uma célula estiver conectado ao pólo negativo da próxima célula na linha. Nesse caso, a corrente que sai da
primeira célula sob a força motriz de uma diferença de potencial de 1,5 volts entra na segunda célula e dá um "empurrão" à
corrente que está sendo gerada lá. A corrente emitida pela segunda célula é, portanto, impulsionada por sua própria
diferença de potencial de 1,5 volts mais a diferença de potencial da célula à qual está conectada - 3,0 volts no total. Em
geral, quando as células são conectadas em série de modo que toda a corrente percorra cada uma delas, a diferença de
potencial total é igual à soma das diferenças de potencial das células individuais.

As células também podem ser conectadas em paralelo - isto é, todos os pólos positivos seriam conectados e todos os
pólos negativos seriam conectados juntos. A corrente total não passa por cada célula. Em vez disso, cada célula contribui
com sua própria parte da corrente e recebe de volta sua própria parte, de modo que a diferença de potencial de uma não tem efeito sobre a
Há vantagens, no entanto, em ter 1,5 volts fornecido por dez células em vez de uma. Por um lado, a quantidade total de
zinco em dez células é dez vezes maior do que em uma, e a combinação de dez células continuará fornecendo corrente por
dez vezes mais.

Depois, também há a questão da resistência interna de uma bateria. Quando a corrente está fluindo, ela flui não apenas
através dos fios e dispositivos que compõem o circuito que conecta o pólo positivo ao pólo negativo, mas também deve
fluir de pólo a pólo dentro da célula por meio das reações químicas que ocorrem lá. A resistência interna é a resistência a
esta forma elétrica dentro da célula. Quanto maior a intensidade de corrente retirada da célula, maior também a intensidade
de corrente que deve fluir através da célula. A diferença de potencial necessária para conduzir esta corrente através da célula
depende da intensidade da corrente, pois (pela lei de Ohm) E = I x R x R, neste caso, é a resistência interna da célula, e E é a
diferença de potencial que conduz a corrente do pólo negativo para o positivo (usando a convenção do eletricista). Essa
diferença de potencial é a direção oposta àquela que conduz a corrente do pólo positivo para o negativo no circuito externo
fora da célula, de modo que a diferença de potencial interna deve ser subtraída da externa. Em suma, à medida que você extrai
cada vez mais intensidade de corrente de uma célula, a diferença de potencial que ela fornece diminui e diminui, graças à resistência inter

Quando as células são dispostas em série, a resistência interna da série é a soma da resistência interna das células
individuais. A diferença de potencial pode aumentar, mas dez células em série serão tão sensíveis a altas intensidades de
corrente quanto uma célula seria. Quando as células são dispostas em paralelo, no entanto, a resistência interna total das
células no sistema é menor do que a de qualquer célula única incluída, assim como no caso de resistências comuns. Um
sistema de células em paralelo pode, portanto, fornecer intensidades de corrente maiores sem queda significativa na diferença
de potencial do que uma única célula poderia, embora a diferença de potencial máxima não seja maior.
Machine Translated by Google

Células elétricas de vários filhos têm sido um benefício incalculável para o avanço tecnológico e ainda são extremamente úteis.
Não apenas lanternas, mas também uma variedade de dispositivos, desde brinquedos infantis até rádios, podem ser alimentados
por células elétricas. Químicos como Davy até os usaram para importantes avanços científicos que exigiam o fornecimento de
grandes quantidades de energia elétrica. No entanto, os usos de eletricidade em grande escala, como o de alimentar grandes
fábricas e iluminar cidades inteiras, simplesmente não podem ser feitos empilhando milhões de células elétricas. A despesa seria proibitiva.

A célula seca, por exemplo, obtém sua energia convertendo íons metálicos de zinco em zinco. Quimicamente, isso é o
equivalente a queimar zinco - usar zinco como combustível. Quando uma célula seca está fornecendo 1 ampere de corrente, ela
consome 1,2 gramas de zinco em uma hora. Nessa hora, a potência fornecida pela bateria seria 1,5 volts vezes 1 ampere, ou 1,5 watts.
Portanto, 1,5 watt-hora equivale ao consumo de 1,2 gramas de zinco e 1 quilowatt-hora (1000 watt-hora) equivale ao consumo
de 800 gramas de zinco. Uma típica casa americana moderna, à taxa que consome eletricidade, consumiria facilmente oito
toneladas de zinco por ano se as células secas fossem sua fonte de suprimento (para não falar dos outros componentes
envolvidos). também a produção mundial de zinco não poderia manter uma economia em que famílias individuais consumissem
o metal a essa taxa. Na verdade, é justo dizer que nosso mundo eletrificado moderno simplesmente não poderia existir em uma
base de células químicas comuns.

Uma maneira de reduzir a despesa pode ser inventar algum método de reverter as reações químicas em uma célula, de modo que
as substâncias polares originais podem ser usadas novamente. Isso não é prático para a pilha seca, mas existem baterias
recarregáveis. A variedade mais comum é aquela em que o pólo negativo é o chumbo metálico e o pólo positivo é o peróxido de chumbo.
Estes são separados por uma solução bastante forte de ácido sulfúrico.

Quando tal célula está descarregando e uma corrente elétrica é retirada dela (com uma diferença de potencial de cerca de 2
volts para uma célula individual), as reações químicas que ocorrem dentro dela convertem tanto o chumbo quanto o peróxido
de chumbo em sulfato de chumbo. . No processo, o ácido sulfúrico também é consumido. Se a eletricidade for forçada de volta
para a célula (ou seja, se o pólo negativo de uma fonte elétrica, trabalhando com uma diferença de potencial de mais de 2 volts,
estiver conectado ao pólo negativo da célula e o pólo positivo da fonte estiver conectado ao pólo positivo da célula para que a
célula seja forçada a "trabalhar para trás" por um empurrão mais forte que o seu), a reação química se inverte. Chumbo e
peróxido de chumbo são formados novamente, e a solução de ácido sulfúrico fica mais forte. A célula é "recarregada". Tal célula
foi concebida pela primeira vez em 1859 pelo físico francês Gaston Plante (1834-1889).

Em um sentido superficial, parece que, à medida que a célula é recarregada, a eletricidade entra na célula e é armazenada lá.
Machine Translated by Google

Na verdade, não é assim. A eletricidade não é armazenada diretamente; em vez disso, uma reação química é realizada
produzindo produtos químicos que podem reagir para gerar eletricidade. Assim, é a energia química que é armazenada, e essas
células carregáveis são chamadas de baterias de armazenamento. São estes (geralmente consistindo de três a seis células de chumbo
mais peróxido de chumbo em série) que estão presentes sob o capô dos automóveis.

Essa bateria de armazenamento é pesada (por causa do chumbo), perigosa de manusear (por causa do ácido sulfúrico) e cara.
No entanto, como pode ser recarregada várias vezes, a mesma bateria pode ser usada por anos sem substituição sob condições
em que demandas pesadas são feitas periodicamente. Sua utilidade, portanto, não deve ser negada.

No entanto, de onde vem a eletricidade que é usada para recarregar a bateria de armazenamento? Se essa eletricidade for extraída
de células comuns não recarregáveis, estaremos de volta ao ponto de partida. Claramente, para possibilitar o uso de baterias de
armazenamento em larga escala, a eletricidade usada para carregá-la deve ter uma fonte muito mais barata e mais facilmente disponível,
no automóvel, por exemplo, a bateria de armazenamento é continuamente recarregada no custo da energia da queima de gasolina - que,
embora não seja exatamente barata, certamente é muito mais barata e mais disponível do que a energia da queima de zinco.

Para explicar como a queima de gasolina pode dar origem à energia elétrica, devemos começar com um experimento simples,
mas crucial, realizado em 1819.

CAPÍTULO 12

Eletromagnetismo

Experiência de Oersted

Até o início do século XIX, eletricidade e magnetismo pareciam duas forças inteiramente independentes.
Para ter certeza, ambas eram forças fortes, ambas mostravam repulsão e atração, e ambas enfraqueciam com a distância de
acordo com uma lei do inverso do quadrado. Por outro lado, o magnetismo parecia envolver apenas ferro mais (fracamente) algumas
outras substâncias, enquanto a eletricidade parecia universal em seus efeitos; magnetismo exibia pólos apenas em pares, enquanto a eletricidade
Machine Translated by Google

exibiu-os em separação; e não havia fluxo de pólos magnéticos como havia fluxo de carga elétrica. O equilíbrio parecia ser
mais a favor das diferenças do que das semelhanças.

A questão foi resolvida em 1819, no entanto, como resultado de um experimento simples realizado no curso de uma palestra (e
sem qualquer expectativa de grandes eventos por vir) por um físico dinamarquês, Hans Christian Oersted (1777-1851).
Ele estava usando uma bateria forte em sua palestra, e encerrou colocando um fio condutor de corrente sobre uma bússola
de tal forma que o fio ficasse paralelo ao alinhamento norte-sul da agulha da bússola. (Não é certo agora que ponto ele
estava tentando fazer ao fazer isso.)

No entanto, quando ele colocou o fio sobre a agulha, a agulha girou violentamente, como se, graças à presença da
corrente, agora quisesse se orientar leste-oeste. Oersted, surpreso, levou o assunto adiante invertendo o fluxo de
corrente - isto é, ele conectou o fio aos eletrodos de maneira inversa. Agora a agulha da bússola voltou a girar
violentamente, mas no sentido oposto.

Assim que Oersted anunciou isso, físicos de toda a Europa começaram a realizar novas experiências, e
rapidamente ficou claro que a eletricidade e o magnetismo estavam intimamente relacionados, e que se poderia
falar de eletromagnetismo referindo-se à maneira pela qual uma das duas forças deu origem à outra.

O físico francês Dominique Franfois Jean Arago (1786-1853) mostrou quase imediatamente que um fio que conduz
uma corrente elétrica atraía não apenas agulhas magnetizadas, mas limalhas de ferro comuns não magnetizadas, assim
como um ímã simples faria. Uma força magnética, indistinguível da dos ímãs comuns, originou-se na corrente elétrica.
De fato, um fluxo de corrente elétrica era um ímã.

Para mostrar isso de forma mais dramática, foi possível eliminar completamente o ferro, magnetizado ou não.
Se dois ímãs se atraíssem ou se repelissem (dependendo de como seus pólos estivessem orientados), o mesmo deveria
acontecer com dois fios, cada um carregando uma corrente elétrica.

Isso foi de fato demonstrado em 1820 pelo físico francês Ampere, que deu o nome à unidade de intensidade de
corrente. Ampere começou com dois fios paralelos, cada um conectado a uma bateria separada. Um fio era fixo, enquanto
o outro era capaz de deslizar em direção ao seu vizinho ou para longe dele. Quando a corrente trafegava no mesmo
sentido em ambos os fios, o fio móvel deslizava em direção ao outro, indicando uma atração entre as vitórias. Se a
corrente viajasse em direções opostas nos dois fios, a ventoinha móvel deslizaria, indicando repulsão entre os dois fios.
Machine Translated by Google

Além disso, ampere organizou as coisas de modo que a vitória móvel estivesse livre para girar, o fez quando a corrente estava em
direções opostas, girando 180 graus até que os dois fios estivessem paralelos novamente com a corrente em cada um agora fluindo na
mesma direção. (Isto é análogo à maneira pela qual, se o polo norte de um pequeno ímã é aproximado do polo norte de outro, o segundo ímã
se move de modo a apresentar sua extremidade do polo sul ao polo norte que se aproxima.)

Novamente, se uma corrente fluindo é um ímã, ela deve exibir linhas de força magnéticas como um ímã comum.
linhas de força devem ser seguidas por uma agulha de bússola. Uma vez que a agulha da bússola tende a se alinhar em uma direção
perpendicular à do fluxo de corrente no fio (quer a agulha seja mantida acima ou abaixo do fio, ou em ambos os lados), parece que as
linhas de força magnética em torno de um fio condutor de corrente aparece na forma de cilindros concêntricos ao redor do fio. Se uma
seção transversal for feita perpendicularmente ao fio, as linhas de força aparecerão como círculos concêntricos. Isso pode ser
demonstrado passando um fio condutor de corrente para cima através de um pequeno orifício em um pedaço horizontal de papelão. Se
as limalhas de ferro forem espalhadas no papelão e o papelão for batido, as limalhas se alinharão em um arranjo circular ao redor do fio.

No caso de um ímã comum, as linhas de força são consideradas como tendo uma direção - uma que viaja de um norte
pólo para um pólo sul. Como o pólo norte de uma agulha de bússola sempre aponta para o pólo sul de um ímã, ele sempre aponta na
direção convencionalmente aceita das linhas de força. A direção do pólo norte de uma agulha de bússola também indica a direção das
linhas de força na vizinhança de um fio condutor de corrente, e isso depende da direção do fluxo de corrente.

Ampere aceitou a convenção de Franklin de fluxo de corrente do eletrodo positivo para o eletrodo negativo. Se, usando
Nesta convenção, um fio foi segurado de modo que a corrente fluísse diretamente em sua direção, as linhas de força, conforme
exploradas por uma agulha de bússola, estariam se movendo ao redor do fio em círculos no sentido anti-horário. Se a corrente estiver
fluindo diretamente para longe de você, as linhas de força estariam se movendo ao redor da vitória em círculos no sentido horário.

Como auxílio à memória, Ampere desenvolveu o que desde então tem sido chamado de "regra do parafuso da mão direita". Imagine-se
segurando o fio condutor de corrente com a mão direita; os dedos se fecham em torno dele e o polegar aponta ao longo do fio na direção
em que a corrente está fluindo. Se você fizer isso, então o movimento dos dedos curvados, da palma da mão às unhas, indica a direção das
linhas de força magnética. (É bem possível fazer uso da direção do fluxo de elétrons em vez da corrente convencional. O fluxo de elétrons é
na direção oposta à da corrente, de modo que, se você usar o mesmo dispositivo, mas imagine estar pegando o fio com a mão esquerda em
vez do
Machine Translated by Google

direita, e o polegar na direção do fluxo de elétrons, os dedos ainda marcarão as linhas de força).

Assim como um ímã pode vir em uma variedade de formas e de forma alguma precisa ser restrito à forma de uma simples barra, também
uma vitória com corrente pode vir em uma variedade de formas. Por exemplo, o fio pode ser torcido em um laço. Quando
isso acontece, as linhas de força fora do loop são separadas, enquanto as que estão dentro do loop se amontoam. Em outras
palavras, o campo magnético é mais forte dentro do loop do que fora.

Agora suponha que, em vez de um laço, o fio seja torcido em vários laços, de modo que pareça uma mola de cama. Tal forma é
chamada de hélice ou solenóide (a última palavra de uma expansão grega que significa “em forma de tubo”). O resultado é um
conjunto de linhas de força que varrem o exterior de todo o solenóide de uma extremidade à outra. Eles então entram no interior do
solenóide para retornar à primeira extremidade novamente. Quanto mais voltas ou bobinas individuais no solenóide, quanto maior
o reforço e mais linhas de força se acumulam no interior.Se as bobinas são empurradas juntas, o reforço é mais eficiente, e
novamente o fluxo magnético aumenta no interior do solenóide.

Em outras palavras, o fluxo dentro do solenóide varia diretamente com o número de bobinas (N) e inversamente com o
comprimento (L). É proporcional então a N/L. A força do campo magnético produzido por uma corrente que flui depende também
da intensidade da corrente. Uma corrente de 2 amperes produzirá o dobro da força magnética a uma dada distância do fio que uma corrente de
vontade de corrente de amperes. No caso do solenóide, então, temos a seguinte relação para um campo magnético que é
praticamente uniforme em intensidade através do interior:

H = [1,25 NI] / L (Equação 12-1)

onde H é a força do campo magnético em oersteds, I a intensidade da corrente em amperes, N o número de voltas no solenóide e
L o comprimento do solenóide em centímetros.

A relação entre a força do campo magnético e a intensidade da corrente permite definir o ampere em função das forças
magnéticas estabelecidas. Se, em dois longos condutores retilíneos paralelos, separados por um metro de distância no ar,
correntes constantes e iguais estão fluindo de modo a produzir uma força mútua (atrativa ou repulsiva) de 2 x 10-7 newtons por
metro de comprimento, essas correntes têm um intensidade de 1 ampere. Desta forma, o ampere pode ser definido apenas com
base em unidades mecânicas e todas as outras unidades elétricas podem ser definidas em termos de amperes. (Foi porque o
trabalho de Ampere tornou possível fornecer uma definição tão mecânica de uma unidade elétrica que seu nome foi dado à unidade.)
Machine Translated by Google

Um solenóide se comporta como se fosse um ímã de barra feito de ar. Isso, é claro, sugere que em ímãs de barra comuns há
uma situação análoga à corrente elétrica em loop do solenóide. Foi só no século XX, porém, que a existência do elétron e sua relação
com o átomo passaram a ser suficientemente compreendidas para tornar esse pensamento mais do que uma vaga especulação. Só
então o magnetismo comum poderia ser retratado como resultado da rotação da carga eletrônica dentro dos átomos. Em alguns casos,
os spins dos elétrons dentro dos átomos podem ser equilibrados, pois alguns giram no sentido horário e alguns no sentido anti-horário
de tal forma que nenhuma força magnética líquida deve ser observada. Em outros casos, notadamente no do ferro, os spins não são
balanceados e a força magnética pode se tornar bastante evidente se os próprios átomos estiverem devidamente alinhados.

Além disso, isso oferece a possibilidade de explicar o magnetismo da Terra. Mesmo admitindo que o ferro líquido da Terra esteja a
uma temperatura acima do ponto de Curie e seja um ímã comum, é possível que a rotação em T estabeleça redemoinhos lentos nesse
núcleo líquido, que a eletricidade seja transportada nesses redemoinhos e que a rotação da Terra núcleo se comporta como um
solenóide e não como um ímã de barra. O efeito seria o mesmo.

Se for assim, um planeta que não tem um núcleo líquido que pode transportar turbilhões, ou que não gira rápido o suficiente para definir
turbilhões em movimento, não deve ter muito, se algum, campo magnético. Até agora, os fatos reunidos por experimentos
contemporâneos com foguetes parecem confirmar isso. A densidade da lua é de apenas três quintos da da Terra, o que faz parecer
provável que a lua não tenha nenhum núcleo de ferro líquido de alta densidade de sondas lunares significativas. campo magnético.

Vênus, por outro lado, é muito parecido com a Terra em tamanho e densidade e, portanto, é bastante provável que tenha um
núcleo de ferro líquido. No entanto, dados astronômicos obtidos na década de 1960 fazem parecer provável que Vênus gire
lentamente, talvez apenas uma vez em mais de 200 dias. E Vênus também, de acordo com observações da sonda Mariner II Venus, carece
de um campo magnético significativo.

Júpiter e Saturno, que são muito maiores que a Terra, giram mais rapidamente e possuem campos magnéticos
muito mais intensa que a da terra.

O próprio sol é totalmente fluido, embora gasoso em vez de líquido, e como resultado de sua rotação, sem dúvida, são
formados redemoinhos. É possível que esses redemoinhos sejam responsáveis pelo campo magnético do sol, que se torna mais
evidente em relação às manchas solares. As estrelas foram localizadas com campos magnéticos muito mais intensos do que os das
Machine Translated by Google

sol, e acredita-se que as próprias galáxias tenham campos magnéticos em toda a galáxia.

Aplicação do Eletromagnetismo

A força do campo magnético dentro de um solenóide pode ser aumentada ainda mais pela inserção de uma barra de ferro nele. o
a alta permeabilidade do ferro concentrará ainda mais as linhas de força já lotadas. O primeiro a tentar isso foi um
experimentador inglês, William Sturgeon (1783-1850), que em 1823 enrolou dezoito voltas de fio de cobre nu em torno de uma
barra em forma de U e produziu um eletroímã. Com a corrente ligada, o eletroímã de Sturgeon poderia levantar vinte vezes
seu próprio peso de ferro. Com a corrente desligada, não era mais um ímã e não levantaria nada.

O eletroímã ganhou força: no entanto, com o trabalho do físico americano Joseph Henry (1797-1878).
Em 1829, ele repetiu o trabalho de Sturgeon, usando fio isolado. Uma vez que o fio foi isolado, foi possível enrolá-lo o
mais próximo possível sem medo de curtos-circuitos de um fio para o outro. Henry poderia, portanto, usar centenas de voltas
em um curto comprimento, aumentando enormemente a razão N / L (veja a Equação 12-1) e aumentando correspondentemente
a força do campo magnético para uma determinada
tamanho pequeno,
intensidade
que podia
de corrente.
levantarEm
mais
1831,
de ele
umahavia
tonelada
produzido
de ferro.
um eletroímã, de

De fato, o eletromagnetismo possibilitou a produção de campos magnéticos de força sem precedentes. Uma ferradura de brinquedo
ímã pode produzir um campo magnético de algumas centenas de gauss em força - um bom ímã de barra pode produzir um
de 3.000 gauss, e um excelente um campo de 10.000 gauss. Com um eletroímã, no entanto, campos de 60.000 gauss são
facilmente obtidos.

Subir ainda mais alto não é, em teoria, problema, pois basta aumentar a intensidade da corrente. Infelizmente isso também
aumenta o calor produzido (o calor aumenta com o quadrado da intensidade da corrente). Assim, o problema de resfriar as
bobinas logo se torna extremamente crítico. Além disso, as forças magnéticas estabelecem grandes deformações mecânicas.
No século XX, o projeto e o uso de materiais fortes tornaram possível a produção de campos temporários na casa das centenas
de milhares de gauss por meio de correntes elétricas pulsantes. o material condutor estava explodindo.

Campos magnéticos tão intensos exigem o uso contínuo de enormes correntes elétricas e instalações de resfriamento
luxuosas. Eles são, portanto, exorbitantemente caros. Surgiu a possibilidade de evitar grande parte desse gasto aproveitando
o fenômeno da supercondutividade. Se certos condutores são resfriados a temperaturas de hélio líquido, sua resistência cai
Machine Translated by Google

para zero, de modo que a corrente que flui através deles não desenvolve calor, não importa quão alta seja a intensidade da corrente.
Além disso, uma corrente elétrica instalada em um circuito fechado em tais temperaturas continua fluindo para sempre, e um suporte
magnético estabelecido em associação com ela também se mantém para sempre (ou pelo menos enquanto a temperatura for mantida
suficientemente baixa). Em outras palavras, o campo magnético não precisa ser mantido à custa de uma entrada contínua de corrente.

Se um material supercondutor é usado como enrolamento em torno de um núcleo de ferro e o todo é mantido em
temperaturas de hélio líquido, pode parecer que bombeando mais e mais eletricidade para ele, forças de campo magnético cada vez mais
altas podem ser construídas sem limite, e que quando um nível desejado é alcançado, a corrente pode ser desligada e o campo deixado
lá permanentemente.

Infelizmente, a supercondutividade não abrirá a porta dessa maneira. Um material supercondutor é perfeitamente
diamagnético - isto é, nenhuma linha de força magnética entrará no interior do material supercondutor. As duas propriedades -
supercondutividade e diamagnetismo perfeito - estão ligadas. Se mais e mais corrente for bombeada para um eletroímã supercondutor
e a força do campo magnético for construída cada vez mais alto, o fluxo magnético aumenta. As linhas de força aglomeram-se cada vez
mais densamente, e em algum ponto (a força crítica do campo) são forçadas para o interior do material supercondutor. Assim que o
material perde seu diamagnetismo perfeito, perde também sua supercondutividade; o desenvolvimento de calor começa e todo o
processo falha. Um ímã supercondutor não pode ser mais forte do que a força de campo crítica do material que compõe as bobinas e,
infelizmente, isso está nas meras centenas de gauss para a maioria dos metais. O chumbo, por exemplo, perderá sua supercondutividade
mesmo nas temperaturas mais baixas possíveis em um campo magnético de 600 gauss. Ímãs supercondutores de chumbo, portanto, não
podem ser construídos mais fortes do que um brinquedo.

Felizmente, descobriu-se na década de 1950 que muito mais poderia ser feito com ligas do que com metais puros. Por exemplo,
uma liga de nióbio e estanho pode manter a supercondutividade em temperaturas de hélio líquido mesmo transportando corrente
suficiente para produzir um campo magnético contínuo e relativamente barato superior a 200.000 gauss, enquanto uma liga de vanádio e
gálio pode fazer várias vezes também. A era dos eletroímãs supercondutores de alta intensidade parece estar chegando.

O eletroímã é adequado para mais do que feitos de força bruta, no entanto. Considere um circuito que inclui um
eletroímã. Há uma chave no circuito que é normalmente, através de alguma ação de mola, mantida em uma posição aberta, de modo que
um entreferro esteja continuamente presente e nenhuma corrente flua através do circuito. Se a tecla for pressionada com a mão para que
o circuito seja fechado, a corrente flui e o eletroímã exerce uma força de atração sobre uma barra de ferro próxima a ele.
Machine Translated by Google

No entanto, suponha que essa barra de ferro faça parte do circuito e que, quando atraída pelo eletroímã, seja puxada para fora de
uma conexão que faz com o restante do circuito. O circuito é interrompido e a corrente para. Assim que a corrente para, no entanto, o
eletroímã não está mais exercendo uma força de atração, e a barra de ferro é puxada de volta à sua posição original por uma mola acoplada.
Como isso fecha o circuito novamente, o eletroímã entra em ação e puxa a barra de ferro para si novamente.

Enquanto a tecla permanecer pressionada, essa alternância da barra de ferro sendo puxada para o ímã e voltando para o circuito
continuará. Em si, isso fará um zumbido rápido, e o resultado é, de fato, o que é comumente chamado de 'buzzer'.

Mas suponha que a barra de ferro não faça parte do circuito. Nesse caso, quando a tecla é pressionada, o eletroímã ganha
atraindo poder e puxa a barra para si mesma e a mantém lá. Uma vez que a chave é liberada (e não até então), o eletroímã perde
sua força de atração e a barra se encaixa de volta.

A barra de ferro, nessas circunstâncias, se move para frente e para trás, não em um padrão invariável de oscilação rápida, mas em
qualquer padrão que se queira impor à tecla quando ela é pressionada e solta. A barra de ferro faz um som de clique ao atingir o ímã, e o
padrão do movimento da mão sobre a tecla é transformado em um padrão de cliques no eletroímã.

Pode ocorrer a qualquer um que isso possa ser usado como base de um código. Ao deixar um padrão de clique específico representar
letras específicas do alfabeto, uma mensagem poderia ser enviada de um lugar para outro a uma velocidade próxima à da luz.

O problema prático é que a intensidade da corrente que pode ser empurrada através de um fio sob uma determinada diferença de
potencial diminui à medida que o fio se alonga e sua resistência total aumenta. Em distâncias realmente longas, a intensidade da corrente
diminui para insignificante, a menos que diferenças de potencial proibitivas estejam envolvidas, e então não é suficiente para produzir um
magnético forte o suficiente para fazer o trabalho de mover a pesada barra de ferro.

Foi Henry quem encontrou uma maneira de resolver esse problema. Ele correu a corrente através de um longo fio até que ficou realmente fraco, mas
ainda forte o suficiente para ativar um eletroímã até o ponto em que uma chave leve poderia ser puxada em direção a ele. Essa chave
leve, ao se mover em direção ao eletroímã, fechou um segundo circuito que era alimentado por uma bateria razoavelmente próxima à
chave, de modo que uma corrente era enviada através de um segundo fio mais curto. Graças à brevidade do segundo fio e à sua
Machine Translated by Google

consequentemente menor resistência, essa corrente era muito mais forte que a primeira. No entanto, esta segunda corrente
mais forte espelhava exatamente a primeira, mais fraca, pois quando a tecla original era pressionada com a mão, a tecla mais
distante era imediatamente pressionada pelo eletroímã, e quando a tecla original era solta com a mão, a tecla distante era
pressionada. chave distante foi imediatamente liberada pelo eletroímã.

Tal dispositivo, que passa o padrão de uma corrente de um circuito para outro, é um relé elétrico. O segundo circuito pode
ser, por sua vez, um circuito longo que carrega apenas intensidade de corrente suficiente para ativar um terceiro circuito que, por
sua vez, pode ativar apenas um quarto circuito distante. Ao usar relés e baterias em intervalos regulares, não há nada, em princípio,
que impeça alguém de enviar um determinado padrão de cliques ao redor do mundo. Em 1831, Henry estava enviando sinais por
um quilômetro e meio de fio.

Henry não tentou patentear isso ou desenvolvê-lo em um dispositivo prático. Em vez disso, ele ajudou um artista americano.
Samuel Finley Breese Morse (1791 - 1872) faz isso. Por volta de 1844, os fios foram estendidos de Baltimore a Washington, e um
padrão de cliques (reproduzido como pontos para cliques curtos e traços para cliques longos - o "código Morse") foi enviado por
ele. A mensagem era uma citação do livro de Números da Bíblia. "O que Deus fez?" Isso marca a invenção do telégrafo (das
palavras gregas que significam "escrever à distância"), e o público em geral foi pela primeira vez informado de como a nova ciência
elétrica poderia ser aplicada de uma maneira que mudaria o modo de vida do homem. .

Eventualmente, as linhas de telégrafo atravessaram continentes e, em 1866, um cabo foi colocado através do Oceano Atlântico.
Através do cabo, o código Morse podia transmitir mensagens entre a Grã-Bretanha e os Estados Unidos quase instantaneamente.
Colocar o cabo foi uma tarefa difícil e dolorosa, realizada apenas pela perseverança desumana do financista americano Cyrus West
Field (1819-1892). A sua operação também foi acompanhada de enormes dificuldades, uma vez que os relés não podiam ser
instalados no fundo do mar como ocorriam em terra. Muitos problemas tiveram que ser resolvidos por homens como o físico
britânico William Thomson, Lord Kelvin (1824-1907), e mesmo assim, a comunicação intercontinental não se tornou bastante
satisfatória até a invenção do rádio (um assunto que será discutido em Volume III deste livro). No entanto, em 1900, nenhum lugar
civilizado na Terra estava fora do alcance do telégrafo, e depois de milhares de anos de civilização, a humanidade foi pela primeira
vez capaz de formar uma comunidade única (se não sempre mutuamente amigável ou mesmo tolerante).

Um método de comunicação mais direto também depende em grande parte do eletroímã. Este é o telefone ("falar à distância"),
inventado em 1876 por um professor de fala escocês-americano, Alexander Graham Bell (1847-1922), e pouco depois aperfeiçoado
por Edison.
Machine Translated by Google

Para colocar da forma mais simples possível, o transmissor de telefone (no qual se fala) contém grânulos de carbono em
uma caixa delimitada na frente e atrás por uma parede condutora. A parede frontal é um diafragma bastante fino e, portanto,
flexível. Através desta caixa flui uma corrente elétrica. A resistência dos grânulos de carbono depende de quão bem eles fazem
contato uns com os outros. Quanto melhor o contato, menor a resistência geral e (uma vez que a diferença de potencial permanece
constante) maior a intensidade da corrente que flui através dele.

À medida que se fala no transmissor, as ondas sonoras estabelecem um padrão complexo de compressões e rarefações no ar. Se
uma região de compressão atinge o diafragma que compõe a extremidade frontal da caixa de grânulos de carbono, o diafragma
é empurrado para dentro. Quando uma região de rarefação o atinge, ele é puxado para fora. Ele age exatamente como o tímpano
e, em seu movimento, imita todas as variações na compressão e rarefação do padrão de onda sonora.

Quando o diafragma é empurrado para dentro, os grânulos de carbono fazem melhor contato e a intensidade da corrente
aumenta na proporção em que o diafragma é empurrado. Da mesma forma, a intensidade da corrente diminui à medida que o
diafragma é puxado para fora, de modo que os grânulos de carbono se desfazem e tornam o contato mais fraco. Assim, estabelece-
se uma corrente elétrica na qual a intensidade varia em imitação precisa do padrão de compressão-rarefação da onda sonora.

Na outra extremidade do circuito (que pode estar, graças a relés e outros refinamentos, a milhares de quilômetros de
distância), a corrente ativa um eletroímã em um receptor de telefone. A força do campo magnético produzido varia com a
intensidade da corrente, de modo que a força desse campo imita precisamente o padrão de onda sonora que atinge o
transmissor distante. Perto do eletroímã há um diafragma de ferro fino que é puxado para dentro pela força magnética em
proporção à intensidade dessa força. O diafragma no receptor se move em um padrão que imita o padrão de onda sonora que atinge
o transmissor a muitos quilômetros de distância e, por sua vez, estabelece um padrão de onda sonora precisamente semelhante no
ar adjacente. O resultado é que o ouvido do receptor ouve exatamente o que a boca do transmissor está dizendo.

Exemplos de aplicações mais recentes de eletroímãs envolvem supercondutividade. Um disco, que é, ele próprio supercondutor
pode ficar acima de um ímã supercondutor. As linhas de força magnética não entrarão no disco supercondutor
perfeitamente diamagnético, que não pode, por isso, manter contato físico com o ímã. Deve haver espaço entre os dois
materiais supercondutores para permitir a passagem, por assim dizer, das linhas de força. O disco, portanto, é repelido pelo
ímã e flutua acima dele. Mesmo pesos colocados sobre o disco não irão (até certo limite) forçá-lo a entrar em contato com o ímã.
Sob condições trabalhadas em laboratório, foram demonstrados discos capazes de suportar pesos de até 300 gramas por
centímetro quadrado. Sem contato físico, o disco pode girar virtualmente
Machine Translated by Google

sem atrito e, portanto, pode servir como um rolamento sem atrito.

Pequenos interruptores podem ser feitos aproveitando o eletromagnetismo sob condições supercondutoras. O primeiro tal
dispositivo a ser desenvolvido (já em 1935) consistia em um fio fino de nióbio sobre um fio mais grosso de tântalo. Ambos
são materiais supercondutores, mas podem ser arranjados para ter diferentes intensidades críticas de campo. Uma pequena
corrente pode ser estabelecida dentro do tântalo, por exemplo, e isso se manterá indefinidamente enquanto a temperatura for
mantida baixa. Se uma corrente ainda menor for enviada através da bobina de nióbio em torno do tântalo, no entanto, o campo
magnético estabelecido é suficiente para destruir a supercondutividade do tântalo (sem afetar a do nióbio). A corrente no
tântalo, portanto, cessa. Desta forma, uma corrente pode ser desligada por outra corrente.

Tal dispositivo é chamado de criotron (de uma palavra grega que significa "congelar", em referência às
temperaturas extremamente baixas necessárias para a supercondutividade se evidenciar). A vantagem dos interruptores
criotrons é que eles são muito rápidos, muito pequenos e consomem muito pouca energia.Há a desvantagem, é claro, de que
eles só funcionarão em temperaturas de hélio líquido.

Medição de Corrente

O eletroímã introduziu uma nova precisão no estudo da própria eletricidade. Possibilitou a detecção de correntes
pela presença do campo magnético que eles criaram e estimar a intensidade da corrente pela força do magnético mantido.

Em 1820, seguindo duramente o anúncio de Oersted do campo magnético que acompanhava uma corrente fluindo, o
O físico alemão Johann Salomo Christoph Schweigger (1779-1857) usou esse campo como um dispositivo de medição.
Ele colocou uma agulha magnetizada dentro de um par de voltas de fio. Quando a corrente remava em uma direção, a
agulha era desviada para a direita; quando a corrente fluía na outra direção, a agulha se desviava para a esquerda. Ao colocar
uma escala atrás da agulha, ele podia ler a quantidade de deflexão e, portanto, estimar a intensidade da corrente. Este foi o
primeiro galvanômetro ("para medir a eletricidade galvânica"), nome sugerido por Ampere.

O galvanômetro original de Schweiggef tinha uma bobina fixa de fio e um ímã móvel, mas com o tempo foi considerado
mais conveniente ter um ímã fixo e uma bobina móvel. O dispositivo ainda depende da deflexão de uma agulha, mas agora a
agulha está presa à bobina e não ao ímã Um dispositivo particularmente prático desse tipo foi construído em 1880
Machine Translated by Google

pelo físico francês Jacques Arstne d'Arsonval (1851-1940) e é conhecido como galvanômetro D'Alsonval.

Os galvanômetros podem ser sensíveis o suficiente para registrar intensidades de corrente extremamente fracas. Em 1903, o
fisiologista holandês Willem Einthoven (1860-1927) inventou um galvanômetro de corda. Este consistia em uma fibra condutora muito fina
suspensa em um suporte magnético. Pequenas correntes fluindo através da fibra causariam sua deflexão e, por meio de um galvanômetro
extremamente sensível, as pequenas mudanças nas intensidades de corrente estabelecidas em um músculo em contração poderiam ser
detectadas e medidas. Dessa forma, o padrão elétrico mutável envolvido no batimento cardíaco pôde ser estudado, e um importante dispositivo
de diagnóstico foi adicionado ao arsenal da medicina moderna.

Os galvanômetros, de fato, tendem a ser tão sensíveis que, na forma não modificada, podem ser usados com segurança apenas para comparativamente
intensidades de corrente fracas. Para medir a intensidade total de uma corrente doméstica comum, por exemplo, o galvanômetro deve ser
deliberadamente curto-circuitado. Em vez de permitir que toda a corrente flua através da bobina móvel no galvanômetro, um condutor de baixa
resistência é colocado entre os fios que entram e saem da bobina. Este curto-circuito de baixa resistência é chamado de shunt. O foi usado
pela primeira vez em 1843 pelo físico inglês Charles Wheatstone (1802-1874).

Shunt e bobina estão em paralelo e a intensidade da corrente através de cada um é inversamente proporcional às suas respectivas
resistências. Se as resistências forem conhecidas, podemos calcular qual fração da intensidade da corrente percorrerá a bobina, e é apenas
essa fração que influenciará a deflexão da agulha. A sensibilidade da deflexão pode ser alterada adicionando ou subtraindo resistências ao shunt,
diminuindo ou aumentando a fração da intensidade total da corrente que passa pela bobina.

Ajustando a fração da intensidade da corrente que atinge a bobina para que a agulha defletida permaneça na escala, intensidades de corrente
doméstica ou, em princípio, corrente de qualquer intensidade, podem ser medidas. O mostrador pode ser calibrado para ler diretamente em
amperes, e um galvanômetro assim calibrado é chamado de amperímetro (uma forma abreviada de "ampere-meter").

Suponha que um galvanômetro seja conectado em alguma parte de um circuito, causando um curto-circuito. Se este galvanômetro incluir
uma resistência muito alta, no entanto, uma corrente de muito pouca intensidade fluirá sobre o curto-circuito através da corrente do galvanômetro
de uma intensidade baixa o suficiente para não afetar o restante do circuito de maneira significativa.

Esta pequena intensidade de corrente estará sob a força motriz da mesma diferença de potencial que a corrente fluindo em Intensidade muito
maior através da rota regular do circuito entre os pontos através dos quais o galvanômetro foi colocado. A pequena intensidade de corrente
conduzida através do galvanômetro de alta resistência varia com o potencial
Machine Translated by Google

diferença. A escala atrás da agulha móvel pode então ser calibrada em volts, e o galvanômetro se torna um voltímetro.

Uma vez que a intensidade da corrente e a diferença de potencial através de algum circuito ou parte de um circuito são medidas
por um amperímetro e voltímetro, a resistência desse mesmo circuito ou parte de um circuito pode ser calculada pela lei de Ohm.
No entanto, com a ajuda de um galvanômetro, a resistência também pode ser medida diretamente, equilibrando a resistência
desconhecida com as resistências conhecidas.

Suponha que uma corrente esteja fluindo através de quatro resistências – R(1), R(2), R(3) e R(4), dispostas em um paralelogramo.
A corrente entra em A e pode fluir através de B para D via R(1) e R(2), ou através de C para via R(3) e R(4). Suponha que um fio
condutor conecte B e C e que um galvanômetro seja incluído como parte desse fio. Se a corrente atingir B em um potencial mais
alto do que atinge C, a corrente fluirá de B para C e o galvanômetro registrará em uma direção. Se o inverso for verdadeiro e a
corrente atingir C em um potencial maior do que em B, a corrente fluirá de C para B e o galvanômetro registrará na outra direção.
Mas se o potencial em B e o potencial em C forem exatamente iguais, a corrente fluirá em nenhuma direção e o galvanômetro
registrará zero.

Suponha que o galvanômetro registre zero. O que podemos deduzir disso? A corrente que flui de A para B deve
passar, intacto, de B para D; nenhum é defletido através do galvanômetro. Portanto, a intensidade da corrente de A para B
através de R, deve ser a mesma que a intensidade da corrente de B para D através de R(2). Ambas as intensidades podem ser representadas com
(1). Por um argumento semelhante, as intensidades de corrente que passam por R(2) e R(4) são iguais e podem ser simbolizadas como I
(2).

Pela lei de Ohm, a diferença de potencial é igual à intensidade da corrente vezes a resistência ( E = IR ). A diferença de potencial
de A a B é, portanto, I(1)R(1); de B a D é I(1) R(2),; de A a C é I(2)R(3); e de C a D é I(2)R(4).

Mas se o galvanômetro lê zero, então a diferença de potencial de A para B é a mesma de A para C (ou a corrente fluiria entre
B e C e o galvanômetro não leria zero), e a diferença de potencial de B para D é o mesmo que de C a D, pelo mesmo argumento. Em
termos de intensidades e resistências de corrente, podemos expressar as igualdades em diferença de potencial assim:

I(1)R(1) = I(2)R(3) (Equação 12-2)


Machine Translated by Google

I(1)R(2) = I(2)R(4) (Equação 12-3)

Se dividirmos a Equação 12-2 pela Equação 12-3, obtemos:

R(1) / R(2) = R(3) / R(4) (Equação 12-4)

Agora suponha que R(1) seja a resistência desconhecida que queremos medir, enquanto R(2) é uma resistência conhecida. Quanto a R
(3) e R(4) são resistências variáveis que podem ser variadas através de etapas conhecidas.

Uma configuração de resistência variável muito simples pode consistir em um pedaço de fio esticado sobre um medidor,
com um contato deslizante capaz de se mover ao longo dele. O contato deslizante pode representar o ponto C no dispositivo
descrito acima. O trecho de fio de ponta a ponta da régua é AD. A porção que se estende de A a C é R(3) e a porção de C a D é R(4).
Se o fio for uniforme, é justo supor que as resistências R(3) e R(4) serão proporcionais ao comprimento do fio de A a C e de C a D,
respectivamente, e esses comprimentos podem ser lidos diretamente do medidor. Os valores absolutos de R(3) e R(4) não podem
ser determinados, mas a razão R(3) / R(4), é igual a AC/CD e isso é tudo que precisamos.

À medida que o contato deslizante é movido ao longo do fio, a diferença de potencial entre A e C aumenta à medida que a
distância entre os dois pontos aumenta. Em algum ponto a diferença de potencial entre A e C se tornará igual àquela entre A
e D. e o galvanômetro indicará esse ponto registrando zero. Nesse ponto, a razão R(3)/R(4), pode ser determinada diretamente da
régua de medição, e a razão R(1)/R(2), pode, pela Equação 12-4, ser considerada como tendo o mesmo valor.

A resistência desconhecida, R(1) pode ser facilmente determinada multiplicando a resistência conhecida R(2) pela razão
conhecida R(3) / R(4). Wheatstone usou este dispositivo para medir resistências em 1843 e (embora alguns pesquisadores
tenham usado instrumentos semelhantes antes dele) tem sido chamado de ponte de Wheatstone desde então.

Geradores

O eletroímã, por mais útil que seja, por si só não resolve o problema de encontrar uma fonte barata de eletricidade. Se o
campo magnético deve ser estabelecido pela ação de uma célula química, o campo permanecerá tão caro quanto a corrente
elétrica que o configura, e nós em grande escala estará fora de questão.
Machine Translated by Google

No entanto, a maneira pela qual um eletroímã foi denominado foi obrigado a levantar a questão da possibilidade do fenômeno
inverso. Se uma corrente elétrica produz um campo magnético, um campo magnético já existente não poderia ser usado para
estabelecer uma corrente elétrica?

Michael Faraday pensou assim, e em 1831 ele tentou um experimento crucial (depois de ter tentado e falhado quatro vezes
antes). Nesta quinta tentativa, ele enrolou uma bobina de fio em torno de um segmento de um anel de ferro, acrescentou uma chave
para abrir e fechar o circuito e conectou uma bateria. Agora, quando ele apertava a tecla e fechava o circuito, uma corrente elétrica
passava pela bobina e criava um campo magnético. As linhas de força magnéticas seriam concentradas no anel de ferro altamente
permeável da maneira usual.

Em seguida, ele enrolou outra bobina de fio no segmento oposto do anel de ferro e conectou essa bobina a um
galvanômetro. Quando ele configurasse o campo magnético, poderia iniciar uma corrente fluindo no segundo fio e essa corrente,
se presente, seria detectada pelo galvanômetro.

O experimento não funcionou como ele esperava. Quando ele fechou o circuito, houve um surto momentâneo de corrente
através do segundo fio, indicado por uma rápida deflexão da agulha do galvanômetro seguida de um retorno a uma leitura zero. A
leitura zero foi então mantida por mais tempo que a tecla permanecesse pressionada. Existia um campo magnético e estava
concentrado no anel de ferro, como pode ser facilmente demonstrado. No entanto, a mera existência do campo magnético por si
só não produziu uma corrente. No entanto, quando Faraday abriu o circuito novamente, houve uma segunda rápida deflexão da
agulha do galvanômetro, na direção oposta à primeira.

Faraday decidiu que não era a existência de linhas de força magnéticas que produziam uma corrente, mas o movimento
dessas linhas de força através do fio. Ele imaginou as coisas dessa maneira. Quando a corrente começou na primeira bobina de
fio, o campo magnético surgiu, as linhas de força se expandindo para fora para preencher o espaço. À medida que cortavam o fio
na segunda bobina, uma corrente era iniciada, porque as linhas de força rapidamente se expandiam ao máximo e depois paravam
de cortar o fio, a corrente era apenas momentânea. Com o circuito fechado e o campo magnético estacionário, não se esperava
mais corrente elétrica na segunda bobina. No entanto, quando ele abriu o primeiro circuito, o campo magnético cessou e as linhas
de força entraram em colapso novamente, estabelecendo momentaneamente uma corrente na direção oposta à primeira.

Ele mostrou esse fato de forma mais clara para si mesmo (e para o público a quem dava palestras) inserindo um ímã em uma
bobina de fio que estava presa a um galvanômetro. Enquanto o ímã estava sendo inserido, a agulha do galvanômetro chutou
Machine Translated by Google

uma direção; e enquanto estava sendo retirado, chutou na outra direção. Enquanto o ímã permaneceu em repouso dentro da
bobina em qualquer estágio de sua inserção ou retirada, não havia corrente na bobina. No entanto, a corrente também era iniciada na
bobina se o ímã fosse mantido estacionário e a bobina fosse movida para baixo sobre ele ou levantada novamente, não importava,
afinal, se o fio se movia através das linhas de força ou o linhas de força moviam-se através do fio.

Faraday de fato usou o magnetismo para induzir uma corrente elétrica e, assim, descobriu a indução eletromagnética.
Nos Estados Unidos, Henry fez uma descoberta semelhante mais ou menos na mesma época, mas o trabalho de Faraday foi publicado primeiro.

A produção de uma corrente induzida é mais facilmente visualizada se considerarmos o espaço entre os pólos de um ímã,
onde as linhas de força se movem através do intervalo em linhas retas do pólo norte ao pólo sul, e imaginamos um único fio de
cobre movendo-se entre aqueles pólos. (Não faz diferença; a propósito, se o ímã em questão é permanente ou um eletroímã com a
corrente ligada.)

Se o fio estivesse imóvel ou estivesse se movendo paralelamente às linhas de força, não haveria corrente induzida. Se o fio se
movesse na direção s que não fosse paralela às linhas de força, de modo que as cortasse, haveria uma corrente induzida.

O tamanho da diferença de potencial que conduz a corrente induzida dependeria do número de linhas de força cortadas por
segundo, e isso, por sua vez, dependeria de vários fatores. Primeiro, há a velocidade do fio em movimento.
Quanto mais rápido o fio se move em qualquer direção não paralela às linhas de força, maior o número de linhas de força cortadas
por segundo e maior a diferença de potencial que conduz a corrente induzida.

Novamente, há a questão da direção do movimento do fio. Se o fio está se movendo em uma direção perpendicular
às linhas de força, então ele está cortando um certo número de linhas de força por segundo. Se o fio está se movendo, na mesma
velocidade, em uma direção não muito perpendicular às linhas de força, ele corta menos delas por unidade de tempo, e a diferença de
potencial da corrente induzida é menos intensa. Quanto maior o ângulo entre a direção do movimento e a perpendicular às linhas de
força e menor a diferença de potencial da corrente induzida. Finalmente, quando o movimento está em uma direção de 90 graus em
relação à perpendicular, esse movimento é na verdade paralelo às linhas de força e não há corrente induzida.

Além disso, se o fio estiver em bobinas, e cada bobina corta as linhas de força, a diferença de potencial que conduz a
corrente induzida é multiplicada em intensidade pelo número de bobinas por unidade de comprimento.
Machine Translated by Google

A direção da corrente induzida pode ser determinada usando a mão direita, de acordo com um sistema sugerido pela primeira
vez pelo engenheiro eletricista inglês John Ambrose Fleming (1849-1945) e, portanto, chamado de regra de Fleming. Aplica-se sem
complicações quando o fio se move numa direção perpendicular à das linhas de força. Para aplicar a regra, estenda o polegar, o
dedo indicador e o dedo médio de modo que cada um forme um ângulo reto com os outros dois – isto é, permitindo que o polegar
aponte para cima, o dedo indicador para a frente e o dedo médio para a esquerda. Se, então, o dedo indicador aponta a direção das
linhas magnéticas de força do pólo norte ao pólo sul, e o polegar aponta a direção na qual o fio se move, o dedo médio indicará a
direção (do pólo positivo ao pólo negativo) da corrente induzida na vitória.

Dois meses após a descoberta da indução eletromagnética, Faraday deu o próximo passo. Uma vez que uma corrente elétrica
era produzida quando linhas de força magnética cortam um condutor elétrico, como ele poderia inventar um método para cortar
essas linhas continuamente?

Ele montou um disco fino de cobre que podia ser girado em um eixo. Sua borda externa passou entre os pólos de um forte ímã
enquanto o disco girava. À medida que passava entre esses pólos, cortava continuamente as linhas de força magnética, de
modo que uma diferença de potencial era estabelecida no disco, uma diferença que se mantinha enquanto o disco girava. Dois fios
terminando em contatos deslizantes foram presos ao disco. Um contato roçou a roda de cobre enquanto ela girava, o outro roçou o
eixo. As outras extremidades dos fios foram conectadas a um galvanômetro.

Uma vez que o potencial elétrico foi maior na borda quando o material do disco se moveu mais rapidamente e, portanto, cortou
através de mais linhas de força por unidade de tempo, existia uma diferença de potencial máxima entre aquele aro e o eixo
imóvel. Uma corrente elétrica fluía através dos fios e do galvanômetro enquanto o disco girava. Faraday estava gerando uma corrente
continuamente, sem o benefício de reações químicas, e assim construiu o primeiro gerador elétrico.

A importância do dispositivo foi enorme, pois, em essência, converteu a energia do movimento em energia elétrica.
Um disco poderia ser mantido em movimento por uma máquina a vapor, por exemplo, às custas da queima de carvão ou óleo
(muito mais barato do que a queima de zinco), ou por uma turbina que poderia ser acionada por água corrente, de modo que
riachos e cachoeiras pudessem ser feitos para produzir eletricidade. Levou cinquenta anos para elaborar todos os detalhes
técnicos que impediam que o gerador fosse realmente prático, mas na década de 1880 a eletricidade barata em quantidade era
uma realidade; e a luz elétrica e, de fato, a eletrificação da sociedade em geral tornaram-se possíveis.
Machine Translated by Google

CAPÍTULO 13

Corrente alternada

A Armadura

Nos geradores modernos, o disco de cobre de Faraday girando entre os pólos de um ímã é substituído por bobinas de fio de cobre
enrolado em um tambor de ferro girando entre os pólos de um eletroímã. As bobinas giratórias compõem a armadura. Para ver o
que acontece neste caso, vamos simplificar as coisas o máximo possível e considerar um único laço retangular de fio girando
entre um pólo norte à direita e um pólo sul à esquerda.

Imagine tal retângulo orientado paralelamente às linhas de força (movendo-se da direita para a esquerda) e começando a girar de tal forma
de forma que o fio do lado esquerdo do retângulo (o fio L) se move para cima, através das linhas de força, enquanto o fio do
lado direito do retângulo (o fio R) se move para baixo, através das linhas de força.

Concentre-se, para começar, no fio L e use a regra da mão direita de Fleming. Aponte o polegar para cima, pois esse é o
direção em que o fio L está se movendo. Aponte seu dedo indicador para a esquerda, pois essa é a direção do pólo sul do ímã.
Seu dedo médio aponta para você, e essa é a direção da corrente induzida no fio L.

E o fio R? Agora o polegar deve estar apontado para baixo enquanto o dedo indicador ainda aponta para a esquerda. O meio
dedo aponta para longe de você e essa é a direção da corrente induzida no fio R. Se a corrente induzida estiver viajando em
sua direção no fio L e se afastando de você no fio R, você pode ver que ela está realmente dando voltas e mais voltas na espira.

Em seguida, imagine que o fio L e o fio R estão conectados a "anéis deslizantes" separados (Anel A e Anel B, respectivamente),
cada um dos quais está centrado em torno do eixo que serve como um eixo em torno do qual o laço gira. A corrente tenderia a fluir
do Anel B através do fio R para o fio L e de volta para o Anel A. Se uma extremidade de um circuito estiver conectada a um anel por
meio de um contato de escova e a outra extremidade do mesmo circuito o outro anel, a corrente gerada no giro
Machine Translated by Google

armadura percorreria todo o circuito.

Mas vamos considerar o loop retangular um pouco mais longo. Como a espira está girando, o fio L e o fio R não podem se mover para
cima e para baixo, respectivamente, indefinidamente. Eles estão, de fato, mudando constantemente de direção. À medida que o fio L se move
para cima, ele se curva para a direita e se move em um ângulo menor em relação às linhas de força, de modo que a intensidade da corrente
induzida diminui. Exatamente o mesmo acontece com o fio R, pois à medida que se move para baixo, ele se curva para a esquerda e se move
também em um ângulo menor em relação às linhas de força.

A corrente continua a diminuir à medida que a espira gira até que a espira tenha completado uma volta em ângulo reto, de modo que o fio 1 seja
na parte superior e o fio R na parte inferior. O fio L está agora se movendo para a direita, paralelo às linhas de força, enquanto o fio R
está se movendo para a esquerda, também paralelo às linhas de força. A intensidade da corrente induzida diminuiu para zero. À medida
que o loop continua a girar, o fio L corta as linhas de força, enquanto o fio R corta-as. Os dois fios agora mudaram de lugar, o fio L se
tornando o fio R e o fio R se tornando o fio L.

Os fios, apesar dessa mudança de lugar (no que diz respeito ao sentido da corrente induzida), ainda estão conectados
aos mesmos anéis coletores. Isso significa que, à medida que a armadura faz uma rotação completa, a corrente flui do Anel B para o Anel
A na metade do tempo e do Anel A para o Anel B na outra metade. Isso se repete na próxima rotação, e na próxima e na próxima. A
corrente produzida dessa maneira é, portanto, corrente alternada (geralmente abreviada AC) e se move para trás e para frente perpetuamente.
Uma rotação da espira produz um movimento para frente e para trás da corrente - isto é, um ciclo. Se a espira gira sessenta vezes por
segundo, temos uma corrente alternada de 60 ciclos.

A corrente também não é constante em intensidade durante o período em que está se movendo em uma direção específica. Durante
uma rotação da espira, a intensidade da corrente começa em zero, quando os fios móveis (superior e inferior) estão se movendo paralelamente
às linhas de força; sobe suavemente até o máximo, quando os fios (direita e esquerda) estão se movendo perpendicularmente às linhas de
força, e então cai suavemente para zero novamente, quando os fios (inferior e superior) estão se movendo paralelamente às linhas de força
mais uma vez.

À medida que a espira continua girando, a corrente muda de direção, e agora podemos imaginar que o fluxo seja menor que zero - que
ou seja, podemos decidir deixar a intensidade da corrente ser medida em números positivos quando seu arco está em uma direção e em
números negativos quando seu fluxo está na outra. Portanto, depois que a intensidade caiu para zero, ela continua caindo suavemente ao
mínimo quando os fios (esquerdo e direito) estão se movendo perpendicularmente às linhas de força; e sobe suavemente para zero
novamente quando os fios (superior e inferior) estão se movendo paralelamente às linhas de força mais uma vez. este
Machine Translated by Google

completa uma rotação e o ciclo recomeça.

Se, por conveniência, imaginarmos a intensidade máxima de corrente como 1 ampere, então no primeiro quarto da rotação de
no loop a intensidade muda de 0 para + 1; no segundo trimestre de +1 a 0; no terceiro trimestre de O para -1; e no quarto
trimestre de -1 a 0. Se essa mudança de intensidade for plotada em função do tempo, há uma onda suavemente ascendente
e descendente, repetida infinitamente, que os matemáticos chamam de curva senoidal.

Um gerador pode ser facilmente modificado de forma a produzir uma corrente que flui através de um circuito apenas em
uma direção. Esta seria uma corrente contínua (geralmente abreviada DC), e é esse tipo de corrente que foi tratada pela
primeira vez por Volta e que é sempre produzida por células químicas.

Suponha que as duas extremidades de nosso laço retangular estejam presas a "meios anéis" que se unem em torno do
eixo que serve como eixo de rotação, mas que não se tocam. O fio L está ligado a um meio anel e o fio R ao outro. O contato
da escova de uma extremidade do circuito toca um meio anel; o contato da escova do outro toca o segundo anel de parada.

Durante a primeira metade da rotação da armadura, a corrente flui, digamos, do meio anel A para o meio anel B, durante
a segunda metade, a corrente se inverte e curva do meio anel B para o meio anel R. No entanto, toda vez que a armadura
passa por uma rotação de parada, os semi-anéis mudam de lugar. Se um contato da escova estiver tocando o meio-anel
positivo, o meio-anel negativo se encaixa no momento em que se torna positivo e sai de seu lugar no momento em que começa
a se tornar negativo novamente. Em outras palavras, o primeiro contato das escovas é tocar cada semi-anel por sua vez,
sempre quando os anéis estiverem na porção positiva do seu ciclo; o outro contato da escova sempre toca os semi-anéis
quando são negativos. A corrente pode mudar de direção na armadura, mas curva em uma direção constante no circuito conectado.

A intensidade ainda aumenta e diminui, com certeza, de 0 a +1 a 0 a +1, e assim por diante. Ao aumentar o número de loops
e dividir os anéis em segmentos menores, essas variações de intensidade podem ser minimizadas e uma corrente contínua
razoavelmente constante pode ser produzida.

O gerador CA é mais simples em design do que o gerador CC, mas a corrente alternada teve que superar uma série de
objeções antes que pudesse ser geralmente aceita. Edison, por exemplo, foi um grande defensor da corrente contínua e,
durante as últimas décadas do século XIX, lutou contra o uso da corrente alternada. (O grande proponente da corrente
alternada foi o inventor americano George Westinghouse [1846-1914]).
Machine Translated by Google

Ao considerar essa competição entre os dois tipos de corrente, pode parecer natural a princípio que a CC seja favorecida. Na
verdade, AC pode parecer inútil à primeira vista. Afinal, uma corrente contínua está "chegando a algum lugar" e, portanto, é útil, enquanto
uma corrente alternada "não está chegando a lugar nenhum" e, portanto, não pode ser útil - ou assim pode parecer.

No entanto, a sensação de "não está chegando a lugar nenhum" está errada. Talvez seja o resultado de uma falsa analogia com a água correndo
um cano· Normalmente, queremos que a água chegue a algum lugar - que saia do cano, por exemplo, para que possamos usá-la
para beber, lavar, resfriar, irrigar, combater incêndios e assim por diante.

Mas a eletricidade nunca flui de um fio em aparelhos elétricos comuns. Ele "não está chegando a lugar nenhum" em nenhuma
circunstância. A corrente contínua pode ir apenas em uma direção, mas ela dá voltas e voltas em círculo e isso não é mais "chegar a
lugar algum" do que se mover para trás e para frente em um lugar.

Há momentos em que a DC é realmente necessária. Ao carregar baterias de armazenamento, por exemplo, você quer que a corrente se mova
sempre na direção oposta àquela em que a corrente se move quando a bateria está descarregando Por outro lado, há momentos em que
não importa se a corrente é contínua ou alternada. Por exemplo, uma torradeira ou uma lâmpada incandescente funcionam simplesmente
porque a corrente forçando seu caminho através de uma resistência aquece essa parte do circuito (para um calor vermelho na torradeira e
um calor branco na lâmpada). O efeito de aquecimento não depende da direção em que a corrente está fluindo, ou mesmo se ela muda
continuamente de direção. Por analogia, você pode ficar aquecido e suado se correr uma milha em linha reta, ou em uma pequena pista
circular, ou para trás e para frente em uma sala de estar. O efeito de aquecimento não depende de "chegar a lugar nenhum".

Uma objeção mais séria ao AC, no entanto, era que a análise matemática de seu comportamento era mais complicada.
do que o dos circuitos DC. Para o projeto adequado de circuitos CA, essa análise matemática primeiro teve que ser feita e
compreendida. Até então, os circuitos eram continuamente atormentados pela baixa eficiência.

Impedância

Uma situação em que a intensidade da corrente e a diferença de potencial estão mudando constantemente levanta questões
importantes - por exemplo, como fazer até mesmo os cálculos mais simples envolvendo corrente alternada. Quando uma fórmula inclui I
(intensidade de corrente) ou E (diferença de potencial), pode-se perguntar qual valor inserir quando uma corrente alternada não tem valor
definido para nenhuma das grandezas, mas um valor que varia constantemente de zero a algum valor máximo I (max)... e E(max)), primeiro
em uma direção e depois na outra.
Machine Translated by Google

Deve-se então julgar essas propriedades da corrente alternada pelos efeitos que produzem, e não por seus valores numéricos
absolutos. Pode-se mostrar, por exemplo, que uma corrente alternada pode, na produção de calor e em outros usos, ter o mesmo
efeito que uma corrente contínua com valores definidos de I e E. Os valores de I e E, portanto, representam a intensidade efetiva
da corrente e a diferença de potencial efetiva da corrente alternada, e são esses valores efetivos que I e E simbolizam nas correntes
alternadas. Os valores efetivos estão relacionados aos valores máximos da seguinte forma:

I = I(máx.) / 1,44 (Equação 13-1)

E = E(max) / 1.44 (Equação 13-2)

Poder-se-ia supor que, tendo definido I e E para correntes alternadas, se poderia proceder imediatamente à resistência,
representando isso pela razão E/I (a intensidade da corrente produzida por uma dada diferença de potencial) de acordo com a
lei de Ohm. Aqui, porém, surge uma complicação. Um circuito que sob corrente contínua teria uma baixa resistência, como
indicado pelo fato de que uma alta intensidade de corrente seria produzida por uma dada diferença de potencial, sob corrente
alternada teria uma resistência muito maior, como indicado pela baixa intensidade de corrente produzida por a mesma diferença
de potencial. Aparentemente, sob corrente alternada, um circuito possui algum fator de resistência diferente da resistência comum
dos materiais que compõem o circuito.

Para ver por que isso acontece, voltemos aos primeiros experimentos de Faraday sobre indução eletromagnética. Ali, à
medida que a corrente elétrica era iniciada em uma bobina, uma retenção magnética era produzida e as linhas de força em
expansão cortavam uma segunda bobina, induzindo uma diferença de potencial e, portanto, uma corrente elétrica em uma
determinada direção nessa segunda bobina. Quando a corrente elétrica foi interrompida na primeira bobina, as linhas de força em
colapso do campo magnético moribundo cortam novamente a segunda bobina, induzindo uma diferença de potencial de sinal
invertido e, portanto, uma corrente elétrica na direção oposta nessa segunda bobina. .

Até agora tudo bem. No entanto, deve-se notar que quando a corrente começa a fluir em uma bobina, de modo que as linhas
de força magnética se espalham para fora, elas não apenas cortam outras bobinas na vizinhança, mas também cortam as próprias
bobinas que iniciam o campo magnético. (As linhas de força que se espalham a partir de uma espira nas bobinas cortam todas as
suas vizinhas.) Novamente, quando a corrente em uma bobina é cortada, as linhas de força do magnético em colapso cortam as
próprias bobinas nas quais a corrente foi cortado oh. À medida que a corrente inicia ou para na bobina, uma corrente induzida é
configurada nessa mesma bobina. Isso é chamado de auto-indução ou indutância, e foi descoberto por Henry em 1832. (Aqui Henry anunciou s
Machine Translated by Google

Faraday, que fez a mesma descoberta de forma independente; Faraday, você deve se lembrar, apenas antecipou Henry em relação à
própria indução eletromagnética.)

Quase simultaneamente com Henry e Faraday, um físico russo, Heinrich Friedrich Emil Lenz (1804-1865), estudou a indutância.
Ele foi o primeiro a fazer a importante generalização de que a diferença de potencial induzida estabelecida em um circuito sempre
atua para se opor à mudança que a produziu. Isso é chamado de lei de Lenz.

Assim, quando uma corrente em uma bobina é iniciada pelo fechamento de um circuito, seria de se esperar que a intensidade
da corrente aumentasse instantaneamente até o nível esperado. No entanto, à medida que sobe, cria uma diferença de potencial
induzida, que tende a produzir uma corrente na direção oposta à que está se acumulando. Essa oposição por indutância faz com que
a corrente primária no circuito suba para seu valor esperado com lentidão comparativa.

Novamente, se a corrente em uma bobina for interrompida pela interrupção de um circuito, seria de se esperar que a intensidade
da corrente caísse para zero imediatamente. Em vez disso, a interrupção do circuito cria um potencial induzido, que, novamente, se
opõe à mudança e tende a manter a corrente fluindo. A intensidade da corrente, portanto, cai para zero com lentidão comparativa.
Esta diferença de potencial oposta produzida por auto-indução é muitas vezes referida como tensão de retorno.

Na corrente contínua, esse efeito oposto da indutância não é muito importante, pois só se faz sentir no momento de iniciar
e parar uma corrente, quando as linhas de força estão se movendo para fora ou para dentro. Contanto que a corrente seja
constante em uma única direção, não há mudança nas linhas de força magnética, nenhuma corrente induzida e nenhuma
interferência com a corrente primária

Quão diferente para a corrente alternada, no entanto, que está sempre mudando, de modo que as linhas de força magnéticas são sempre
cortando as bobinas enquanto elas se movem continuamente para fora ou para dentro. Aqui uma diferença de potencial
induzida está constantemente em existência e se opõe constantemente à diferença de potencial primária, reduzindo muito seu valor.
Assim, onde uma dada diferença de potencial conduzirá uma alta intensidade de corrente (direta) através de um circuito, sob
condições AC ela será amplamente neutralizada pela indutância, e somente uma pequena intensidade de corrente (alternada) através

A unidade de indutância é o Henry, em homenagem ao físico. Quando uma intensidade de corrente em um circuito está mudando
à taxa de 1 ampere por segundo e, no processo, induz uma diferença de potencial oposta de 1 volt, diz-se que o circuito tem uma
indutância de 1 henry. Por esta definição, 1 henry é igual a 1 (volt por ampere) por segundo, ou 1 volt-segundo por ampere (volt-sec/
amp).
Machine Translated by Google

A resistência ao fluxo de corrente produzida por auto-indução depende não apenas do valor da própria indutância, mas também da
frequência da corrente alternada, pois com o aumento da frequência, a taxa de variação da intensidade da corrente com o tempo (ampères
por segundo) aumenta . Portanto, quanto mais ciclos por segundo, maior a resistência ao fluxo de corrente por uma determinada
indutância. Suponha que simbolizamos a indutância como L e a frequência da corrente alternada como f. A resistência produzida por esses
dois fatores é chamada de reatância indutiva e é simbolizada como X(L) que:

X(L) = 2 (pi) f L (Equação 13-3)

Se L for medido em henrys, ou seja, em volt-segundos por ampere, e f for medido em unidades por segundo, então as unidades de
X, deve ser (volt-segundos por ampere) por segundo. Os segundos se cancelam e as unidades se tornam simplesmente volts por
ampere, que define o ohm. Em outras palavras, a unidade de reatância indutiva é o ohm, pois é de resistência comum.

A resistência ordinária (R) e a reatância indutiva (X), ambas contribuem para a determinação da intensidade da corrente colocada
em um circuito de corrente alternada por uma dada diferença de potencial. Juntos, eles formam a impedância (Z). No entanto, não se trata
apenas de adicionar resistência e reatância indutiva. A impedância é determinada pela seguinte equação:

2 2
Z = raiz quadrada de [ R + X(L) ] (Equação 13-4)

Em correntes alternadas, é a impedância que desempenha o papel de resistência comum em correntes contínuas. Em outras palavras, o
equivalente AC da lei de Ohm seria IZ=E, ou I=E/Z, ou Z=I/E.

A reatância é produzida de forma ligeiramente diferente pelos condensadores. Um condensador em um circuito de corrente contínua atua como um
e, com todas as diferenças de potencial razoáveis, impede que uma corrente flua. Em um circuito de corrente alternada, no entanto,
um condensador não impede que a corrente flua. Para ter certeza, a corrente não flui através do entreferro, mas surge para frente e para trás,
empilhando elétrons primeiro em uma placa do condensador, depois na outra. Na passagem para frente e para trás de uma placa para a outra,
a corrente passa por um aparelho - digamos uma luz elétrica - que começa a brilhar. O filamento reage ao fluxo de corrente através de si
mesmo e não ao fato de que possa haver outra parte do circuito em algum outro lugar através do qual não haja fluxo de corrente.

Quanto maior a capacitância de um condensador, mais intensa é a corrente que oscila para frente e para trás, porque uma maior
Machine Translated by Google

A carga pode ser empilhada primeiro em uma placa e depois na outra. Outra maneira de colocar isso é que quanto maior a capacitância de um
condensador, menor a oposição ao fluxo de corrente, pois há mais espaço para os elétrons no local e, portanto, menos empilhamento de repulsão
negativo-negativo para se opor. um fluxo contínuo.

Essa oposição a um fluxo contínuo é a reatância capacitiva X(c), que é inversamente proporcional à capacitância
(C) do condensador. A reatância capacitiva também é inversamente proporcional à frequência (f) da corrente, pois quanto mais rapidamente a
corrente mudar de direção, menor a probabilidade de qualquer placa do condensador obter um excesso de suprimento de elétrons durante o
curso de um meio ciclo, e quanto menor a repulsão negativo-negativa estabelecida para se opor ao fluxo da corrente. (Em outras palavras,
aumentar a frequência diminui a reatância capacitiva, embora aumente a reatância indutiva.) A relação inversa pode ser expressa da seguinte
forma:

X(c) = 1 / [2 (pi) f C] (Equação 13-5)

A capacitância (C) é medida em farads - isto é, em coulombs por volt ou, o que é equivalente, em amperes-segundos por
volt. Como a unidade de frequência (f) é por segundo, as unidades de 2(pi)fC são amperes-segundos por volt por segundo, ou (com
cancelamento de segundos) amperes por volt. As unidades de reatância capacitiva (X,) são o recíproco disto - isto é, volts por ampere, ou ohms.
Assim, a reatância capacitiva, como a reatância indutiva, é uma forma de resistência no circuito.

A reatância capacitiva e o banho de reatância indutiva agem para reduzir a intensidade da corrente em um circuito AC sob um determinado
diferença de potencial se qualquer um estiver presente isoladamente. No entanto, eles fazem isso de maneiras opostas.

Nas circunstâncias mais simples, a intensidade da corrente e a diferença de potencial de uma corrente alternada aumentam e diminuem
em passo à medida que se movem ao longo da curva senoidal. Ambos são zero ao mesmo tempo; ambos estão na crista máxima ou no vale
mínimo ao mesmo tempo. Uma reatância indutiva, no entanto, causa um atraso na intensidade da corrente; para atingir seu máximo (ou mínimo,
ou ponto zero) apenas um intervalo perceptível depois que a diferença de potencial o atingiu. Uma reatância capacitiva, por outro lado, faz com
que a intensidade da corrente seja adiantada; para subir e descer um período de tempo perceptível antes da subida e descida da diferença de
potencial. Em ambos os casos, a intensidade da corrente e a diferença de potencial estão fora de fase e a energia é perdida.

No entanto, se houver uma reatância capacitiva e uma reatância indutiva no circuito, o efeito de um é cancelar o de
o outro. O avanço da reatância capacitiva deve ser subtraído do atraso da reatância indutiva. A impedância total pode ser expressa da
seguinte forma:
Machine Translated by Google

Z = raiz quadrada de [ R2 +{X(c) - X(c)} 2] (Equação 136)

Se o circuito estiver disposto de modo que a reatância capacitiva seja igual à reatância indutiva, então X(L) – X (c ) = 0; e Z = R. A
impedância do circuito de corrente alternada não é então maior do que seria a resistência comum de um circuito de corrente contínua
análogo. Diz-se que tal circuito de corrente alternada está em ressonância. Observe que a impedância nunca pode ser menor que a
resistência. Se a reatância capacitiva for maior que a reatância indutiva, então X(L) – X(c ) é de fato um número negativo, mas seu
quadrado é positivo e quando isso é adicionado ao quadrado da resistência e a raiz quadrada da soma for tomado, o valor final de Z
será maior que o de R.

Isso representa apenas o mero começo das complicações dos circuitos AC. Boa parte do tratamento completo foi
elaborada no início do século XX pelo engenheiro eletricista germano-americano Charles Proteus Steinnetz (1865-1923), e só a
partir de então as correntes alternadas puderam ser devidamente exploradas.

Transformadores

Mesmo antes de Steinmetz ter racionalizado o uso de circuitos alternados – e apesar da natureza formidável das dificuldades,
que, na ausência de tal racionalização, atormentavam os projetistas de circuitos; e apesar também da formidável oposição de homens
como Edison e Kelvin - o impulso para o uso da corrente alternada levado à vitória. A razão para isso era que, em um aspecto,
envolvendo a transmissão de energia elétrica por longas distâncias, a corrente alternada era suprema sobre a corrente contínua.

A potência de uma corrente elétrica é medida em wads e é igual aos volts da diferença de potencial vezes a intensidade da corrente
em amperes. (Estritamente falando, isso é verdade apenas na ausência de reatância. Onde a reatância indutiva está presente, a potência
é diminuída por um fator de potência específico. No entanto, isso pode ser reduzido ou mesmo eliminado pela adição de uma reatância
capacitiva adequada, então isso não precisa nos incomodar.)

Isso significa que diferentes combinações de volts e amperes podem representar uma corrente elétrica de mesma potência. a 10
volts, em cada caso, a potência seria a mesma - 120 watts.

Existem vantagens em ter uma determinada energia elétrica aparecendo em um arranjo de alta voltagem e baixa amperagem sob alguns
condições e em um arranjo de baixa tensão e alta amperagem sob outras condições. No primeiro caso, a baixa corrente
Machine Translated by Google

intensidade torna possível usar fio de cobre relativamente fino no circuito sem medo de efeitos de aquecimento indevidos. Neste
último caso, a baixa diferença de potencial significa que há uma chance menor de quebrar o isolamento ou produzir um curto-
circuito.

E depois há o problema mencionado anteriormente de transmitir correntes elétricas por longas distâncias. Grande parte da
conveniência da eletricidade seria perdida se ela pudesse ser usada apenas na vizinhança próxima de um gerador. No entanto, se a
corrente for enviada através de fios por distâncias consideráveis, é provável que muita energia seja perdida na forma de calor que ou
temos muito pouca eletricidade na outra extremidade para nos preocupar, ou devemos reduzir a perda de calor em usando fio tão
grosso que é antieconômico. O calor produzido, no entanto, é proporcional ao quadrado da intensidade da corrente. Portanto, se
reduzirmos a intensidade da corrente para uma quantidade muito baixa, ao mesmo tempo em que aumentamos a diferença de
potencial para um valor correspondentemente alto (para manter a potência elétrica total inalterada), muito menos eletricidade seria perdida.

Naturalmente, não é muito provável que esse arranjo de pequena intensidade de corrente combinada com enormes diferenças
de potencial seja adequado para uso em aparelhos comuns. Consequentemente, queremos uma situação em que a mesma potência
possa estar em tensões muito altas para transmissão e em tensões muito baixas para uso.

Com a corrente contínua, é altamente impraticável tentar alterar a diferença de potencial de uma corrente - agora para cima,
agora para baixo - para atender às necessidades de mudança. Em corrente alternada, no entanto, é fácil fazer isso por meio de
um transformador (um dispositivo que "transforma" a relação volt-ampere). Em essência, era um transformador que Faraday havia
inventado quando em 1831 ele fez uso de um anel de ferro com dois conjuntos de bobinas de arame em sua tentativa de induzir uma corrente elé

Faraday descobriu que quando uma corrente elétrica direta passava por uma das bobinas (a primária), nenhuma corrente
era induzida na outra bobina (a secundária), exceto nos momentos em que a corrente era iniciada ou terminada. Foi só então que as
linhas magnéticas de força varreram o secundário.

Onde a corrente no primário é uma corrente alternada, no entanto, a intensidade da corrente está sempre subindo ou
descendo; e a intensidade do campo magnético através do anel de ferro está sempre aumentando ou diminuindo. As linhas de
força se expandem para fora e colapsam para dentro repetidamente e, ao fazê-lo, cortam o secundário, produzindo uma corrente
alternada que se mantém em perfeita sintonia com a corrente alternada no primário.

A diferença de potencial da corrente induzida depende do número de bobinas no secundário em comparação com o
número no primário. Assim, se a corrente no primário tiver uma diferença de potencial de 120 volts e se o secundário
Machine Translated by Google

contém dez vezes mais espiras de fio do que o primário, então a corrente induzida terá uma diferença de potencial de 1200
volts. Este é um exemplo de um transformador elevador. Se a corrente induzida produzida por tal transformador for usada para
alimentar o primário em outro transformador no qual o secundário agora tem apenas um décimo do número de bobinas que
o primário tem, a nova corrente induzida volta a 120 volts. O segundo transformador é um transformador abaixador.

A corrente induzida (se ignorarmos as perdas desprezíveis na forma de calor) deve ter a mesma potência que a
corrente original. Caso contrário, a energia será criada ou destruída no processo, e isso é inadmissível. Isso significa que, à
medida que a diferença de potencial aumenta, a intensidade da corrente deve diminuir e vice-versa. Se uma corrente de um
ampere em 120 volts ativa um transformador elevador em que o secundário tem cem vezes o número de bobinas que o
primário tem, a corrente induzida terá uma diferença de potencial de 12.000 volts e uma intensidade de corrente de 1/ 100
amperes. Tanto no primário quanto no secundário, a potência será de 120 watts.

Se forem usados geradores de corrente alternada, não há nenhuma dificuldade em alterar as tensões por meio de
transformadores. Um transformador elevador em particular servirá para elevar a diferença de potencial a grandes alturas e
a intensidade de corrente a valores triviais. Tal corrente pode ser transmitida a longas distâncias através de fios não
excessivamente grossos, com pouca perda de calor, graças à baixa intensidade de corrente. Graças à alta diferença de
potencial, no entanto, a potência total da corrente elétrica está sendo transmitida.

Quando a corrente chega ao ponto onde deve ser utilizada, um transformador abaixador irá convertê-la para uma menor
diferença de potencial e uma maior intensidade de corrente para uso em eletrodomésticos ou máquinas industriais. Um
determinado aparelho ou máquina pode precisar de diferenças de potencial baixas em um ponto e diferenças de potencial
altas no outro, e cada um pode ser fornecido pelo uso de transformadores apropriados. A transmissão de longa distância
através de corrente alternada de alta tensão foi viabilizada pelo trabalho do engenheiro elétrico croata-americano Nikola Tesla
(1857-1943). Ele foi apoiado por Westinghouse, que em 1893 ganhou o direito de instalar nas Cataratas do Niágara uma usina
hidrelétrica (onde a força da queda da água giraria turbinas que acionariam armaduras e produziriam eletricidade) para a
produção e transmissão de corrente alternada.

Desde então, a corrente AC passou a ser de uso praticamente universal, e isso é responsável pela grande flexibilidade e
versatilidade da eletricidade como forma de energia útil.

Motores
Machine Translated by Google

Graças ao desenvolvimento do gerador, a energia mecânica pôde ser convertida em energia elétrica, e foi
possível ter grandes suprimentos de eletricidade provenientes, indiretamente, da queima de carvão ou queda de água. Graças
ao desenvolvimento da corrente alternada e dos transformadores, essa energia elétrica pôde ser transportada por longas distâncias e
conduzida a cada casa ou fábrica.

No entanto, uma vez na casa ou na fábrica, qual era a eletricidade para fazer lá? Felizmente, quando a eletricidade
ser produzido e transportado em quantidade, a questão da forma de seu consumo já havia sido respondida.

Essa resposta surgiu da reversão de um efeito conhecido. Isso acontece com frequência na ciência. Se deformar a forma de um
cristal produz uma diferença de potencial, então aplicar uma diferença de potencial em lados opostos de um cristal irá deformar sua
forma. Se uma corrente elétrica cria um campo magnético, então um campo magnético pode ser feito para produzir uma corrente elétrica.

Não é surpreendente, portanto, que se a energia mecânica pode ser convertida em energia elétrica quando um condutor é feito
para se mover e cortar linhas de força magnética, a energia elétrica pode ser convertida em energia mecânica, fazendo com que um
condutor se mova tristemente através das linhas. de força magnética.

Imagine um fio de cobre entre os pólos de um ímã, pólo norte à direita e pólo sul à esquerda. Se o fio de cobre for movido para cima,
então, pela regra da mão direita de Fleming, sabemos que uma corrente será induzida na direção para
nós.

Suponha, no entanto, que mantenhamos o fio imóvel no meio do campo, de modo que nenhuma corrente seja induzida nele. Suponha que nós
então ' envia uma corrente através dele de uma bateria, essa corrente se movendo em nossa direção. O fio condutor de corrente
agora cria um campo magnético próprio. Como a corrente está vindo em nossa direção, as linhas de força correm em círculos no sentido
anti-horário em torno de si mesmas. Acima do fio, essas linhas de força no sentido anti-horário correm na mesma direção que as linhas
retas de força do pólo norte ao pólo sul do ímã. Os dois se somam, de modo que o fluxo magnético é aumentado.
Abaixo do fio, as linhas de força no sentido anti-horário correm na direção oposta às linhas de força do ímã, H) que há um cancelamento
de efeito e a densidade de fluxo é diminuída. Com uma alta densidade de fluxo acima do fio e uma baixa densidade de fluxo abaixo
dele, o fio é empurrado para baixo pela tendência natural das linhas de força de "uniformizar". Se a corrente no fio estiver se afastando
de nós, de modo que suas linhas de força circulem no sentido horário, a densidade do fluxo magnético será maior abaixo e o fio será
empurrado para cima.

Para resumir, considere um ímã com linhas de força que vão da direita para a esquerda:
Machine Translated by Google

Se um fio sem corrente for movido para cima, a corrente em sua direção é induzida.

Se um fio sem corrente for movido para baixo, a corrente que se afasta de você é induzida.

Se um fio contém corrente fluindo em sua direção, o movimento para baixo é induzido.

Se um fio contém corrente fluindo para longe de você, o movimento para cima é induzido.

Nos dois primeiros casos, a corrente é gerada fora do movimento e o dispositivo é um gerador. Nos dois últimos casos, o
movimento é feito de corrente e o dispositivo é um motor. (Na verdade, é o mesmo dispositivo em ambos os casos, mas é
executado “para frente” em um caso e “para trás” no outro.)
Observe que no gerador, a corrente na direção é com movimento para cima, e a corrente para fora com o movimento id do motor, a corrente
em direção está associado com movimento para baixo, e corrente para longe com movimento para cima. Portanto, ao
determinar a relação de direção das linhas de força, direção da corrente e direção do movimento, deve-se, no caso de um motor,
usar algum dispositivo que seja exatamente o oposto do dispositivo usado no caso do gerador. .

Para o gerador usamos a regra da mão direita de Fleming, e como temos um membro oposto no formato da mão esquerda,
usamos uma regra da mão esquerda (com o polegar, o indicador e o dedo médio mantidos em ângulos retos mútuos) para
relacionar as várias direções em um motor. Como na regra da mão direita, permitimos que o dedo indicador aponte na direção das
linhas de força, ou seja, em direção ao pólo sul. O dedo médio aponta na direção em que a corrente está fluindo, ou seja, em direção
ao pólo negativo. O polegar apontará automaticamente na direção do movimento imposto ao fio.

Agora vamos passar para um laço de fio entre os pólos de um ímã. Se uma rotação mecânica é imposta a ela, uma corrente
elétrica é induzida na espira. Consequentemente, é natural que, se uma corrente elétrica for colocada através do fio de uma fonte
externa, uma rotação mecânica seja induzida. (Sem entrar em detalhes, essa rotação mecânica pode ser provocada tanto por
corrente contínua quanto por corrente alternada. Alguns motores são projetados para funcionar com qualquer um deles.)

Você pode, portanto, ter dois dispositivos essencialmente idênticos. O primeiro usado como gerador, converterá a energia térmica de
queimar carvão em energia mecânica de uma armadura giratória e convertê-la, por sua vez, em energia elétrica. A energia
elétrica assim produzida é despejada no segundo dispositivo, usado como motor, e lá é convertida em energia mecânica de
uma armadura giratória. Claro, o gerador pode ser grande, fornecendo energia elétrica suficiente para funcionar
Machine Translated by Google

numerosos pequenos motores.

Uma vez que os grandes geradores tornaram prático a produção de grandes quantidades de eletricidade e os transformadores tornaram
prático o transporte de grandes quantidades de eletricidade, era apenas necessário que essa eletricidade fosse conduzida para os milhões de
motores em residências e fábricas. Os motores necessários estavam esperando para serem usados dessa maneira; eles estavam esperando por
cerca de meio século, pois o primeiro motor prático havia sido inventado por Henry em 1831.

Rodas giratórias eram usadas para fornecer energia mecânica desde os primeiros tempos históricos, pois o movimento rotacional não é
apenas útil em si mesmo, mas pode ser facilmente convertido em movimento de vai-e-vem por meio de conexões mecânicas adequadas.
Durante a maior parte da história do homem, as rodas foram giradas pelos músculos de homens e animais, pela ação da água caindo e pelo
vento soprando. Os músculos, no entanto, eram fracos e se cansavam facilmente, a água caía apenas em certas regiões e o vento era sempre
incerto,

Após a invenção das rodas do motor a vapor, as rodas puderam ser giradas pela aplicação de energia a vapor. No entanto o volumoso
os motores tinham de existir no local quando as rodas giravam e só podiam ser montados lucrativamente em fábricas ou em grandes
engenhos, como locomotivas e navios. Eles foram, portanto, usados lucrativamente apenas para trabalhos em grande escala. Motores a vapor
de pequena escala para uso doméstico pareciam fora de questão. Além disso, levava tempo para dar partida nos motores a vapor, pois grandes
quantidades de água tinham primeiro que ser fervidas.

Com o motor, no entanto, tornou-se possível uma roda independente. O gerador, como fonte de energia, não precisava estar nas instalações
ou em qualquer lugar próximo a elas. Além disso, os motores elétricos podiam dar partida ao apertar de um botão e parar ao apertar de outro.
Os motores eram versáteis ao extremo, e as rodas de qualquer tamanho e potência podiam ser giradas. Motores enormes foram projetados para
mover bondes ou máquinas industriais, e motores minúsculos agora alimentam máquinas de escrever, barbeadores e escovas de dentes.

Graças a Faraday e Henry (com assistências de Tesla e Steinmetz), a vida dos cidadãos das porções industriais
do mundo passaram, assim, a ser compostos, em grande medida, de uma complexa pilha de aparelhos elétricos.

CAPÍTULO 14
Machine Translated by Google

Radiação eletromagnética

Equações de Maxwell

Em meados do século XIX, a conexão entre eletricidade e magnetismo estava bem estabelecida e sendo bem utilizada. O
gerador e o motor haviam sido inventados, e ambos dependiam da inter-relação da eletricidade e do magnetismo.

A teoria, no entanto, ficou atrás da prática. Faraday, por exemplo, talvez o maior inovador elétrico de todos, era
completamente inocente em matemática, e desenvolveu sua noção de linhas de força de uma maneira extraordinariamente não
sofisticada, imaginando-as quase como elásticos.

Na década de 1860, Maxwell, um grande admirador de Faraday, começou a fornecer a análise matemática da
inter-relação da eletricidade e do magnetismo para completar o tratamento não matemático de Faraday.

Descrever a maneira pela qual uma corrente elétrica invariavelmente produz um campo magnético e como um ímã pode
ser feito para produzir uma corrente elétrica, bem como como cargas elétricas e pólos magnéticos podem estabelecer campos
consistindo de linhas de força. , em 1864 Maxwell desenvolveu um conjunto de quatro equações comparativamente simples,
conhecidas desde então como equações de Maxwell. A partir deles, foi possível deduzir a natureza das inter-relações da
eletricidade e do magnetismo sob todas as condições possíveis.

Para que as equações fossem válidas, parecia impossível considerar um campo elétrico ou um campo magnético isoladamente.
Os dois estavam sempre presentes juntos, direcionados em ângulos retos mútuos, de modo que havia um único campo eletromagnético.

Além disso, ao considerar as implicações de suas equações, Maxwell descobriu que um campo elétrico variável tinha que
induzir um campo magnético variável, que por sua vez tinha que induzir um campo elétrico variável, e assim por diante; os dois
saltaram, por assim dizer, e o domínio progrediu para fora em todas as direções. O resultado foi uma radiação nas propriedades de uma forma
Em suma, Maxwell previu a existência de ondas eletromagnéticas com frequências iguais àquelas em que o campo
eletromagnético aumentava e diminuía.
Machine Translated by Google

Foi até possível para Maxwell calcular a velocidade na qual tal onda eletromagnética teria que se mover.
Ele fez isso levando em consideração a razão de certos valores correspondentes nas equações que descrevem a força entre
cargas elétricas e a força entre os pólos magnéticos. Essa relação acabou por ter o valor de 300.000 quilômetros por segundo:

Mas isso era igual à velocidade da luz, e Maxwell não podia aceitar isso como mera coincidência. A radiação eletromagnética
não era um mero fantasma de suas equações, mas tinha uma existência real. Na verdade, a própria luz deve ser uma radiação
eletromagnética.

As equações de Maxwell serviram a várias funções gerais. Primeiro, eles fizeram para a visão de campo do universo o que
as leis do movimento de Newton haviam feito para a visão mecanicista do universo.

De fato, as equações de Maxwell foram mais bem-sucedidas do que as leis de Newton. Estes últimos mostraram-
se apenas aproximações que valem para baixas velocidades e curtas distâncias. Eles exigiam a modificação do ponto de
vista relativista mais amplo de Einstein para que fossem aplicados com total generalidade. As equações de Maxwell, por outro
lado, sobreviveram a todas as mudanças introduzidas pela relatividade e pela teoria quântica; eles são tão válidos à luz do
conhecimento atual como eram quando foram introduzidos pela primeira vez há um século.

Em segundo lugar, as equações de Maxwell, em conjunto com o desenvolvimento posterior da teoria quântica, parecem
finalmente nos fornecer uma compreensão satisfatória da natureza da luz (uma questão que ocupou a maior parte deste volume
e serve como sua questão central). . Anteriormente, eu disse que, mesmo admitindo os aspectos de partículas da luz, permaneciam
os aspectos de ondas, e questionei o que poderiam ser. Como vemos agora, os aspectos ondulatórios são os valores oscilantes
do campo eletromagnético. Os componentes elétricos e magnéticos desse campo são colocados em ângulos retos mútuos e
toda a onda progride em uma direção em ângulos retos para ambos.

Para Maxwell, casado com a hipótese do éter, parecia que a oscilação do campo eletromagnético consistia em distorções
ondulatórias do éter. No entanto, as equações de Maxwell ficaram superiores até mesmo a Maxwell. Embora a hipótese do éter
tenha desaparecido, a onda eletromagnética permaneceu, por agora tornou-se possível ver o campo oscilante como mudanças
oscilantes na geometria do espaço. Isso exigia a presença de não importa. Nada "teve que acenar" para formar luz
ondas.

Dos quatro fenômenos diferentes que, desde o tempo de Newton, ameaçaram envolver ação à distância,
Machine Translated by Google

nada menos que três, graças às equações de Maxwell, mostraram-se diferentes aspectos de um único fenômeno. Eletricidade,
magnetismo e luz foram todos incluídos no campo eletromagnético. Apenas a força gravitacional permaneceu do lado de fora.
Maxwell, reconhecendo as diferenças importantes entre gravidade e eletromagnetismo, não fez nenhuma tentativa de incluir
o campo gravitacional em suas equações. Desde sua época, algumas tentativas foram feitas, notadamente por Einstein na
segunda metade de sua vida. As conclusões de Einstein, no entanto, não foram aceitas pelos físicos em geral, e a questão de
uma "teoria do campo unificado" permanece em aberto.

Parecia a Maxwell que os processos que deram origem à radiação eletromagnética poderiam servir para produzir ondas
de qualquer frequência e não apenas os da luz e seus vizinhos próximos, radiação ultravioleta e infravermelha. Ele
previu, portanto, que a radiação eletromagnética, em todos os aspectos semelhantes à luz, poderia existir em frequências
muito abaixo e muito acima daquelas da luz.

Infelizmente, Maxwell não viveu para ver essa previsão confirmada, pois ele morreu de câncer em 1879, com 48 anos de
idade. de frequência muito baixa - radiação que agora chamamos de ondas de rádio. Isso confirmou completamente a
previsão de Maxwell e foi aceito como evidência da validade das equações de Maxwell. Em 1895, outro físico alemão, Wilhelm
Konrad Röntgen (1845-1923), descobriu o que veio a ser uma radiação eletromagnética de altíssima frequência: radiação que
hoje chamamos de raios X.

As décadas de 1880 e 1890 também viram um avanço fundamental no estudo da eletricidade. Correntes elétricas
foram conduzidos através de quase-vácuos, e os elétrons, em vez de permanecerem ocultos em fios de metal ou serem
considerados anexos a átomos à deriva e grupos de átomos em solução, apareceram como panículas por direito próprio.

O estudo das novas, panículas e radiações introduziu uma revolução virtual na física e na tecnologia elétrica - uma
tão intensa que tem sido chamada de Segunda Revolução Científica (a Primeira, é claro, sendo aquela iniciada por
Galileu).

É da Segunda Revolução Científica que o terceiro volume deste livro tratará.

Fim
Machine Translated by Google

Você também pode gostar