Você está na página 1de 113

http://enciclopediavirtual.vilabol.uol.com.

br/quimica/atom
istica/evolucaodosmodelos.html

Introdução
Por volta de 2.450 de anos atrás ( 450 anos a. C. ), o Homem já começava a tentar
explicar a constituição da matéria. Essa tentativa era realizada pelos filósofos da
Antigüidade, que usavam apenas o pensamento filosófico para fundamentar seus
modelos e não utilizavam métodos experimentais para tentar explicá-los.

A evolução dos modelos atômicos se deu por alguns postulados ( filósofos da


Antigüidade ), que vigoravam até um certo tempo, pois eram "quebrados" ( substituídos
) por modelos baseados em métodos experimentais, que eram mais aceitos, e ainda,
estes também eram substituídos por outros modelos mais aceitos. Em outras palavras e
generalizando, toda teoria tem o seu período de desenvolvimento gradativo, após o qual
poderá sofrer rápido declínio. Quase todo avanço da ciência surge de uma crise da velha
teoria, através de um esforço para encontrar uma saída das dificuldades criadas.

Hoje, o modelo atômico que "está em vigor" é o Modelo da Mecânica Quântica ou da


Mecânica Ondulatória (Modelo Orbital), o qual será visto adiante.

De -  ( 450 a. C. ) a  


( 1.808 d. C. )

Leucipo afirmou, por volta de 450 a.C., que a matéria podia ser dividida em partículas
cada vez menores, até chegar-se a um limite.

Demócrito viveu por volta de 470 a. C. a 380 a. C. e era discípulo de Leucipo.


Utilizando-se também do pensamento filosófico, defendeu a idéia do mestre, a idéia de
que a matéria era descontínua, ou seja, a matéria era formada por minúsculas partículas
indivisíveis. Ele afirmava então que, a menor partícula que compunha qualquer tipo de
matéria era indivisível. A essa menor partícula, Demócrito denominou átomo ( a palavra
átomo significa, em grego, indivisível ). Demócrito postulou que qualquer matéria é
resultado da combinação de átomos de quatro elementos: água, terra, fogo e ar. Segundo
Demócrito: "as únicas coisas que existem são os átomos e os espaços entre eles, tudo o
mais é mera opinião".

As idéias de Demócrito, para alguns filósofos, eram um absurdo, "pois como iria existir
algo indivisível?". Porém, para alguns, suas idéias faziam sentido. Houve muitos
seguidores da idéia da "partícula indivisível", mas para a maioria isso era um absurdo.
Um dos filósofos que rejeitou o modelo de Demócrito foi Aristóteles, um dos maiores
pensadores filosóficos de todos os tempos. Aristóteles afirmava que a matéria era
contínua, ou seja, a matéria vista como um "todo inteiro", não sendo constituída por
partículas indivisíveis.
Enfim, o modelo aceito pela maioria até o final do século 16 não foi o de Demócrito e
Leucipo, mas sim o de Aristóteles, o modelo da matéria contínua.

No século 17, experiências demonstraram que o comportamento das substâncias era


inconsistente com a idéia de matéria contínua e o modelo de Aristóteles desmoronou .

No final do século 18, Lavoisier e Proust iniciaram experiências relacionando entre si as


massas das substâncias participantes das reações químicas. Surgiram então as  

     ( leis formuladas por Lavoisier, Proust, Dalton e
Richter ).

Para explicar essas leis, em 1.808, Dalton propôs a sua teoria e o seu
modelo atômico: o átomo é uma minúscula partícula ( esfera )
maciça, indestrutível, impenetrável e indivisível. Para ele todos os
átomos de um mesmo elemento químico são idênticos, mas esses são
diferentes dos átomos dos outros elementos químicos. Seu modelo
atômico também é conhecido como modelo da bola de bilhar.

Analisando o modelo de Dalton hoje, nota-se um equívoco, pois,


como já mencionado, para Dalton todos os átomos de um elemento
são idênticos, ou seja, os átomos de um mesmo elemento químico possuem iguais entre
si até as suas próprias massas, o que não é verdade, por que hoje sabe-se da existência
dos isótopos. Isótopos são átomos de um mesmo elemento químico que diferem de
número de massa. Assim, nota-se uma falha no modelo de Dalton no fato de que ele
considerava idênticos todos os átomos de um mesmo elemento químico. Esta falha é
notificada então, em virtude da existência dos isótopos, pois esses apresentam iguais,
apenas o número de prótons, sendo o número de nêutrons diferentes ( o que resulta em
átomos de mesmo elemento químico porém com diferentes massas, pois como se sabe, a
massa de um átomo é dado como sendo a soma entre a quantidade de prótons e a de
nêutrons: A = Z + N, sendo Z constante, por estar relacionando isótopos ) .

Modelo Atômico de Dalton: "bola de bilhar".


O átomo seria uma esfera (partícula) maciça e indivisível.

A grande diferença entre o modelo atômico de Dalton e o dos filósofos da Antigüidade (


Leucipo e Demócrito ) é que o modelo de Dalton foi criado com base em resultados
experimentais, sendo portanto, um modelo científico. Ao contrário, o modelo dos
filósofos da Antigüidade era fundamentado unicamente em pensamento filosófico, sem
nenhuma base experimental.

De  
( 1.808 ) a  ( 1913 )

O modelo atômico de Dalton, ou seja, a idéia de que o átomo é uma esfera maciça e
indivisível vigorou até o final do século 19, quase praticamente durante todo o século
19. Somente em 1.897, apareceu o modelo atômico de Thomson, que provou que o
átomo era dividido em partículas ainda menores, invalidando o modelo de Dalton.

O físico inglês J. J. Thomson demonstrou que os raios catódicos podiam ser


interpretados como sendo um feixe de partículas carregadas. Utilizando-se de uma
Ampola de Crookes ( onde há descargas elétricas em campos elétricos e magnéticos ),
Thomson conseguiu relacionar a carga com a massa do elétron e determinou o valor
dessa relação.

Thomson verificou que o valor dessa relação ( carga/massa ) era igual para qualquer gás
que fosse colocado dentro da Ampola de Crookes. Com isso, ele conclui que os elétrons
deveria ser um componente de toda matéria ( já que qualquer gás apresentava a mesma
relação carga/massa do elétron ).

Veja como Thomson conclui que os elétrons faziam parte de toda matéria e como ele
pesquisou os raios catódicos clicando aqui.

Após analisar os resultados obtidos com os raios catódicos ( elétrons ) e com o


constante valor da relação carga/massa do elétron, em 1.898, Thomson apresentou seu
modelo atômico: uma esfera de carga positiva na qual os elétrons, de carga negativa,
estão distribuídos mais ou menos uniformemente. A carga positiva está distribuída de
forma homogênea, por toda a esfera. Seu modelo também é conhecido como o "modelo
de pudim com passas".

Modelo de Thomsom: "pudim com passas".


O pudim logicamente é toda a esfera positiva ( em azul ) e as passas são os elétrons (
em amarelo ), de carga negativa.

Modelo Atômico de Rutherford

Para chegarmos ao modelo atômico de Rutherford, é preciso compreender


primeiramente como ele e sua equipe de colaboradores chegaram ao modelo no qual
havia a idéia de elétrons em órbitas em torno de um núcleo. Para saber e compreender
com Rutherford chegou ao seu modelo, não deixe de clicar na figura abaixo.
A experiência de Rutherford também é chamada também de experiência do
espalhamento das partículas alfa. Essa experiência foi a base experimental do modelo
do átomo nucleado.

Modelo atômico de Rutherford: modelo planetário do átomo.


O átomo é formado por um núcleo muito pequeno em relação ao átomo, com carga
positiva, no qual se concentra praticamente toda a massa do átomo. Ao redor do núcleo
localizam-se os elétrons neutralizando a carga positiva.

Rutherford e seus colaboradores verificaram que, para aproximadamente cada 10.000


partículas alfa que incidiam na lâmina de ouro, apenas uma (1) era desviada ou refletida.
Com isso, concluíram que o raio do átomo era 10.000 vezes maior que o raio do núcleo.
Fazendo uma comparação, se o núcleo de um átomo tivesse o tamanho de uma azeitona,
o átomo teria o tamanho do estádio do Morumbi.

raio do átomo ~ 10.000 x raio do núcleo


( onde ~ significa aproximadamente )

Hoje, admite-se que o raio do átomo é da ordem de 1Å ( 1 · 10 -10m ) e o raio do núcleo


desse mesmo átomo é da ordem de 10-14 m.

raio do átomo ~ 10 -10 m


raio do núcleo ~ 10-14 m
( onde ~ significa aproximadamente )

veja aqui as frações do metro: nanômetro, picômetro etc.

Como toda teoria tem seu período de desenvolvimento e está sujeita a declínios, logo
surgiram dificuldades para a aceitação do modelo de Rutherford: p    

p        p p              
p  p   p                p 
  Como explicar o fato de os elétrons não caírem sobre o núcleo?
Rutherford contornou essa dificuldade admitindo que os elétrons giravam em torno do
núcleo em órbitas circulares, a altíssima velocidade, de tal modo que a aceleração
centrípeta desenvolvida nesse movimento equilibraria a atração exercida pelo núcleo.
No sistema planetário, havia uma explicação semelhante para o fato de o planeta não
cair sobre o Sol, embora fosse atraído por ele com uma enorme força gravitacional. O
movimento do pl net em sua órbita ao redor do Sol produz uma aceleração centrípeta
que se equilibra com a força de atração gravitacional exercida pelo Sol
O modelo do átomo nucleado de Rut erford era então muito parecido com o sitema
planetário, no qual o Î l l , e ol  i liz
 
l   i      l (daí vem o fato de o modelo de Rut erford ser
chamado de modelo planetário do átomo, al m da semelhança que apesenta com o
sitema planetário).

Surgiu, então, outra dificuladade: a      



       a  
 
  
     
      
  
  
          
    
  
     
    
 a   
           

Essa dificuldade só foi superada com o surgimento do Modelo At mico de Bohr, em


1.913.

Modelo At mico de Bohr (1.913)

Depois de estudos envolvendo outros conceitos da Física nos sistemas microscópicos


(como os átomos e seus constituintes por exemplo), o físico dinamarquês Niels Bohr
consequiu superar as dificuldades encontradas no modelo de Rutherford, essas, que
foram citadas acima (em   ).
A "solução" encontrada por Bohr, que modificou o modelo de Rutherford, veio com a
seguinte idéia:

· um elétron num átomo adquire apenas


certas energias, e cada energia é
representada por uma órbita definida,
particular. Se o elétron recebe energia ele
pula para uma outra órbita mais afastada do
núcleo. Pode ocorrer no elétron a perda de
energia por irradiação, e sendo assim, o
elétron cai para uma órbita mais próxima do núcleo. Todavia o elétron não pode ficar
entre duas órbitas definidas, específicas, pois essa não seria uma órbita estável ( órbita
não específica ).
Conclui se então que: u   i   i  l   i    l 
l 

Em outras palavras: um elétron só pode estar em movimento ao redor do núcleo se


estiver em  i íi ii , e     
i     
 l  u iu   i 

As órbitas permitidas constituem os í


i i do átomo ( camadas K L M N ...
).

Modelo At mico de Sommerfeld (1.916)


Após o modelo de Bohr postular a existência de órbitas circulares específicas, definidas,
em 1.916 Sommerfeld postulou a existência de órbitas não só circulares, mas elípticas
também. Para Sommerfeld, num nível de energia n, havia uma órbita circular e (n-1)
órbitas elípticas de diferentes excentricidades.
Por exemplo, no nivel de energia n = 4 (camada N), havia uma órbita circular e três
órbitas elípticas. Cada uma das órbitas elípticas constitui um subnível, cada um com sua
energia.

Ler resumo dos Modelos Atômicos

Alguma dúvida, sugestão ou crítica?


Mande-me um e-mail: gustavomosca@bol.com.br
Gustavo Mosquetti da Silva

............................................................................................. ................................................

c   
        

Modelo Atômico de Dalton


John Dalton foi um inglês que viveu de 1766 a 1844.

Dalton afirmava que o átomo era a partícula elementar, a menor das particulas que
constituiam a matéria. John Dalton apresentou seu modelo atômico em 1808. Ele
comparava o atomo com uma minuscula esfera maciça, impenetravel, indestrutivel,
indivisivel e sem carga. Todos os átomos de um mesmo elemento químico são
idênticos.

Este modelo atômico ficou conhecido como "Modelo Da Bola De Bilhar".

A teoria atômica de Dalton pode condensar-se nos seguintes princípios:

os átomos são partículas reais, descontínuas e indivisíveis de matéria, e permanecem


inalterados nas reações químicas; os átomos de um mesmo elemento são iguais e de
peso invariável; os átomos de elementos diferentes são diferentes entre si; na formação
dos compostos, os átomos entram em proporções numéricas fixas 1:1, 1:2, 1:3, 2:3, 2:5
etc.; o peso do composto é igual à soma dos pesos dos átomos dos elementos que o
constituem.
Em 1810 foi publicada a obra New System of Chemical Philosophy (Novo sistema de
filosofia química), nesse trabalho havia testes que provavam suas observações, como a
lei das pressões parciais, chamada de Lei de Dalton, entre outras relativas à constituição
da matéria.

‡ Os átomos são indivisíveis e indestrutíveis; ‡ Existe um número pequeno de elementos


químicos diferentes na natureza; ‡ Reunindo átomos iguais ou diferentes nas variadas
proporções, podemos formar todas as matérias do universo conhecidas;

Embora fundada em alguns princípios inexatos, a teoria atômica de Dalton, por sua
extraordinária concepção, revolucionou a química moderna. Discute-se ainda hoje se ele
tinha emitido essa teoria em decorrência de experiências pessoais ou se o sistema foi
estabelecido a priori, baseado nos conhecimentos divulgados no seu tempo. Seja como
for, deve-se ao seu gênio a criação, em bases científicas, da primeira teoria atômica
moderna. Dalton, Avogadro, Cannizzaro e Bohr, cada um na sua época, contribuíram
decisivamente para o estabelecimento de uma das mais notáveis conceituações da física
moderna: a teoria atômica.

meditar] Modelo Atômico de Thomson


J.J. Thomson foi um físico inglês que ao pesquisar os raios catódicos demonstrou que
estes podem ser interpretados como um feixe de partículas de carga negativa.E então os
deu o nome de elétrons.

Após varias experiências utilizando campos magnéticos e


elétricos,Thomson,determinou a relação entre carga e massa do elétron.

Assim Thomson conclui que os elétrons deveriam ser constituintes de todos os tipos de
matéria.

Com base em suas conclusões J.J. Thomson derrubou o modelo do átomo indivisível e
apresentou o seu modelo, denominado de "modelo do pudim de passas", pois tratava-se
de uma massa contínua positiva, onde nela incrustavam-se as particulas negativas, os
elétrons.

meditar] Modelo Atômico de Rutherford


Rutherford baseia seu modelo atômico na experiência realizada junto com seus
colaboradores.Onde uma lamina de ouro, muito fina , foi bombardeada por partículas
alfa(que eram positivas) Assim, ele observou que para cada 10.000 partículas que
incidiam na lamina, aproximadamente uma era desviada ou refletida

Com isso, puderam concluir que o raio do átomo era 10.000 vezes maior que o do
núcleo.

Então em 1911 surgiu, o modelo do átomo nucleado. Segundo este modelo o átomo era
composto de um núcleo central de carga positiva e este era muito pequeno, mas com
grande concentração de massa, e uma eletrosfera muito maior do que o núcleo porem
com uma massa muito pequena.Na eletrosfera ficavam os elétrons (carga negativa).
Baseado na descoberta de sua radiotividade, sugerio que o átomo deveria ser formado
por uma esfera positiva, não maciça e "incrustada" de elétrons(carga negativa), de modo
que a carga total fosse nula. Uma explicação razoável para os fenômenos que ilustramos
é de que toda matéria , no estado normal, contém particulas elétricas que se neutralizam
mutuamente; quando ocorre atrito, algumas dessas partículas tendem a migrar de um
corpo para outro, tornando-os eletrizados.

meditar] Modelo Atômico de Bohr


No modelo de Rutherford notam-se dois equívocos:

= >uma carga negativa, faz um movimento ao redor de uma carga positiva parada,este
movimento torna-se espiralado em direção a carga positiva e elas chocam-se.

= >uma carga negativa está em movimento, irradiando ou seja perdendo energia, que é
nada mais nada menos do que emitir radiação,porém sabe-se que um átomo em estado
normal não emite nenhuma radiação.

Niels Bohr, físico dinamarquês conseguiu corrigir esses equívocos tendo como base a
seguinte idéia:

]2 Um elétron adquire somente determinadas energias.E cada energia tem sua


órbita particular, portanto quando um elétron ganha energia ele pula de órbita e
vai se afastando cada vez mais do núcleo.E quando este elétron perde energia ele
pula de órbita se aproximando do núcleo.Não podendo então ficar entre duas
órbitas definidas.

Assim pode-se concluir que quanto maior é a energia do elétron, mais afastado do
núcleo ele deve estar.

Portanto as órbitas permitidas constituem os níveis de energia do átomo(K,L,M,N,O,P e


Q).

meditar] Aperfeiçoamento do modelo de Bohr por


Sommerfeld
Em 1920 Sommerfeld revelou a existência de órbitas elípticas alem das circulares
descobertas por Bohr.Para Sommerfeld em um nível de energia havia uma órbita
circular e órbitas elípticas.

Por exemplo no nível N havia uma órbita circular e 3 elípticas.Cada órbita elíptica é
portanto um subnivel, e cada subnivel tem a sua energia

meditar] Modelo Atômico Atual


]2 Sabe-se que os elétrons possuem massa desprezível, carga negativa e movem-se
ao redor do núcleo.
]2 O núcleo está situado no centro do átomo e dentro dele estão os prótons (carga
positiva) e os neutros (sem carga).A massa dos prótons é 1837 vezes maior que a
dos elétrons e a dos nêutrons é ligeiramente maior do que a dos prótons.
]2 O átomo é neutro pois possui números iguais de prótons e elétrons.
]2 Cada elemento possui um numero de elétrons que se distribuem
caracteristicamente na eletrosfera.
]2 Os níveis energéticos são K,L,M,N,O,P,Q
]2 P+N=A
]2 Cada camada tem uma quantidade máxima de elétrons.
]2 O átomo perde ou ganha somente elétrons.
]2 Quando há mais elétrons que prótons o átomo é um ânion.
]2 Quando há menos elétrons que prótons o átomo é um cátion.
]2 Os isótopos são átomos de um mesmo elemento com mesmo número de prótons
(podem ter quantidade diferente de nêutrons).
]2 Os isótonos são átomos que possuem o mesmo número de nêutrons
]2 Os Isóbaros são átomos que possuem o mesmo número de massa

  

c     
 
  c  c 
c! "#$%$&

˜  
   

˜ 

A afirmação de Heisenberg, responsável, em 1927, pela introdução na


Física do      , de que "o único objeto da
Física Teórica é o de calcular resultados que possam ser comparados
com a experimentação, sendo completamente inútil fazer uma descrição
satisfatória de todo o desenvolvimento do fenômeno (R
 

 
, 1930, p.7), dá bem a medida das profundas
transformações que essa ciência conheceu nas primeiras décadas do
século XX e que resultaram no que, de um modo geral, passou a ser
conhecido como Física Moderna, ou mais especificamente, no caso,
como Física Quântica.

Como o objeto da Física é o estudo da natureza, seus métodos,


fundamentos teóricos e objetivos epistemológicos estão em relação
direta com as concepções que se têm de seu objeto, isto é, da natureza.
O que equivale a dizer que, ao menos do ponto de vista histórico, como
acontece com qualquer área do conhecimento, há um certo relativismo
teórico que permite reconhecer, em diferentes épocas, diferentes modos
de conceber a ciência.

Nesse sentido, pode-se falar que a Física que nasce com Aristóteles no
século III a. C., ocupa-se da "substância que tem em si mesma a causa
de seu movimento", conforme escreve o filósofo grego em sua
   , VI, 1, 1025 b 18, isto é, a Física é uma teoria do movimento.

Essa concepção mantêm-se viva até as origens da ciência moderna, no


Renascimento, quando se dá uma grande transformação no conceito de
natureza e de suas relações com o homem, através do conhecimento.

De ordem objetiva, esse conceito nos apresenta a natureza escrita em


caracteres matemáticos, destituída de finalidade, absolutamente
necessária em termos lógicos e epistemológicos, quer dizer,
objetivamente verdadeira e tangível através dos experimentos
científicos.

Abandona-se, assim, definitivamente, a idéia de que a Física devesse se


ocupar da causalidade do movimento pela tarefa teórica, amadurecida
com a obra de Newton, no século XVII, de descrever a ordem natural,
"com experiências seguras [...], com o auxílio da geometria"
procurando, como escreveu Kant no século XVIII, "estabelecer as regras
segundo as quais ocorrem certos fenômenos na natureza".

A razão e o racionalismo conduzem a ciência na busca da previsibilidade


dos fenômenos naturais pelo estabelecimento das regras capazes dessa
previsão e que permitam, ao mesmo tempo, como condição de seu
entendimento, a descrição visual do desenvolvimento dos fenômenos,
representando-lhes a estrutura através de partículas em movimento.

Como escreveu Comte, filósofo do Positivismo, no século XIX, "o caráter


fundamental da Física Positiva é considerar todos os fenômenos como
submetidos a leis naturais invariáveis, cuja descoberta exata e cuja
redução ao mínimo número possível constituem os objetivos de todos os
nossos esforços, considerando-se absolutamente inacessível e sem
sentido a busca daquilo a que se dá o nome de causas, sejam elas
primárias ou causais".

Desse modo, a descrição substitui a explicação como tarefa da Física e a


formulação de suas leis segue rigorosamente o paradigma racionalista
do reducionismo lógico: há objetivamente uma ordem natural das coisas
e a Física, ciência da natureza, deve representá-la consistentemente,
formulando-lhe as regras fundamentais de sua descrição.

À busca da causalidade do movimento de que são dotadas as


substâncias, na Física aristotélica, segue-se pois, no mecanicismo da
Física iluminista, a procura de uma nova forma de causalidade, a
chamada causalidade necessária que subjaz à noção de ordem natural
das coisas e cujas leis, como se disse, é tarefa da Física estabelecer,
pelo estabelecimento das relações entre os fenômenos que dão
concretude à ordem natural e pela demonstração empírica, através de
experimentos, dessas relações.

Tinha-se nesse momento a sensação de que a Física havia concluído sua


tarefa e que, excetuando-se alguns aspectos que era preciso ainda
costurar, a ciência chegara às portas da grande Resposta.

Mas aí, e nesse momento se tem o marco da terceira fase da evolução


da Física, Max Planck, em 14 de dezembro de 1900, anuncia, na
Sociedade Berlinense de Física, que a energia não é emitida e tampouco
absorvida continuamente, mas sim na forma de pequeninas porções
discretas chamadas quanta, ou fótons, cuja grandeza é proporcional à
freqüência da radiação.

Nascia a Física Quântica e consolidavam-se as mudanças de concepção


que já vinham sendo anunciadas desde os fins do século XIX.

Em 1894, no livro R
   
, Henrich Hertz, físico alemão
que em 1897 havia descoberto as ondas eletromagnéticas, já escrevia
que "o mais imediato e, em certo sentido, o mais importante problema
que o nosso conhecimento da natureza deve capacitar -nos a resolver é a
previsão dos acontecimentos futuros, graças à qual poderemos
organizar nossas atividades no presente".

Em 1927, Niels Bohr, com seu princípio de complementaridade, segundo


o qual "não é possível realizar simultaneamente a descrição rigorosa do
espaço-tempo e a conexão causal rigorosa dos processos individuais",
anunciando que "uma ou outra deve ser sacrificada", sela a trajetória da
Física como descrição total da ordem da natureza e a pretensão de que
pudesse realizar-se, efetivamente, como teoria da necessidade dessa
ordem natural.

Einsten e Infeld em   


R , anotando que fora
necessária "uma corajosa imaginação científica para reconhecer que o
fundamental para a ordenação e a compreensão dos acontecimentos
podia não ser o comportamento dos corpos; mas o comportamento de
alguma coisa que se interpõe entre eles, isto é, o campo -", indicam de
forma clara os problemas que a Física Relativista trazia para a pretensão
da Física Clássica de realizar a descrição do curso dos fenômenos
através da representação visual das partículas em movimento.

Já não se trata mais nem de descrever, pela ambição da totalidade das


representações, nem de explicar, pelo finalismo causal do movimento, a
arquitetura da natureza, mas sim de prever os eventos observáveis
consubstanciando-se a Tarefa da Física Moderna, que nasce com a
Mecânica Quântica, na famosa observação de Heisenberg, quando
escreve, em 1955, que a Física contemporânea não busca mais oferecer
"uma imagem da natureza, mas uma imagem das nossas relações com
a natureza".

A introdução do observador como elemento integrante, integrado e


integrador da observação e do fenômeno observado relativiza o
racionalismo objetivista e desenvolve, de um lado, uma dualidade na
ciência que a manterá em contínua tensão com a busca obsessiva de
sua unificação e da construção da teoria unificada capaz de fornecer ao
homem a Resposta definitiva sobre a origem de tudo.

Físicos importantes, como Sheldom Glashow, prêmio Nobel, juntamente


com Steven Weinberg e Abdus Salam, referem-se, em tom de desilusão
a esse objeto de desejo da ciência como um Santo Graal da Física
teórica, do mesmo modo que biólogos se referiram às perspectivas
abertas pelos estudos do DNA recombinante e, depois, da Genômica,
usando a mesma metáfora andante dos cavaleiros de Cristo.

O fato é que o desenvolvimento da Física Moderna impulsionado pela


criação da Mecânica Quântica e pela Teoria da Relatividade, de Einsten,
não se libertou dessa tensão e, ao contrário, levou-a aos limites da
demonstrabilidade empírica e da testabilidade experimental.

Não se pode negar a efetividade tecnológica decorrente do


desenvolvimento da Mecânica Quântica nos mais diversos campos, entre
eles os da microeletrônica e transistores, dos novos materiais, dos raios
laser, da informática, dos supercondutores, e tantas outras apropriações
que transformaram e se cotidianizaram no mundo contemporâneo, a
ponto de se constituírem em fatores fundamentais do modelo econômico
da globalização.

E isso pelos padrões de caracterização dessa terceira fase da evolução


da Física, constitui uma medida indispensável para a aferição de suas
verdades, o que dá ao conhecimento científico um pragmatismo que, se
antes não lhe era estranho, não lhe era, contudo, constitutivo.

Mas no afã de encontrar a Resposta, pela construção de uma teoria


unificada da Física, muitos cavaleiros dessa demanda laico-sagrada
ultrapassaram as fronteiras da ciência e (re)ingressaram na fecunda
criatividade do mito, da literatura e do misticismo religioso, como é o
caso de Hoyle, de Capra, de Bohm, de Hawking e de muitos outros.

Não espanta, então, o fato de ter havido e continuar a haver tantas


apropriações não físicas da Física Quântica, em especial as esotéricas e
as que carregam no subjetivismo relativista de uma enorme quantidade
de bobagens pseudo-científicas.

Mas é preciso lembrar que Einsten passou os últimos anos de sua vida
buscando encontrar uma teoria que unificasse a Mecânica Quântica com
a sua Teoria da Relatividade Geral. Muitos deram prosseguimento a
essas andanças, viajando por universos paralelos, universos-bebês,
universos inflacionados, buracos de minhocas, supercordas e outras
metáforas engenhosas e imaginativas mas absolutamente imensuráveis.

Da indeterminação à incerteza e desta à formulação epistemológica da


filosofia de Popper foram passos conseqüentes que levaram à
formulação de uma visão probabilística e não mais racionalista da
verdade.

Desse modo, a ciência aproxima-se da verdade, mas não chega a ela


jamais: a revelação é impossível. A refutabilidade da teoria como
método dinâmico para a superação contínua do conhecimento pelo
conhecimento traz implícito um conceito logicamente negativo da
verdade: prova-se o que não é, mas não o que é verdadeiro e, assim,
evita-se o pavor do encontro definitivo com a Resposta que, se
enunciada, nos condenaria a todos a um estado beatífico de inutilidade
existencial. Mas a refutabilidade de Popper, seria ela mesma refutável?
E se sim, a engenhosidade cética do método crítico, conseguindo evitar
o paraíso do conhecimento absoluto para preservar a fé e a esperança
do homem na ciência, não impediria, entretanto, que a sua
progressividade se precipitasse no inferno teórico da regressão infinita,
o mesmo inferno aberto pela possibilidade de não haver nenhum
fundamento básico para o mundo físico, mas apenas partículas cada vez
menores que se sucedem, encaixadas umas nas outras, como bonecas
russas ou caixinhas chinesas, infinitamente.

Ao concluir o comentário que faz sobre John Wheeler, "um dos


intérpretes mais influentes e inventivos da Mecânica Quântica, bem
como da Física Moderna", aluno de Bohr, autor da expressão buraco
negro e it do bit, com que chamou definitivamente atenção para as
relações entre a Física e a Teoria da Informação, nome-chave para a
idéia de que o universo, sendo um fenômeno participativo, requer o ato
de observação e, logo, a consciência, além de ter se envolvido na
construção da primeira bomba atômica e da primeira bomba de
hidrogênio, John Horgan, autor do livro ±  ˜ 
escreve:

"[...] ele nos dá corajosamente um paradoxo adorável e desalentador:


no coração de toda realidade existe uma pergunta, e não uma resposta.
Quando examinamos os recessos mais profundos da matéria ou a
fronteira mais remota do universo, vemos, finalmente, o nosso próprio
rosto perplexo nos devolvendo o olhar."

Aqui, se não há encontro com a Resposta, há confronto harmônico com


a poesia, como esta, da prosa realisticamente perturbadora de Jorge
Luiz Borges:

"Um homem propõe-se a tarefa de desenhar o mundo. Ao longo dos


anos povoa um espaço com imagens de províncias, de reinos, de
montanhas, de baías, de naves, de ilhas, de peixes, de habitação, de
instrumentos, de astros, de cavalos e de pessoas. Pouco antes de
morrer, descobre que esse paciente labirinto de linhas traça a imagem
de seu rosto."

˜         (ótima para se entender a


questão das super cordas, teoria M, multiversos...)

þ ˜  

Já faz cem anos que Planck teve de lançar mão de uma expressão
inusitada para explicar os seus resultados da medida da intensidade da
radiação emitida por um radiador ideal - o corpo negro - levando-o
assim a estabelecer o valor de uma nova constante universal que ficou
conhecida como a 

  R
. A partir daí, e também em
função de outras experiências que apresentavam resultados igualmente
surpreendentes no contexto da mecânica de Newton e do
eletromagnetismo de Maxwell, os pesquisadores do começo do século
passado se viram obrigados a formular hipóteses revolucionárias que
culminaram com a elaboração de uma nova física capaz de descrever os
estranhos fenômenos que ocorriam na escala atômica; a mecânica
quântica.

Esta teoria, com a sua nova conceituação sobre a matéria e os seus


intrigantes postulados, gerou debates não só no âmbito das ciências
exatas mas também no da filosofia, provocando assim uma grande
revolução intelectual no século XX. Obviamente que, além das
discussões sérias e conceitualmente sólidas, as características não
cotidianas dos fenômenos quânticos levaram muitos pesquisadores, e
também leigos, a formular interpretações equivocadas da nova teoria, o
que infelizmente, ainda nos nossos dias, atrai a atenção das pessoas
menos informadas.

Mas, no final das contas, quais são estes efeitos tão estranhos dos quais
estamos falando e qual é a sua relevância para o nosso cotidiano, se
existe alguma? Bem, para provar que não estamos falando de coisas
inúteis, comecemos pela segunda parte desta pergunta.

O leitor certamente se surpreenderia se disséssemos que sem a


mecânica quântica não conheceríamos inúmeros objetos com os quais
lidamos corriqueiramante hoje em dia. Só para se ter uma idéia
podemos mencionar o nosso aparelho de CD, o contr ole remoto de
nossas TVs, os aparelhos de ressonância magnética em hospitais ou até
mesmo o micro-computador que ora usamos na elaboração deste artigo.
Todos os dispositivos eletrônicos usados nos equipamentos da chamada
   só puderam ser projetados porque conhecemos a mecânica
quântica. A título de informação, 30% do PIB americano é devido a
estas tecnologias.

Esperando ter convencido o leitor de que estamos longe do terreno da


especulação, vamos, então, abordar a primeira parte da pergunta acima
lançada. O que é a mecânica quântica?

A mecânica quântica é a teoria que descreve o comportamento da


matéria na escala do "muito pequeno", ou seja, é a física dos
componentes da matéria; átomos, moléculas e núcleos, que por sua vez
são compostos pelas partículas elementares. Muito interessante mas«o
que isto nos traz de novo?

A fim de podermos apreciar as novidades que a física quântica pode nos


proporcionar, vamos estabelecer alguns conceitos clássicos que nos
serão muito úteis adiante.

O primeiro conceito é o de   . Para nós este termo significa um


objeto que possui massa e é extremamente pequeno, como uma
minúscula bolinha de gude. Podemos imaginar que os corpos grandes
sejam compostos de um número imenso destas partículas. Este é um
conceito com o qual estamos bem acostumados porque lidamos
diariamente com objetos dotados de massa e que ocupam uma certa
região do espaço.

O segundo conceito é o de 
 . Este, apesar de ser também observado
no nosso dia a dia, escapa à atenção de muitos de nós. Um exemplo
bem simples do movimento ondulatório é o das oscilações da superfície
da água de uma piscina. Se mexermos sistematicamente a nossa mão
sobre esta superfície, observaremos uma ondulação se afastando,
igualmente em todas as direções, do ponto onde a sup erfície foi
perturbada.

O caso particular aqui mencionado é o de 


    , ou seja, aquela
que precisa de um meio material para se propagar (a água da piscina no
nosso caso). Entretanto, esse não é o caso geral. Há ondas que não
precisam de meios materiais para a sua propagação, como é o caso da
      
! . Aqui, a
 emitida por cargas elétricas
aceleradas se propaga no espaço vazio (o vácuo) como as ondas na
superfície da piscina.

Apesar da sua origem mais sutil, a radiação eletromagnética está


também presente na nossa experiência diária. Dependendo da sua
frequência ela é conhecida como: onda de rádio, FM, radiação
infravermelha, luz visível, raios-X e muito mais.

Pois bem, até o final do século XIX tudo o que era partícula tinha o seu
movimento descrito pela mecânica newtoniana enquanto que a radiação
eletromagnética era descrita pelas equações de Maxwell do
eletromagnetismo.

O que ocorreu no primeiro quarto do século XX foi que um determinado


conjunto de experiências apresentou resultados conflitantes com essa
distinção entre os comportamentos de onda e de partícula. Estes
resultados podem ser resumidos em uma única experiência que
passamos a descrever, em seguida, na sua versão clássica.

Imagine que uma onda, material ou não, incida sobre um anteparo


opaco onde haja duas fendas (ver figura abaixo). Cada uma das fendas
passa então a ser fonte de um novo movimento ondulatório. Uma
característica fundamental deste movimento é o fenômeno de

  
, que reflete o fato das oscilações provenientes de cada
uma das fendas poderem ser somadas ou subtraídas uma da outra.
Colocando-se agora um segundo anteparo, distante do primeiro, onde
iremos detetar a intensidade da onda que o atinge, observaremos como
resultado uma figura que alterna franjas com máximos e mínimos da
intensidade da onda. Esta é a chamada    
  
.
a) arranjo experimental

b) visão frontal do segundo anteparo

Vamos agora repetir a mesma experiência com a diferença que, ao invés


de ondas, incidimos partículas sobre o primeiro anteparo. O que ocorre
nesta nova situação é a presença de duas concentrações distintas de
partículas atingindo o segundo anteparo. Aquelas que passam por uma
ou outra fenda, como mostra a figura abaixo.

Este seria, portanto, o resultado esperado pela física clássica.


Entretanto, quando esta experiência é feita com partículas como
elétrons ou nêutrons, ocorre o inesperado: forma-se no segundo
anteparo uma figura de interferência na concentração de partículas que
a atingem, como mostramos em seguida.
Ainda mais estranho é a repetição desta mesma experiência com apenas
uma partícula. Ela passa pelo primeiro anteparo e atinge o segundo em
apenas um ponto. Vamos, então, repetir esta mesma experiência um
número enorme de vezes. O resultado é que em cada experimento o
ponto de deteção no segundo anteparo é diferente. Entretanto,
sobrepondo todos os resultados obtidos nos segundos anteparos de cada
experiência obtém-se, novamente, a mesma figura de interferência da
figura anterior!

Assim, mesmo falando de apenas uma partícula, nos vemos obrigados a


associá-la a uma onda para que possamos dar conta da característica
ondulatória presente no nosso exemplo. Por outro lado, devemos
relacionar esta onda à probabilidade de se encontrar a partícula em um
determinado ponto do espaço para podermos entender os resultados de
uma única experiência de apenas uma partícula. Este é o chamado

      
    .

Um outro fato intrigante ocorre quando tentamos determinar por que


fenda a partícula passou. Para resolver esta questão podemos proceder
fechando uma das fendas para ter certeza que ela passou pela outra
fenda. Outra surpresa: a figura de interferência é destruida dando lugar
a apenas uma concentração bem localizada de partículas, a daquelas
que passaram pela fenda aberta! Portanto, ao montarmos um
experimento que evidencia o carater corpuscular da matéria, destruimos
completamente o seu carater ondulatório, ou seja, o oposto ao caso com
as duas fendas abertas. Este é o 
     
    .

De uma forma geral podemos interpretar os resultados do experimento


aqui descrito como os de um sistema sujeito a uma montagem na qual o
seu comportamento depende de alternativas A e B (no nosso caso, a
passagem da partícula por uma das fendas). Enquanto q ue na mecânica
clássica o sistema escolhe A ou B, aleatoriamente, na mecânica quântica
estas duas alternativas
   . Entretanto, ao questionarmos, ou
melhor,   , por qual alternativa o sistema opta, obteremos o
resultado clássico.

Um sistema quântico, ao contrário do clássico, só pode ser descrito


através das possíveis alternativas (não necessariamente apenas duas)
que a nossa montagem apresente para ele. A onda associada ao sistema
carrega a possibilidade de interferência entre as diferentes alternativas e
é a informação máxima que podemos ter sobre o sistema em questão.
A aplicação desta teoria a problemas nas escalas atômicas e sub-
atômicas apresenta resultados como a u
 "   
 ou o

 
u
  que, por si só, já mereceriam a elaboração de um
outro artigo para que o leitor pudesse apreciá-los.

O mais interessante é que a mecânica quântica descreve, com sucesso,


o comportamento da matéria desde altíssimas energias (física das
partículas elementares) até a escala de energia das reações químicas
ou, ainda de sistemas biológicos. O comportamento termodinâmico dos
corpos macroscópicos, em determinadas condições, requer também o
uso da mecânica quântica.

A questão que nos resta é então; por quê não observamos estes
fenômenos no nosso cotidiano, ou seja, com objetos macroscópicos?
Bem, há duas razões para isso. A primeira é que a constante de Planck é
extremamente pequena comparada com as grandezas macroscópicas
que têm a sua mesma dimensão. Baseados neste fato, podemos inferir
que os efeitos devidos ao seu valor não nulo, ficarão cada vez mais
imperceptíveis à medida que aumentamos o tamanho dos sistemas. Em
segundo lugar, há o chamado efeito de    
. Este efeito só
recentemente começou a ser estudado e trata do fato de não podermos
separar um corpo macroscópico do meio onde ele se encontra. Assim, o
meio terá uma influência decisiva na dinâmica do sistema fazendo com
que as condições necessárias para a manutenção dos efeitos quânticos
desapareçam em uma escala de tempo extremamente curta.

Entretanto, as novas tecnologias de manipulação dos sistemas físicos


nas escalas micro ou até mesmo nanoscópicas nos permitem fabricar
dispositivos que apresentam efeitos quânticos envolvendo,
coletivamente, um enorme número de partículas. Nestes sistemas a
descoerência, apesar de ainda existir, tem a sua influência um pouco
reduzida, o que nos permite observar os efeitos quânticos durante
algum tempo.

Uma aplicação importante para alguns destes dispositivos seria a


construção de    u
 , o que tornaria os nossos
computadores ainda mais rápidos. Nesta situação a minimização dos
efeitos da descoerência é altamente desejável pois, em caso contrário,
estes processadores de nada iriam diferir dos processadores clássicos.

Como podemos ver, tudo indica que a mecânica quântica seja a teoria
correta para descrever os fenômenos físicos em qualquer escala de
energia. O universo macroscópico só seria um caso particular para o
qual há uma forma mais eficiente de descrição; a mecânica newtoniana.
Esta pode ser obtida como um caso particular da mecânica quântica mas
a recíproca não é verdadeira.

Muitos autores, por não se sentirem confortáveis com a chamada



     # ou  ˜
 
da mecânica quântica, tentam
criar teorias alternativas para substituí-la. Entretanto, cabe notar que,
apesar da sua estranheza, a mecânica quântica não apresentou
qualquer falha desde que foi elaborada na década de 20, o que não nos
proporciona evidência experimental que aponte para onde buscar as
questões capazes de derrubá-la.

þ ± ˜   !  $


   % &'  
 
(
 .

˜ !  " #  ˜  $ %& ' ( 

Em 1924, Louis de Broglie propôs uma teoria segundo a qual os elétrons


possuem uma onda associada, que influenciaria nas características de
seu movimento. A tese de De Broglie foi aperfeiçoada por Erwin
Schrödinger, que usou -a para chegar, em 1926, ao que é hoje a mais
usada formulação matemática da Mecânica Quântica (a equação de
Schrödinger). A teoria ondulatória conseguiu explicar como os elétrons
dos átomos não podem possuir qualquer energia, e, conseqüentemente,
não podem ocupar qualquer órbita ao redor do núcleo, mas apenas
algumas pré-determinadas - um caso particular do fenômeno da
quantização da energia. A existência de apenas algumas freqüências
permitidas em vibrações de estruturas circulares (no caso dos elétrons,
as freqüências de suas "ondas de De Broglie" correspondem às suas
energias) é um efeito natural que ocorre com qualquer tipo de onda.
Isso pode ser compreendido qualitativamente através do experimento
abaixo, que mostra como ondas distribuídas em tiras metálicas
circulares só ocorrem em certas freqüências determinadas. O
experimento pode ser feito com material acessível a qualquer pessoa.

)  

- "  ") 


*** +    ,

,- 
Visualizar ondas estacionárias que se estabelecem sobre um aro
metálico flexível; visualizar a formação de sistemas estacionários
harmônicos; ilustrar qualitativamente o modelo teórico do elétron-onda
e as ondas de De Broglie.
.  
Base de madeira de (15 x 20 x 1) cm; alto-falante de 5" e 8 ohms; 2
tiras metálicas flexíveis de (450 x 10 x 0,6) mm e (33 x 10 x 0,6) mm;
uma tampa plástica; cilindro de madeira de diâmetro 1cm e altura 3 cm;
2 bornes; gerador de áudio-freqüências; parafusos, cola e
eventualmente, pequeno amplificador de 5 W.

Nota: Nenhum desses componentes têm especificações críticas.


. '
Mediante 2 longos parafusos, prende-se o alto-falante sobre a base de
madeira, com o cone voltado para cima. No centro desse cone cola-se a
tampa plástica e, sobre ela, o pequeno tarugo de madeira.
Com duas pequenas tiras plásticas prendem-se as tiras metálicas que
fazem círculos de diâmetros 14 cm e 10 cm, aproximadamente (ver
detalhes). O centro dessas tiras plásticas é parafusado sobre o pequeno
tarugo de madeira.
Os terminais do alto-falante são conectados mediante fios comum
(cabinho #22) aos bornes fixados na base de madeira. A esses bornes
deve-se ligar os terminais de saída do gerador de áudio-freqüências.

Nota: A intensidade do sinal para excitar o alto -falante não deve ser
exagerada mas, se o sinal de saída do gerador de áudio estiver abaixo
do 1 V é conveniente intercalar entre o gerador e o aparelho produtor de
ondas estacionárias circulares um pequeno amplificador de áudio.
As figuras a seguir têm o propósito de ilustrar o objeto em questão:
  
Liga-se o gerador de áudio e ajusta-se a freqüência de modo que se
possa observar duas ondas estacionárias transversais completas no aro
de maior diâmetro. Ajusta-se a intensidade do sinal do gerador para que
a onda não apresente amplitude exagerada. Se o aro interno ficou
devidamente ajustado (se isso não acontecer, basta soltar seu parafuso
de fixação e ajustar novamente o diâmetro do círculo) começará a
ressoar no segundo harmônico. A freqüência do sinal pode ser ajustado
para várias 'soluções' da equação da onda que se estabelece
estacionariamente.

Temos ai uma bela visualização de ondas estacionários circulares e o


fenômeno da ressonância.
˜ /       .   

Î  Î
˜ &

 0       1

Há uma acepção popular da palavra 'teoria' na qual teoria se opõe ao


que se considera "comprovado", "concreto", "real" ou de utilidade
prática. Por outro lado, assume-se com boas razões que o conhecimento
científico é o mais rigoroso que possuímos, tendo também inegável
relevância prática, na medida em que está na base da moderna
tecnologia. O que o homem comum muitas vezes não sabe é que todo o
conhecimento científico é codificado por meio de teorias.

De um modo geral, podemos entender a ciência como possuindo dois


grandes objetivos: 1) descrever e predizer de forma sistemática os
fenômenos de um dado domínio; e 2) explicar esses fenômenos,
possibilitando a sua "compreensão". A consecução de ambos esses
objetivos requer a formulação de    para o conjunto de fenômenos
investigados. Nas ciências formalizadas, como a Física e a Química, a
capacidade preditiva decorre em grande parte de um formalismo
matemático complexo, que permite calcular a ocorrência de certos
fenômenos a partir da ocorrência de outros. O poder de explicação, por
outro lado, parece depender da possibilidade de entender os conceitos e
leis da teoria como contrapartes teóricas de uma realidade subjacente,
formada de objetos com determinadas propriedades, que interagem
entre si segundo certos princípios.

Deve-se, pois, para fins de análise filosófica da ciência, distinguir


claramente os 
*
 (aquilo que é imediatamente acessível aos
nossos sentidos), a   (conceitos, leis e formalismo) e a 
 ,
ou seja, os objetos reais que, em interação com nosso aparelho
sensorial, produzem em nós os fenômenos. Quando se fala na
interpretação de uma teoria científica tem-se duas coisas em vista: 1) o
estabelecimento de uma correspondência entre os conceitos teóricos e
os fenômenos; e 2) a postulação de uma ontologia capaz de, à luz da
teoria, ser entendida como a realidade subjacente aos fenômenos. Os
entes dessa ontologia em geral cumprem o papel de causas dos
fenômenos, contribuindo assim para a nossa compreensão de por que
eles ocorrem e se inter-relacionam segundo as leis da teoria.

    

Na década de 1920 surgiu na física uma teoria que viria a se tornar o


veículo de quase todo o nosso conhecimento da estrutura da matéria: a
 
u
 (MQ). É ela que nos fornece os recursos teóricos para
descrever o comportamento fundamental das moléculas, átomos e
partículas sub-atômicas, assim como da luz e outras formas de radiação.
Pode-se afirmar com segurança que a MQ é a teoria científica mais
abrangente, precisa e útil de todos os tempos.
Não obstante seu extraordinário sucesso preditivo, desde a sua criação a
MQ apresentou problemas de interpretação em grau sem precedentes
na história da ciência. A discussão completa desses problemas requer
conhecimentos especializados, não podendo pois ser empreendida aqui.
Procuraremos, no entanto, indicar em termos simplificados as
características conceituais da teoria quântica que levaram ao seu
surgimento, e apresentar em linhas gerais as principais alternativas de
solução já propostas.

As dificuldades interpretativas dessa teoria dizem respeito tanto à forma


pela qual a teoria se relaciona com os fenômenos quanto ao
delineamento de uma ontologia que lhe seja apropriada. A compreensão
desse ponto requer uma breve menção a duas noções fundamentais das
teorias físicas: a de   e a de 
 "  . De um modo geral,
estados são caracterizações básicas dos objetos físicos tratados pela
teoria. As grandezas físicas são as propriedades mensuráveis desses
objetos. Para efeitos de comparação, podemos lembrar que na mecânica
clássica o estado de uma partícula de massa  é representado por
conjunto de seis números que especificam sua posição e velocidade. Em
função desses números a teoria indica como calcular os valores de
grandezas físicas como a energia cinética, o momento angular, etc.

Na mecânica quântica os estados dos objetos são definidos de modo


inteiramente diverso, por meio das chamadas 
+  
 . É
justamente dessa nova (e complexa) forma de representação dos
estados que surgem quase todos os problemas de interpretação da
teoria.

 ,    ,  

Uma grandeza só terá significado físico se pudermos atribuir    a


ela. É isso que permitirá colocar a noção em correspondência com os
fenômenos, com a leitura de aparelhos de medida. Neste ponto surge a
primeira e mais fundamental dificuldade interpretativa na MQ: Dados
um estado quântico e uma grandeza física quaisquer,   
  u
    
 
  &  ,
 " !
(Dissemos "em geral" porque há exceções.) O problema é agravado pelo
fato de que mesmo quando o estado não fornece o valor de uma
grandeza física,     dessa grandeza sobre o objeto  

  
       &  
. Parece, então, que
a teoria está falhando em uma de suas funções essenciais, a predição
dos fenômenos, dos resultados de medida. Como interpretar essa
situação? Há duas posições possíveis:

a) A descrição quântica do objeto é


   : não prevê valores de
grandezas perfeitamente mensuráveis;
b) Os valores dessas grandezas não existem, ou não estão definidos
antes que se efetue a medida; a medida então criaria ou tornaria
definidos os valores, não sendo propriamente uma medida, no sentido
usual do termo: a mera revelação de uma propriedade preexistente do
objeto investigado.
Entre os fundadores da MQ, Schrödinger, de Broglie e, sobretudo,
Einstein, defenderam a posição (a); Bohr, Heisenberg e praticamente
todos os outros sustentaram (b), que se tornou a posição dominante.
Vejamos brevemente como essa divergência básica se amplificou e
ramificou ao longo das discussões subseqüentes.
    2    
a)$
   . Para mostrar que a descrição quântica das
propriedades dos objetos é incompleta, Einstein, Podolsky e Rosen
propuseram um interessante argumento em 1935, o chamado
"argumento de EPR". Outro importante argumento para o mesmo fim foi
proposto no mesmo ano por Schrödinger, argumento hoje conhecido
pelo nome pitoresco de "gato de Schrödinger".
Não obstante a força desses argumentos e os abalos que causaram no
campo adversário, a tese da incompletude não prevaleceu, por vários
fatores. Primeiro, em 1932 von Neumann apresentou uma prova de que,
aceitas certas premissas, qualquer tentativa de completar a descrição
quântica seria matematicamente impossível. Depois, os argumentos
foram rebatidos informalmente pelos defensores da tese oposta. Por fim,
apesar dos problemas conceituais a MQ mostrou um poder preditivo sem
precedentes. Embora para cada estado quântico o formalismo sempre
deixe de especificar os valores de certas grandezas, atribui, no entanto,
& &     de que os valores sejam encontrados empiricamente, por
meio de medidas. É nessa atribuição de probabilidades que a teoria
revelou sua impressionante capacidade preditiva.
Apesar disso tudo, os argumentos de EPR e de Schrödinger tornaram-se
o pivô da maior parte das discussões sobre os fundamentos da teoria
até nossos dias, levando a desdobramentos extremamente ricos. Dentre
eles, mencionamos a criação por David Bohm, em 1952, de uma teoria
mais completa que a MQ. (Esse fato pressupôs, naturalmente, um bem
sucedido questionamento da relevância da prova de von Neumann.)
Teorias desse tipo são hoje ditas      -    (TVOs).
Apesar de irem além da MQ na atribuição de valores às grandezas
físicas, coincidem com ela nas predições probabilistas. Diversos
pesquisadores mostraram subseqüentemente, por meio de importantes
teoremas algébricos, que para reproduzirem as predições quânticas as
TVOs devem incorporar um traço conceitual inteiramente não-clássico, o
chamado 
 #  , que significa que os valores das grandezas
físicas podem refletir não apenas as propriedades do objeto, mas
também de todo o seu "contexto". Foi esse traço que mais tarde levou
Bohm a desenvolver a idéia de que há um holismo, ou "total idade" no
mundo.
Intrigado com o fato de a TVO de Bohm ser
 , ou seja, permitir
que os valores atribuídos às grandezas possam ser alterados
instantaneamente por ações remotas, John Bell conseguiu provar, em
1964, que  TVO que reproduza as predições estatísticas da MQ terá
necessariamente de ser não-local. Num admirável esforço de
investigação, os físicos experimentais conseguiram mostrar que as
predições quânticas relevantes para essa questão são corretas. (O
experimento mais importante foi conduzido por Alain Aspect em 1982.)
Qualquer tentativa de complementar a MQ terá, portanto, de ser feita
com a violação do princípio da localidade - um preço teórico que poucos
físicos parecem dispostos a pagar.
b) ˜   . A tese de que a MQ descreve tudo o que há para ser
descrito nos objetos físicos de que trata tem sido apresentada em
conjunção com diversas outras, dando lugar a várias interpretações
distintas da teoria. Apontaremos as principais.
&. $
     /# / . Por ter sido elaborada por Bohr e seus
colaboradores, essa posição é também conhecida como "de
Copenhague". Não podemos fazer justiça aqui às sutilezas e
divergências existentes dentro dessa posição. Uma das versões mais
radicais sustenta que, ao contrário de todas as demais teorias físicas, a
MQ não tem como objetivo descrever nenhuma realidade transcendente
aos fenômenos. Sua função seria apenas descrever e correlacionar os
fenômenos com o auxílio de um formalismo cujos conceitos não devem
ser entendidos como contrapartes teóricas de uma realidade objetiva.
Os filósofos chamam esse tipo de posição de instrumentalismo. A teoria
seria mero instrumento de predição ou cálculo. Ao deixar de tratar do
plano ontológico, a teoria abdicaria por conseqüência de sua função
explicativa. Assim, nessa variante da interpretação "ortodoxa" a MQ não
explicaria nada sobre o mundo real extra-fenomênico. Outra versão
pende para a posição filosófica do idealismo. Neste caso, a teoria é
entendida como se referindo a uma realidade, mas esta deixa de ser
entendida como objetiva: ela seria relativa aos agentes de observação.
A famosa doutrina da "complementaridade" desenvolvida por Bohr é
parte dessa perspectiva.
&0 $
      / 
/. Ao contrário da posição anterior, não
há aqui nenhum distanciamento da visão filosófica do   
 ,
segundo a qual a ciência objetiva a descrever uma realidade
independente de qualquer observação ou cognição. Aceita-se, no
entanto, o desafio de reformular radicalmente as concepções de
realidade associadas às teorias clássicas. Em particular, procura-se
conceber uma ontologia compatível com a informação contida nas
funções de onda quântica. Uma das conseqüências seria a presença no
mundo de objetos aos quais não se poderiam atribuir o conjunto inteiro
das propriedades clássicas. Um elétron num estado quântico que não
permita o cálculo de uma velocidade (por exemplo) na realidade não
teria velocidade alguma; ou, alternativamente, deve ser concebido como
tendo uma infinidade de velocidades "potenciais". O gr ande desafio
dessa proposta está em determinar fisicamente as condições em que
essas "potências" se atualizariam, e em descrever esse processo
matematicamente. (A sugestão "ortodoxa" de que é a própria
mensuração, u ato de observação por um agente consci ente, que
determina essa transição, é rejeitada como subjetivista.) Esse programa
comporta presentemente algumas linhas de investigação bastante
promissoras.
&1 $
     / 
/. Outra proposta que tem
merecido a atenção de especialistas, não obstante a estranheza que
causa, é a de que todas as propriedades que na posição anterior são
dadas como meramente potenciais de fato existem simultaneamente.
Como não observamos isso, ou sequer conseguimos conceber tal coisa,
sugere-se que cada um desses valores "existe" num mundo diferente.
Haveria, pois, uma multiplicidade infinita de universos, que aumenta
incessantemente. O caráter definido de nossas observações se deveria
ao fato de que nós próprios existimos em versões múltiplas, e em cada
uma delas estamos associados a um conjunto definido de valores das
grandezas físicas dos objetos com os quais interagimos.
˜  
Esta breve apresentação indicou que mesmo a nossa mais poderosa e
bem sucedida teoria física não está isenta de dificuldades teóricas,
conceituais e filosóficas. Se é verdade que tais dificuldades não têm
obstado à aplicação prática da teoria, revelam, por outro lado, as
limitações do intelecto humano na compreensão mais profunda da
realidade que nos cerca. Seu estudo incessante por parte de um
pequeno, mas prestigioso, grupo de cientistas tem contribuído de forma
expressiva para a descoberta de intrigantes características da realidade,
alargando, ao mesmo tempo, nossos horizontes de investigação.

' 2   : Dos muitos livros de divulgação sobre os


fundamentos da MQ poucos são recomendáveis. Entre os melhores
incluiríamos: Squires, E.    
' (Bristol,
Adam Hilger, 1986); d'Espagnat, B.þ 2    2! (Paris,
Bordas, 1979; versão inglesa: $
Î  2  , New York, Springer-
Verlag, 1983); Gribbin, J. $
Î  Î 3
 4˜  (London, Corgi
Books, 1984), edição em português: "À procura do Gato de
Schrödinger" (editora Presença, Lisboa, Portugal); Herbert, N. 

2  (London, Rider, 1985). Para leitores mais avançados indicamos o
excelente- 2!  !, de B. d'Espagnat (Paris, Fayard, 1994; também
disponível em inglês,    2  .)

Î  Î
˜ &
!    
   $
 
    ˜ 
5
 (


R  

Ver Perfil Público

Visitar a home page de Pack Man!

Encontrar Mais Posts de Pack Man


2
2

! !!!  i

MM

Banned

    E no setimo dia deus criou o homem

...fim do velho testamento...

MetalMaxxx is Offline

Data Ingress : Jan 2006

Localizaç o: STRIP CLUB

Posts: 12 604

   

er Perfil Público

Encontrar Mais Posts de MetalMaxxx

2
2

! !!!   ‰

Pac Man
Banned

   

˜ 222 2 2 2+
2 2 
22 
22 

A  þ

˜  2 2 2 2 2 
2
As áreas da Fsica que chamamos "Fsica Clássica" e que
comreendem a mecnica, a óptica, a termodinâmica e o
Pac Man is
eletromagnetismo já haviam alcançado um grande
Offline aperfeiçoamento no sculo XIX. Quase tudo aquilo que se ensina
sobre Fsica no segundo grau já havia sido descoberto naquela
Data Ingresso:
Oct 2005
época - e, é claro, em um nível mais elevado do que aquilo que se
ensina nos colégios.
Localizaç o: Belo O desenvolvimento da mecânica clássica tinha atingido uma grande
Horizonte - M 
preciso, permitindo o cálculo tão exato dos movimentos dos
Posts: 16.626 planetas, que qualquer pequena diferença entre a teoria e as
observaçes precisava ser considerada seriamente. Foi
investigando diferenças minúsculas desse tipo que a astronomia do
século XIX descobriu a existência do planeta Netuno: sua
existência foi prevista matematicamente por Urbain Le errier, e
depois ele foi observado (em 1846) por Johann Gottfried Galle.
A mecânica do século XIX conseguia explicar movimentos
complexos, como os dos piões e giroscópios; estudou os
movimentos de líquidos e gases; e desenvolveu técnicas
matemáticas muito sofisticadas com a chamada "mecânica
analítica", que utiliza um formalismo diferente do que existia na
época de Newton.
Sob o ponto de vista da tecnologia, esses conhecimentos foram
aplicados no desenvolvimento de novos meios de transporte -
grandes navios, submarinos, balões dirigíveis e até os precursores
da asa-delta.
A física ondulatória (abrangendo a óptica e a acústica) também
parecia ter atingido uma grande perfeição durante o século XIX.
Até o século XIII, a opinião predominante era a de que a luz era
constituída por pequenas partículas muito rápidas que saíam dos
corpos luminosos. No entanto, no início do século XIX foram
estudados fenômenos de difração e interferência, que só podiam
ser explicados supondo-se que a luz fosse constituída por ondas.
Graças principalmente aos estudos de Augustin Fresnel e Thomas
Young, os físicos foram se convencendo de que era necessário
abandonar a teoria corpuscular da luz, e o modelo ondulatório se
tornou uma unanimidade. Para o estudo dos fenômenos
ondulatórios da luz, foram desenvolvidos métodos matemáticos
bastante complicados.
Foi também durante o século XIX que foram estudadas as
radiações infravermelha e ultravioleta, duas radiações semelhantes
à luz, porém invisíveis. Assim, a óptica se ampliou, passando a
abranger não apenas aquilo que vemos, mas também certos tipos
de "luz invisível".
Além dos estudos puramente científicos, o estudo da luz levou a
importantes inventos, durante o século XIX. Primeiramente, a
invenção da fotografia por Niepce e Daguerre, permitindo a fixação
de imagens através de meios químicos. As primeiras fotografias
exigiam tempos de exposição enormes (alguns minutos), mas
depois, com o gradual aperfeiçoamento técnico, foi possível
produzir fotos "instantâneas", e por fi m fazer seqüências de
fotografias de objetos em movimento. Daí surgiu o cinema, na
última década do século XIX.
Antes do final do século já existiam métodos de produzir
fotografias coloridas. Um físico francês, Gabriel Lippmann, utilizou
o princípio de interferência luminosa em películas finas e conseguiu
produzir fotografias em cores que eram, na verdade, precursoras
dos atuais hologramas de luz branca.
O estudo do calor e de suas aplicações teve também um enorme
desenvolvimento nessa época. Já no século anterior haviam
começado a se difundir as máquinas a vapor, mas foi durante o
século XIX que esses tipos de máquinas foram aperfeiçoadas e
utilizadas em grande escala, produzindo a chamada "revolução
industrial". Além de seu uso em indústrias, as máquinas a vapor
foram aplicadas ao transporte (navios, trens, e até automóveis a
vapor).
Os cientistas estudaram a conversão do trabalho em calor e do
calor em trabalho, propuseram a lei da conservação da energia,
determinaram as leis que regem o rendimento de máquinas
térmicas e estabeleceram o conceito de entropia e a segunda lei da
termodinâmica.
A eletricidade e o magnetismo, que antes de 1800 eram apenas
fenômenos curiosos sem grande importância, também sofreram um
importante avanço durante o século XIX. A invenção da pilha
elétrica por Alessandro Volta permitiu pela primeira vez a produção
de correntes elétricas duradouras e de grande intensidade, abrindo
o caminho para estudos completamente novos - como a descoberta
da eletrólise. Nas primeiras décadas do século XIX, Oersted e
Faraday descobriram a possibilidade de produzir efeitos magnéticos
utilizando a eletricidade, e vice-versa, nascendo assim o
eletromagnetismo. Houve um intenso estudo experimental dessa
nova área, seguido por desenvolvimentos teóricos que culminaram
com a teoria eletromagnética de Maxwell.
Embora inicialmente fosse apenas um assunto para pesquisa
científica, o eletromagnetismo logo levou a resultados práticos
importantes. Foram construídos dínamos que produziam
eletricidade a partir do movimento, e nas duas últimas décadas do
século XIX foram construídas grande usinas termoelétricas para
geração de eletricidade. Dessa forma, o uso doméstico e industrial
da eletricidade começou a se tornar possível. As lâmpadas elétricas
substituíram gradualmente os lampiões e a iluminação a gás. Os
motores elétricos começaram a ser utilizados para várias
finalidades, como por exemplo nos primeiros elevadores. A
eletricidade também revolucionou as comunicações, primeiramente
através do telégrafo (que já permitia a troca de mensagens de um
continente para outro) e depois pelo telefone. Antes de 1900 já era
possível fazer ligações interurbanas entre muitas cidades na Europa
e nos Estados Unidos.
'  
Se compararmos a Física do final do século XIX com a de cem ou
duzentos anos antes, poderemos considerar que o avanço científico
havia sido espantoso. Os maiores sucessos não foram a descoberta
de novos fenômenos, mas sim resultados teóricos que
revolucionaram a visão sobre os principais fenômenos físicos. O
eletromagnetismo conseguiu inicialmente unir duas áreas de
estudo que eram totalmente separadas antes - a eletricidade e o
magnetismo. Essa síntese foi apenas um primeiro passo, pois o
estudo dos fenômenos eletromagnéticos levou, na segunda metade
do século XIX, à previsão de ondas eletromagnéticas com a mesma
velocidade da luz. Essas ondas foram depois criadas
experimentalmente por Hertz, e confirmou-se que elas tinham
propriedades muito semelhantes à das ondas luminosas. Concluiu -
se então que a luz era um tipo especial de ondas eletromagnéticas,
de alta freqüência, e assim a óptica passou a ser uma parte do
eletromagnetismo.
O desenvolvimento da termodinâmica também levou a uma outra
síntese. Embora os fenômenos térmicos possam ser estudados sob
o ponto de vista puramente macroscópico (daquilo que se observa
e mede), os físicos começaram a imaginar modelos microscópicos
para explicar os fenômenos gasosos e assim nasceu a teoria
cinética dos gases. Nessa teoria, a temperatura passa a ser uma
indicação da energia cinética média das moléculas do gás e é
possível relacionar o calor específico dos gases à sua composição
molecular. No final do século XIX foi também desenvolvida a
mecânica estatística, que aplicou leis probabilísticas ao estudo dos
movimentos das partículas da matéria, permitindo explicar a
segunda lei da termodinâmica a partir de um modelo mecânico.
Conseguiu-se, assim, uma síntese entre a mecânica e a termologia.
Portanto, ao final do século XIX, os físicos podiam perceber
grandes avanços e importantes sucessos. Novos fenômenos haviam
sido descobertos, novas leis haviam sido estabelecidas, e havia
resultados teóricos novos muito gerais. A eletricidade e o
magnetismo haviam se unido, depois o eletromagnetismo e a
óptica haviam se fundido, e a mecânica e a termodinâmica também
estavam produzindo uma síntese teórica.
+  3
Diante dos grandes sucessos científicos que haviam ocorrido, em
1900 alguns físicos pensavam que a Física estava praticamente
completa. Lord Kelvin - um dos cientistas que havia ajudado a
transformar essa área - recomendou que os jovens não se
dedicassem à Física, pois faltavam apenas alguns detalhes pouco
interessantes a serem desenvolvidos, como o refinamento de
medidas e a solução de problemas secundários. Kelvin mencionou,
no entanto, que existiam "duas pequenas nuvens" no horizonte da
física: os resultados negativos do experimento de Michelson e
Morley (que haviam tentado medir a velocidade da Terra através
do éter) e a dificuldade em explicar a distribuição de energia na
radiação de um corpo aquecido.
Foram essas duas "pequenas nuvens", no entanto, que
desencadearam o surgimento das duas teorias que revolucionaram
a Física no século XX: a teoria da relatividade e a teoria quântica.
A visão otimista de Lord Kelvin, compartilhada por muitos físicos da
época, não levava em conta que existiam, na verdade, muitos
problemas na física do final do século XIX. No entanto, a maior
parte dos cientistas pensava apenas nos sucessos, e não nessas
dificuldades. Não percebiam a existência de grande número de
fenômenos inexplicados e de problemas teóricos e conceituais
pendentes.
, )  +  
Nas últimas décadas do século XIX foram estudadas descargas
elétricas em gases rarefeitos. Estudando os fenômenos que
ocorriam a pressões muito baixas, William Crookes descobriu os
raios catódicos. Em 1895, investigando os raios catódicos, Röntgen
descobriu os raios X. Foi uma descoberta inesperada, pois
nenhuma teoria previa a existência de radiações invisíveis
penetrantes como aquelas. Os raios X logo foram empregados na
medicina e se mostraram muito úteis, mas não se sabia
exatamente o que eles eram. Alguns pensavam que se tratava de
uma radiação semelhante ao ultravioleta, outros imaginavam que
eram ondas eletromagnéticas longitudinais, outros pensavam que
eram partículas de alta velocidade. O que eram os raios X, afinal?
Durante mais de 10 anos, eles permaneceram como uma radiação
misteriosa.
O estudo dos raios catódicos levou a uma outra descoberta
importante. J. J. Thomson mostrou que eles eram constituídos por
partículas com carga elétrica negativa (os elétrons), e que eles
pareciam sempre iguais, qualquer que fosse o gás utilizado nos
tubos de raios catódicos. Mas que relação essas partículas tinham
com os átomos da matéria? Até essa época, ninguém havia
suspeitado que pudessem existir coisas menores do que os átomos
que os químicos estudavam. Os elétrons constituíam um problema
no estudo da constituição da matéria.
Também no final do século XIX os estudos de Henri Becquerel e do
casal Curie levaram à descoberta da radioatividade e de estranhos
elementos que emitiam energia de origem desconhecida. Ninguém
sabia o que produzia esses fenômenos, e apenas vários anos
depois é que se começou a desvendar a natureza da
radioatividade. O que eram as radiações emitidas pelos corpos
radioativos? De onde saia sua energia, que parecia inesgotável?
O estudo da luz e das novas radiações havia levado a muitos
sucessos, mas também trouxe grandes problemas. O espectro da
luz do Sol, quando analisado com um espectrógrafo, mostra linhas
escuras (descobertas por Fraunhofer). Depois se compreendeu que
cada elemento químico em estado gasoso é capaz de emitir ou
absorver luz com um espectro descontínuo de raias, e que o
espectro do Sol é produzido pelos gases que o cercam. A
espectroscopia se tornou um importante método de identificação
dos elementos, e passou a ser um instrumento fundamental na
química. Mas qual era a causa física dessas raias? De acordo com a
teoria ondulatória da luz, cada linha do espectro deveria estar
relacionada a algum fenômeno de oscilação regular, de uma
freqüência exata, capaz de emitir ou absorver aquela radiação. O
que existia, nos átomos, que pudesse produzir isso?
Durante a última década do século descobriu-se que os raios X e a
radiação ultravioleta podiam descarregar eletroscópios. Em alguns
casos, a luz visível também podia produzir esse "efeito
fotoelétrico", mas o fenômeno dependia da freqüência da luz e do
tipo de metal utilizado. Não se compreendia como isso ocorria, nem
por que motivo alguns tipos de luz não conseguem produzir o
efeito fotoelétrico. Compreendeu-se que, no efeito fotoelétrico, a
radiação arranca elétrons dos metais. Esse efeito deveria depender
da intensidade da luz (energia), e não da cor ou freqüência. Mas
não era isso o que acontecia.
 ,   4 
A teoria cinética dos gases havia sido um grande sucesso. No
entanto, no final do século XIX, não se compreendia ainda muita
coisa sobre a estrutura da matéria. O único estado da matéria para
o qual havia uma boa teoria era o gasoso. Era incompreensível
como os átomos podiam formar corpos sólidos, pois sabia-se (pelo
eletromagnetismo) que era impossível produzir um sistema estável
de partículas em repouso que se mantivesse apenas por forças
eletromagnéticas. Existiriam outras forças desconhecidas agindo
dentro da matéria?
A própria produção de moléculas era um mistério. Os átomos
imaginados pelos químicos eram simples "bolinhas" sem estrutura.
Como eles se unem? E por que motivo alguns átomos se unem
entre si, mas não se unem com outros? Que tipos de forças são
essas, que escolhem os parceiros? A Física não tinha resposta para
essas perguntas.
Um dos grandes problemas teóricos no final do século XIX era
compreender a interação entre matéria e radiação. Como
funcionam os materiais luminescentes? Por que os sólidos emitem
um espectro luminoso contínuo, e os gases emitem espectros
descontínuos? Se a luz é uma onda eletromagnética, existem
cargas elétricas vibrando dentro dos gases, para produzir a luz
emitida? Por que essas vibrações possuem apenas certas
freqüências, diferentes de um elemento químico para outro?
Outro problema teórico provinha da mecânica estatística. Nos
gases, a energia cinética média das moléculas depende apenas da
temperatura. Numa mistura de gases, a energia se distribui por
todos os tipos de moléculas, e as moléculas de menor massa
(como hidrogênio) têm maior velocidade média do que as de maior
massa. A teoria previa, assim, uma "equipartição de energia" por
todos os tipos de partículas e de movimentos possíveis. Ela previa
bem o calor específico dos gases, supondo que as moléculas eram
simples "bolinhas". Mas se os gases são capazes de emitir
espectros luminosos descontínuos, essas moléculas devem ser
sistemas complexos. Por que, então, a teoria funcionava?
Além disso, dentro de um recipiente com gás aquecido também
existe radiação eletromagnética (térmica), e a energia deveria se
distribuir entre as moléculas e as ondas luminosas. A teoria parecia
indicar que iriam sendo criadas ondas luminosas, e que elas
ficariam com toda a energia. No entanto, isso não acontecia. Por
que?
Uma cavidade quente ("corpo negro") emite radiação com um
espectro contínuo. A teoria previa que ela deveria emitir mais
radiação de pequenos comprimento de onda (grande freqüência)
do que de grande comprimento de onda. Mas não era isso o que se
observava. Até Lord Kelvin havia notado que havia algum problema
nisso.
Havia, na verdade, um enorme número de nuvens no horizonte da
Física, uma verdadeira tempestade que ameaçava derrubar tudo.
Era o otimismo, ou talvez o orgulho de saber muito, que impedia a
maioria dos físicos de perceber como a situação era grave.
   + 
No final do século XIX, o estudo de alguns desses p roblemas e as
tentativas de continuar a unificar a física levaram a problemas
teóricos complicados, desencadeando a criação da teoria da
relatividade e da teoria quântica. As dificuldades surgiram
basicamente quando se procurou unificar a mecânica com o
eletromagnetismo (daí surgiu a teoria da relatividade) e a
termodinâmica com o eletromagnetismo (daí se originou a teoria
quântica).
A teoria quântica, que é o tema que nos interessa aqui, surgiu da
tentativa de compreender os problemas de interação da radiação
com a matéria e solucionar alguns desses problemas. Procurando
fundir a teoria eletromagnética da luz com a termodinâmica e a
mecânica estatística, logo surgiram dificuldades que pareciam
insuperáveis. O primeiro passo no desenvolvimento da teoria
quântica foi dado por Max Planck, há cem anos - mais exatamente,
em 1900. Nos primeiros anos do século XX, a teoria quântica
começou a resolver diversos problemas: a radiação do corpo negro
foi explicada por Planck; Einstein utilizou a teoria quântica para
explicar o efeito fotoelétrico e o calor específico dos sólidos; e Bohr
desenvolveu um modelo atômico quântico que explicou o espectro
descontínuo emitido pelos átomos. Mas esses primeiros passos
eram apenas um início. Apenas na década de 1920 a teoria
quântica se transformou na Mecânica Quântica, com uma
compreensão mais profunda da dualidade onda-partícula, graças a
De Broglie, Schrödinger, Heisemberg, Bohr e outros. A teoria
quântica nos permitiu compreender muitos fenômenos
importantes, como a estrutura de átomos e moléculas (que forma a
base de toda a química), a estrutura de sólidos e suas
propriedades, a emissão e absorção de radiações. Apenas através
da teoria quântica podemos compreender alguns dos mais
importantes fenômenos da Física.
2&  þ
   
!  $
   % &
'  
 (
  6  &! 
-  & 




˜ 5 . ) 6     
â
â u  %


       & 
 R
  
    
     
7.899:;

]2 R
< #<Î& þ   
 u   '
   <
2   =     

  ii<>1?70999:7þu R:
]2 R
< #<Î&  -    &   
 
 ) <2   
=     

  ii<>1@70999:7þu R:

Ao final do século XIX a física parecia ter atingido seu clímax. As


leis de Newton para a mecânica e gravitação vinham sendo
aperfeiçoadas desde o Século XVII, e descreviam com grande
precisão o comportamento dos corpos celestes e terrestres. Por
outro lado as propriedades elétricas e magnéticas haviam sido
unificadas em uma teoria eletromagnética por James Maxwell. Esta
teoria provou que a luz é uma forma de onda eletromagnética que
se propaga pelo espaço, assim como o são o raio X ou o
ultravioleta. Com as regras para o comportamento da matéria e
das ondas definidas, restaria aos físicos apenas o trabalho de
aplicá-las. Não haveria fenômenos que não pudessem ser
explicados; haveria apenas o trabalho de desenvolver as técnicas
existentes para sistemas complexos.
Lorde Kelvin, respeitado por suas importantes contribuições a
Física, chegou a sugerir que a Física havia atingido seu limite. No
entanto, como ele mesmo observou, havia um porém. Dois
fenômenos ainda estavam sem explicação: o experimento de
Michelson e Morley, que procuravam determinar a velocidade da
luz que incidia na Terra vinda de diferentes direções, e o estudo da
distribuição de energia da luz emitida por sistemas conhecidos
como corpos negros. E foram justamente as tentativas de explicar
estes experimentos que levaram a elaboração das duas novas
teorias, que alterariam radicalmente a Física como era conhecida
até então: a Teoria da Relatividade e a Teoria Quântica.

O primeiro experimento indicou que a velocidade da luz que atinge


a Terra é a mesma em qualquer direção, fato que levou Einstein a
considerar que a velocidade da luz é a mesma para qualquer
referencial o que resultou na elaboração da Teoria da Relatividade
Especial. O segundo experimento refere-se a radiação
eletromagnética emitida por corpos que reemitem toda a radiação
que incide sobre eles. Este experimento permite então o estudo da
forma como a radiação e o corpo interagem. O problema foi
analisado pelo físico Max Planck, e levou a uma revolução na teoria
física ao revelar que o comportamento de pequenos sistemas
obedecem regras que não podem ser explicadas pelas leis das
teorias clássicas. O mundo atômico e sub-atômico não obedeceriam
as regras do nosso mundo do dia-a-dia, sendo necessária novas
interpretações as quais nossa intuição não se aplicava mais.

Max Planck, nascido na Alemanha em 1858, foi um excelente


aluno, obtendo o grau de doutor com apenas 21 anos. Sua decisão
de seguir a carreira de físico teórico pode ser compreendida em sua
frase, "O mundo externo é algo independente do homem, algo
absoluto, e a procura pelas leis que se aplicam a este absoluto
mostram-se como a mais sublime busca científica na vida". O
estudo sobre radiação de corpos negros, que levou a origem da
teoria quântica, tinha algo de absoluto, pois segundo a definição de
Kirchhoff, professor de Planck, a característica de um corpo negro
perfeito é sua capacidade de reemitir toda radiação que incide
sobre ele; é um emissor e absorvedor perfeito. A radiação emitida
é estudada para diferentes temperaturas do sistema. Quando um
corpo é aquecido, emite radiação cuja natureza muda com a
temperatura. Um metal por exemplo, quando aquecido pode emitir
radiação visível, na forma de luz vermelha, ou invisível a nosso
olhos, como o infravermelho.
A  ˜ 7'  Corpos Negros são corpos que reemitem toda a radiação
eletromagnética que incide sobre eles. Na prática, estuda -se a radiação formada em uma
cavidade, que pode ter a forma de um cubo, no interior de um corpo negro. Assim
evitava-se a influência externa, e a geometria da cavidade pode ser escolhida para
facilitar os cálculos teóricos. A radiação estudada é então emitida por um pequeno furo,
produzido no material

A     '   A luz, como verificou Maxwell, é formada por ondas


eletromagnéticas, que são campos elétricos e magnéticos paralelos se propagando no
espaço. As ondas eletromagnéticas tem velocidade AR , onde é a velocidade da luz,
R o comprimento de onda, que é a distância entre os picos, e  é a freqüência (o inverso
do período de uma oscilação).

" 8     '  #    


+ 91  A velocidade das radiações eletromagnéticas é a mesma, mas a
freqüência pode mudar, desde que o comprimento de onda compense esta mudança.
Assim, por exemplo, as ondas de rádio tem comprimentos de onda longos, mas pequenas
freqüências. O raio x, tem um comprimento de onda tão pequeno que pode afetar os
átomos de nossas moléculas.

Vários resultados experimentais estavam disponíveis em torno de


1890 mostrando, a diferentes temperaturas, como a energia
radiante é emitida para diferentes freqüências. As tentativas de
explicar o comportamento da radiação não foram bem sucedidas.
Os trabalhos teóricos realizados utilizando os conhecimentos da
mecânica clássica e da termodinâmica não podiam explicar os
resultados obtidos (ver figura abaixo).

˜   )    2 #  6
A partir das observações experimentais, Wien obteve uma fórmula que se aproximava da
curva da densidade de radiação em função do comprimento de onda R, mas era acurada
apenas para pequenos comprimento de onda. Rayleigh e Jeans partiram das fórmulas da
mecânica clássica para um oscilador e obtiveram uma fórmula que funcionava para
grandes valores de R. A fórmula de Planck, utilizando o novo conceito de quantizacao da
energia dos osciladores descreveu exatamente os resultados experimentais e, nos casos
limites, as fórmulas de W ien e Rayleigh-Jeans.

Planck verificou que uma nova forma de encarar o modo como as


partículas da caixa geravam a radiação eletromagnética seria
necessária para explicar o comportamento da radiação emitida por
corpos negros. Classicamente espera-se que as partículas da caixa
oscilem com qualquer energia (permitida para uma dada
temperatura), e assim emitissem radiação a qualquer comprimento
de onda ou freqüência. No entanto, para que Planck obtivesse sua
fórmula, as partículas oscilando só poderiam emitir a radiação por
pacotes, e a energia destes seria proporcional à freqüência na
forma E = h f. A constante h ficou conhecida como constante de
Planck. Assim, a energia emitida seria discretizada, ou, quantizada.

A hipótese da discretizacao das energias de partículas vibrando,


por parte de Planck, não encontrava nenhum análogo na época.
Era tão radical que, mesmo reproduzindo exatamente uma
observação experimental, não foi aceita até que viesse a ser
adotada por Einstein em 1905. Também é uma primeira indicação
de que as regras que valem para nosso mundo macroscópico não
valem para o nível atômico. É inclusive um exemplo de como a
natureza mostra surpresas que fogem a nossa previsão conforme a
investigamos em maiores detalhes.

Levaria ainda cerca de 20 anos para que uma teoria quântica


consistente fosse elaborada, e que sua incrível capacidade de
explicar e prever fenômenos físicos a levasse a ser aceita pela
comunidade científica.
â
â u  % ! u     
$
  
  (
      R   7(
 : þ  u  <
ÎR


˜ :      6

â
â u  %

A quântica é uma teoria fundamental para os avanços tecnológicos


de nosso mundo atual e do vasto conhecimento científico que
estamos adquirindo. Grandes avanços práticos e teóricos em áreas
como astronomia, medicina, biologia, química e física são frutos de
sua aplicação. Seus conceitos causaram um revolução na forma
como entendemos o universo, mostrando que o comportamento da
matéria a nível atômico não obedece a regras bem estabelecidas
de nosso mundo macroscópico.

Apesar de entrar em conflito inclusive com nosso conceito de


realidade, a teoria quântica se mostrou correta e permitiu em
aplicações práticas a revolução tecnológica que nos trouxe
computadores, celulares, laseres, ressonância magnética, genética
molecular, entre outros. Em termos de teoria temos uma maior
compreensão do universo, desde o big-bang até o comportamento
das moléculas, átomos e seus constituintes.

Os primeiros passos para seu desenvolvimento foram dados no


início do século XX. Até então a física era baseada nas teorias
clássicas de Newton para as partículas e a de Maxwell, que unificou
as teorias elétrica magnética gerando o eletromagnetismo. Essas
teorias descrevem com precisão os fenômenos que vemos em
nosso mundo macroscópico, como o movimento dos corpos
celestes e a natureza eletromagnética da luz. No entanto, o avanço
das técnicas experimentais no fim do século XIX permitiu que os
cientistas passassem a estudar a natureza com maior detalhe,
abrindo caminho para uma análise do comportamento dos sistemas
muito pequenos, como átomos e moléculas. O resultado da
tentativa de explicar os resultados experimentais foi uma nova
teoria que revolucionou nossa forma de compreender a natureza do
universo. Foi necessário abandonar conceitos básicos como a noção
de trajetória de uma partícula quando verificou-se que não seria
possível determinar simultaneamente a posição e a velocidade, de
um elétron por exemplo.

Um dos experimentos que levou a uma maior compreensão de


como a matéria é formada foi a determinação da estrutura dos
átomos na forma de núcleos de carga positiva cercados por
elétrons. Os elétrons haviam sido descobertos em 1897 por Joseph
John Thomson mas, já que não havia razão para supor que as
cargas positivas estariam aglutinadas em um núcleo, Thomson
propôs um modelo atômico onde os elétron estaria imersos em
cargas positivas (como passas em um pudim). Por algum tempo
este modelo prevaleceu, até que em 1911, estudando como
partículas eram espalhadas por folhas de metal Rutherford concluiu
que o átomo seria formado por um núcleo de carga positiva
cercado por elétrons.

")  A ; +  Partículas radioativas incidem sobre uma folha de ouro. A
maioria destas partículas passa através da folha pois são muito mais pesadas que os
elétrons (pontos pretos). Rutherford verificou que as cargas positivas são localizadas em
pequenos núcleos (esferas vermelhas). Desta forma explicaria porque as partículas
incidentes são as vezes desviadas de sua trajetória. Antes deste experimento acreditava -
se que as cargas positivas não eram locali zadas em núcleos.

Assim, o modelo Atômico de Rutherford se assemelhava a uma


versão microscópica do modelo planetário, mas ao invés da força
gravitacional, a força elétrica é a principal responsável pela atração
elétron-núcleo. Este é o modelo atômico mais comumente
encontrado na literatura moderna, embora verificou-se ser
incompleto.

.   # <  O elétron orbitaria o núcleo de forma semelhante a um


planeta em torno do sol, mas numa escala muito menor devido a força principal de
atração do núcleo ser elétrica, que é muito mais forte que a gravitacional.

No entanto, havia um problema. Verifica-se que quando cargas são


aceleradas, acabam perdendo energia por emissão de radiação
eletromagnética. Como um elétron em órbita de um núcleo está
sempre sob aceleração, deve emitir energia também, diminuindo
assim o raio de sua órbita. Fazendo os cálculos desta perda de
energia os cientistas verificaram que os elétrons colapsariam no
núcleo em um intervalo de tempo extremamente pequeno. Se isso
acontecesse, o universo teria deixado de existir logo após sua
criação.

Para complicar ainda mais o modelo planetário outro fenômeno


incomum aparece quando estuda-se a luz emitida ou absorvida
pelo átomo. Os resultados sugeriam que o elétron não poderia
estar em qualquer órbita em torno do núcleo. Foi o que propôs o
físico dinamarquês Niels Bohr em 1913. Mais do que isso, foi
necessário assumir que existiria uma órbita de raio mínimo, ou
seja, uma órbita fundamental da qual o elétron só pode mudar
para uma órbita mais alta, evitando assim que colapse no núcleo.

Como para cada órbita existe uma energia associada, Bohr


verificou que as energias da luz emitida nas mudanças de órbitas
seriam discretas (não contínuas). Ou seja, as energias da luz
emitida seriam "quantizadas". Este modelo está inspirado na
proposta feita em 1900 por Max Planck, que sugeriu que partículas
oscilando em um sistema chamado corpo negro emitiriam
quantidades discretas de energia, fato sem explicação pelas teorias
clássicas.

.  =&;  No caso do átomo mais simples, o do hidrogênio, com


apenas um elétron ligado ao núcleo, o modelo de Bohr previa que o raio da próxima
órbita após a órbita fundamental teria um raio quatro vezes maior. A terceira órbita com
raio nove vezes maior, e assim em diante. Para este átomo o elétron só pode mudar de
uma órbita para outra. Assim, se um partícula atingisse o elétron a órbita não seria
alterada, a menos que a partícula transferisse ao elétron energia suficiente para passar à
próxima órbita ou outra órbita permitida. Se a teoria clássica fosse válida, qualquer órbita
seria permitida.

Apesar de não explicar o motivo deste modelo ser desta forma, e


de falhar quando átomos com mais elétrons são considerados, Bohr
incentivou outros pesquisadores para estudá-lo, prevendo que a
quantização seria o caminho para explicar o comportamento da
matéria.

Um passo importante para a explicação dos sucessos da teoria de


Bohr, e que abriria as portas para a uma teoria consistente, foi
dado pelo físico francês Louis De Broglie. Em sua tese de
doutoramento, em 1924, De Broglie fez uma proposição de
simetria baseada em uma teoria de Einstein de 1905 de que a luz
pode, em algumas condições, se comportar como partícula. Não
poderiam as partículas apresentar um comportamento de ondas?
Aplicando esta suposição ao modelo de Bohr ele supôs que o
elétron teria uma onda associada ao longo de sua órbita em torno
do próton. Mas apenas algumas órbitas seriam possíveis para que a
onda não interferisse destrutivamente consigo mesma. Essas
órbitas especiais eram exatamente as propostas por Bohr! Este
resultado abriu caminho para uma nova interpretação do elétron e
da matéria em geral. As partículas teriam um novo comportamento
chamado de partícula-onda. Se o elétron colidir com um detetor,
um ponto bem definido será registrado, como espera-se de uma
partícula. Mas o elétron mostra claramente, em alguns
experimentos, que tem um comportamento ondular associado a
ele.

Inicialmente o trabalho de De Broglie teve pouca atenção pela


comunidade científica até ser lido por Einstein, que ficou
entusiamado com a proposta. O físico Austríaco Erwin Schrödinger
examinou esta teoria e descartou o trabalho, mas, após um novo
exame, acabou percebendo sua importância. Mais do que isso,
dedicou-se a desenvolvê-lo e o resultado foi uma das mais
importantes contribuições a nossa compreensão do que é a
matéria. Indo além de De Broglie, em 1926 Schrödinger definiu
uma equação que descrevia o comportamento ondular completo de
uma partícula, em três dimensões. O resultado não apenas
reproduziu os resultados de Bohr para as energia do átomo
hidrogênio, como explica com grande precisão as propriedades dos
átomos em geral, e, consequentemente, abriu as portas para uma
descrição matemática de sólidos, líquidos, semicondutores, e assim
em diante.

Na formulação de Schrödinger não é possível determinar a


trajetória de uma partícula, o que levou a interpretações que vão
totalmente além de nossa concepção macroscópica. Este resultado
já havia sido apresentado no trabalho de outro fundador da Teoria
Quântica, Werner Heisenberg. Usando uma formulação diferente,
mas equivalente a de Schrödinger, determinou o chamado princípio
da incerteza. Segundo este, quando maior a precisão na
determinação experimental da posição de um elétron, menor a
precisão na determinação de sua velocidade, e vice-versa. Como
ambos são necessário para definir uma trajetória, este conceito
teria que ser descartado. Muitos físicos passaram a assumir que o
elétron não estaria necessariamente em lugar nenhum, até que
fosse detectado em um experimento. As informações que podem
ser obtidas passam a ser em qual região do espaço é mais provável
encontrar o elétron. Esta probabilidade estaria relacionada com o
modulo da função de onda associada ao elétron para uma dada
energia. O resultado se mostrou correto, mas levou também a um
conflito, pois passou-se de uma formulação determinista para uma
estatística. Não se determina mais onde o elétron está, mas qual a
probabilidade de que esteja em uma região do espaço.

.  =
; '  A partir das equações de Schrödinger não é possível
determinar a trajetória do elétron em torno do núcleo, mas, a uma dada e nergia do
sistema, obtém-se a região mais provável de encontrá-lo.

O modelo de Bohr, que era limitado ao átomo de hidrogênio, foi


adaptado para procurar salvar o conceito de uma órbita definida,
mas sem sucesso. Einsten foi um dos que se opôs à interpretação
estatística, e a base de suas críticas são geralmente representadas
pela frase "Deus não joga dados". Apesar de ter sido fundamental
para a teoria quântica, dedicou-se a uma longa discussão teórica
contra os físicos quânticos, especialmente sob a orientação de Bohr
e seu grupo da chamada "Escola de Copenhague". As
contraposições de Einstein, que buscava erros na teoria quântica,
foram explicadas por Bohr e seu grupo, e ajudaram a firmar a
mecânica quântica como uma formulação correta.

Ao longo dos anos a teoria Quântica foi sendo aperfeiçoada e novos


fenômenos previstos ou explicados. Da união desta teoria com a
teoria da relatividade de Einstein, Paul Dirac pôde predizer em
1931 a existência das anti-partículas, o que veio a ser confirmado
experimentalmente. Toda uma nova família de partículas e de
campos para suas interações vieram a ser descobertos. Ainda
existem grandes desafios teóricos na explicação de fenômenos
cada vez mais detalhados da matéria e suas interações, como o
comportamento dos buracos negros, o big-bang, o interior dos
prótons, neutrons, e das partículas que vem sendo descobertas.
Mas para fenômenos atômicos a formulação de Schrödinger
continua sendo a base dos trabalhos teóricos, da mesma forma que
a teoria de Newton ainda é aplicada para o estudo das trajetórias
de planetas e cometas, entre outros fenômenos macroscópicos. O
futuro da quântica promete grandes avanços teóricos e
experimentais, como por exemplo supercondutores eficientes a
temperatura ambiente, teletransporte (de partículas simples),
laseres de matéria utilizando um novo estado da matéria chamado
de condensado de Bose-Einstein, computadores quânticos que
podem processar enormes quantidades de informação, holografia
do corpo humano, entre outros.

â
â u  % ! u     
$
  
  (
      R   7(
 : þ  u  <
ÎR
˜ >  ,      =

þ
2  þu


Quando Max Karl Ernst Ludwig Planck anunciou na Sociedade


Berlinense de Física, no dia 14 de dezembro de 1900, que a
energia radiante não é emitida nem absorvida continuamente, mas
na forma de diminutas porções discretas chamadas u
  ou
B
 e de grandeza proporcional à freqüência da radiação, foi
deflagrada a revolução quântica que dura até hoje. É neste
contexto que o modelo atômico atualmente aceito foi concebido.
A energia de um quantum é dada por = hA (onde A é a freqüência
da radiação e h a constante de Planck)

No final do século XIX, após os trabalhos de Wilhelm Konrad


Röntgen, os cientistas tinham noção de que a radiação heterogênea
emitida por uma fonte de raios-X origina um espectro contínuo ao
qual se sobrepõe um outro, característico do material onde ele foi
gerado.

Os raios - X podem ser formados pelo choque de raios catódicos


contra objetos sólidos. O tubo inventado por William David
Coolidge, era uma lâmpada termoiônica, em que os elétrons são
emitidos por um filamento de tungstênio aquecido até a
incandescência pela passagem de uma corrente elétrica. Os
elétrons são acelerados com uma diferença de potencial que pode
chegar a milhares de Volts, para serem lançados sobre um
anteparo denominado anticátodo.

Foi Albert Einstein, em 1905, quem primeiro fez uso da hipótese de


Planck no artigo sobre efeito fotoelétrico que lhe deu o Prêmio
Nobel de Física em 1921.

O efeito fotoelétrico é obtido quando uma luz de freqüência


suficientemente alta atinge uma amostra metálica, arrancando
elétrons superficiais, fazendo com que o metal adquira carga
positiva.

    


Até o fim do século XIX não havia idéia definida sobre a estrutura
atômica. A produção de elétrons, nos tubos de raios catódicos,
mostrou serem aquelas partículas constituintes essenciais da
matéria. Joseph John Thomson entendia que os el étrons se
encontravam na massa global do átomo e que estavam
acomodados dentro de uma esfera uniforme de eletricidade
positiva, resultando em um conjunto eletricamente neutro.
O seu aluno Ernest Rutherford, em 1910, foi o primeiro a propor
um modelo atômico coerente, partindo de observações sobre a
deflexão de partículas ï em alvos de ouro. A pequena quantidade
de partículas ï refletidas em grandes ângulos, fez Rutherford
concluir que a carga positiva e a maior parte da massa de um
átomo fica concentrada em um volume muito pequeno que ele
chamou de núcleo.
O átomo seria constituído de um núcleo central positivo circundado
por elétrons, tantos quantos necessários para neutralizar sua
carga. Os elétrons girariam com velocidade suficiente para que a
força centrífuga compensasse a atração eletrostática exercida pelo
núcleo de cargas positivas. Esse modelo era inconsistente porque,
segundo a teoria de James Clerk Maxwell, qualquer alteração de
velocidade ou direção de movimento de uma partícula
eletricamente carregada é acompanhada da emissão de energia
radiante.

Em 1860 James Clerk Maxwell desenvolveu a teoria que todas as


formas de radiação são propagadas no espaço vibrando um campo
elétrico e outro magnético, perpendiculares entre si.

Com a irradiação contínua de energia os elétrons teriam suas


órbitas diminuídas progressivamente, tendo que girar mais rápido
para compensar a atração eletrostática do núcleo continuamente
aumentada com a diminuição da distância entre as cargas.
Usando as equações de Maxwell, pode ser demonstrado que o
átomo modelo de Rutherford duraria apenas 10^-11 segundos. O
mundo terminaria em um festival de cores com a emissão de uma
série contínua de comprimentos de onda. O modelo capaz de
interpretar muitas das propriedades da matéria estava em
desacordo com a eletrodinâmica. Foi Niels Bohr, em 1913, que
resolveu o impasse. Aplicou a teoria de Planck e acrescentou três
postulados ao modelo atômico de Rutherford. O primeiro
estabelece que um elétron, enquanto permanece em movimento
em uma órbita fechada, não absorve nem emite radiação. Bohr
admitiu que para cada elétron existe mais de uma órbita estável
correspondente a um nível energético diferente. O segundo
postulado estabelece que somente são permissíveis as órbitas
eletrônicas para as quais o momento angular do elétron é um
múltiplo inteiro de h/2p, em que h é a constante de Planck.

O momento angular de uma partícula movendo-se em órbita


circular é dado por , em que  é a massa,  a velocidade e  o
raio do círculo. O segundo postulado requer que as órbitas
estacionárias satisfaçam a condição  =
 / 2Ë

O último postulado estabelece que o elétron pode saltar de uma


órbita para outra, desde que a passagem seja acompanhada da
emissão ou absorção de um quantum de energia radiante, cuja
freqüência é determinada pela relação

hA = Ei - Ef

onde Ei - Ef representam os valores da energia do átomo no estado


inicial e final, respectivamente
A possibilidade de ocupar diferentes órbitas ou camadas acarretou
o primeiro dos quatro números quânticos necessários para
descrever um elétron em um átomo. Com este trabalho foi possível
explicar as raias do espectro do átomo de hidrogênio. O número
quântico principal,
, pode apresentar valores inteiros de 1 até
infinito.

Uma das vantagens do modelo atômico de Bohr foi a possibilidade


de explicar porque somente certas freqüências de luz eram
irradiadas por átomos e, em alguns casos, predizer estes valores. A
emissão de luz, ou espectro do átomo, era obtida com uma
descarga elétrica através da amostra gasosa investigada. O gás
excitado emitia radiação sob a forma de luz visível, ultravioleta e
infravermelha. A luz atravessava uma fenda ou prisma, que a
separava em suas diferentes freqüências. Estes dispositivos
chamados espectrógrafos eram conhecidos desde 1859 e foram
usados para investigar as raias do hidrogênio.

Para definir a localização de um objeto no espaço são precisos três


números, assim surgiram mais outros dois números quânticos.
O número quântico de momento angular , também chamado de
azimutal, é decorrente do trabalho de Arnold Sommerfeld, em
1916, que considerou as órbitas circulares como um caso particular
de órbitas elípticas, em que o semi-eixo maior e menor são iguais.

O movimento do elétron em órbitas elípticas obedece às leis de


Kepler. A construção de um círculo requer apenas um parâmetro, o
movimento circular tem apenas um grau de liberdade, o ângulo  
que faz o raio vetor com o eixo dos x. O movimento elíptico
apresenta dois graus de liberdade, nele variam o ângulo   e o raio
vetor r, sendo resultante de um movimento radial, devido às
variações de r, e outro azimutal, que corresponde às variações de
 .

O elétron de uma dada camada é agrupado em subcamadas,


caracterizada por diferentes valores do número quântico  e por
uma forma característica. Cada valor de  corresponde a uma
diferente forma de orbital, ou tipo de orbital. Os valores de  são
codificados por letras de acordo com o seguinte esquema:

Valor de 

subcamada correspondente

Os primeiros estudos dos espectros de outros elementos além do


hidrogênio apresentavam mais linhas do que a teoria de Bohr podia
explicar. Cientistas analisando o espectro de átomos de sódi o
encontraram quatro diferentes tipos de linha que chamaram de
  , 
,   e 
 
 . A letra inicial de cada uma
delas foi usada para designar as subcamadas.
O número quântico magnético  especifica em qual orbital (região
relacionada à órbita), dentro da subcamada o elétron se encontra.
Os orbitais em uma dada subcamada diferem unicamente na sua
orientação espacial e não na sua forma.
Existe um quarto número quântico, chamado magnético de spin,
representado por , que diz respeito à rotação do elétron. Um
elétron em um átomo possui as propriedades magnéticas
decorrentes da rotação de uma partícula carregada. Experimentos
mostraram que colocado um átomo com um elétron
desemparelhado em um campo eletromagnético, somente duas
orientações são possíveis para a sua rotação. A rotação do elétron
é quantizada e uma orientação é associada com o valor + ½ e
outra com o valor - ½ .
Cada elétron fica definido pela combinação dos seus quatro
números quânticos, que é diferente para todos os outros elétrons
no átomo. Esta é a regra geral criada em 1925 por Wolfgang Pauli,
que ficou conhecida como Princípio da Exclusão de Pauli, cuja
importante conseqüência é que nenhum orbital atômico pode
abrigar mais de dois elétrons.
  
Foi o francês Louis-Victor de Broglie em 1925 que adaptando as
equações de Maxwell e usando o mesmo raciocínio de Einstein no
seu trabalho sobre efeito fotoelétrico, propôs que qualquer
partícula em movimento fosse tratada como uma onda
eletromagnética. A tese de De Broglie possibilitou somar as
propriedades de partículas com possíveis propriedades de onda. No
início de 1926, atendendo a um pedido de Peter Debye durante um
seminário no seu laboratório na Suiça, Erwin Schrödinger
demonstrou que a expressão de De Broglie podia ser generalizada
para abranger partículas ligadas, tais como os elétrons nos átomos.
A relação que a dualidade partícula-onda tem com os elétrons nos
átomos, coube a Werner Heisenberg e Max Born responder em
1927. Assumindo que os elétrons tinham prop riedades de onda,
Heisenberg concluiu ser impossível fixar ao mesmo tempo a sua
posição e a sua energia. Baseado na idéia de Heisenberg, que hoje
chamamos de Princípio da Incerteza, Born propôs que os
resultados fossem interpretados como:      
 
  
 "  
   !
 -<
 <
 u       

 
 
 " &   
  
       
C  -. A contribuição
da estatística pode ser melhor compreendida no conceito formulado
para orbital como sendo:     
    


  !
.
A mecânica clássica dispunha das leis formuladas por Charles
Augustin de Coulumb, em que a atração eletrostática variava em
função do valor das cargas e do quadrado das distâncias, com elas
era possível explicar as ligações iônicas. A introdução dos conceitos
de orbitais e emparelhamento de elétrons pela mecânica quântica,
possibilitou a explicação das ligações covalentes.
Muitos átomos apresentavam massas maiores do que poderia
explicar um modelo contendo apenas elétrons e prótons, indicando
a existência de um terceiro tipo de partícula sem carga, e com
massa aproximadamente igual a do próton. Em 1932, James
Chadwick anunciou a descoberta do nêutron, partícula
eletricamente neutra. O modelo próton-elétron cedeu lugar ao
modelo próton-nêutron-elétron que é usado até hoje. Neste modelo
o átomo é considerado como possuindo um certo número de
prótons, igual ao número atômico (Z), elétrons suficientes para
neutralizar sua carga, e tantos nêutrons (A-Z) quantos necessários
para completar o número de massa (A).
þ
2  þu
 ! u  $
  R u  

!  )   
$  (

R  

Ver Perfil Público

Visitar a home page de Pack Man!


Encontrar Mais Posts de Pac  Man

2
2

! !!! 
 —

Pac  Man
Banned

    ˜ 222˜ 22 2  2 

þ 
 þ
A    

þ     


      
      
      

  ˜          
      
Pac  Man is Offline
       
Data Ingresso: Oct 2005 
        
Localização: Belo Horizonte -
MG       
      
Posts: 16.626
      
      

 222Trajetória de uma bola em uma mesa de bilhar retangular sem


caçapas.

Para se entender alguns dos problemas mais profundos


da Física, às vezes o melhor caminho passa por
analogias divertidas. Assim um dos sistemas mecânicos
mais simples a apresentar caos é o do jogo de bilhar. O
movimento de só uma bola em uma mesa retangular
(sem caçapas) não é caótico. Como mostra a figura 1, o
movimento geral da bola neste caso terá sempre a
mesma direção depois de quatro colisões com a borda da
mesa. Uma pequena alteração na posição inicial da bola
levará a um desvio de sua trajetória que cresce
lentamente. Duas trajetórias inicialmente paralelas
permanecerão sempre paralelas.
'  Fixando uma segunda bola à mesa obtemos o bilhar de Sinai. A
segunda bola desfocaliza as trajetórias da primeira gerando um movimento
irregular ou caótico.

A presença de uma segunda bola alterará


fundamentalmente o movimento da primeira. Mesmo
que simplifiquemos o jogo prendendo uma bola no meio
da mesa (como sugeriu o matemático russo Y. Sinai),
seu efeito será de desfocalizar as trajetórias da outra
bola, como mostra a figura 2. Podemos considerar que o
papel da segunda bola é meramente o de alterar a forma
do bilhar (que passou a ter uma borda interior). Este é
um exemplo particular de bilhares caóticos.

Em geral, um bilhar qualquer, mesmo com uma forma


pouco irregular, será caótico (veja figura 3). A
desfocalização das trajetórias é a característica principal
do caos na mecânica clássica.

' ! Se adicionarmos duas partes semicirculares ao bilhar retangular


obtemos o chamado bilhar de Bunimovich, um bilhar caótico muito popular
na comunidade do caos quântico. Aqui o caos é devido ao efeito
desfocalizador dos arcos circulares.

Quando falamos em focalizar, pensamos em raios de luz,


antes de imaginar trajetórias. Em geral, estamos, na
prática, interessados na trajetória única de uma dada
partícula, enquanto que a luz que vemos é descrita como
o efeito coletivo de muitos raios. A razão é que lidamos
de fato com uma onda, da qual a ótica geométrica é
apenas uma descrição aproximada. Hamilton mostrou no
século passado que podemos usar a mesma estrutura
matemática para descrever, tanto os raios da ótica
geométrica, quanto as trajetórias da mecânica clássica.
Essa analogia permitiu que de Broglie e Schrödinger
criassem a mecânica quântica, ondulatória.

O problema quântico correspondente ao jogo do bilhar


clássico é o de saber quais ondas cabem nas formas das
figuras 1, 2 ou 3. O melhor é pensar nas vibrações de
um tambor, cujo contorno tenha a mesma forma da
mesa de bilhar. O som que ouviremos em cada caso será
decomposto em movimentos ondulatórios da membrana
do tambor, cada qual vibrando com uma freqüência
diferente. Será que podemos "ouvir a forma de um
tambor''? Esta é uma das questões iniciais no estudo do
caos quântico, formulada pelo matemático norte-
americano Kac. Em outras palavras, sabemos que a cada
forma corresponde uma única seqüência (ou espectro)
de freqüências de vibração, uma vez dada a tensão da
membrana do tambor. Será que o conhecimento dessas
freqüências determina unicamente a forma do tambor?

' / Um dos modos de vibração de um tambor retangular. A figura


representa o relevo da membrana do tambor fotografado em um dado
instante. Observe que o padrão é completamente regular.

Um dos resultados mais importantes da teoria do caos


quântico se refere às propriedades do espectro de
freqüência de um sistema classicamente caótico, como
os bilhares das figuras 2 e 3. A conjectura de Bohigas é
que neste caso é muito menos provável haver duas
freqüências de vibração quase iguais, do que no caso de
um sistema regular, tal como na figura 1. A explicação
deste fato em termos das trajetórias clássicas foi fruto
do trabalho, nos anos 80, de Berry e Hannay, na
Inglaterra, e Ozorio de Almeida, atualmente no CBPF.

' ? Um modo de vibração de um tambor com a forma do bilhar de


Bunimovich. O relevo da membrana não apresenta regularidade alguma,
exceto as simetrias (figura cedida por D. Wisniacki, CNEA, Buenos Aires).
Além de explicar propriedades mais definidas do
espectro de freqüência dos sistemas quânticos, os
trabalhos em caos quântico procuram entender a
estrutura de cada estado, ou seja, a estrutura do relevo
da membrana do tambor fotografado em um dado
instante quando este vibra com uma única freqüência.
De novo, a forma da borda determina este relevo e a
distinção principal está no movimento do bilhar
correspondente ser, ou não, caótico. Nas figuras 4 e 5,
vemos exemplos de vibrações, respectivamente regular
e caótica.

' 5 Microfotografia de um ponto quântico, transistor de dimensões


menores que um micron. As partes claras são os eletrodos que definem as
bordas deste bilhar diminuto. A curva indica a trajetória hipotética de um
elétron atravesando o transistor. (A fotografia foi tirada no Laboratório
"Marcus" de Física Mesoscópica da Universidade de H arvard.)

Fora os jogadores de bilhar e os bateristas de escola de


samba, quem mais poderia ter interesse no caos
quântico? Entre muitas aplicações da teoria, destaca-se
a tecnologia de nano-estruturas em semicondutores. Os
"pontos quânticos" minúsculos qu e a nano-engenharia
produz para aprisionar um pequeno número de elétrons,
são o ponto de partida para futuras gerações de
dispositivos eletrônicos. Suas formas podem ser
alteradas exatamente como os tambores e bilhares que
usamos como exemplo. Os transistores atuais, de
enormes dimensões em comparação com os pontos
quânticos, podem ser considerados como sistemas
clássicos. Em contraposição, as propriedades dos futuros
dispositivos terão de ser entendidos dentro da teoria do
caos quântico.

þ   ±"  þ   2 C±   6



 %  ˜ 
 ˜

=    R u   7˜=R:

˜ @        


   0%' 2,     
˜1 &#

R  þ = Î "   D


& 

—: @A 
 -
Nós gostamos de Jazz.
Acrílico sobre tela de Faye Cummings, 1994
Muita gente gosta de Jazz. Mesmo os que não gostam
admitem que a vida seria mais pobre se não existisse
esse gênero musical. Admitem isso talvez porque
extinção de um tipo de música (do qual não gostam)
abriria um precedente que poderia levar ao
desaparecimento de outros gêneros, tais como o Blues,
ou o Rock, por exemplo. Ou seja, a evolução do Jazz
interessa direta ou indiretamente a todos. Entre os seus
ingredientes principais, de importância central na
vitalidade do Jazz, estão as chamadas "â   
", as
"sessões de Jazz após a meia-noite". São nessas sessões
que os músicos tocam o que realmente querem, depois
que o grande público já foi pra casa ou para outros
bares. É nesse momento que se experimentam,
improvisam-se e inventam-se novas maneiras de tocar,
que depois serão eventualmente apreciadas por todos.
Por outro lado, aos que perguntam o que é afinal de
contas o Jazz, os puristas dessa arte, muitas vezes,
alardeiam um folclórico preconceito de pronunciar a
frase "se você tem que perguntar o que é, você nunca
vai sabê-lo". Independentemente desse mau humor, o
público e a indústria cultural agradecem aos jazzistas,
dos mais populares aos inveterados praticantes do â .
Essa história pode ser perfeitamente transposta à
ciência, suas vertentes e relações com o público e a
sociedade. É sobre isso que escreveremos a seguir,
baseando-nos na Física Quântica, cuja origem remonta
aos primeiros anos do século passado. Numa analogia
entre o Jazz e a Ciência, colocaríamos a "â   
"
como equivalente ao que se convencionou chamar de
"Ciência Básica" (ou Pura, em oposição à "Ciência
Aplicada").
De uma maneira bem geral, pode-se dizer que a ciência
aplicada busca soluções em curto prazo, com objetivos
delimitados, com uma aplicação direta em algum dado
problema específico (demanda externa à comunidade
científica). Por outro lado, a ciência pura busca resolver
problemas de caráter mais geral, sem um objetivo muito
delimitado, e muitas vezes sem nenhuma aplicação
prática aparente (demanda interna à comunidade
científica). Vamos começar por um exemplo: no início da
Física Quântica, Einstein desenvolveu o conceito
fundamental de emissão estimulada, relacionado com
propriedades intrínsecas da matéria. Dificilmente
encontraríamos um estudo de ciência básica mais
característico. Décadas depois, baseado nesse conceito,
foi desenvolvido o primeiro protótipo de um amplificador
de luz por emissão estimulada de radiação: ou
simplesmente LASER (- þ    
&Î   
  
2   
- amplificação de luz pela emissão
estimulada de radiação-, ver artigo nesta edição de Elza
Vasconcelos). Hoje em dia existem desenvolvimentos
específicos de LASERS aplicados às mais diversas áreas,
da medicina à metalurgia, passando por
telecomunicações e eletrônica de consumo. Hoje em dia,
um técnico trabalhando no aperfeiçoamento de um
LASER de alta potência para cortes de chapas de aço
constitui um caso claro de ciência aplicada.
Do mesmo modo, era simplesmente inimaginável no
início do século XX para onde a idéia revolucionária de
quantização de energia, proposta inicialmente por Max
Planck, poderia levar. Hoje, passado mais de um século
do nascimento da Física Quântica, podemos olhar para o
passado e ver que quase a totalidade dos objetos
"modernos" de nosso dia a dia deve a sua existência à
Física Quântica. Ninguém que viveu no primeiro quarto
do século XX poderia sequer desconfiar que estudos
aparentemente tão longínquos da realidade, como
espectros de corpo-negro, efeito fotoelétrico, espectros
de emissão e absorção atômicos, e outros objetos de
estudo daquele período, formariam a base de uma
teoria, que seria responsável direta pelo futuro
desenvolvimento não só do LASER, mas também de
equipamentos eletrônicos, computadores e uma enorme
quantidade de outras maravilhas que fazem parte de
nosso cotidiano.
A relação entre as Ciências Básica e Aplicada não é, no
entanto, uma via de mão única. A Ciência Aplicada
também pode dar origem a novos problemas de caráter
fundamental. Vejamos a origem da própria Física
Quântica. Muitas das observações experimentais feitas
no século XIX, ligadas a problemas tecnológicos como o
controle da temperatura de fornos metalúrgicos (ver
artigo nesta edição de Roberto Martins) simplesmente
não puderam ser entendidas dentro do âmbito da Física
Clássica. Os espectros de emissão térmica de Corpos
Negros (bom modelo para um forno) só puderam ser
descritos com a introdução do conceito de quantização
de energia. Assim, a motivação de Planck para seus
trabalhos sobre a radiação de corpo negro é também um
bom exemplo de como a Ciência Aplicada pode levar a
descobertas na Ciência Pura ou Básica. Isso nos leva a
suspeitar que a divisão entre ciência básica e aplicada
tende a ser inexata e artificial.
Antes de discutirmos um pouco mais detalhadamente o
papel da Ciência Básica, vale a pena comentar um pouco
sobre o atual estágio em que se encontra a Física
Quântica, pelo menos de algumas de suas ramificações,
passados mais de cem anos de seu advento. Muitos
acreditam que se trata de uma Ciência com os
fundamentos bem estabelecidos, mas muitos estudos de
Mecânica Quântica básica continuam sendo realizados e
não se limitam à busca de aplicações. Não existem
evidências experimentais bem documentadas das quais
a Mecânica Quântica não daria conta, embora um
número relativamente pequeno de cientistas se preocupe
(e devem se preocupar!) em definir onde se
encontrariam os limites dessa visão do mundo. Por que
então testar e voltar a testar essa teoria em novas
situações encontradas na natureza (descrição mecânico-
quântica das propriedades de moléculas de proteínas,
por exemplo) ou criadas em laboratório (as chamadas
caixas quânticas ou átomos artificiais, como outro
exemplo)? Uma resposta interessante está no conceito
de complexidade introduzido por P. W. Anderson nos
anos 70. Aos poucos os especialistas foram se dando
conta - e lentamente esboçando um novo objetivo
científico - de que o conhecimento das leis fundamentais
da natureza não garante o entendimento do
funcionamento do universo. Descrever exaustivamente
as pequenas peças que compõe o mundo não implica
que possamos entender como elas funcionam em
conjunto. Quanto maior o número de peças em um
sistema, mais complexo ele se torna e novos efeitos,
absolutamente imprevisíveis a partir das leis
fundamentais, podem surgir. Mais um exemplo:
descrever as propriedades dos metais a partir do
comportamento de elétrons individuais foi um dos
grandes sucessos da Física Quântica. Mas, para entender
o fenômeno da supercondutividade é necessário estudar
o comportamento de um conjunto grande de elétrons
interagindo entre si em situações muito específicas.
O futebol pode fornecer uma ilustração útil dessa idéia
de complexidade. Trata-se de um esporte envolvendo
um número razoavelmente pequeno de participantes
atrás de um objetivo aparentemente simples (ganhar o
jogo através de esforços coletivos para colocar o maior
número possível de vezes a bola no gol do adversário).
O número de regras básicas que devem ser seguidas
pode ser dominado por qualquer criança. O número de
fundamentos (chute, drible, passes...) também é
restrito. O resultado desse conjunto de regras e
condições tão simples é um espetáculo complexo em
contínua evolução, com valores que para todos (mesmo
para aqueles que só de vez em quando assistem aos
jogos da Seleção Brasileira) transcendem à mera torcida
pelo resultado. São fenômenos coletivos, que se
renovam e são reinventados desde o surgimento desse
esporte e que simplesmente são imprevisíveis a partir de
suas regras, objetivos e fundamentos.
No futuro esses estudos terão alguma aplicação prática?
No caso das proteínas o conhecimento da seqüência
química não é suficiente para descrever (e
possivelmente modificar) suas funções biológicas, que
muitas vezes estão associadas à morfologia (sua forma),
que necessita da Química Quântica para ser desvendada.
O outro exemplo mencionado, átomos artificiais, caixas
sub-microscópicas feitas de semicondutores, contendo
um pequeno número controlável de elétrons, poderão vir
a ser os componentes que realizariam o conceito de
Computação Quântica nas próximas décadas.
A busca do melhor entendimento de sistemas complexos
é um dos maiores desafios da ciência atual, entretanto,
tentar adivinhar o futuro desses estudos não passa de
um exercício especulativo. Então, até que ponto vale a
pena investir em Ciência Básica? Muitos experimentos
são caríssimos, e provavelmente vários não levarão a
lugar algum do ponto de vista de aplicações. Em outras
palavras, a razão custo-benefício é compensadora?
Como essa questão é freqüente, e sempre presente nas
conversas e na mídia, vale a pena tentar levantar alguns
pontos referentes ao papel da ciência em nossa
sociedade, e em particular em um país em
desenvolvimento como o Brasil.
Existem muitas pessoas, incluindo políticos, jornalistas e
até cientistas, que acreditam que em um país como o
nosso não se deva incentivar a Ciência Pura. Voltando ao
exemplo da Física Quântica, segundo Leon Lederman,
Prêmio Nobel e Diretor Emérito do Fermilab, mais de
25% do produto interno bruto norte -americano depende
de tecnologias que surgiram diretamente conectadas a
fenômenos essencialmente quânticos (Leon Lederman,
The God Particle, Houghton Mifflin 1993). Porém, tal
desempenho de uma Ciência Básica nem sempre ocorre,
mas não devemos nos ater apenas ao "sucesso
econômico direto" da ciência, mas lembrar dos reflexos
indiretos que ela provoca, além da complexa questão
sobre a divisão entre o que é básico e o que é aplicado.
De acordo com John Ziman, em seu famoso livro "A
Força do Conhecimento", no capítulo sobre Ciência e a
Necessidade Social, a função social da pesquisa básica é
encarada sob três pontos de vista distintos: o primeiro, e
mais comum, refere-se ao exemplo principal de que já
tratamos neste artigo. É o que afirma que a pesquisa
básica constitui o suporte da pesquisa aplicada, mesmo
que em longo prazo. Além da história da Física Quântica,
há inúmeros casos na história da Ciência onde princípios
científicos fundamentais adquiriram enorme
aplicabilidade tecnológica com o passar dos anos. Além
disso, muitas vezes justificam-se os enormes gastos em
projetos mirabolantes, como levar o homem à lua, ou a
construção de uma estação espacial, referindo-se à
enorme quantidade de sub-produtos comercializáveis
que esses projetos produzem. A NASA e os fãs de
Fórmula-1 não se cansam de usar esse argumento.

; %˜ 3


;  3;  B'3 Óleo sobre tela de Paul Gauguin,
1897
O segundo ponto de vista também já foi comentado
anteriormente, ao sugerir a analogia da Ciência Básica
com as 6   
, ou seja, por si só a Ciência Pura
constitui um evento estético e espiritual para a
humanidade, digno de ser praticado e aclamado, como
ocorre com qualquer manifestação artística. De fato, por
mais que tentemos, talvez não consigamos vislumbrar
uma futura aplicação para estudos de Astrofísica. Mas,
ainda de acordo com Ziman, se essas pesquisas podem
nos levar a um pequeno avanço no entendimento do
Universo, quem somos, de onde viemos, e para onde
vamos, será que isso não vale mais do que os benefícios
materiais? Afinal, de um modo ou de outro, com maior
ou menor intensidade, essas questões sempre intrigaram
a humanidade e são inerentes ao ser humano. Nesse
contexto, o financiamento da Ciência Básica pode ser
encarado com o mesmo espírito do financiamento de
uma orquestra sinfônica. É caro? Sim, muitas vezes
parece muito caro, mas a complexidade da questão
impede obter uma resposta única e precisa.
Finalmente, uma visão política-pragmática entende que
é importante a educação técnica (no sentido amplo) de
estudantes de ensino superior. E quem ensina esses
estudantes deve estar trabalhando em problemas
desafiadores em contato com outros pesquisadores,
estar motivado com o seu trabalho, e com a mente
aberta para receber e processar novas informações, para
assim melhorar a qualidade de ensino. Nesse sentido, a
Universidade concentra pessoas dispostas a aprender e
ensinar, altamente qualificadas, o que gera um círculo
de realimentação positiva em torno dessa questão. A
educação desvinculada da própria geração de
conhecimento básico é problemática e leva
inevitavelmente a uma queda irreparável na qualidade
do ensino.
Uma sociedade desenvolvida não pode prescindir da
Ciência Básica, aliás nenhuma sociedade moderna
tornou-se desenvolvida sem o auxílio da Ciência Básica.
Um país de Terceiro Mundo não tem outro paradigma ao
qual recorrer em um projeto de desenvolvimento a longo
prazo. A dificuldade em fazer projeções sobre seus
custos e benefícios não constitui uma limitação da
Ciência Pura e sim das ciências econômicas. A discussão
sobre a necessidade de financiar pesquisas de caráter
fundamental não pode, portanto, estar unicamente
atrelada ao avanço das ciências econômicas no cálculo
de valores de difícil inserção em planilhas e balanços
contábeis. Trata-se de operações de risco, cujos
significados são balizados pela história e interpretados
pela sociedade de acordo com o seu acesso aos
resultados dessas pesquisas. Se no Brasil temos â 
Î  
, corridas de Fórmula 1, orquestras sinfônicas,
devemos ter também Ciência Básica bem divulgada.
R  þ = Î "   D
&     
$
   % &'  
 (
R

˜  %    ˜  

R  Î 
Depois da revolução industrial, o homem vive a
revolução do conhecimento e da informação. A
integração dos computadores, da microeletrônica e das
telecomunicações no cotidiano marca uma nova era - a
da informação. Como ponto de partida dessa nova era,
temos a invenção do transistor.

Na década de 40 os sistemas telefônicos, equipamentos


de telecomunicações e computadores empregavam um
grande número de dispositivos amplificadores e
comutadores (como exemplos, o relê e a válvula) que
eram, no entanto, lentos, pouco confiáveis, dissipavam
grande quantidade de calor, além de terem uma vida útil
bastante limitada. Em 1945, a versão mais veloz de um
computador era um ENIAC que continha mais de 17.000
válvulas conversoras de corrente alternada em corrente
contínua e amplificadoras de sinal elétrico. Para
computadores mais potentes seriam necessárias mais
válvulas e, conseqüentemente, um maior gasto de
energia e a disponibilização de um espaço físico
gigantesco para alocar tais máquinas.

Cinqüenta anos depois da descoberta do elétron por


Joseph John Thompson, uma equipe do Bell Labs,
composta por John Bardeen, Walter Brattain e chefiada
por Willian Shockley criou, em 1945, a primeira versão
do que veio a ser o transistor. Esse dispositivo
revolucionou profundamente a eletrônica. Capaz de
amplificar uma corrente elétrica ou ainda ligá-la e
desligá-la, como um interruptor, o transistor torna
possível a fabricação de equipamentos cada vez menores
e com menor consumo de energia.

Esse primeiro transistor, conhecido como transistor de


contato de ponta, utilizava contatos de ouro
pressionados contra uma superfície de germânio, no qual
observava-se uma corrente elétrica em função da tensão
aplicada, configurando, assim, o efeito de amplificação.
O dispositivo foi usado, pela primeira vez, num receptor
de rádio. O transistor valeu aos seus inventores o prêmio
Nobel de Física de 1956.

Graças à Física Quântica descobriu-se que certos


materiais, os semicondutores, permitiam um controle da
corrente elétrica pela aplicação de uma tensão elétrica.
Esses materiais mostraram-se extremamente úteis para
a eletrônica. Uma combinação de diferentes tipos de
semicondutores compondo um transistor pode ser
empregada, por exemplo, como uma válvula de triodo,
substituindo-a em amplificadores de circuitos de rádio e
como comutadores de alta velocidade na memória dos
computadores. Ao contrário da válvula que usa energia
para aquecer o seu catodo, o transistor não consome
energia e pode ser fabricado em dimensões
microscópicas de modo que milhões deles podem ser
incorporados em um chip (material semicondutor) de
poucos milímetros. Atualmente existem chips de
memória com 50 milhões de transistores em um
centímetro quadrado.

A indústria da computação foi a que mais se valeu da


invenção do transistor. Substituindo as antigas válvulas
e exercendo a mesma função por um custo menor, o
transistor dá início à segunda geração de computadores
(1959 a 1964). Em 1964, iniciou -se a terceira geração
com o System/360 ou IBM 360, quando o transistor foi
substituído pelos circuitos integrados - conjunto de
transistores, resistores e capacitores - construídos sobre
um chip feito a base de silício. Os computadores de
quarta geração aparecem no final da década de 60,
quando foram projetados os microprocessadores. Com
eles foi possível reunir em um mesmo circuito integrado
as funções do processador central. O microprocessador
Pentium II, da Intel, que detém 80% da venda de chips
de microcomputadores no mundo, chega a possuir 7,5
milhões deles.

Mas parece que estamos longe do limite para o


crescimento exponencial dessa miniaturização. Em 1997,
a revista Scientific American publicou uma nota sobre
um grupo de pesquisa americano que conseguiu fabricar
um transistor tão pequeno que deixa passar um elétron
de cada vez. Com o auxílio da Física Quântica estamos
contando partículas.

R  Î !R 



  !   
(


R  

Ver Perfil Público

Visitar a home page de Pack Man!

Encontrar Mais Posts de Pack Man

 
! !!!   


Pac Man

Banned
"
    ˜ 222  22 2   2 2  2$C 22
2C  2 2; 2C (

þ 

Até o fim do século XIX e início do século XX, cristalógrafos e


mineralogistas haviam acumulado uma série de informações a
respeito dos cristais pelos ângulos formados pelas faces,
composição química e propriedades mecânicas, mas pouco havia
Pac ! Man is sido levantado sobre o interior da estrutura atômica. Com o
Offline surgimento da mecânica quântica, no início do século XX,
Data Ingresso: explicando os fenômenos que ocorrem em escala atômica, abriu-se
Oct 2005 para esses pesquisadores a perspectiva de interpretar a estrutura
dos materiais que até então era somente fruto de especulações.
Localização: Belo
Horizonte - MG
Os átomos do século XIX eram considerados esferas perfeitas,
Posts: 16.626 agrupadas lado a lado unidas pelas ligações químicas que se
assemelhavam a molas. Assim, em 1848, o cristalógrafo francês
Bravais determinou matematicamente que esferas poderiam ser
arranjadas no espaço através de no máximo 14 arranjos, estes
arranjos ficaram conhecidos como os 14 sólidos de Bravais.

Entretanto, a experiência de Rutherford, mostrou que o átomo é


um "imenso" vazio, com a massa concentrada no núcleo, isso
poderia ter causado um certo alvoroço, mas sempre sobram as
forças interatômicas, que acabam por deixar os átomos nos seus
devidos lugares. Assim, para o cristalografo os átomos poderiam
continuar sendo esferas perfeitas.

Mas como provar que esses arranjos formavam as estruturas


cristalinas dos materiais ? Para que possamos observar algo, o
meio que usaremos para captar dados tem que ser menor que o
objeto estudado, se o meio for maior que o objeto esse não terá
sensibilidade par captar seus detalhes, como se usando as mãos e
com os olhos fechados, quiséssemos descrever o formato de um
grão de areia . Assim, para observarmos átomos não poderíamos
usar a luz visível, já que os diâmetros atômicos são da ordem de
angstrons (10-10 m), com isso, estruturas cristalinas como a
cúbica do NaCl (sal de cozinha), tem 5,64 angstrons de face, já a
luz visível, apresenta uma faixa de comprimento de onda de 4000
(violeta) até 7000 (vermelho) angstrons. Ou seja, o menor
comprimento de onda da luz visivel é cerca de 800 vezes maior
que uma aresta da estrutura cúbica do sal de cozinha. Assim, o
uso de luz visível para uma observação direta da estrutura
cristalina está completamente descartada.

Estrutura cúbica do sal de cozinha, onde as esferas verdes são os atomos de cloro (Cl -) e
as esferas cinzas os átomos de sódio (Na+).

Ocorre que em 1895 Roentger descobriu acidentalmente os raios-


X, que assim como as luz visível é uma radiação eletromagnética,
mas com comprimento de onda na faixa de 0,5 até 2,5 angstrons.
Ora, então poderíamos observar os átomos usando os raios-X ?
Infelizmente não, isso porque os raios-X possuem alta energia,
assim, quando eles atingem um átomo eles acabam interagindo
com ele não retornando na forma de imagens, além disso, os
átomos não são esferas rígidas, são uma estrutura complexa
formada por elétrons, prótons e neutrons. Mas conhecia-se o
fenômeno da difração, onde, quando um feixe de luz
monocromático (apenas um comprimento de onda) passava por
duas fendas formava franjas brilhantes intercaladas por escuras
num anteparo. Se conhecêssemos os espaçamento das franjas
brilhantes e o comprimento de onda poderíamos dizer a distância
entre as duas fendas.

Foi então que em 1912 o físico alemão von Laue, sugeriu que se os
átomos apresentam uma estrutura cristalina, átomos organizados
de forma a apresentem periodicidade ao longo do espaço, e que se
os raios-X eram ondas eletromagnéticas com comprimento de
onda menor que os espaços interatômicos, então os núcleos
atômicos que concentram a massa dos átomos poderiam difratar
os raios-X, formando franjas de difração. Quando Laue fez passar
um feixe de raios-X por uma amostra monocristalina, e pôs um
filme fotográfico após a amostra, o resultado foi que após revelar o
filme este apresentava pontos sensibilizados pelos raios-X
difratados.

As experiências de Laue despertaram grande interesse nos físicos


ingleses, W. H. Bragg e seu filho W. L. Bragg, que formularam,
ainda em 1912, uma equação extremamente simples para prever
os ângulos onde seriam encontrados os picos de intensidade
máxima de difração. Assim, conhecendo-se as distâncias
interatômicas, poderiam ser resolvidas os problemas envolvidos na
determinação da estrutura cristalina. Dessa forma, os Bragg
determinaram sua primeira estrutura, a do NaCl. Transformando a
difração de raios-X na primeira ferramenta eficiente para
determinar a estrutura atômica dos materiais, fazendo com que a
técnica obtivesse rapidamente grande popularidade entre os
institutos de pesquisa.

Entre as décadas de 1920 e 1930, a literatura foi inundada por


estruturas cristalinas determinadas por difração de raios-X. Todo
mineralogista ou cristalografo da época tinha por obrigação
determinar a estrutura cristalina de algum composto, mineral ou
metal. A difração de raios-X também provocou surpresa ao
demonstrar a estrutura amorfa do vidro, onde este na realidade é
um líquido super-resfriado com viscosidade tendendo ao infinito, e
também foi a principal ferramenta usada por Watson e Crick, em
1953, para propor a estrutura em dupla hélice do DNA.

Padrão de difração de raios-X do DNA.

Mas e a mecânica quântica ? Para falar a verdade, os princípios da


mecânica quântica pouco se aplicam às primeiras fases da difração
de raios-X. Mas a explicação de como são gerados os raios-X é
fruto da mecânica quântica. Além disso, para que a técnica seja
eficiente é necessário gerar um raio-X monocromado e, nesse
caso, entram os princípios da geração da radiação característica,
que é fruto da explicação de Bohr para a lei de Rydberg.

Em 1925, Louis de Broglie, havia explicado as órbitas dos elétrons


como se esses se comportassem como uma onda, criando o
conceito de que a matéria poderia apresentar a dualidade
onda/partícula. Consequentemente, em 1927, Davisson e Germer,
simultaneamente com Thompson e Reid, provaram a natureza
ondulatória do elétron ao realizar a clássica experiência de difração
e, em 1936, Mitchell e Powers provaram o mesmo para o nêutron.

A partir dessa comprovação surgiu a idéia de usar os elétrons para


gerar imagens, pois estes possuem cargas elétricas, portanto,
poderiam ter sua trajetória alterada por lentes magnéticas. Dessa
forma, em 1932, Knoll e Ruska criaram o primeiro microscópio
eletrônico, que era do tipo transmissão.

Nesse tipo de microscópio o feixe de elétrons deve atravessar uma


amostra muito fina, ou pelo menos que seja "transparente" a
elétrons. As interações do feixe com os átomos da amostra gera
uma imagem numa placa pintada com uma tinta fluorescente. Esse
tipo de microscópio causou um grande entusiasmo para os
cientistas de materiais da época, pois pôde-se criar uma figura de
difração de uma fase observada no material e, consequentemente,
determinar a estrutura cristalina de cada fase constituinte do
material. O problema é que como o feixe atravessa a amostra, as
imagens geradas são somente em duas dimensões, referindo-se
exclusivamente ao interior do material, não sendo possível
observar a superfície das amostras.

Para superar esse problema, o próprio Knoll, em 1935, gerou a


primeira imagem por varredura de elétrons. Por esse método, o
feixe não fica fixo, mas varre a seção da amostra que se quer
observar através de uma sequência de linhas. Os elétrons que são
espalhados pela superfície, são captados por sensores que geram a
imagem como numa transmissão de televisão, ou seja, ao
contrário do microscópio de transmissão, no de varredura a
imagem tem que ser processada e não gerada diretamente. O
primeiro trabalho propondo esse método foi publicado em 1938
pelo alemão von Ardenne, mas as pesquisas de Ardenne acabaram
sendo tragicamente interrompidas, quando seu primeiro protótipo
foi destruído por um bombardeio em 1944. Assim, o primeiro
microscópio eletrônico de varredura acabou surgindo somente em
1947, na Universidade de Cambridge, construído por Charles
Oatley.
O primeiro microscópio eletrônico de varredura na Universidade de Cambridge, e a
primeira imagem (amostra de alumínio atacada).

A grande importância que esses microscópios apresentam na


caracterização dos materiais é indiscutível, não somente por poder
observar estruturas que estavam inacessíveis pelo microscópio
ótico, mas pela grande vantagem de que, como os elétrons são
uma radiação ionizante, o choque dos elétrons de alta energia
contra os átomos da amostra resulta na geração de uma série de
sinais. Entre esses sinais temos os raios-X, que saem em
comprimentos de onda característicos de cada espécie atômica.
Dessa forma os microscópios eletrônicos podem gerar análises
químicas de cada fase simultaneamente à geração das imagens.
Nos microscópios de transmissão pode-se ainda realizar a difração
de elétrons de cada fase, determinando a estrutura cristalina.

Outra grande vantagem sobre os microscópios óticos é que o


microscópio eletrônico de varredura, apresenta a propriedade de
ter uma grande distância focal, ou seja, pode-se por em foco
imagens de uma superfície muito irregular. A perspectiva que essa
propriedade abriu para a interpretação de fraturas foi imensa. A
partir desse momento, poderíamos observar o aspecto de peças
fraturadas e assim determinar tanto o motivo da quebra do
material, como o comportamento dessa trica durante a
propagação.

Mas, e para um engenheiro que esteja estudando a deformação de


um metal? Onde entraria a Física Quântica? Na verdade, para a
deformação de um material dúctil, como alguns metais, os átomos
podem perfeitamente ser esferas rígidas, onde o efeito da
deformação ocorre pelo escorregamento de uma esfera sobre a
outra. Mas para que uma esfera possa escorregar ela precisa se
desligar daquela a qual tinha sua ligação original. Assim, o cálculo
de energia de ligação química que a mecânica quântica gerou,
assim como a explicação detalhada de como se comportavam as
ligações metálicas e covalentes, foi de grande importância para
prever o comportamento mecânico de metais e cerâmicas.

Mas, em 1928, Orowan, na época um jovem estudante de


metalurgia, ao iniciar as experiências para seu trabalho de
formatura, submetendo uma amostra monocristalina de zinco
metálico a um ensaio de tração, observou que a energia necessária
para fraturar o material era muito menor do que a prevista pelas
energias de ligação. Nessa época acreditava-se que um cristal
apresentava uma estrutura perfeita, com átomos organizados lado
a lado sem nenhuma falha. Portanto, se conhecêssemos as
energias de ligação, a estrutura cristalina e quantos átomos temos
no corpo de prova poderíamos dizer qual seria a força necessária
para fraturar a amostra.

Com isso, surgiram uma série de hipóteses de defeitos na


estrutura cristalina dos materiais. Em 1934, Orowan,
simultaneamente a Taylor, propôs que a estrutura cristalina não
era perfeita, que ao longo dos planos atômicos empilhados
poderiam haver falhas. Essas falhas foram chamadas de
discordâncias ou deslocações. Na época a idéia não foi muito
aceita, pois a difração de raios-X não era sensível o suficiente para
detectar essas falhas e não existiam instrumentos de observação
direta dos planos cristalinos. Mas, a teoria da discordância se
adaptava muito bem aos resultados obtidos na prática para a
deformação dos materiais. Finalmente em 1956, Bollmmann,
Hirsch, Horne e Whelan, observaram, pela primeira vez, uma
discordância por um microscópio eletrônico de transmissão. Mas
qual a importância desse fato ? O resultado, é que esses defeitos
cristalinos regem a deformação dos metais, o empilhamento de
defeitos implica no surgimento de uma região onde os átomos
perdem suas ligações e que, consequentemente, resulta no
surgimento e crescimento de trincas, ao mesmo tempo que o
empilhamento dos defeitos provoca o endurecimento dos metais. O
conhecimento de como esses defeitos se comportam, durante a
deformação, permite determinar o processamento dos metais.

Como exemplo temos o processo de estamparia. A porta do seu


automóvel era originalmente uma plana chapa de aço Essa chapa é
colocada entre dois moldes que apresentam o formato final da
porta. Quando uma prensa impõe uma deformação, pelo
fechamento dos dois moldes, temos o produto.

O mais recente produto para a observação da estrutura da matéria


são os microscópio de varredura por tunelamento, desenvolvido
em 1981 por Binnig e Roher dos laboratórios da IBM de Zurique.
Esse instrumento torna quase mentiroso o conceito de que átomos
não podem ser observados.

O funcionamento desse microscópio, grosso modo, é semelhante


ao dos antigos toca-discos de vinil. No microscópio de
tunelamento, uma agulha funciona como sonda varrendo a
superfície de uma amostra condutora. Entre a sonda e a amostra é
aplicada uma voltagem. Os elétrons da amostra deveriam
permanecer nos átomos, mas pela mecânica quântica os elétrons
podem "tunelar" da amostra para a sonda gerando uma diminuta
corrente elétrica. Quando a sonda percorre paralelamente a
superfície da amostra, as variações de corrente elétrica
determinam as colinas e vales da superfície. A agulha assim
consegue "enxergar" a topografia dos átomos. Para que esse
equipamento possa ter uma resolução atômica, a agulha tem que
ser tão fina que a espessura da ponta deve ser de um único
átomo.

O microscópio de tunelamento consegue gerar imagens somente


em amostras condutoras elétricas. Para amostras isolantes, foi
desenvolvido em 1986, o microscópio de força atômica. A técnica é
semelhante ao microscópio de tunelamento, mas nesse caso não
há a geração da corrente de tunelamento. Mas são usadas as
forças de repulsão entre os átomos, as mesmas forças que
impedem que sua mão atravesse uma parede. Assim, num
microscópio de força atômica, a agulha, ao aproximar a eletrosfera
do seu último átomo das eletrosferas dos átomos da amostra,
sofre a ação de forças de repulsão. A agulha está apoiada sobre
uma alavanca onde há um espelho que reflete um feixe de laser,
as variações do feixe refletido determinam os movimentos da
agulha e consequentemente o relevo da amostra.

Levantar o perfil topológico de amostras, com a possibilidade de


atingir resolução atômica, abre a possibilidade de perceber desde a
rugosidade e determinar o acabamento superficial, até determinar
os primeiros estágios de oxidação de metais. Lógico que se temos
um instrumento que possibilita a visualização de átomos, também
temos a possibilidade de criar métodos para manipulá-los. Uma
brincadeira que passou a existir com o microscópio de
tunelamento, foi a de criação de letras com átomos, como criar o
nome IBM com 35 átomos de xenônio.

Mas as implicações tecnológicas estão sem dúvida na indústria


eletrônica, onde os microprocessadores são compostos por
transistores impressos em placas de silício metálico. Com a
possibilidade de analisar a topografia da impressão desse
transistor, pode-se criar métodos para imprimir componentes
eletrônicos confiáveis cada vez menores. Não é sem motivo que o
microscópio de tunelamento surgiu na IBM.

Enfim, no século XX obser vamos o surgimento de novos tipos de


aços, os polímeros passaram a ser materiais confiáveis e
comercialmente viáveis, ligas de alumínio invadiram o mercado e
as cerâmicas deixaram de ser meramente um material de
decoração. Saímos de um século XIX, onde os materiais se
resumiam a aços frágeis usados em construção mecânica,
madeiras e pedras para a construção civil. Entramos no século XXI
com aços resistentes sem serem frágeis, plásticos que não se
deterioram rapidamente se tornando tintas resistentes e o
concreto, cujo principal componente é o cimento portland comum,
o segundo produto mais consumido pela raça humana perdendo
somente para a água.

Podemos atualmente levantar a composição química de metais


enquanto eles ainda estão fundidos, determinar a temperatura dos
processos e assim obter um controle eficiente do produto final,
caracterizar a estrutura cristalina dos materiais e assim prever se
este será dúctil ou frágil. E todo esse desenvolvimento veio graças
aos instrumentos que a mecânica quântica trouxe à ciência dos
materiais. Em 150 anos, observamos que o cimento portland
comum aumentou a resistência à compressão em 20 vezes, e
coincidentemente, o aparecimento de instrumentos que identificam
a estrutura da matéria, também resultaram em saltos nas
propriedades mecânicas.

Evolução da resistência à compressão do cimento portland comum (amostra com 28 dias


de hidratação) ao longo dos anos. Reparar que a escala de propriedades mecânicas não é
linear.

As aplicações da mecânica quântica são óbvias na indústria


eletrônica, com a criação de componentes como os transistores e
os microprocessadores. Mas o desenvolvimento da indústria
metal/mecânica, o surgimento de novos materiais, assim como a
construção civil, se valeram dos instrumentos que a mecânica
quântica forneceu para a análise e caracterização dos materiais.
Hoje observamos que os métodos criados pela mecânica quântica
se transformaram em instrumentos comuns no ambiente industrial,
tanto como controladores de processos como no controle de
qualidade, e que o fim da evolução dos métodos atuais, e
surgimento de novos ainda está longe de ser atingido.

þ #
  = ! 

        
R(ÎR

˜ ! 
"A

"   


Em 1960 uma nova palavra, LASER, um acrônimo para


Amplificação da Luz pela Emissão Estimulada da Radiação, foi
acrescentada ao vocabulário. Esta invenção foi baseada numa
variedade de idéias e fatos que se originaram em diferentes ramos
da física e da engenharia, mas principalmente em fenômenos da
física atômica e molecular que não podem ser explicados pela física
clássica. Foi a aplicação da mecânica quântica de Einstein à
eletrônica, que possibitou o florescimento do que denominamos
eletrônica quântica, área que se desenvolveu após a Segunda
Guerra Mundial e que deu origem ao descobrimento de muitos
dispositivos, a começar pelo transistor nos anos 40, culminando
com a descoberta do laser nos anos 60.

No final da década de 40, começo da década de 50, Charles


Townes, então professor da Universidade de Columbia, em Nova
Iorque, estava fazendo estudos espectroscópicos de moléculas
utilizando radiação de microondas. Ele pretendia produzir
microondas mais curtas do que aquelas utilizadas nos radares da
Segunda Guerra Mundial, e teve a idéia de utilizar moléculas e a
radiação estimulada (conceito introduzido por Einstein em 1917),
delas proveniente. Ele e seus colaboradores foram bem sucedidos,
produzindo radiação estimulada de comprimento de onda de 1cm,
o que foi batizado com o nome MASER referindo -se à radiação
estimulada na região de microondas. O maser foi assim, o
precursor do laser. Ao final dos anos 50, percebeu-se que esses
estudos poderiam ser estendidos à faixa espectral que vai das
microondas até a luz visível. Novamente, Townes e seu colega
Arthur Schawlow conseguiram mostrar, teoricamente, que era
possível utilizar átomos para gerar um Maser óptico, que foi
denominado Laser, isto é, simplesmente um maser que produzisse
radiação na região visível do espectro eletromagnético, o que
conhecemos por luz. Foi Theodore Maiman que em 1960 conseguiu
fazer funcionar o primeiro laser sólido, feito a partir de um cristal
de rubi, e foi Javan a produzir o primeiro laser à gas, a partir de
uma mistura dos gases nobres Hélio e Neônio. (Fig. 1).

'  Primeiro laser à gás constituído por uma mistura dos gases nobres Hélio e
Neônio

É interessante notar que, nessa época, muitos pesquisadores que


trabalhavam em pesquisa fundamental, em vários países,
contribuíram para o advento do laser. Não existia,    ,
intenção de produzir um tal equipamento; e, quando este surgiu,
nem mesmo se cogitava sobre o número de aplicações que ele
viria a produzir. Nas palavras de Townes, "O desenvolvimento do
maser e do laser não seguiu nenhum roteiro, ele simplesmente
nasceu da natureza dos cientistas no seu desejo de entender,
explorar e criar. Ele é um exemplo gritante de como tecnologias
importantes, aplicáveis aos interesses humanos, podem nascer da
pesquisa básica feita na universidade". Assim, em 1964, o
americano Townes e os russos Basov e Prokorov que,
independentemente, deram contribuição significativa na área de
lasers sólidos, semicondutores, foram agraciados com o prêmio
Nobel de Física, pelo trabalho fundamental na área da eletrônica
quântica que levou à construção dos sistemas maser e laser (Fig.
2).

Mas afinal, o que é o laser? O laser pode ser descrito numa


maneira simplificada, como sendo uma fonte luminosa que utiliza a
luz emitida por um átomo ou molécula para estimular a emissão de
mais luz por outros átomos ou moléculas, e, neste processo,
amplificar a luz original. Esses átomos ou moléculas são
previamente preparados, ou como dizemos, excitados para
energias mais altas. Ao perderem a energia armazeda o fazem pela
emissão de luz que inicia todo o processo em cadeia. No tipo mais
comum de laser conhecido, o laser de Hélio-Neônio, de luz
vermelha, os átomos do gás nobre Neônio é que constituem o
meio ativo do laser, isto é, são eles que emitem luz que, ao atingir
outros átomos de Neônio contidos numa cavidade laser,
estimulam-nos a também emitir o mesmo tipo de luz e, assim,
amplificá-la. A Fig. 3 é um desenho esquemático de uma tal
cavidade laser. Os átomos estão contidos num tubo que é fechado
nas extremidades por dois espelhos que ajudam a confinar a luz
emitida num vai-e-vem ao longo da cavidade. No processo, essa
luz, ao atingir outros átomos, os induzem a também emitir luz de
mesma cor (que está associada ao comprimento de onda dessa
luz), amplificando o processo. Essa intensa radiação produzida
dentro da cavidade laser pode ser extraída, por exemplo, através
de um pequeno orifício central num dos espelhos que constituem a
cavidade laser, originando o feixe unidirecional de luz que se
observa.

' ! Desenho esquemático de uma cavidade laser.

Como então, a grosso modo, a luz de um laser difere de uma luz


de uma lâmpada de filamento incandescente, por exemplo? A luz
do laser é mais intensa, é emitida numa só direção e tem uma cor
específica (comprimento de onda único), enquanto a luz de uma
lâmpada incandescente é fraca, é emitida em todas as direções e é
formada por muitas cores (radiações de diversos comprimentos de
onda) que, somadas, resultam em luz branca.

Existem muitos tipos de lasers, tanto quanto à intensidade do


feixe, ao tipo ("cor") de radiação, à produção do feixe, se pulsada
ou contínua, e quanto ao desenho específico e tamanho da
cavidade, esta última podendo ser de imensões microscópicas ou
atingir vários metros de comprimento.

Os lasers podem ser produzidos em diversos meios diferentes, isto


é, o meio ativo que gera a radiação pode ser um sólido, como um
cristal ou um semicondutor, pode ser um líquido, como um corante
ou pode ainda ser um gás ou vapor. O laser à gás é um dos mais
eficientes. Nesta categoria está, por exemplo, o laser de dióxido de
carbono, cuja radiação, na região do infravermelho, não é visível.

Quando o laser foi descoberto não se podia avaliar a enormidade


de aplicações a que serviria. Por vários anos após sua invenção, os
colegas do Townes gostavam de provocá-lo dizendo que a
invenção do laser tinha sido uma grande idéia, mas que o laser era
uma solução à procura de um problema. Lasers são hoje utilizados
em afazeres tão corriqueiros como nas comunicações telefônicas,
nas leituras de código nas caixas do supermercado, nos tocadores
de discos compactos, no corte de metais, papel e roupas, e
também em afazeres sofisticados e de precisão como aqueles
efetuados em cirurgias oftalmológicas, processamento e
manipulação de materiais biológicos, etc. Além de tudo isso, os
lasers têm sido amplamente estudados em seus aspectos
fundamentais, onde ele joga ao mesmo tempo o papel de
ferramenta a ser utilizada e "material" a ser pesquisado. A sua
aplicação ao estudo da ciência fundamental propiciará novas
descobertas e aplicações, hoje em dia inimagináveis.

"   
!   $
   % &'  

 (


˜ / ˜1   ˜1 ˜   3

2& â  ˜




O advento da Física Quântica causou e tem causado enormes


transformações na vida de todos nós. Nem sempre e nem todos
estamos conscientes dos modos pelos quais uma revolução
científica iniciada há cem anos pode nos afetar ainda hoje, mas
provavelmente já ouvimos falar de seu impacto na evolução da
própria Física e de toda controvérsia gerada pelas dificuldades
conceituais de interpretação dos fenômenos quânticos [1]. Seus
efeitos, porém, se estenderam para além da Física, com
desdobramentos importantes na Química, com a teoria de orbitais
quânticos e suas implicações para as ligações químicas, e na
Biologia, com a descoberta da estrutura do DNA e a inauguração
da genética molecular, apenas para citar dois exemplos.

Mesmo conscientes disso tudo, estaríamos preparados para mais


essa: para a possibilidade de que a própria consciência [2] possa
operar com base em princípios ou efeitos quânticos? Pois é o que
andam conjecturando algumas das mentes mais brilhantes de
nosso tempo... e alguns franco-atiradores também. A descoberta
do mundo quântico, que tanto impacto teve nas ciências e
tecnologias, ameaça agora envolver o "etéreo" universo da psique.

É preciso dizer desde logo que, na verdade, essa história não é


assim tão nova. Desde o início de sua formulação, a Física
Quântica apresentou uma dificuldade essencial: a necessidade de
se atribuir um papel fundamental para a figura do observador
(aquele que está realizando um experimento quântico). Isso
decorre do fato da teoria quântica ser de caráter não
determinístico, ou seja, trata-se de uma teoria para a qual a
fixação do estado inicial de um sistema quântico (um átomo, por
exemplo) não é suficiente para determinar com certeza qual será o
resultado de uma medida efetuada posteriormente sobre esse
mesmo sistema. Pode-se, contudo, determinar a probabilidade de
que tal ou qual resultado venha a ocorrer. Mas, quem define o que
estará sendo medido e tomará ciência de qual resultado se obtém-
se com uma determinada medida é o observador. Com isso, nas
palavras de E. P. Wigner, "foi necessária a consciência para
completar a mecânica quântica".

A introdução de elementos subjetivos na Física Quântica, embora


tenha sido defendida por físicos notáveis como von Neumann, além
do próprio Wigner, é considerada altamente indesejável, tendo sido
tentadas diferentes formulações para contornar esse problema
que, aliás, é objeto de debate ainda hoje. Contudo, não é tanto
esse problema de caráter epistemológico que se quer focalizar
aqui, mas sim a possibilidade de que certos efeitos quânticos
possam fazer parte do funcionamento do cérebro e estejam
envolvidos na manifestação da consciência. Porém, antes de ir
direto ao ponto, convém apontar alguns aspectos da dinâmica
cerebral mais aceitos atualmente.

De forma resumida, pode-se dizer que as descrições mais


convencionais apontam a consciência como sendo uma propriedade
emergente das atividades computacionais realizadas pelas redes
de neurônios que constituem o cérebro. O cérebro é visto
essencialmente como um "computador" para o qual as excitações
neurais (correspondentes à atividade sináptica) seriam os estados
de informação fundamentais (equivalentes aos bits). A partir dessa
visão, certos padrões de atividades neurais teriam estados mentais
correlatos, sendo que oscilações sincronizadas no tálamo e no
córtex cerebral produziriam uma conexão temporária dessas
informações e a consciência surgiria como uma propriedade nova e
singular, emergente da complexidade computacional das redes
neurais atuando em sincronia [3].

Em geral, os enfoques quânticos não excluem o funcionamento do


cérebro através de redes neurais (seria negar o óbvio), mas
consideram que complexidade somente não explica tudo e situam
efeitos quânticos como centrais para a descrição da emergência ou
geração do eu consciente. Aliás, alguns desses modelos negam que
consciência seja uma propriedade emergente de redes neurais
operando além de um certo nível crítico de complexidade, mas
consideram que a dinâmica cerebral, na verdade, organiza e faz
aflorar algo que já é uma propriedade intrínseca da natureza.

Há vários desses modelos e os mecanismos dos quais lançam mão


são os mais diversos (...e os mais "viajados"). Infelizmente o
espaço aqui disponível não é suficiente senão para salientar alguns
aspectos mais importantes. Para que o leitor possa ter pelo menos
um "aperitivo" do que propõem esses modelos, vamos destacar
aqui três deles.

.  ; ; . ; D;  Herbert Fröhlich, físico


especialista em superconditividade a altas temperaturas, propôs,
há bastante tempo, que seria possível ocorrerem estados quânticos
coletivos em sistemas biológicos. Existiriam efeitos vibracionais
dentro das células correspondentes a radiação eletromagnética na
faixa de microondas, resultantes de um fenômeno de coerência
quântica biológica que teria origem em grandes quantidades de
energia disponibilizadas por atividades metabólicas. Com isso, ele
sugeriu a possibilidade de que estados de coerência quântica de
grande alcance, semelhantes aos observados em
supercondutividade e em lasers, chamados de condensados de
Bose-Einstein, poderiam existir mesmo a temperaturas tão altas
como as características de sistemas biológicos.

I. Marshal (psiquiatra) e D. Zohar (física), tendo como


preocupação básica o caráter unitário da consciência, encontraram
na proposta de Fröhlich as propriedades necessárias de extensão
espacial (não localidade) e capacidade para muitos estados se
fundirem num todo único, não analisável, aspectos característicos
dos fenômenos mentais. Marshal se valeu, então, do sistema de
fonons bombeados de Fröhlich para propor que certas proteinas
neurais poderiam formar condensados de Bose-Einstein, dando
origem aos fenômenos conscientes.

. " &6 - Sir John Eccles, ganhador do prêmio


Nobel de Fisiologia e Medicina de 1963 e autor, com Karl Popper,
do livro The Self and Its Brain, propôs um modelo, posteriormente
aperfeiçoado em parceria com Frederick Beck, físico teórico, pelo
qual efeitos quânticos ocorreriam nos terminais sinápticos dos
neurônios e seriam moduladores das funções cerebrais. O
mecanismo central estaria relacionado à exocitose, processo pelo
qual as moléculas neurotransmissoras contidas em minúsculas
vesículas são expelidas através da passagem sináptica entre
neurônios.

Por esse modelo, a chegada de um impulso nervoso ao terminal de


um axônio (prolongamento tubular através do qual os neurônios se
comunicam) não induziria invariavelmente as vesículas a expelirem
seus neurotransmissores através da sinapse, como se pensava.
Isso seria controlado por uma espécie de "gatilho quântico",
associado a transferências de elétrons através de um fenômeno
denominado tunelamento, que promoveria alterações
conformacionais nas membranas controladoras do mecanismo de
deliberação de neurotransmissores. Com isso, efeitos quânticos
seriam os controladores efetivos de toda a dinâmica cerebral,
embora não fique claro como é que tal mecanismo implicaria na
emergência da consciência.

. E  ++   Dois dos principais propositores


da Consciência Quântica são Stuart Hameroff, médico, e Roger
Penrose, físico-matemático de Oxford que atua na área de
Cosmologia e Gravitação e foi ganhador do prêmio Wolf
juntamente com Stephen Hawking. Ao final da década de 80,
Penrose lançou um livro muito instigante, A Mente Nova do
Imperador, que causou sensação e foi o responsável por muito da
discussão a respeito de consciência e efeitos quânticos que se
seguiu. Nesse livro, ele elabora extensas discussões a respeito dos
seguintes pontos:

]2 O pensamento humano não é algorítmico (é não-


computacional);
]2 Os únicos processos não-algorítmicos no Universo são os
processos quânticos;
]2 Não existe atualmente uma Física Quântica completa, mas
está faltando uma Teoria Quântica da Gravitação;
]2 O advento dessa nova teoria seria o passaporte para se
formular um modelo quântico para a consciência.

Anos mais tarde, Penrose, em parceria com Hameroff, formulou


um modelo um pouco mais específico, procurando localizar as
estruturas cerebrais onde ocorreriam os tais efeitos quânticos.
Nesse modelo, eles principiam por correlacionar certas
características da psique com atributos de sistemas quânticos. Por
exemplo:

]2 A sensação de um self unitário (the binding problem) - isso


é atribuido a coerência quântica e não-localidade;
]2 Livre arbítrio - decorrência de um processo randômico, não-
determinístico; teria a ver com indeterminação quântica;
]2 Intuição - processamento não-algorítmico, computação via
superposição quântica;
]2 Diferença e transição entre estados não-conscientes e
consciência - colapso da função de onda.
A idéia deles é que a consciência poderia "emergir" como um
estado quântico macroscópico a partir de um certo nível crítico de
coerência de eventos acontecendo em certas estruturas
subneurais, denominadas microtubulos, que compõem o esqueleto
neuronal. Os ingredientes essenciais do modelo são os seguintes:

]2 Coerência quântica e auto-colapso da função de onda são


essenciais para a emergência de consciência e isto acontece
nos microtubulos;
]2 Tubulinas, subunidades dos microtubulos, são acopladas por
eventos quânticos internos e interagem cooperativamente
entre si;
]2 Deve ocorrer coerência quântica entre tubulinas através de
um bombeamento de energia térmica e bioquímica,
provavelmente a la Fröhlich;
]2 Durante o processamento pré-consciente, ocorre um
processo de computação/superposição quântica nos
microtubulos, até que um auto-colapso acontece em função
de efeitos relacionados à Gravitação Quântica;
]2 O auto-colapso resulta em "estados clássicos" de tubulinas
que então implementam uma determinada função
neurofisiológica;
]2 Conexões via MAPs (microtubule-associated proteins)
sintonizam e "orquestram" essas oscilações quânticas.

˜1   ˜1 ˜   3 Pelo seu


caráter altamente especulativo, modelos como os aqui delineados
acabam provocando fortemente o senso crítico de físicos e
neurocientistas. Recentemente, Max Tegmark, de Princeton,
publicou um trabalho [4] em que ele mostra que os tempos de
decoerência quântica em situações como as aqui aventadas são
extremamente pequenos, entre 10^-13 a 10^-20 segundos,
quando os tempos característicos para processos neurais são da
ordem de 10^-3 a 10^-1 segundos. Hameroff e colaboradores
contra-atacaram, afirmando que as estimativas de Tegmark não
levaram em conta efeitos importantes que elevariam tais tempos
de decoerência para valores neurofisiologicamente relevantes.
Apesar de se tratarem de idéias bastante controversas, atualmente
se procura estabelecer arranjos experimentais em condições de
testar modelos como os aqui apresentados. Os leitores
interessados poderão obter maiores informações no website
http://www.consciousness.arizona.edu/. Aqueles, porém, que se
encontram por demais perplexos com o que acabam de ler, talvez
prefiram a sugestão abaixo:
"What´s mind? No matter.
What´s matter? Never mind"

[1] Atenção: o que se discutem são as


    + , os  u
  estão fora de
qualquer disputa. (volta)
[2] Obviamente, palavra "consciência" é empregada aqui no sentido neuropsicológico,
não no sentido moral. (volta)
[3] Veja-se, por exemplo, o artigo "Consciousness and Complexity", de G. Tononi e G. M.
Edelman, publicado na revista Î
, vol.282, pp.1846-51 (1998). G. M. Edelman foi
ganhador do Prêmio Nobel de Medicina e Fisiologia de 1972. (volta)
[4] M. Tegmark: "The importance of quantum decoherence in brain processes", R 
2  E 61, 4194 (2000). (volta)
2& â  ˜
!  $
   % &
'  
 (


˜ ? .        

(  ˜ "

Uma velha escola de jornalismo, como os físicos do passado,


confinados à mecânica clássica, enxerga o mundo com a
materialidade aparente de um peso de chumbo. Para seus
membros, a realidade está lá fora, independente, faiscando na
forma de uma estrela, manifestando-se num corpo que cai,
expressando-se de maneira inequívoca em construções como uma
árvore, um tigre, uma fotografia.

Jornalistas, evidentemente, não são os únicos a se apegarem a


esta interpretação do mundo e nem mesmo todos os jornalistas
pensam assim. A construção do lead (o que, quem, quando, onde,
como e por que), no entanto, dá ao jornalismo, e a boa parte dos
jornalistas, a sensação de uma descrição possível da máquina do
mundo. Por isso, o que chamaríamos de um novo e um velho
jornalismo podem ser tomados como uma metáfora para a Física
Quântica e o fim do realismo materialista.

Enquanto metáfora, a sumariedade interpretativa do velho


jornalismo, com o pressuposto de um mundo exterior
independente de um observador, não tem razões para confinar-se
a essa atividade. E, de fato, estende-se a outras áreas. Ao menos
é o que se pode deduzir de encontros, escritos e posturas.

O salto conceitual que o físico alemão Max Planck deu em 1900,


engendrando a base da mecânica quântica, reformulou de tal
maneira a visão do mundo que, ao menos um historiador da
ciência, não teria razões para supor que seu impacto já tivesse
sido todo absorvido.

Mário Schenberg, talvez o mais criativo de uma primeira geração


de talentosos físicos brasileiros, disse que o desenvolvimento da
mecânica quântica "foi uma coisa espantosa, revolucionou toda a
física, penetrou em tudo e explicou propriedades estranhas como a
supercondutividade, a superfluidez e os acontecimentos a baixas
temperaturas".

Há uma área, no entanto, adverte Schenberg, que a mecânica


quântica não pode iluminar: a segunda lei da termodinâmica, a
entropia. O aumento da entropia não pode ser deduzido pela
mecânica estatística clássica, nem pela mecânica estatística
quântica, diz Schenberg, para quem "há, aí, alguma coisa de
fundamental que ainda não compreendemos".

Isaac Asimov, que se tornou conhecido como escritor de ficção


científica, embora, à sua maneira, tenha sido sempre um cientista,
explorou essa incompreensão num de seus contos mais
fascinantes, "Entropia", publicado numa coletânea que, no Brasil,
teve o título de ) þ
 . E aí também não há uma resposta,
ao menos em termos convencionais.

A impotência da mecânica quântica em desvendar a entropia é um


exemplo intrigante dos mistérios do mundo e por isso é sugestivo
um outro trecho de Schenberg para quem "no processo de
conhecimento há muitas fases sucessivas. Há uma fase de
simplificação, quando muitas coisas diferentes são reunidas numa
mesma coisa; posteriormente há um desmembramento em muitas
coisas e, depois, vem uma nova fase de simplificação, de síntese, e
assim por diante. Parece que não se pode esperar um processo
único, de a coisa ir se simplificando cada vez mais. Quando se
pensa que se chegou ao fim da simplificação, aí estoura um mundo
novo de que não se suspeitava antes".

William Thomson, físico inglês mais conhecido pelo título de Lord


Kelvin, cometeu a imprudência de, às vésperas do século passado,
garantir que, na física, muito pouco restava para ser conhecido. O
que veio a seguir, se não for considerada a psicanálise, onde há
uma completa subversão do sujeito cartesiano, foram a mecânica
quântica e a relatividade.

Com alguma freqüência, falas e escritos sugerem que a unificação


das forças básicas será o fim da física. Se depender de fatos como
a previsão de Kelvin e as interpretações de Schenberg, o que virá
é uma nova explosão do novo, enquanto insuspeito.

Schenberg, crítico de arte, ao interpretar que o desenvolvimento


da mecânica quântica penetrou em tudo" certamente compartilha
da visão de ciência de Charles S. Pierce matemático, químico,
físico, astrônomo, lógico, filósofo, historiador da ciência e fundador
da semiótica, a ciência dos signos.

Para Pierce, o corpo da ciência, longe de esquartejado, é


interativo, o que pressupõe uma relação nova e promissora entre
áreas aparentemente tão dissociadas quanto a história, psicologia,
física e literatura. Certamente não seria exagerado incluir aí o
jornalismo, particularmente sua vertente científica, enquanto
possibilidade e, certamente, necessidade de uma reconstrução
epistemológica.

Enquanto território de trânsito entre as ciências do comportamento


e a história, mas não só por isso, não há razão para se pensar que
o jornalismo esteja imune à influência da física quânti ca,
especialmente pela natureza interpretativa. Compreender essa
influência e tirar partido dela seguramente traria uma perspectiva
nova para um impasse atual: a perspectiva da originalidade do
mundo, como produto de interpretações possíveis, e a
massificação completa, a recusa, ou impossibilidade de se
interpretar.

Encerrada no universo subatômico, a perspectiva da mecânica


quântica, ao menos enquanto subversão do absolutismo
reducionista, é a de provocar estranhamento. Planck foi sua
primeira vítima. Seus biógrafos o descrevem como um tipo
tradicional e os historiadores da ciência asseguram que, só à custo,
convenceu-se das próprias idéias, rejeitando especialmente suas
implicações.

Planck basicamente considerou que os elétrons absorvem ou


emitem energia em determinadas energias específicas e
descontinuamente separadas, a que chamou de quanta. Isso
explica porque é possível bronzear-se ao Sol, mas não em frente a
uma fogueira. Para um elétrom executar um grande salto quântico,
com emissão de luz ultravioleta, é necessária uma fonte de energia
mais poderosa que a queima de madeira.

O salto quântico é, literalmente, um fantasma da Física Quântica.


Ao contrário de uma bola, atirada por uma escada que, num dado
momento está entre um degrau e outro, os físicos dizem que, no
salto entre uma e outra órbita em torno do núcleo atômico, o
elétron não se encontra em lugar nenhum. O matemático Charles
Lutwidge Dodgson, que ficou conhecido pelo pseudônimo de Lewis
Carrol, expressou esses estranhamentos em Alice No País das
Maravilhas, mas ainda é confundido como escritor de literatura
infantil.

Quanto ao salto quântico, o elétron simplesmente desaparece de


um nível e aparece no outro. Além disso, não se pode saber
quando um determinado elétron vai dar seu salto, nem para onde
vai saltar, acima de um degrau mínimo de energia. Aí deixa de
haver certeza e só pode-se falar em probabilidades.

Físicos mais provocativos dizem que isto é o bastante para


inviabilizar o teletransporte, recurso indispensável ao capitão Kirk.
Mas esta já é um outro caso, ainda que, ficção e realidade, cada
vez mais se confundam numa única história.

(  ˜ " <6


     "     
 !
      
  þ  =     â
 
˜
 7þ=â˜:

˜ 5 "    


  =  
"

  E, ' ilustra seu Princípio da Incerteza apontando


para baixo com a mão direita para indicar a localização de um
elétron e apontando para cima com a outra mão para suas ondas,
para indicar sua energia. Num determinado instante, quanto mais
estamos certos sobre o momentum de um quantum, menos
certeza temos de sua exata localização.

7 &; acena com dois dedos para enfatizar a dualidade,


natureza complementar da realidade. O quantum não observado é
ao mesmo tempo uma onda e uma partícula, mas um determinado
experimento pode mostrar apenas uma forma ou outra. Bohr
argumenta que as teorias sobre o universo devem incluir um fator
que contabilize os efeitos do observador sobre determinada
medição do quanta. Bohr e Heisenberg argumentam que predições
na Mecânica Quântica são limitadas para descrições estatísticas do
comportamento do grupo. Isso levou Einstein a declarar que não
podia acreditar que Deus joga dados com o universo.

, "  aponta um dedo para cima, para indicar sua


crença de que o universo pode ser descrito com uma equação de
campo unificado. Einstein descobriu a relatividade do tempo e
relação matemática entre energia e matéria. Ele dedicou o resto de
sua vida tentando formular uma teoria do campo unificado. Ainda
que considerasse que devemos agora usar probabilidades para
descrever eventos quânticos, Einstein expressou a esperança de
que os cientistas do futuro encontrarão uma ordem oculta para a
Mecânica Quântica.

A ;  2  toca bongô, com diagramas de Feynman de


partículas virtuais subindo como notas musicais. Ele inventou
Quantum-Elétron-Dinâmica, o mais prático sistema para resolver
problemas em Mecânica Quântica. Feynman renormalizou os
infinitos que impediam as soluções exatas das equações quânticas.

O gato de Schodinger está piscando e roçando em Bohr. A mulher


azul vergada sobre a Terra é Nut, a deusa egípcia do céu. Ela
acaba de jogar dados atrás das costas de Einstein. Nut está dando
a luz a chuvas de partículas elementares, que caem como cascatas
sobre as borboletas do caos.

Traduzido do site de David B. Martinez


http://members.aol.com/elchato/

r   

±  #$ '  ( %&
  '

  (  r   


   (  ) (

 


 ))  


r * + + ,  -+
  

.


*+
/  ,   +*

*+
/  ,*++ ,  -+

*+
/  ,+   +

*+
/  ,  +

*+
/  ,* 

*+
/  ,*  ++ 




 - 


Pode-se traçar a história da Física a partir do momento em que a humanidade começou


a ver e analisar os fenômenos naturais de modo racional, abandonando explicações
místicas ou divinas. As primeiras tentativas racionais de explicação da Natureza vieram
com os indianos e com os gregos antigos. Antes disso, fenômenos naturais e suas
consequências eram explicados por deuses e deusas; Apolo, em sua carruagem,
carregava a esfera brilhante, o Sol, de leste para oeste, todos os dias. A Filosofia
Natural, como era conhecida a Física até tempos mais modernos, confundia-se com a
Química e com certos aspectos da Matemática e Biologia, e pode ser considerada a
disciplina acadêmica mais antiga, se for considerada a sua presença dentro da
Astronomia.

Após ter visto um momento de esplendor na Grécia Antiga, tendo como nome principal
Aristóteles, a Física entrou em declínio na Idade Média, tendo revivido apenas durante o
Renascimento, durante a Revolução Científica. Galileu Galilei é considerado o primeiro
Físico em seu sentido moderno, adotando a Matemática como ferramenta principal.
Galileu é um dos pioneiros a descrever o real objetivo de um cientista; sua função é
apenas descrever os fenômenos em vez de tentar explicá-los. Já dotado de um método
científico, a Física teve uma notável evolução com Isaac Newton, que realizou a
primeira grande unificação da Física ao unir Céus e Terra sob as mesmas leis da Física,
a gravitação universal.

Nos séculos XVIII e XIX surgiram os fundamentos da termodinâmica e do


eletromagnetismo, destacando-se Rudolf Clausius, James Prescott Joule e Michael
Faraday. James Clerk Maxwell realizou outra grande unificação da Física ao fundir
eletricidade e magnetismo sob as mesmas descrições matemáticas, sendo que toda a
Óptica pode ser derivada da teoria eletromagnética de Maxwell.

No final do século XIX pensava-se que todos os fenômenos físicos poderiam ser
explicados dentro das teorias correntes. Entretanto, certos "fenômenos rebeldes" fugiam
do alcance dos cientistas. No início do século XX, ao tentar explicar matematicamente a
radiação de corpo negro, Max Planck introduziu o conceito de u   de energia. Em
1905, Albert Einstein apresentou, sob a forma de cinco artigos, as base da Relatividade
e da Mecânica Quântica. Tais "fenômenos rebeldes" finalmente foram explicados, mas a
ontologia determinista estrita e pontual, característica da mecânica newtoniana, foi
abalada seriamente, que foi agravada após a publicação do Princípio da Incerteza de
Werner Heisenberg e do princípio da complementaridade de Niels Bohr.

Desde então, a Física preocupa-se em explicar, sob o ponto de vista da Física Moderna,
a natureza as quatro forças fundamentais da Natureza. O Modelo Padrão, apresentada na
década de 70, descreve três das quatro forças. Trabalhos dentro do Grande Colisor de
Hádrons (LHC), no CERN, e no Fermilab, procuram confirmar a existência do bóson de
Higgs, a única partícula prevista pelo Modelo Padrão ainda não descoberta. Entretanto,
a gravidade ainda carece de uma explicação teórico-experimental enraizada pela Física
Moderna e é ainda um grande problema em aberto da Física.

8ndice
* 0  ,

]2 #1  

]2 i. 
2 

]2 /
 
  
0

/1

]2 23
3   3 3   3 3 
]2 &1 4
4

]2 $5   51

]2  
6  
]2 [3
  7

]2 %2 68

]2 #78 
 

meditar] Antiguidade
As pessoas desde a Antiguidade sempre prestaram atenção nas regularidades da
Natureza;[1] o Sol nasce todo dia; um ciclo lunar é completado em aproximadamente 28
dias, praticamente o mesmo período de um ciclo menstrual; as estrelas ocupam a mesma
posição no céu em um determinado momento a cada ano, um objeto sempre cai quando
não é apoiado; as quatro estações do ano sempre estão ordenadas e se repetem
anualmente.[2]

Esta ordenação da Natureza precisava de explicações satisfatórias. Inicialmente, os


povos antigos atribuíam tais fatos à mitologia e à metafísica; deuses e deusas que
controlavam o mundo. Na Grécia Antiga, Gaia era a deusa Terra e Zeus controlava o
poder dos rel mpagos. Apolo, com a sua carruagem flamejante do Sol, cruzava os céus
uma vez por dia.

Basicamente, "Física" é uma tentativa de se obter explicações racionais sobre o mundo


real, em contraste com explicações metafísicas, mitológicas, religiosas ou mágicas.[3]
Tomando Física com base nesta definição, os povos antigos começaram a construíla
em diferentes partes do mundo em diferentes épocas, com propósitos e ênfases
diferentes.[3] O povo maia, no século I a.C, já havia desenvolvido um calendário;
conheciam a duração de um ano com uma precisão de seis segundos. Também 9
conheciam com bastante precisão os movimentos do Sol e dos planetas[ ] e
desenvolveram a noção de zero antes dos europeus.[:] Os indianos também haviam
desenvolvido a noção de zero, que foi transmitido ao mundo árabe. Também refletiam
sobre questões físicas desde o III milênio antes de Cristo.[6] Entre o IX e o VI século
a.C. os filósofos indianos já defendiam o heliocentrismo e o atomismo.[6] Na Grécia
Antiga, Tales de Mileto foi historicamente o primeiro filósofo ocidental a recusar
explicações sobrenaturais, religiosas ou mitológicas para os fenômenos naturais,
defendendo que todo evento tem uma causa natural.[;] No século IV a.C., os9 chineses já
haviam enunciado o que é conhecido hoje como aPrimeira Lei de Newton.[ ]

mi  i i 


  9 : < 
 
 9   <


. 
< 


As primeiras tentativas do Ocidente em prover explicações racionais para os


funcionamentos da Natureza vieram com os gregos, por volta do século VII a.C..=8]
Pitágoras e seus seguidores, no século VI a.C., acreditavam que todo o sistema
numérico era dividido em elementos finitos, uma ideia precursora do atomismo. =9] Os
gregos Leucipo, Demócrito e Epicuro, nos séculos V a III a.C., impulsionaram a ideia
de que a matéria era dividida em "átomos" extremamente pequenos, com diferentes
materiais sendo formados de diferentes átomos e suas combinações.=10] Aristarco de
Samos, no século III a.C., foi um dos primeiros gregos a propor o heliocentrismo, =11]
embora o paradigma dominante fosse geocentrista. =12] Aristarco também tentou calcular
o tamanho relativo da Terra, da Lua e do Sol. =11]

Entretanto, os gregos não estavam preocupados com a experimentação. Todas as


explicações racionais do mundo eram derivados de um pequeno número de princípios
filosóficos;=13] boas argumentações e um pouco de lógica se sobrepunham à
comprovações empíricas, deixada para "artesãos".=14]

Aristóteles é descrito com frequência como sendo o grego que proveu as explicações
mais compreensivas dentro destes princípios filosóficos. Ele acreditava na existência de
quatro elementos básicos, a terra, a água, o ar e o fogo. Cada um tinha o seu lugar
natural no Universo, determinado pelo seu peso. A terra é pesada e tenderia a
permanecer no centro do Universo, a água tenderia a permanecer acima da terra e o ar,
por sua vez, tenderia a permanecer na superfície terrestre. O fogo tenderia a escapar do
centro do Universo.=15] Haveria ainda um quinto elemento, perfeito, que não teria peso.
As estrelas seriam formadas por esse quinto elemento, o éter. =15]

Em seu livro, '  p , Aristóteles descreveu o movimento de um corpo. Um corpo


manteria seu estado de movimento apenas se estivesse em contato com o seu
"movedor". Caso contrário, a tendência de um corpo seria parar. Aristóteles explicou
que o movimento de uma flecha após ser lançada seria causada pela "impulsão do ar",
uma tendência natural do ar fechar o "vácuo" formado pela flecha em seu rastro, já que,
segundo Aristóteles, a "Natureza abomina qualquer forma de vácuo". >16] No caso dos
objetos constituídos por éter, para Aristóteles, bastaria apenas um "lançamento inicial"
para pôr tais objetos em movimento, e esse movimento seria perpétuo, pois objetos
formados por éter não teriam peso e, portanto, não teriam a necessidade de um
"movedor". >16]

Os gregos fizeram muitos esforços para prover explicações racionais sobre os


movimentos dos planetas, do Sol, da Lua e das estrelas. Eudoxo de Cnido, no século IV
a.C., foi aparentemente o primeiro grego a prover observações quantitativas sobre o
movimento dos astros usando descrições matemáticas. Ele desenvolveu um sistema de
esferas, notando a periodicidade dos movimentos dos astros. As esferas eram centradas
na Terra, mas seus eixos de rotação eram centradas em esferas exteriores. Assim,
Eudoxo elaborou um sistema de esferas concêntricas, e cada esfera estava ligada a um
planeta. >12] Isto encaixava na crença dos gregos de que o círculo é o objeto geométrico
mais perfeito. >17] Apolônio de Perga aperfeiçoou o sistema de esferas no século III a.C.;
cada planeta estava fixada a uma pequena esfera, que por sua vez estava fixada em uma
esfera maior, que completava uma volta a cada dia. Estas pequenas esferas ficaram
conhecidas como epiciclos e explicavam
? o movimento retrógrado aparente dos planetas
no céu para um observador da Terra.[ ]

O sistema esférico dos astros foi se complexificando com o aumento da precisão


matemática. Hiparco, no século II a.C., utilizou registros gregos e babilônicos para
prover dados mais precisos, e Ptolomeu, no mesmo século, já havia construído um
sistema de esferas contendo mais de 80 elementos para explicar toda a periodicidade
dos astros no céu, todos descritos em seu livro þ 
 .[18] Eratóstenes deduziu que a
Terra era uma esfera e calculou apuradamente sua circunferência usando sombras de
bastões fincados verticalmente para comparar os ângulos, ou seja, o tamanho da sombra
projetada no chão pelo bastão vertical, entre dois pontos bastante separados na
superfície da Terra.[19] Arquimedes é considerado o fundador da hidrostática, da estática
e formulou as leis da alavanca. Formulou os princípios do empuxo em fluidos,
conhecidos como Princípios de Arquimedes. Arquimedes também inventou o parafuso
de Arquimedes, uma máquina constituída de um parafuso e de um tubo, capaz de
bombear água para níveis mais elevados.[20]

mi  i il  i   ll i 


Veja também: Física islâmica medieval.


@
 A     (     ( (
  A
8 B
Com a queda do Império Romano no século V, a maior parte da literatura grega se
perdeu assim que a Europa entrou num período conhecido como a "idade das trevas",
onde o interesse pela obtenção do conhecimento e da própria educação praticamente
desaparece.C21] C22] A terra, que era esférica, passa a ser plana.C23] Os conhecimentos da
Natureza até então obtidos passam a ser subjugados pelas Escrituras Sagradas.

Entretanto, o conhecimento grego não foi totalmente perdido. Todo esse conhecimento,
que havia migrado para o Oriente Médio e Egito, foi traduzido para o árabe pelas
pessoas que viviam nestas regiões. Os árabes não somente mantiveram o conhecimento
grego vivo, como o enriqueceram.C24] As leis da refração já haviam sido enunciadas
pelos persas. Os árabes também traduziram trabalhos indianos e começaram a usar
numerais e a álgebra. C25] A noção de zero foi levada para a Europa pelos árabes. Al-
Battani calculou a precessão dos equinócios com maior precisão do que o grego
Ptolomeu. Mohammed al-Fazari desenvolveu o astrolábio, C26] enquanto que al-
Khwarizmi emprestou seu nome para que conhecemos atualmente como algarismo. C27]

No século XII, com a reconquista dos territórios árabes na Europa, teve início a
tradução da literatura árabe e grega para o latim, C28] e a Europa Medieval redescobriu,
assim, o conhecimento grego juntamente com novos conhecimentos árabes.C28] A
intelectualidade na Europa durante a "Idade das Trevas" manteve-se preocupada com a
cópia manuscrita de livros sagrados.C21] Em outras palavras, a educação estava em torno
da Igreja Católica. C21] Com o passar dos séculos e com a "avalanche" de conhecimentos
redescobertos, escolas começaram a se formar adjacentes às igrejas e catedrais. Tais
escolas evoluíram para as primeiras universidades medievais por volta do século
XIII. C29] As universidades inglesas de Cambridge e de Oxford surgiram nesta época.C30]
Com o advento de universidades associadas à Igreja, outras universidades foram
fundadas por governos de cidades e Estados. C4] O trabalho realizado dentro destas
universidades medievais contribuiu muito para a evolução do conhecimento científico
que se seguiria séculos depois. C31]

Na primeira metade do século XIV, ressurge a teoria do ímpeto, que já havia sido
iniciada por Hiparco e impulsionada por João Filopono, radicalmente modificada pelo
persa Avicena e consagrada pelo francês Jean Buridan. C32] Um projétil após ter sido
lançado tem seu movimento continuado devido a algo interno, chamado "ímpeto",
doado pelo lançador no momento do tiro. O "ímpeto" se perpetuaria se não houvesse a
"tendência natural de cair ao chão" e se não houvesse contato com outros objetos. Um
objeto com mais peso teria mais "ímpeto" do que um objeto mais leve, considerando-se
a mesma velocidade. Esta maneira de pensar, ainda similar à "Física" de Aristóteles,
tornou-se um antecessor às concepções de inércia, momento linear e aceleração. C33]

O inglês Guilherme de Ockham opôs-se à teoria do ímpeto e afirmou que não se pode
diferenciar qual o objeto seria o projétil, o objeto lançado ou o lançador. Segundo ele,
não podendo se afirmar qual é o projétil, não se pode afirmar nenhuma conclusão sobre
"ímpeto". C34] Além disso, Ockham, um grande lógico, criou a chamada "Navalha de
Ockham". Segundo este princípio, a melhor explicação para o funcionamento da
Natureza é aquela que pode descrever o fenômeno nos seus princípios mais
fundamentais. Outras descrições mais elaboradas são "descartadas". C34] Robert
Grosseteste e Roger Bacon realizaram importantes trabalhos experimentais sobre óptica,
nos séculos XII e XIII. C35]
Com o advento da peste negra, novamente a Europa caiu em um período onde se teve
poucas produções científicas, encerrando-se apenas com a publicação de È
 a  a
  a  
 a , de Nicolau Copérnico, trazendo o heliocentrismo
novamente ao centro das atenções.[36]

mi  i   


l
i      
iíi 
Veja também: Revolução científica.



 D 



O Renascimento do conhecimento e da aprendizagem na Europa, que se seguiu à


redescoberta dos conhecimentos gregos e árabes, afetou toda a sociedade europeia.[37]

Em 1541, Nicolau Copérnico publica o livro È a  a


  a  
 a , que
marca o início da astronomia moderna.[36] Neste livro, Copérnico defende o
heliocentrismo e o suporta matematicamente.[36] A partir do século XVII, os filósofos
naturais começam a montar um ataque sustentado contra o programa filosófico
escolástico, que unia filosofia e teologia.[37] Também propuseram que a descrição
matemática de áreas como a Mecânica e Astronomia poderiam universalizar as
características dos movimentos.[38]

Um dos grandes nomes desta época é o italiano Galileu Galilei. Uma das maiores
contribuições de Galileu foi reconhecer que o papel deum cientista não era explicar o
"porquê" dos fenômenos, mas somente descrevê-los.[39] Em E
um de suas obras, È
a


È 

  
 Èa
 
  
Galileu levanta a
questão de por que um objeto cai sem sustentação. Na réplica, Galileu diz que não
explicou nada, apenas o descreveu.[39] Galileu simplificou o papel de um cientista, sua
função é apenas fazer uma descrição, sem procurar os "porquês" que ele mesmo não
pode responder.[39] Galileu foi um dos pioneiros a reconhecer na matemática uma
ferramenta para descrever os fenômenos naturais e confirmá-los através de
experimentações. F39]

Os estudos de Galileu recaíram no estudo de movimento de projéteis, F40] da queda


livreF41] e na Astronomia.F42] Galileu concluiu que os movimentos verticais e horizontais
são independentes F40] e que a distância percorrida por um objeto em queda livre é
proporcional ao quadrado do intervalo de tempo decorrido.F41] Galileu também
aperfeiçoou o telescópio e descobriu os satélites galileanos, os quatro maiores satélites
de Júpiter, e as fases de Vênus, o que levou Galileu a defender o heliocentrismoF36] e a
ser condenado pela Igreja pelo seu ato.F43]

Os métodos de Galileu, alem de cientistas contemporâneos, como Johannes Kepler e


William Gilbert, já eram uma derivação da nova forma de se pensar da época, uma nova
forma de filosofia que vinha sido desenvolvida, entre outros, pelo francês René
Descartes e pelo inglês Francis Bacon, que veio a ficar conhecido como método
científico. Tal forma de se pensar já vinha desde os filósofos naturais islâmicos.F44]

Segundo Francis Bacon, a ciência deve ser qualitativa, experimental e indutiva. Deve
rejeitar assunções   . Se houver uma quantidade suficiente de observações, tais
observações devem ser usadas para se induzir ou generalizar os princípios fundamentais
envolvidos nos fenômenos a serem estudados.F45]

Porém, René Descartes propôs uma lógica diferente: não se deve iniciar as observações
com descrições de fatos "crus", sem conexão, ao se analisar um determinado fenômeno.
Descartes acreditava que os princípios mais fundamentais que regem a Natureza
poderiam ser obtidos de uma combinação de pura razão com lógica matemática. Sua
abordagem era analítica: os problemas devem ser partidos aos seus constituintes mais
fundamentais e após rearranjá-los logicamente. Os fenômenos podem ser reduzidos aos
seus componentes fundamentais. Se tais componentes fundamentais forem entendidos,
portanto o sistema como um todo também será.F46] Embora os pensamentos de Bacon e
de Descartes fossem diferentes, a congruência dessas filosofias dominou as
investigações científicas nos séculos seguintes.F47]

meditar] Mecânica Clássica


  (

A Mecânica Clássica deriva-se da queda da física aristotélica, que perdurou por toda a
Idade Média. Esta queda iniciou-se com os trabalhos de Galileu Galilei. Tornou-se claro
que os céus não eram feitos de uma "substância perfeita", o éter. Adotando o sistema
heliocêntrico de Nicolau Copérnico, Galileu acreditou que a Terra não passaria de mais
um planeta que orbita em torno do Sol. Os importantes experimentos quantitativos de
Galileu sobre queda livre e movimento de projéteis foram importantes pontos de partida
para os trabalhos de Isaac Newton.

Newton foi o primeiro a unificar as três leis do movimento (Lei da Inércia, a força como
relação massa e aceleração e a lei da ação e reação), conhecidas como Leis de Newton,
e provar que estas leis governam tanto a Terra como os Céus.[48][49] Newton e seus
conteporâneos esperavam que a Mecânica Clássica pudesse ser capaz de explicar todos
os fenômenos, incluindo a Óptica.[49] Em seu livro, R 
 a
R   
   , Newton descreveu a universalidade de suas leis[50] e concluiu a primeira
grande unificação da História da Física, já iniciada por Galileu, ao unir Céus e Terra, os
trabalhos de Galileu e de Kepler, sob as mesmas leis físicas, a gravitação universal.[51]

Newton também foi um dos desenvolvedores, juntamente com o alemãoGottfried


Leibniz, do Cálculo, uma das mais importantes ferramentas matemáticas para dar
linguagem à Mecânica Clássica. Anos mais tarde, Leonhard Euler estendeu as Leis de
Newton para corpos rígidos e realizou simplificações matemáticas para as suas leis,
como a introdução do conceito de força como produto da massa pela aceleração
(Newton havia elaborado o conceito de força como a derivada da quantidade de
movimento).

A Mecânica Clássica foi aperfeiçoada com o decorrer dos séculos. Além das
contribuições de Euler, os trabalhos de Joseph-Louis Lagrange e de William Rowan
Hamilton permitiram soluções para uma grande quantidade de problemas. Em meados
do Século XIX, a Mecânica Clássica atinge seu auge: todos os problemas físicos
podiam ser reduzidos a simples problemas que a Mecânica Clássica obteria respostas
consistentes. Entretanto, várias incompatibilidades surgiram, como a diferença de
comportamentos da Mecânica Clássica com o Eletromagnetismo em referenciais
diferentes. Surgiu a necessidade de novas explicações e no início do Século XX, a
Mecânica Clássica foi reduzida a simples caso particular dentro da Relatividade e da
Mecânica Quântica.[49]

mi T i i 

!
 "
!!

No século XVII, as noções básicas de calor e de temperatura já estavam estabelecidas.


Os cientistas daquela época já estavam convencidos de que tais propriedades físicas
estavam associadas aos movimentos das estruturas microscópicas damatéria.[52][53]
Entretanto, no século seguinte, a noção de que o calor era uma substância fluida tornou-
se dominante.[52]

Apenas na década de 1840 James Prescott Joule e outros cientistas começaram a


derrubar esta forma de pensamento e, na década seguinte, tornou-se aceito que o calor é
de fato uma forma de energia.[54][52] A relação entre calor e energia tornou-se importante
para o desenvolvimento de máquinas a vapor.[55] Ainda em 1824, o francês Sadi Carnot
já tinha em mente algumas ideias rudimentares de termodinâmica para discutir a
eficiência de máquinas térmicas idealizadas.[56]

Por volta de 1850, Rudolf Clausius e William Thomson (Lord Kelvin) foram os
primeiros a enunciar a Primeira Lei da Termodinâmica: a energia total é conservada.[57]
Tanto Clausius quanto Thomson também enunciaram os rudimentos daSegunda Lei da
Termodinâmica. Originalmente, ambos descreveram que o calor não "flui"
espontaneamente de um corpo frio para outro quente, o que é descrito atualmente em
termos de entropia, onde a entropia de qualquer sistema isolado tende a aumentar com o
tempo, até alcançar um valor máximo.[58]
A ideia de que gases são constituídos de moléculas em movimento foi discutida
inicialmente por Daniel Bernoulli, em 1738, embora não tenha alcançado grande
aceitação.[59] Esta ideia foi revivida por Clausius em 1857 e,[59] três anos depois, James
Clerk Maxwell derivou da mecânica da colisão de moléculas individuais a distribuição
da velocidade das moléculas em um gás. Durante os anos seguintes, ateoria cinética dos
gases desenvolveu-se rapidamente e muitas propriedades macroscópicas dos gases em
equilíbrio foram computadas.[59]

Em 1872, Ludwig Boltzmann construiu uma equação que, segundo ele, detalhava a
evolução de um gás, em equilíbrio ou não, através de um período de tempo.[60] Durante
a década de 1860, Clausius havia introduzido a noção de entropia como a razão do calor
pela temperatura e enunciou a Segunda Lei da Termodinâmica como sendo o aumento
desta grandeza.[61] Boltzmann então mostrou que sua equação implica na chamada
teorema H, que afirma que uma grandeza igual à entropia deve sempre aumentar com o
tempo em um processo irreversível.[62] Isto provaria a Segunda Lei da
Termodinâmica.[62] Entretanto, tal ideia gerou discussões, pois se assumia que as
colisões moleculares poderiam ser reversíveis e, portanto, entrava em contradição com a
Segunda Lei da Termodinâmica.[62]

Mais tarde, foi mostrado que a equação original de Boltzmann implicaria


implicitamente que as moléculas não estão relacionadas antes da colisão mas estão logo
após. Isto introduziria uma assimetria fundamental no próprio conceito detempo.[63]
Durante a década de 1870, Kelvin e Maxwell já estavam convencidos de que a Segunda
Lei da Termodinâmica não poderia ser entendida em termos de Física microscópica,
mas de alguma forma de propriedades intrínsecas de probabilidade envolvendo um
grande número de moléculas.[64] Boltzmann, convencido da reversibilidade da colisão
de moléculas, argumentou que em um gás há mais estados aleatórios do que
ordenados.[65] Baseado nesta argumentação, Boltzmann afirmou que a entropia deve ser
proporcional ao logaritmo do número de estados possíveis de um sistema, formulando
os rudimentos da Física Estatística.[66]

mi  l i 


Ver artigo principal: História do eletromagnetismo

'

# 
 

A humanidade conhece as forças magnética e elétrica desde a antiguidade, mas apenas


os gregos antigos a partir do quarto século a.C. começaram a refletir racionalmente
sobre suas propriedades.[67][8]

Entretanto, as investigações sistemáticas não começaram até a Idade Média; os


fenômenos magnéticos começaram a ser explorados primeiramente.[68] No século XII, a
bússola já era conhecida na Inglaterra.[69] O francês Petrus Peregrinus de Maricourt
concluiu que uma agulha magnetizada alinha-se longitudinalmente a um ímã esférico,
alinhando-se a dois pontos que Maricourt chamou de polos magnéticos.[70]

Entretanto, um dos primeiros cientistas a realizar estudos sistemáticos sobre eletricidade


e magnetismo foi o inglês William Gilbert, no século XVI.[71] Gilbert confirmou os
trabalhos de Maricourt e especulou corretamente que a Terra é um gigantesco ímã.[71]
No seu livro, È , Gilbert descreveu também que a força elétrica pode ser
observada em vários materiais friccionados. Ele atribuiu este fenômeno à remoção de
um "fluido elétrico" devido à fricção e chamou esta propriedade como fenômeno
"elétrico", termo derivado do grego a , que significa âmbar.[71]

Otto von Guericke construiu o primeiro gerador eletrostático utilizando a fricção de uma
esfera de enxofre.[72] Pieter van Musschenbroek é o primeiro a publicar trabalhos sobre
a "garrafa de Leiden", um dos primeiros acumuladores de carga, antecessor do
capacitor.[72] Benjamin Franklin foi um dos primeiros a propor que um corpo contém
quantidades iguais de cargas negativas e positivas, que sob circunstâncias normais, são
neutralizadas uma pela outra.[73] O ato de eletrificar seria a separação das duas "formas"
de eletricidade, a negativa e a positiva. Franklin demonstrou seus argumentos e propôs
que os raios de tempestades não passariam de gigantescas centelhas que neutralizariam
as cargas elétricas presentes no solo e nas nuvens. No famoso experimento da pipa,
Franklin conseguiu com sucesso armazenar cargas elétricas de uma nuvem de
tempestade em uma garrafa de Leiden.[73]
As primeiras tentativas de quantificação da eletricidade e do magnetismo se iniciaram
no século XVIII.[74] Charles Augustin de Coulomb inventou a balança de torção para
medir com precisão as forças envolvidas em corpos carregados eletricamente.[75]
Coulomb concluiu que a força elétrica é inversamente proporcional ao quadrado da
distância, o que ficou conhecido como a lei de Coulomb.[75] No final do século XVIII e
no início do século XIX, vários grandes físico-matemáticos conceberam vários
formalismos matemáticos para os fenômenos elétricos e magnéticos, comoSiméon-
Denis Poisson, Pierre-Simon Laplace e Carl Friedrich Gauss.[68] Alessandro Volta
descobriu que dois metais diferentes em contato produziam umpotencial elétrico.[76]
Usando isso, Volta construiu a primeira "pilha voltaica". Tal pilha poderia produzir uma
corrente elétrica com ordens de magnitude maior do que já se tinha feito até então com
geradores eletrostáticos.[76]

$# "
  

Sabia-se, até então, que a eletricidade e o magnetismo estavam relacionados apenas nos
formalismos matemáticos semelhantes, exceto que o magnetismo não tinhamonopolos.
No entanto, sabia-se que um raio poderia defletir a agulha de uma bússola.[77] Hans
Christian Oersted, que estava filosoficamente convencido da união das forças da
natureza, ao saber da pilha voltaica, realizou experimentos com grandes correntes e
percebeu que a força magnética está presente em uma corrente elétrica.[77] Ao saber dos
trabalhos de Oersted, André Marie Ampère desenvolveu uma completa teoria
quantitativa fundamentada matematicamente.[78] Ampère foi além: por meio de
experimentos, concluiu que a força magnética de um magneto permanente é exatamente
equivalente à força magnética de um condutor de eletricidade, considerando-se a
intensidade da corrente elétrica ou o número de espiras de um condutor enrolado (que
Ampère chamou de solenoide). Ampère também concluiu que um magneto permanente
deve conter correntes elétricas fechadas em seu interior e que a magnetização é o
alinhamento de moléculas dotadas de magnetismo.[78]
Michael Faraday introduziu o conceito de "campo", o que simplificou a matemática que
descrevia os fenômenos elétricos e magnéticos.[79] Segundo Faraday, a presença de
cargas elétricas e magnéticas causavam uma "distorção" no espaço. A esta "distorção"
Faraday chamou de campo. A ação do campo ocorria sob a forma de "linhas de
força".[79] Impressionado com os trabalhos de Oersted, Faraday propôs o inverso, a
variação da força magnética causaria corrente elétrica.[80] Após dez anos de tentativas,
em 1831 Faraday pôde demonstrar experimentalmente suas ideias. Faraday foi além:
construiu o primeiro motor elétrico, o primeiro transformador e o primeiro dínamo.[81]
Faraday também tentou explicar os fenômenos elétricos e magnéticos
microscopicamente, afirmando que a polarização dos objetos era devida a rotação de
átomos dipolares (a ideia de átomo ainda estava sendo levantada à época, e não se
previa a existência do elétron).[82] Faraday também argumentava que a luz era uma
manifestação do eletromagnetismo e cogitou a hipótese de unificar as forças elétrica e
magnética à gravitação.[83]

James Clerk Maxwell foi o grande unificador dos trabalhos dos cientistas do século
XIX, unindo, sob a mesma teoria fundamentada matematicamente, os trabalhos de
Gauss, Ampère e Faraday, com várias correções próprias.[84] Iniciando seus trabalhos
com foco nas linhas de força de Faraday, Maxwell fundamentou toda a base matemática
da teoria eletromagnética observando similaridades com outras áreas da Física Clássica,
como termodinâmica e hidrodinâmica. Seu trabalho é resumido em apenas quatro
equações, conhecidas atualmente como as equações de Maxwell.[84] Demonstrou
matematicamente a velocidade da luz usando apenas princípios eletromagnéticos, o que
finalmente levou a Óptica a ser fundida com a teoria eletromagnética.[85] Em 1888,
Heinrich Rudolf Hertz confirmou experimentalmente a existência das ondas
eletromagnéticas previstas por Maxwell.[85] O trabalho de Maxwell serviu como base
para a futura revolução tecnológica ocorrida no século XX.[84]

mi íi    
Veja também: História da mecânica quântica e História da teoria quântica de
campos


  ((
Durante as últimas décadas do século XIX, todos os fenômenos físicos poderiam ser
explicados dentro das teorias clássicas da Física, segundo o pensamento corrente.[86]
Existiam "fenômenos rebeldes", mas que em breve poderiam ser encaixados em tais
teorias. Entretanto, tais "fenômenos rebeldes" tornaram-se grandes problemas para a
Física.[86] Dentre tais "fenômenos rebeldes", destacavam-se a radiação de corpo
negro,[86][87] o efeito fotoelétrico[86][88] e o espectro de raias dos elementos.[86][89]

Em 1900, o alemão Max Planck, em uma tentativa de dar um suporte matemático à


radiação de corpo negro, propôs que haveria uma limitação energética na vibraçãode
osciladores causadores da radiação; um oscilador não vibraria com qualquer energia,
mas apenas com energias "demarcadas". Os valores de tais energias seriam múltiplos de
números naturais, o que foi chamado de uaa de energia. A energia deste uaa
seria dada pelo produto de um número natural pela frequência da onda eletromagnética,
e por uma constante universal, que veio a ser chamada de constante de Planck.[86]

Em 1905, Albert Einstein publica cinco artigos no periódico þ R 


, onde
Einstein apresenta pela primeira vez o início da Relatividade e da Mecânica
Quântica.[90] Alcançando o mesmo resultado para a constante de Planck, mas
fornecendo bases físicas mais consistentes, Einstein pôde explicar oefeito fotoelétrico e
postulou que a velocidade da luz é constante em qualquer referencial inercial. Dez anos
mais tarde, Einstein publica a sua Relatividade Geral, onde Einstein amplia a
Relatividade para referenciais não-inerciais e para a gravitação.[90]


  %

Em 1924, o francês Louis de Broglie propõe a dualidade onda-partícula para o


elétron.[91] Dois anos mais tarde, Erwin Schrödinger publica a sua equação, que é a base
da Mecânica Quântica atual.[92] Em 1927, Werner Heisenberg defende que não se pode
mensurar a posição e a velocidade de uma partícula subatômica ao mesmo tempo,
estabelecendo o Princípio da Incerteza,[92] abalando as estruturas do determinismo
estrito e pontual, na qual se pode conhecer todo o passado e futuro de uma partícula
conhecendo-se a sua posição e velocidade em um determinado instante.[92]

Na década de 40, a equipe liderada por Richard Feynman formula a eletrodinâmica


quântica, na qual as forças eletromagnéticas são intermediadas por fótons. Esta teoria é
uma das mais precisas já construídas pelo homem atualmente.[93] Com a idealização e
descoberta dos quarks, partículas fundamentais que formam, entre outras partículas, o
próton e o nêutron, a cromodinâmica quântica é formulada, na qual se descreve a
interação de partículas subatômicas (quarks e glúons) através da força nuclear forte.[94]
A eletrodinâmica e a cromodinâmica são bases de um conjunto de teorias chamada de
Modelo Padrão, que descreve três das quatro forças fundamentais da Natureza.[95]

Entretanto, o Modelo Padrão não é capaz de abranger a gravidade, alvo de estudos


desde a Revolução Científica com Galileu Galilei com os estudos da queda livre. A
gravitação ainda não tem um suporte teórico-experimental enraizado pela Física
moderna sobre a sua verdadeira causa.[96] A Relatividade Geral de Einstein entra em
conflito com a Mecânica Quântica e constitui um dos maiores desafios para físicos
teóricos e experimentais atualmente.[97]

c       










± # '  (

  G

   (  )!

ï H H



 H I H  H  H H H H  J
H
! HJ H     i7#7ë
&   #
%      (( #  ( ' 

((( ( ( ( # (    ! (   
  ( 
 ( 
ïncontre fontes:  
 ) ( 
  6# ) * !


"
"


& (  ( ;

( ! 

Formulação matemática

*( ,`


*+
K  ,L 
MM 

*+
N  ,O #P Q

*+
R  ,$OQS 

*+
R  ,QS 

*+
R  ,%OO QS 

*+
R  ,& P Q QSQ

*+
R  ,  Q

 - 


A mecânica quântica é a teoria física que obtém sucesso no estudo dos sistemas físicos
cujas dimensões são próximas ou abaixo da escala atômica, tais como moléculas,
átomos, elétrons, prótons e de outras partículas subatômicas, muito embora também
possa descrever fenômenos macroscópicos em diversos casos. A Mecânica Quântica é
um ramo fundamental da física com vasta aplicação. A teoria quântica fornece
descrições precisas para muitos fenômenos previamente inexplicados tais como a
radiação de corpo negro e as órbitas estáveis do elétron. Apesar de na maioria dos casos
a Mecânica Quântica ser relevante para descrever sistemas microscópicos, os seus
efeitos específicos não são somente perceptíveis em tal escala. Por exemplo, a
explicação de fenômenos macroscópicos como a super fluidez e a supercondutividade
só é possível se considerarmos que o comportamento microscópico da matéria é
quântico. A quantidade característica da teoria, que determina quando ela é necessária
para a descrição de um fenômeno, é a chamada constante de Planck, que tem dimensão
de momento angular ou, equivalentemente, de ação.

A mecânica quântica recebe esse nome por prever um fenômeno bastante conhecido dos
físicos: a quantização. No caso dos estados ligados (por exemplo, um elétron orbitando
em torno de um núcleo positivo) a Mecânica Quântica prevê que a energia (do elétron)
deve ser quantizada. Este fenômeno é completamente alheio ao que prevê a teoria
clássica.

8ndice
* T  ,

]2 #<
U


]2 i= V  
 V
1 V
 W1 V 

m2 i#  X
Y  

]2 >   Z
Z 
4  
m2 #8 
  

m2 i= 
 [
1 [
 \1 [ 

m2 = 
 
 
 
  
m2 = ]
3   
:
  
 
 
]2  c 9  
]2 &>  ^3 
]2 $ _?
]2  
 
]2 [2 6`

]2 % 


]2 #78 
 

meditar] Um panorama
A palavra ³quântica´ (do Latim, quantum) quer dizer quantidade. Na mecânica
quântica, esta palavra refere-se a uma unidade discreta que a teoria quântica atribui a
certas quantidades físicas, como a energia de um elétron contido num átomo em
repouso. A descoberta de que as ondas eletromagnéticas podem ser explicadas como
uma emissão de pacotes de energia (chamados quanta) conduziu ao ramo da ciência que
lida com sistemas moleculares,atômicos e subatômicos. Este ramo da ciência é
atualmente conhecido como mecânica quântica.

A mecânica quântica é a base teórica e experimental de vários campos da Física e da


Química, incluindo a física da matéria condensada, física do estado sólido, física
atômica, física molecular, química computacional, química quântica, física de
partículas, e física nuclear. Os alicerces da mecânica quântica foram estabelecidos
durante a primeira metade do século XX por Albert Einstein, Werner Heisenberg, Max
Planck, Louis de Broglie, Niels Bohr, Erwin Schrödinger, Max Born, John von
Neumann, Paul Dirac, Wolfgang Pauli, Richard Feynman e outros. Alguns aspectos
fundamentais da contribuição desses autores ainda são alvo de investigação.
Normalmente é necessário utilizar a mecânica quântica para compreender o
comportamento de sistemas em escala atômica ou molecular. Por exemplo, se a
mecânica clássica governasse o funcionamento de um átomo, o modelo planetário do
átomo ± proposto pela primeira vez por Rutherford ± seria um modelo completamente
instável. Segundo a teoria eletromagnética clássica, toda a carga elétrica acelerada emite
radiação. Por outro lado, o processo de emissão de radiação consome a energia da
partícula. Dessa forma, o elétron, enquanto caminha na sua órbita, perderia energia
continuamente até colapsar contra o núcleo positivo!

meditar] O conceito de estado na mecânica quântica


Em física, chama-se "sistema" um fragmento concreto da realidade que foi separado
para estudo. Dependendo do caso, a palavra sistema refere-se a um elétron ou um
próton, um pequeno átomo de hidrogênio ou um grande átomo de urânio, uma molécula
isolada ou um conjunto de moléculas interagentes formando um sólido ou um vapor.
Em todos os casos, sistema é um fragmento da realidade concreta para o qual deseja-se
chamar atenção.

Dependendo da particula pode-se inverter polarizações subsequentes de aspecto neutro.

A especificação de um sistema físico não determina unicamente os valores que


experimentos fornecem para as suas propriedades (ou as probabilidades de se medirem
tais valores, em se tratando de teorias probabilísticas). Além disso, os sistemas físicos
não são estáticos, eles    com o tempo, de modo que o mesmo sistema, preparado
da mesma forma, pode dar origem a resultados experimentais diferentes dependendo do
tempo em que se realiza a medida (ou a histogramas diferentes, no caso de teorias
probabilísticas). Essa idéia conduz a outro conceito-chave: o conceito de "estado". Um
estado é uma quantidade matemática (que varia de acordo com a teoria) que determina
completamente os valores das propriedades físicas do sistema associadas a ele num
dado instante de tempo (ou as probabilidades de cada um de seus valores possíveis
serem medidos, quando se trata de uma teoria probabilística). Em outras palavras,   
      p p     p     

Cada sistema ocupa um estado num instante no tempo e as leis da física devem ser
capazes de descrever como um dado sistema parte de um estado e chega a outro. Em
outras palavras, as leis da física devem dizer como o sistema evolui (de estado em
estado).

Muitas variáveis que ficam bem determinadas na mecânica clássica são substituídas por
distribuições de probabilidades na mecânica quântica, que é uma teoria intrinsicamente
probabilística (isto é, dispõe-se apenas de probabilidades não por uma simplificação ou
ignorância, mas porque isso é tudo que a teoria é capaz de fornecer).
a
m  b      

No formalismo da mecânica quântica, o estado de um sistema num dado instante de


tempo pode ser representado de duas formas principais:

#2 =
  c
 
 cd  +

 ?   c
 



3
 e ?  

  c
d c


 cd   c

i 2 ##   
 (   !#  (!#   

 #
 *#,   (   )!+(  %#   
, - (  ( !;  &!
,      !!
#( %# 
 (  ë

Em suma, tanto as "funções de onda" quanto os "vetores de estado" (ou kets)


representam os estados de um dado sistema físico de forma   e ua  e as
leis da mecânica quântica descrevem como vetores de estado e funções de onda
evoluem no tempo.

Estes objetos matemáticos abstratos (kets e funções de onda) permitem o cálculo da


probabilidade de se obter resultados específicos em um experimento concreto. Por
exemplo, o formalismo da mecânica quântica permite que se calcule a probabilidade de
encontrar um elétron em uma região particular em torno do núcleo.

Para compreender seriamente o cálculo das probabilidades a partir da informação


representada nos vetores de estado e funções de onda é preciso dominar alguns
fundamentos de álgebra linear.

mi ! i i      i 


Ver artigo principal: Fundamentos matemáticos da mecânica quântica

Õ impossível falar seriamente sobre mecânica quântica sem fazer alguns apontamentos
matemáticos. Isso porque muitos fenômenos quânticos difíceis de se imaginar
concretamente podem ser representados sem mais complicações com um pouco de
abstração matemática.

Há três conceitos fundamentais da matemática - mais especificamente da álgebra linear


- que são empregados constantemente pela mecânica quântica. São estes: (1) o conceito
de operador; (2) de autovetor; e (3) de autovalor.

m   !  


Ver artigo principal: ïspaço vetorial

Na álgebra linear, um  " 


 i l (ou o espaço linear) é uma coleção dos objetos
abstratos (chamados
 ) que possuem algumas propriedades que não serão
completamente detalhadas aqui.

Por agora, importa saber que tais objetos (vetores) podem ser adicionados uns aos
outros e multiplicados por um número escalar. O resultado dessas operações é sempre
um vetor pertencente ao mesmo espaço. Os espaços vetoriais são os objetos básicos do
estudo na álgebra linear, e têm várias aplicações na matemática, na ciência, e na
engenharia.

O espaço vetorial mais simples e familiar é o espaço Euclidiano bidimensinal. Os


vetores neste espaço são pares ordenados e são representados graficamente como
"setas" dotadas de módulo, direção e sentido. No caso do espaço euclidiano
bidimensional, a soma de dois vetores quaisquer pode ser realizada utilizando a regra do
paralelogramo.

Todos os vetores também podem ser multiplicados por um escalar - que no espaço
Euclidiano é sempre um número real. Esta multiplicação por escalar poderá alterar o
módulo do vetor e seu sentido, mas preservará sua direção. O comportamento de vetores
geométricos sob estas operações fornece um bom modelo intuitivo para o
comportamento dos vetores em espaços mais abstratos, que não precisam de ter a
mesma interpretação geométrica. Como exemplo, é possível citar o espaço de Hilbert
(onde "habitam" os vetores da mecânica quântica). Sendo ele também um espaço
vetorial, é certo que possui propriedades análogas àquelas do espaço Euclidiano.

m " #





Ver artigo principal: Transformação linear

Um   é um ente matemático que estabelece uma relação funcional entre dois


espaços vetoriais. A relação funcional que um operador estabelece pode ser chamada
  " li . Os detalhes mais formais não serão apontados aqui. Interessa,
por enquanto, desenvolver uma idéia mais intuitiva do que são esses operadores.

Por exemplo, considere o Espaço Euclidiano. Para cada vetor nesse espaço é possível
executar uma rotação (de um certo ângulo) e encontrar outro vetor no mesmo espaço.
Como essa rotação é uma relação funcional entre os vetores de um espaço, podemos
definir um operador que realize essa transformação. Assim, dois exemplos bastante
concretos de operadores são os de rotação e translação.

Do ponto de vista teórico, a semente da ruptura entre as física quântica e clássica está no
emprego dos operadores. Na mecânica clássica, é usual descrever o movimento de uma
partícula com uma função 
 do tempo. Por exemplo, imagine que vemos um vaso
de flor caindo de uma janela. Em cada instante de tempo podemos calcular a que altura
se encontra o vaso. Em outras palavras, descrevemos a grandeza 
 com um
número (escalar) que varia em função do tempo.

Uma característica distintiva na mecânica quântica é o uso de operadores para


representar grandezas físicas. Ou seja, não são somente as rotações e translações que
podem ser representadas por operadores. Na mecânica quântica grandezas como
posição, momento linear, momento angular e energia também são representados por
operadores.

Até este ponto já é possível perceber que a mecânica quântica descreve a natureza de
forma bastante abstrata. Em suma, os estados que um sistema físico pode ocupar são
representados por vetores de estado (kets) ou funções de onda (que também são vetores,
só que no espaço das funções). As grandezas físicas não são representadas diretamente
por escalares (como 10 m, por exemplo), mas por operadores.

Para compreender como essa forma abstrata de representar a natureza fornece


informações sobre experimentos reais é preciso discutir um último tópico da álgebra
linear: o problema de autovalor e autovetor.
m    
     

O problema de autovalor e autovetor é um problema matemático abstrato sem o qual


não é possível compreender seriamente o significado da mecânica quântica.

Em primeiro lugar, considere o operador § de uma transformação linear arbitrária que


relacione vetores de um espaço com vetores do mesmo espaço . Neste caso, escreve-
se eq.01]:

Observe que qualquer matriz quadrada satisfaz a condição imposta acima desde que os
vetores no espaço possam ser representados como matrizes-coluna e que a atuação de
§ sobre os vetores de ocorra conforme o produto de matrizes a seguir:

Como foi dito, a equação acima ilustra muito bem a atuação de um operador do tipo
definido em eq.01]. Porém, é possível representar a mesma idéia de forma mais
compacta e geral sem fazer referência à representação matricial dos operadores lineares
eq.02]:

Para cada operador § existe um conjunto tal que cada vetor do


conjunto satisfaz eq.03]:

A equação acima é chamada u         . Os vetores do conjunto


são chamados autovetores. Os escalares do conjunto
são chamados autovalores. O conjunto dos autovalores Ȝ também
é chamado espectro do operador §.

Para cada autovalor corresponde um autovetor e o número de pares autovalor-autovetor


é igual à dimensão do espaço onde o operador § está definido. Em geral, o espectro
de um operador § qualquer não é contínuo, mas discreto. Encontrar os autovetores e
autovalores para um dado operador § é o chamado problema de autovalor e
autovetor.
De antemão o problema de autovalor e autovetor possui duas características:

j  satisfaz o problema para qualquer operador . Por isso, o vetor nulo não é
considerado uma resposta do problema.

j Se satisfaz a equação de autovalor e autovetor, então seu múltiplo também é


uma resposta ao problema para qualquer .

Enfim, a solução geral do problema de autovalor e autovetor é bastante simples. A


saber:

Onde:

Como não pode ser considerado uma solução do problema, é necessário que:

A equação acima é um polinômio de grau n. Portanto, para qualquer operador


há n quantidades escalares distintas ou não tais que a equação de
autovetor e autovalor é satisfeita.

Os autovetores correspondentes aos autovalores de um operador §


podem ser obtidos facilmente substituindo os autovalores um a um na [eq.03].

m "  
 
 $!! 

Para compreender o significado físico de toda essa representação matemática abstrata,


considere o exemplo do operador de Spin na direção z: .

Na mecânica quântica, cada partícula tem associada a si uma quantidade sem análogo
clássico chamada spin ou momento angular intrínseco. O spin de uma partícula é
representado como um vetor com projeções nos eixos x, y e z. A cada projeção do vetor
spin : corresponde um operador:
O operador é geralmente representado da seguinte forma:

Õ possível resolver o problema de autovetor e autovalor para o operador . Nesse caso


obtem-se:

ou seja

Portanto, os autovalores são e .

mi  #i i 


Ver artigo principal: História da mecânica quântica

A #i i   i u i começou essencialmente em 1838 com a descoberta


dos raios catódicos por Michael Faraday, a enunciação em 1859 do problema da
radiação de corpo negro por Gustavo Kirchhoff, a sugestão 1877 por Ludwig
Boltzmann que os estados de energia de um sistema físico poderiam ser discretos, e a
hipótese por Planck em 1900 de que toda a energia é irradiada e absorvida na forma de
elementos discretos chamados ua. Segundo Planck, cada um desses quanta tem
energia proporcional à frequência Ȟ da radiação eletromagnética emitida ou absorvida.

Planck insistiu que este foi apenas um aspecto dos processos de absorção e emissão de
radiação e não tinha nada a ver com a realidade física da radiação em si.[2] No entanto,
naquele tempo isso parecia não explicar o efeito fotoelétrico (1839), ou seja, que a luz
brilhante em certos materiais pode ejetar elétrons do material. Em 1905, baseando seu
trabalho na hipótese quântica de Planck, Albert Einstein postulou que a própria luz é
formada por quanta individuais.[3]

Em meados da década de 1920, a evolução da mecânica quântica rapidamente fez com


que ela se tornasse a formulação padrão para a física atômica. No verão de 1925, Bohr e
Heisenberg publicaram resultados que fechavam a "Antiga teoria quântica". Quanta de
luz vieram a ser chamados fótons (1926). Da simples postulação de Einstein nasceu
uma enxurrada de debates, teorias e testes e, então, todo o campo da física quântica,
levando à sua maior aceitação na quinta Conferência de Solvay em 1927.

mi ! iíi 


]2 R f  
 'R 
   

Na mecânica quântica, o    i íi é definido pelo conjunto de todas
as informações que podem ser extraídas desse sistema ao se efetuar algumamedida.

Na mecânica quântica, todos os estados são representados por vetores em um espaço


vetorial complexo: o Espaço de Hilbert r. Assim, cada vetor no espaço r representa um
estado que poderia ser ocupado pelo sistema. Portanto, dados dois estados quaisquer, a
soma algébrica (superposição) deles também é um estado.

Como a norma dos vetores de estado não possui significado físico, todos os vetores de
estado são preferencialmente normalizados. Na notação de Dirac, os vetores de estado
são chamados "Kets" e são representados como aparece a seguir:

Usualmente, na matemática, são chamados funcionais todas as funções lineares que


associam vetores de um espaço vetorial qualquer a um escalar. Õ sabido que os
funcionais dos vetores de um espaço também formam um espaço, que é chamado
espaço dual. Na notação de Dirac, os funcionais - elementos do Espaço Dual - são
chamados "Bras" e são representados como aparece a seguir:

]2 Î  
 '     


ë &     (;  þ    !#  


( ! (.!(
 ((  þ  observável ! 
   ë  ((   (;
þ
ë *.  ( )!
#  ( (  ( # #( ( !#  
#  þ /!
)! )! .   0(  !
     
! 
  a1   '

ë *(  .    !    
   a1 
 
  ( (  
a1 # !# #  þ 

(

ë ##(  !# #  þ )! !


 ! ( 
a1 (  

 # 

]2 Ë 
 
 'ï  

Seja o estado de um sistema ao instante . Se o sistema não é submetido a


nenhuma observação, sua evolução, ao longo do tempo, é regida pela equação de
Schrödinger:

onde é o hamiltoniano do sistema.

mi $ l %


As conclusões mais importantes são:

]2 #  
   # 
 (  (    (0
  !# ' #  
(  (     #   ((!  # #  #     ((! ë #
 ( !. (   # ! (  ! !# - !     )!
 
  6# (  (        &
(

]2 ±    # 


 ! ao mesmo tempo !#    !# # #(!#
  !#  !
 (!(( ( #   (   .  
#
+( "
' # ;   .  # #(   !
 # +(
/!+(     #  !# !(  ( )!  !# !(    
 !
   #  !(  (  (      (  # !#
#  !!     ( (    !
 #  #(    #
 #( #  (     #  
   % . (  (.!(
  !  +( /!+( !
#(  
 
  " (%(
&     (+#  !# # )!+( (  (  % !
!(  (      !#(  )!  # #(     
' ( 2(    ( *% 3( (((#(

Apesar de ter sua estrutura formal basicamente pronta desde a década de 1930, a
interpretação da Mecânica Quântica foi objeto de estudos por várias décadas. O
principal é o problema da medição em Mecânica Quântica e sua relação com a não-
localidade e causalidade. Já em 1935, Einstein, Podolski e Rosen publicaram seu
È     g  , mostrando uma aparente contradição entre localidade e o
processo de Medida em Mecânica Quântica. Nos anos 60 J. S. Bell publicou uma série
de relações que seriam respeitadas caso a localidade ² ou pelo menos como a
entendemos classicamente ² ainda persistisse em sistemas quânticos. Tais condições
são chamadas desigualdades de Bell e foram testadas experimentalmente por A. Aspect,
P. Grangier, J. Dalibard em favor da Mecânica Quântica. Como seria de se esperar, tal
interpretação ainda causa desconforto entre vários físicos, mas a grande parte da
comunidade aceita que estados correlacionados podem violar causalidade desta forma.

Tal revisão radical do nosso conceito de realidade foi fundamentada em explicações


teóricas brilhantes para resultados experimentais que não podiam ser descritos pela
teoria clássica, e que incluem:

]2     "  (  


   &
(  #     
)!(;  ( 
]2 
   #(  !
 ( ( )!

 (  !;# !#   
(  6(  (;(  #  # #( (!

]2 
  
  ((     
      2( % 2 ;
(   )! 
!; ##    # quanta    (  (ë
 %#   (
]2 ±  " # ( ( )!
   )!   (  #   #   #
 !
 )!( ! (    ( (
]2  )!  
  
     # !  !.  +(  

 
    ((   ,4  ( )!   ( 
!(  (   )!(;  &
(
]2     ((     (      (  #( 
 ((2 ; )!( !#      
   (   (

 
]2  
  
 5#   (! ;        
 # 
 ' #   %  )!  !
  )!(;   (  (  
' #

O desenvolvimento formal da teoria foi obra de esforços conjuntos de muitos físicos e


matemáticos da época como Erwin Schrödinger, Werner Heisenberg, Einstein, P.A.M.
Dirac, Niels Bohr e John von Neumann, entre outros (de uma longa lista).

%66  667"7, 7"7,!




' 
 
 
± # '  (

 

   (  )!

ï 

 (   h

 .!(%  i77%ë
&   #
%      ((  ( ' 

((( ( ( ( (      # 
(    ïncontre fontes:  
 ) ( 
 
6# ) * !
 


 )!  


2   

   

*( ,È       

*( ,  




*( ,   

*( ,  

*( ,ï   

*( ,ï    





 - 


A Física de partículas é um ramo da Física que estuda os constituintes elementares da


matéria e da radiação, e a interação entre eles e suas aplicações. É também chamada de
Física de altas energias, porque muitas partículas elementares só podem ser detectadas
a energias elevadas. O elétron e o próton foram as únicas partículas aceleradas até os
dias de hoje, outras nunca foram detectadas (como o gráviton) e as restantes foram
detectadas através da radiação cósmica (como o méson pi e o méson mu).

A Física de partículas, estudada pela Mecânica Quântica (parte da Física Moderna),


busca o fundamental, o nível mais básico da matéria e da Natureza. Todo o nosso
mundo visível se fundamenta nesse nível invisível das partículas elementares. Podemos
chamar de partículas elementares toda a porção indivisível da matéria, como os elétrons,
os prótons, os nêutrons e outras.

8ndice
* i  ,

]2 # c 9 

]2 i>
3

@

]2 / j 
? j
 j

]2 A   k

]2 &8 
 
]2 $A
?+  l


meditar] Breve história


Os gregos antigos formularam dois conceitos sobre Física de Partículas. O primeiro foi
formulado por Tales de Mileto e diz respeito à eletricidade. O segundo foi formulado
por Demócrito e diz que toda matéria pode ser dividida até chegar em um ponto que se
encontraria a parte mais fundamental e indivisível da matéria a que Demócrito deu o
nome de átomo. Ele dizia que o átomo não poderia ser criado ou destruído e que toda a
matéria conhecida seria formada por diversas combinações de diferentes átomos. Suas
ideias se aproximavam muito dos atuais conceitos de física atômica.

As ideias de Demócrito só voltaram a ser revistas no século XIX, por Dalton. As de


Tales de Mileto foram revistas a partir do século XV.

Principais partículas e antipartículas conhecidas: Elétron, pósitron, próton, antipróton,


nêutron, antinêutron, neutrino, antineutrino, Mésons (pi+, pi0, pi-, mu+, mu-, k+, k-,
k0), hiperons (lambda 0, sigma +, sigma 0, sigma -) e fótons.

 
 % # (

mi ! í l   & i 


Ver artigo principal: Partícula subatômica

A pesquisa moderna da física da partícula é focalizada nas partículas subatômicas, que


têm dimensões menores que as dos átomos. Incluem constituintes atômicos tais como
elétrons, prótons, e nêutrons (os prótons e os nêutrons são partículas compostas, feita de
quarks), partículas produzidas por processos radiativos e de espalhamento tais como
fótons, neutrinos, e múons, bem como uma larga escala de partículas exóticas.

]2 
 ( & !
 #  (%  # !    !  %#7[  #7B#
   
  B #$7i  #7B#% " *( #6i 8
]2 & ( $'      &!
,   ! 6(    ( # # #%7(#%7

 # ( (  ( & ! #   !  ( !    
 (
"  
   ## #!
 (
 ( ' 
]2 &  ( 9 !# (0
 ( & ! # #[$#i ;  #  
 ( # ( 
   (
 ( ' 
]2 (  ( ,   # #%&& $'  ! )! # !  ( !

       ( & ! ## #  ( )!   ( #  
 (
  (
( ë
]2 6! ( & !   (!
 # #[$$& ;  #  
 (  ( #6i 8 & 
 (  ( #  !#   ( !# 
 (  !# (! ( ( )!(
'
     (0
 ë
]2 ((6! ( & ! #(  ##     (6! ( #
(; ( (  ( :# (6! (   #   !# )!  !    )! 
 ( ;   #(( )! ((6! ( .  #  !# ()!  !   
()!   (
]2  ( * %#   )!(!#  # 
 #( & ! #   

  ;  ( # 8
]2  ' ( (
#(   (  ' (  )!(!#  #   (

  # #! ( #  #(
   
 *   # 

 # ! !   
 
!; ( '! ë
]2  ( )! ;  # # *  !
 )!  !# # (   

 (      ( #     # (

]2  (  < (  7 # ( #! < (  # ( < (  7

]2 2 ( & !


  # # )!     ( &    #   

]2 2 (
# 7 % ( # < ( 7  % ( < 7
]2 0  m = m  m  
  m 
n   m6 m 9 m m
> 

m  o7:77777&p


  m




   o
    m  m   m 

meditar] Interações fundamentais


São quatro as interações fundamentais:

#2 / q 
r 

 q

i2 / q 
r  
q 

2 / q 
? q
   q
 s



 
: q q 

 1 q
*  

  1 q
 
  t7:  q: q
( 

>  q q

  t
 


 q
:


    q

  1 q

C
   qD E:
  t
 
q 
F  q4
 qG   9 q
q6 q q  qD :  t q q q 


 

2 / q 
G  q


F
  t
 q 
G 

 q
H4
  
 t
 q
 q 
G 

 
 
q 
:
 
q  t

(


 q 
G   
 
c


 q 
G  

  

 4q 
q 

  
  q
G 
 q 
? q
q
 qc
  
5 

*



meditar] Livros recomendados


]2 =I  c


3
 u
C   u


E

meditar] Ver também


]2  v
]2   w
]2 H4 x
]2 A y
]2 06 z
]2 0D 
]2 (

]2 . 4 {
]2 9 |
]2 H3 }
]2 ~ 
 

]2    1
 €1  

]2   1
 ‚1  

]2 
c
ƒ   ƒ
ƒ  ƒ4  
]2 3
 


]2 3

4 

]2 
„  H 
]2   
G 
]2   5c …  
]2 >
3
 

]2 >  I (=
†
]2 > 
 c
‡

]2 (
 ˆ 1 ˆ
  

]2 * 
A (2 c 
]2 *  

]2 5 
 
‰  ‰
G 
]2 5 

 

]2 5 
 Š1 ‹ 
 
 
]2

http://pt.wikipedia.org/wiki/F%C3%ADsica_nuclear

]2 A física nuclear estuda as propriedades e o comportamento dos núcleos


atômicos e os mecanismos das reações nucleares.
]2 Esta área da ciência teve início a partir da evolução do conceito científico a
cerca da estrutura atômica, pois até meados do século XIX acreditáva-se que os
átomos eram esferas maciças indestrutíveis e indivisíveis. Esses conceitos
estavam de acordo com a teoria atômica de John Dalton.
]2 Para extrair um elétron de um átomo, é necessária uma certa quantidade de
energia. Da mesma forma, cada núcleo (próton ou nêutron) necessita também de
grande quantidade de energia, que é da ordem de milhões de vezes. Por esse
motivo, a física nuclear é denominada   p     .
]2 A física nuclear tem como objeto de estudo o núcleo atômico e suas
propriedades. Os núcleos possuem propriedades que podem ser classificadas
como estáticas (carga, tamanho, forma, massa, energia de ligação, spin,
paridade, momentos eletromagnéticos, etc.) e dinâmicas (radioatividade, estados
excitados, reações nucleares, etc.).
]2 Estas propriedades são analisadas através de modelos nucleares que são
baseados na mecânica quântica, relatividade e teoria quântica de campos. A
descoberta de que os nucleons (protons e neutrons) são na realidade sistemas
compostos, redirecionou o interesse dos físicos nucleares para a investigação dos
graus de liberdade de quarks e, com isto, atualmente os domínios da pesquisa da
física nuclear e da física de partículas se tornaram interligados

  Œ*c J  Œ 

]2 Em 1914, Erwin Schrödinger obteve a habilitação (    , equivalente ao


doutorado). Entre 1914 e 1918 participou dos trabalhos da guerra como um
funcionário comissionado na artilharia em fortalezas austríacas (Gorizia, Duino,
Sistiana, Prosecco, Viena). Em 6 de abril de 1920, casou-se com Annemarie
Bertel. No mesmo ano, tornou-se assistente de Max Wien, em Jena, e em
setembro de 1920 alcançou a posição da     p  ,
aproximadamente o equivalente a professor adjunto, em Stuttgart. Em 1921,
tornou-se   p  , ou seja, professor titular, na Universidade de
Breslau (atual Wrocław, Polônia).
]2 Em 1921, transferiu-se para a Universidade de Zurique. Em janeiro de 1926,
Schrödinger publicou no    o trabalho "!     
"  # $" (Quantização como um Problema de Autovalor) em
mecânica de ondas e que hoje é conhecido como a equação de Schrödinger.
Neste trabalho ele deu uma "derivação" da equação de onda para sistemas
independentes de tempo, e mostrou que fornecia autovalores de energia corretos
para o átomo hidrogenoide. Este trabalho tem sido universalmente considerado
como uma das conquistas mais importantes do século XX, criando uma
revolução na mecânica quântica, e na verdade em toda a física e a química. Um
segundo documento foi apresentado apenas quatro semanas depois e que
resolveu o oscilador harmônico quântico, o rotor rígido e a molécula diatômica,
e dá uma nova derivação da equação de Schrödinger. Um terceiro documento
em maio mostrou a equivalência da sua abordagem à de Heisenberg e deu o
tratamento do efeito Stark. Um quarto trabalho de sua série mais marcante
mostrou como tratar os problemas nos quais o sistema muda com o tempo, como
nos problemas de dispersão. Estes trabalhos foram os principais de sua carreira e
foram imediatamente reconhecidos como tendo grande importância pela
comunidade cientifica.