Você está na página 1de 10

O Determinismo na Física

por Thiago Favaretto Tazinafo


(junho de 2005)

O determinismo é um conceito que se transforma ao longo da história da


física. Da mecânica newtoniana à Objeção EPR, a questão sobre se o universo é ou
não um sistema determinístico é tema de debates acirrados, envolvendo grandes
físicos e filósofos, e permanece um assunto polêmico e atual. A proposta do
presente texto é analisar alguns aspectos da evolução desse conceito ao longo da
história da física (para tal, vamos “recrutar”, no decorrer do raciocínio, dois recursos
epistemológicos que sejam úteis à proposta inicial do texto: a Navalha de Ockham e
o Princípio Antrópico).

O determinismo clássico remonta a Descartes, criador da doutrina conhecida


como mecanicismo, uma interpretação essencialmente determinística do universo.
Segundo o mecanicismo, o universo é comparável a um relógio, de forma que todo
o seu funcionamento, mesmo o comportamento das menores partículas, poderia ser
descrito fisicamente, desde que houvesse instrumentação e habilidade matemática
suficientes para tal. O termo “mecanicismo” deriva da noção de Descartes de que
todas as interações na natureza são de origem mecânica, algo que veio a ser
refutado por Isaac Newton ao desenvolver a teoria da gravitação, criando a noção
de ação à distância. Descartes, entretanto, jamais aceitou o conceito de forças que
atuam à distância. De fato, para um racionalista como Descartes, que defendia ser
possível desvendar o mundo pelo exercício da lógica, o conceito de ação à
distância soa um contra-senso. Entretanto, o bom senso não raro é traído pelas
revelações empíricas. Com efeito, não há forças de contato, todas as forças são
ações de campo.

Aqui, é importante ponderar acerca do equilíbrio entre a razão e a


experimentação. A crítica de Hume ao racionalismo cartesiano consiste em afirmar
que, mesmo que um experimento seja repetido mil vezes obtendo-se o mesmo
resultado, nada garante que o milésimo primeiro resultado seja igual aos demais.
Assim, só teríamos certeza de uma teoria numa situação limite, em que o número
de experimentos tendesse ao infinito. De acordo com Hume, portanto, a certeza é
inalcançável. Por outro lado, algo nos diz que é bem razoável aceitar como certa a
previsão desse próximo resultado. Como, então, conciliar nossa intuição e bom
senso à prudência de Hume?

Consideremos uma hipótese H a ser testada. As medições do experimento


de H são realizadas mil vezes, e todos os resultados comprovam H. Mais ainda,
suponhamos que H prediga I, e I, por sua vez, prediga a hipótese J, que prediz K e
assim por diante. Dessa forma, resultados favoráveis à hipótese Z são evidências
substanciais da validade de H e, assim, a própria evolução da ciência deve servir
para aplacar o ceticismo de Hume. Logo, já que não houve um único experimento
que confirmasse não-H, não nos resta opção a não ser aceitar H, ainda que
temporariamente, pois não há motivo para não fazê-lo.

Agora, para o caso de um mesmo fenômeno que possa ser igualmente bem
explicado por duas hipóteses distintas, como proceder? Como decidir-se por uma
ou outra?.Ora, usando o mesmo raciocínio do fim do parágrafo anterior, opta-se
pela mais simples, pela justa razão de não termos motivo nenhum para crer em algo
que exceda sua proposta original - explicar o fenômeno competentemente. Esse
critério de decisão é conhecido como a Navalha de Ockham e a conclusão do
parágrafo anterior é uma extrapolação ou generalização do mesmo conceito.
Vamos, agora, procurar nesse tipo de raciocínio um argumento físico.

Suponha que você, num ponto A, atira um objeto sólido para frente e para o
alto, que perfaz uma determinada trajetória sob influência, digamos, da força
gravitacional, durante um intervalo de tempo t, e chega ao ponto B. Essa será uma
trajetória parabólica. Imagine agora um outro percurso possível para que esse
objeto saia do ponto A e chegue a B, no mesmo intervalo de tempo, nas mesmas
condições. Claro que isso não seria possível fisicamente – e veremos o por que –
mas uma segunda trajetória pode ser possível matematicamente. Assim,
imaginemos uma outra trajetória - cheia de zigue-zagues, por exemplo – que esse
mesmo objeto percorre, entre A e B, ao ser atirado por você, sob ação das mesmas
forças e durante o mesmo intervalo de tempo. Se você calcular a diferença entre e a
energia cinética e a energia potencial em cada instante, e integrá-la no tempo ao
longo do caminho, verá que o resultado no segundo caso será maior. Em todo
percurso imaginado a diferença entre energia cinética média e energia potencial
média será sempre maior que o caso real. Esse resultado, conhecido como
Princípio da Menor Ação, nada mais é do que uma forma elegante de enunciar as
leis de Newton: o caminho que uma partícula percorre entre dois pontos é tal que a
diferença entre sua energia cinética média e sua energia potencial média seja
sempre a menor possível1.

Ainda, no campo da óptica geométrica, Fermat constatou que o percurso de


um feixe de luz entre A e B é tal que a luz sempre chega a B no menor tempo. Ou
seja, qualquer outra trajetória imaginada levaria um intervalo de tempo maior para
ser percorrido. (A trajetória de menor tempo não é, necessariamente, a menor
distância – i.e., uma reta – porque a velocidade da luz é diferente em cada meio.)
Essa afirmação recebe o nome de Princípio de Menor Tempo de Fermat, e explica –
macroscopicamente – os fenômenos de reflexão e refração da luz.

Outro exemplo do comportamento “preguiçoso” da natureza é o de uma


função F que satisfaça a equação de Laplace:

(δ 2/δ x2, δ 2/δ y2, δ 2/δ z2) F = 0, ou ∇ 2 F = 0,


onde ∇ 2 , um operador de derivadas parciais de segunda ordem, é denominado
laplaciano de F.

Por exemplo, suponha que você pegue uma caixa de papelão e faça um
recorte bem sinuoso ao longo da parte de cima, e retire o topo da caixa recortado.
Depois, pegue uma membrana de borracha (como uma bexiga aberta, por
exemplo), estique-a e encaixe-a apertadamente sobre o recorte na caixa (o mesmo
pode ser feito com uma bolha de sabão). Atribuindo coordenadas x e y no plano do
fundo da caixa, e z para a altura, a cada ponto da superfície obtida, podemos dizer
que a função z = F(x,y) satisfaz a equação de Laplace. Uma bolinha que seja
colocada sobre essa superfície rolará para o chão porque a superfície não
apresenta nenhum vale onde a bola pudesse ser depositada2. Assim, as funções
que satisfazem à equação de Laplace - as funções harmônicas - não apresentam
pontos de máximo ou mínimo a não ser nas bordas. No interior desse contorno, a
área é sempre a menor possível, sem picos ou vales, assim como, para o caso
unidimensional, a menor distância entre dois pontos é uma reta.
No caso da eletrostática, a função potencial elétrico satisfaz a equação de Laplace:

∇2 V = 0
A equação de Laplace também se aplica a fenômenos envolvendo
magnetismo, condução de calor, gravitação, e outras aplicações3.

Esse comportamento de “minimização” das bandas de borracha, bolhas de


sabão e do potencial elétrico está intimamente correlacionado com o Princípio de
Fermat e o Princípio da Menor Ação. Todos esses exemplos ilustram a maneira
pela qual os processos da natureza ocorrem sempre nos menores níveis de
variação de energia possíveis, ao invés de admitir uma pluralidade – ou uma
infinidade – de eventos possíveis, e isso certamente evoca o caráter determinístico
da natureza, além de oferecer fundamentação física para a Navalha de Ockham.
Por esse ponto de vista, a Navalha de Ockham deve ser considerada um poderoso
recurso epistemológico nas ciências naturais.

Entretanto, essas considerações são válidas no âmbito macroscópico,


conquanto numa escala atômica ou inferior os fenômenos quânticos superam as
expectativas determinísticas da física clássica. Aqui, o determinismo ganha uma
reformulação: os fenômenos quânticos são determinísticos no sentido em que a
teoria fornece previsões estocásticas confiáveis, não sendo possível, contudo,
otimizar a observação além de um nível mínimo de imprecisão, determinado a partir
da constante de Planck (h).

Eventualmente, a constante de Planck poderia ser muito maior do que é,


fazendo com que a pluralidade de processos quânticos fosse perceptível no âmbito
cotidiano, no qual teríamos a sensação de estarmos experienciando um conjunto de
universos múltiplos. Por outro lado, h poderia ser bem menor do que é, a ponto de
ignorarmos completamente os fenômenos quânticos. Mas será mesmo profícuo
levar em consideração essas possibilidades que não se concretizaram em nossa
história do universo?

Há, ainda hoje, um longo debate acerca do destino do nosso universo. Por
enquanto, as evidências parecem sugerir uma expansão indefinida do universo.
Porém, no caso de a matéria escura ser grande o suficiente para reverter esta
expansão, o universo irá colapsar num buraco negro. Então, um novo big bang
pode dar início a outro universo, num processo cíclico.4 O físico John Wheeler
afirmou que, a cada vez que isso ocorre, as constantes adimensionais - como a
relação massa do próton/ massa do elétron - podem adquirir novos valores. Valores
para as constantes adimensionais que sejam muito diferentes daqueles conhecidos
no nosso universo poderiam impedir a ocorrência de vida em outras histórias do
universo. Com efeito, supondo que as constantes adimensionais de fato sejam re-
sorteadas a cada novo big bang, então histórias do universo em que sistemas
planetários e seres vivos ocorrem seriam raríssimas. A partir dessas considerações,
o astrofísico Brandon Carter formulou o Princípio Antrópico, segundo o qual a razão
para que as constantes adimensionais tenham os valores que conhecemos é que,
se fossem diferentes, nós não estaríamos aqui para sabê-lo. Assim, vemos que é
perda de tempo discutir como seria o universo se a constante de Planck (que não é
adimensional) tivesse um valor diferente.

Extrapolando o contexto astrofísico, o Princípio Antrópico, apesar de


freqüentemente negligenciado por muitos físicos, é importante epistemologicamente
no sentido de livrar-nos de um raciocínio teleológico ou finalista. O mundo é de tal
forma, pois, se fosse diferente, não estaríamos aqui para contemplá-lo. Com efeito,
não há sentido algum, em ciências naturais, pensar num propósito, numa finalidade
para os processos físicos, químicos e biológicos. Nós não temos olhos para ver,
ouvidos para ouvir e mão para pegar, e sim, temos características propícias à
sobrevivência da espécie e que foram mantidas por seleção natural. Se não
tivéssemos essas características, não existiríamos. Um grande obstáculo ao ensino
de biologia hoje, notadamente à teoria da evolução, é o pensamento teleológico
popular, que só contribui para fazer crescer a disseminação do criacionismo entre
os leigos e, mais recentemente, até mesmo nas instituições de ensino superior.

Ironicamente, porém, uma interpretação descuidada do princípio antrópico


pode levar justamente a uma conclusão teológica e mesmo teleológica, supondo
que ele estabeleça uma “conspiração” de um suposto Criador para que a vida como
nós conhecemos exista. Não é disso que se trata. O princípio antrópico se aplica a
um universo em que as várias histórias de universo possíveis seguem um
encadeamento cíclico, o que dispensa, pela Navalha de Ockham, a necessidade de
um Criador na cosmologia da física. Voltaremos a isso mais tarde. Minha intenção,
por ora, é apenas concluir a favor da Navalha de Ockham e do Princípio Antrópico
como recursos epistemológicos úteis à proposta do autor.

Retomando o conceito de determinismo ao longo da história, chegamos


agora em Laplace, que nos forneceu uma célebre definição do determinismo
clássico5:
“Uma inteligência que, para um instante dado, conhecesse todas as forças de que está
animada a natureza, e a situação respectiva dos seres que a compõem, e se além disso
essa inteligência fosse ampla o suficiente para submeter esses dados à análise, ela
abarcaria na mesma fórmula os movimentos dos maiores corpos do Universo e os do mais
leve átomo: nada seria incerto para ela, e tanto o futuro como o passado estariam
presentes aos seus olhos. O espírito humano oferece, na perfeição que foi capaz de dar à
astronomia, um pequeno esboço dessa inteligência.”

Para Laplace, se em determinado instante essa inteligência – chamada de


“demônio de Laplace” – conhecesse os valores de todas as variáveis do universo,
então também lhe seria permitido calcular como seria a configuração do universo
nos instantes posteriores. Esse tipo de sistema, em que a configuração de seus
entes físicos, num instante t, depende da configuração no instante t-dt, é chamado
sistema dependente das condições iniciais, ou sistema caótico. Num sistema
dependente das condições iniciais, existe um encadeamento de configurações tal
que, em se fazendo o intervalo de tempo tender a infinito, todas as configurações
possíveis tenderão a ocorrer infinitas vezes, sempre na mesma ordem, num
processo cíclico.

Uma eventual objeção ao determinismo de Laplace seria com relação a uma


suposta negação do conceito de livre-arbítrio, já que ele não admite aleatoriedade.
Entretanto, não há incompatibilidade alguma entre aleatoriedade e determinismo, se
considerarmos como aleatório um evento sobre o qual dispomos de informação
incompleta. Assim, uma jogada de dados, apesar de poder ser determinada
previamente pelas leis da mecânica, é considerada aleatória em situações
cotidianas, nas quais não estamos realizando medições.

Ainda, o conceito de livre-arbítrio permanece intacto no determinismo


laplaciano: supondo que o demônio de Laplace queira fazer predições sobre a
própria conduta, seus cálculos – por maior que seja essa inteligência –
depreenderiam uma certa quantidade de tempo - por mínima que fosse - durante o
que seu próprio estado já teria sido alterado, e o demônio poderia no máximo
predizer o que já lhe ocorrera, instantes atrás. Se desejasse predizer seu destino
num futuro distante, essas alterações que ocorrem durante o cálculo provocariam
mudanças enormes na configuração do sistema do qual faz parte, e sua predição
fracassaria.

Ao longo do século XIX, uma nova descoberta, que veio a ser conhecida
como a Segunda Lei da Termodinâmica, ou Lei da Entropia, veio a contestar a
teoria mecanicista. A segunda lei, que foi formulada de diversas maneiras por vários
cientistas, estabelece que o fluxo de calor de um corpo quente para um frio torna
impossível que se obtenha a máxima quantidade de trabalho mecânico a partir de
uma dada quantia de calor.6 Isso implica uma assimetria, uma irreversibilidade nos
sistemas físicos, haja vista que a lei prevê sempre o aumento da desordem de um
sistema enquanto, por outro lado, as leis de Newton admitem plenamente a
reversibilidade. Pela segunda lei da termodinâmica, então, o tempo não seria uma
dimensão simétrica, reversível, como as dimensões espaciais; pelo contrário, ele
“apontaria” sempre na mesma direção. É o chamado paradoxo da reversibilidade.
Coube a Ludwig Boltzmann resolver o paradoxo, mostrando que outra maneira de
enunciar a segunda lei é afirmar que, num sistema fechado, a entropia sempre
aumenta e, por entropia, entenda-se uma medida do grau de desordem do sistema,
dada por:

S = k loge (N),

onde N é o número de arranjos moleculares possíveis no sistema, e k é a constante


de Boltzmann. O que a equação acima nos diz é que a segunda lei da
termodinâmica é uma lei estocástica, estando sempre correta, sim, mas num
sentido probabilístico. Os processos em que ocorre uma diminuição da entropia
acontecem tão raramente que, para fins práticos, podem ser desprezados.
Teoricamente, nada impede que as moléculas do café saltem espontaneamente de
uma xícara, ou ainda, que dois litros de água morna se dividam em um litro de água
quente e outro de água gelada, para depois se misturarem novamente. Entretanto,
o período médio com que isso ocorre é tão maior que a idade do universo que
essas possibilidades são desprezadas. De qualquer forma, Boltzmann teve o
mérito de mostrar como a Lei da Entropia está de acordo com a física newtoniana.
Suas predições foram confirmadas por Einstein em seu trabalho sobre o movimento
browniano.

Henri Poincaré aponta que o universo, sendo um sistema finito e fechado, e


após um imenso espaço de tempo em expansão, deve permanecer gelado e remoto
por muito tempo, após o que haveria uma etapa de diminuição da entropia de todo o
universo, durante a qual ele contrair-se-ia até o colapso num buraco negro, ou Big
Crunch. Boltzmann foi além, e afirmou que durante essa etapa de contração, essa
diminuição de entropia implica uma inversão de causalidade, de forma que, ao olho
de um observador externo, todos os processos que consideramos “naturais”
ocorreriam em ordem inversa. Entretanto, como nossa noção de causalidade
depende de processos que ocorrem em nosso cérebro, uma inversão de
causalidade implicaria também uma inversão de nossa percepção temporal, ou
seja, nossa “consciência” também estaria “invertida” e, portanto, não perceberíamos
diferença alguma. Partindo desse pressuposto, não existe maneira nenhuma de
sabermos se o universo está em expansão e a entropia aumentando, ou se o
universo está em contração e a entropia, diminuindo.

Considerando que a maior parte de um todo, o maior sistema possível, é


necessariamente um sistema fechado – uma vez que não há nada além desse
sistema com o que ele possa interagir – e portanto com energia e quantidade de
matéria finitas e fixas, então esse sistema – chamemo-lo de Multiverso (para o caso
de esse sistema abarcar múltiplos universos) – é caótico, como todo sistema
fechado. Ou seja, supondo que o multiverso seja finito, então ele é dependente das
condições iniciais. Como, de acordo com a segunda lei da termodinâmica, sistemas
fechados dependentes das condições iniciais são necessariamente cíclicos e -
ainda de acordo com o que foi exposto acerca da lei da entropia - o tempo é
reversível, podendo apontar tanto numa direção quanto noutra, podemos suprimir o
conceito de tempo como dimensão real, considerando-o apenas como uma medida
de variação espacial, e não mais como uma dimensão com realidade física. Nesse
caso, deixa de fazer sentido falar em tempo linear. O tempo, assim, seria cíclico. Eis
o que podemos deduzir a partir da primeira e segunda leis da termodinâmica. A
partir da generalização da Navalha de Ockham feita no início do texto, chegamos a
essa conclusão simplesmente por não termos motivo algum, por ora, para acreditar
em algo mais complexo ou substancialmente diferente do que conhecemos da
natureza, como um multiverso “infinito”, por exemplo.

Os fundamentos da física foram reformulados mais uma vez no começo do


século passado, com a formulação matemática dos quanta por Max Planck. Ele foi
muito criticado na época por ter formulado uma teoria que, embora
matematicamente correta (o conceito de quanta resolveu o problema da catástrofe
do ultra-violeta), não necessariamente correspondia à realidade física. O ceticismo
por parte da comunidade científica quanto a isso é compreensível: a história recente
ensinava, no caso do éter, quanto tempo pode ser perdido quando se postula a
existência de algo que nunca foi observado experimentalmente.

A natureza corpuscular da luz foi comprovada pelo efeito fotoelétrico,


descoberto por Einstein, e mais tarde pelo efeito Compton. Porém, isso não
convenceu os cientistas a abandonarem o tratamento ondulatório de Maxwell ao
eletromagnetismo. Mesmo a teoria de Planck da quantização designava a cada
partícula uma característica ondulatória, a freqüência ν, de acordo com E = hν.
Louis de Broglie, por outro lado, mostrou que, não somente a luz apresenta
propriedades ora ondulatórias, ora corpusculares, mas o contrário também
acontece: a cada partícula existe também uma função de onda associada. É a
dualidade onda-partícula da mecânica quântica.

A problemática do determinismo na mecânica quântica fica mais evidente em


se considerando a teoria quântica de Heisenberg e sua desigualdade, conhecida
como Princípio da Incerteza:
∆x∆p >=h/2 π

Na verdade, a denominação “princípio da incerteza” não é a mais adequada.


Nela, está implícita a Interpretação de Copenhagen, formulada por Werner
Heisenberg sob inspiração do subjetivismo alemão de Kant. Segundo a IC, objeto,
instrumento e observador integram uma unidade inseparável na manifestação física
de um fenômeno, o que equivale a dizer que, sem observação, nada pode ser
afirmado acerca de um objeto. Como essa visão da quântica está longe de ser
inconteste, o termo mais adequado seria Desigualdade ou Inequação de
Heisenberg. Ela diz que a variância (medida de dispersão) da posição de um elétron
(ou qualquer outra partícula quântica) aumenta inversamente à variância do
momento linear, e vice-versa. Segundo o físico teórico e epistemólogo Mario Bunge7
– certamente de acordo com o ponto de vista de Einstein e de Broglie, opositores da
interpretação de Copenhagen – isso significa apenas que os entes físicos
elementares não são pontos materiais, como quer a física clássica. Pelo contrário, a
fibra da realidade é composta de partículas dispersas que não podem ser definidas
pontualmente no espaço. De acordo com Bunge, a Interpretação de Copenhagen –
que ele considera uma “excrescência filosófica” – consiste numa interpretação
positivista de conceitos alheios à física clássica.

Einstein, embora concordasse que a mecânica quântica seja extremamente


bem-sucedida em termos de poder de predição, obstava que a MQ não oferecia
uma descrição completa da realidade. “A lua não desaparece quando ninguém a
está observando”, chegou a afirmar. Einstein – assim como muitos físicos e
filósofos até hoje – sempre acreditou que deveria haver uma realidade
independente dos fenômenos subjetivos de quaisquer observadores. Para tal, com
a ajuda de Podolsky e Rosen, propôs um experimento imaginário - que ficou
conhecido como a Objeção EPR - com o intuito de demonstrar como elementos de
realidade podem ser obtidos sem que qualquer observação seja feita.

O raciocínio do EPR pode ser ilustrado pelo seguinte exemplo: suponha o


caso de uma mulher que esteja grávida de gêmeos univitelinos sem que, no
entanto, tenha sido feito qualquer exame para determinar o sexo das crianças. Se,
depois do parto, os bebês forem separados, um observador que conheça apenas
um dos bebês pode, sem nunca ter visto o outro, determinar seu sexo. Na mesma
linha desse raciocínio simples, o trio de cientistas propôs: façamos com que um
átomo, inicialmente num estado com momento angular nulo, emita um par de fótons
a distâncias opostas. Então, se o spin de um dos fótons for +1/2, então o spin do
outro é necessariamente –1/2. Logo, se medirmos o spin de um dos fótons,
saberemos imediatamente o valor do outro, e teremos definido então uma
quantidade física sem que tenhamos perturbado o outro fóton de maneira alguma.
Pois qualquer tipo de perturbação poderia percorrer o espaço entre os fótons com,
no máximo (pela teoria da relatividade), a velocidade da luz, mas, já que os fótons
viajam em direções opostas, então não há nenhum elemento de perturbação com
que a observação de um influencie o outro.

O físico americano John Bell elaborou a síntese teórica para se testar


experimentalmente o paradoxo EPR. Ele desenvolveu uma fórmula matemática que
ficou conhecida como a Desigualdade de Bell, por expressar a diferença entre a
teoria quântica e a relativística.

A partir da década de 70, o avanço da tecnologia permitiu que fossem


reproduzidas versões experimentais da Objeção EPR. Os resultados, entretanto,
foram justamente as correlações que a mecânica quântica exigia. De fato, a
medição do spin do primeiro fóton afetava, sim, a medida do outro. De acordo com
o teorema de Bell8, esses resultados mostram que o universo é não-local: o que
ocorre numa dada região do universo afeta todo o restante, instantaneamente,
independentemente da distância. Assim, todos os entes físicos do universo estão
amarrados como um todo, a existência de cada um determinando e sendo
determinada pelas demais. Segue que, pelo paradoxo EPR, tudo é pré-determinado
em nosso universo (sem que isso afete – à moda do determinismo de Laplace –
nosso livre arbítrio).

Considerando a não-localidade do universo aliada à interpretação quântica


da realidade, segundo a qual um observador inteligente interfere na manifestação
de um fenômeno, segue a hipótese de que o homem atua ativamente no
funcionamento do universo, não só no presente, mas no passado também, já que a
velocidade da luz é finita (observar o firmamento é contemplar o passado, como
alguém já deve ter dito). Essa idéia – talvez até um pouco esotérica – de que a vida
inteligente tem papel atuante na evolução do universo desde os seus primórdios,
chamada de Princípio Antrópico Forte (PAF), é tão interessante quanto difícil de ser
acreditada, já que não leva muito em conta a Navalha de Ockham. Alguns céticos
chamam isso de PARC (Princípio Antrópico Ridículo Completamente). O princípio
antrópico carrega essa ambigüidade de ser ora interpretado como um exercício de
ceticismo – como na crítica à teleologia – ora como justamente o contrário. Não
deixa de despertar certo fascínio , entretanto.

Como Holton & Brush fazem questão de frisar, esses temas ainda são muito
recentes e quaisquer conclusões são ainda bastante discutíveis, haja vista que os
elementos científicos desse debate estão imersos em preferências pessoais e
filosóficas. Não há explicação ou interpretação consensual para a teoria quântica ou
a não-localidade, embora seja de entendimento geral que esses resultados, de fato,
ocorrem.
Referências:

1 - Feynman, Richard. The Feynman Lectures on Physics, vol. II. Addison-Wesley


Publishing Company, cap. 19

2 - Griffiths, David. Introduction to Eletrodynamics. Prentice Hall, pág 110

3 – Idem, pág. 109

4 – Holton\Brush. Physics, the Human Adventure. Rutger University Press, 3rd ed.,
pág. 515

5 – Laplace, P. S. – Essai philosophique sur les probabilités. Paris: Courcier, 1814.


extraído
de www.dqb.fc.ul.pt/docentes/ ffernandes/Art_Ped/bl93_05.pdf

Holton\Brush. Physics, the Human Adventure. Rutger University Press, 3rd ed.,
6- –
pág. 256

7 – Bunge, Mario. Epistemologia. Edusp

8 – uma explicação detalhada e uma versão simplificada do teorema podem ser


vistas em:
www.ncsu.edu/felder-public/kenny/papers/bell.html

Você também pode gostar