Você está na página 1de 146

Machine Translated by Google

Como as leis da física mentem


Nancy Cartwright, Professora Associada de Filosofia, Universidade de Stanford, Califórnia

Nancy Cartwright defende uma nova concepção do papel das leis científicas fundamentais na
ciência natural moderna. Se prestarmos atenção à maneira como as leis teóricas figuram na
prática da ciência, veremos que, apesar de seu grande poder explicativo, essas leis não descrevem
a realidade. Em vez disso, leis fundamentais descrevem objetos altamente idealizados em modelos.
Assim, a explicação correta da explicação na ciência não é a visão tradicional da lei de cobertura,
mas a explicação do 'simulacro'. Nessa visão, a explicação é uma questão de construir um modelo
que pode empregar, mas não precisa ser consistente com, uma estrutura teórica, na qual as leis
fenomenológicas que são verdadeiras para o caso empírico em questão podem ser derivadas. O
anti-realismo sobre as leis teóricas não compromete, entretanto, o anti-realismo sobre as entidades
teóricas. A crença em entidades teóricas pode ser fundamentada em afirmações causais
localizadas bem testadas sobre processos físicos concretos, às vezes agora chamadas de
'realismo de entidade'. Tais alegações causais fornecem a base para o realismo parcial e são
inelimináveis da prática de explicação e intervenção em
natureza.

Conteúdo

Introdução 1 Ensaio
1 Leis causais e estratégias eficazes 20 Ensaio 2 A verdade não
explica muito 43 Ensaio 3 As leis da física enunciam os fatos? 54
Ensaio 4 A realidade das causas em um mundo de leis instrumentais
74 Ensaio 5 Quando a explicação leva à inferência 87 Ensaio 6 Para as leis fenomenológicas
100 Ensaio 7 Ajustando os fatos às equações 128 Ensaio 8 A explicação do simulacro da
explicação 143 Ensaio 9 Como é o problema da medição um Artefato da Matemática 163

Introdução
Nancy Cartwright

Os filósofos distinguem as leis fenomenológicas das teóricas. As leis fenomenológicas são


sobre aparências; os teóricos são sobre a realidade por trás das aparências.
A distinção está enraizada na epistemologia. As leis fenomenológicas dizem respeito a coisas
que podemos, pelo menos em princípio, observar diretamente, enquanto as leis teóricas só podem ser conhecidas.
Machine Translated by Google

por inferência indireta. Normalmente, para os filósofos, "fenomenológico" e "teórico"


marcam a distinção entre o observável e o inobservável.
Os físicos também usam os termos 'teórico' e 'fenomenológico'. Mas seu uso faz uma
distinção diferente. Os físicos contrastam 'fenomenológico' com 'fundamental'. Por exemplo,
o Dicionário Enciclopédico de Física da Pergamon Press diz: 'Uma teoria fenomenológica
relaciona fenômenos observados postulando certas equações, mas não investiga muito
profundamente seu significado fundamental.'1
O dicionário menciona fenômenos observados. Mas não se deixe enganar.
Essas equações fenomenológicas não são sobre observáveis diretos que contrastam
com as entidades teóricas do filósofo. Pois veja onde essa definição ocorre – sob o título
'Supercondutividade e superfluidez, teorias fenomenológicas de'. Ou observe as entidades
teóricas e processos mencionados no conteúdo de um livro como Fenomenologia de
Partículas em Altas Energias (anais da 14ª Escola de Verão em Física das Universidades
Escocesas): (1) Introdução às Interações Hadrônicas em Altas Energias. (2) Tópicos em
Física de Partículas com Colisão de Feixes de Prótons. (3)
Fenomenologia das Reações Inclusivas. (4) Produção de Multihádrons em Altas Energias:
Fenomenologia e Teoria.2
fim p.1

Francis Everitt, um distinto físico experimental e biógrafo de James Clerk Maxwell,


escolhe a lei de Airy do efeito magneto-óptico de Faraday como uma lei fenomenológica
característica . mas em 1846 George Biddell Airy (1801-1892), o astrônomo inglês Royal,
assinalou que ela poderia ser representada analiticamente na teoria ondulatória da luz
acrescentando às equações ondulatórias, que contêm derivadas segundas do
deslocamento em relação ao tempo, outros termos ad hoc , tanto primeira ou terceira
derivada do deslocamento.'4 Everitt e Hacking contrastam a lei de Airy com outras

níveis de afirmação teórica - 'modelos físicos baseados em hipóteses mecânicas, . ..


análise formal dentro da teoria eletromagnética baseada em argumentos de simetria' e,
finalmente, 'uma explicação física em termos da teoria do elétron' dada por Lorentz, que é
'essencialmente a teoria que aceitamos hoje'.
Everitt distingue a lei fenomenológica de Airy do tratamento teórico posterior de Lorentz,
não porque Lorentz emprega o elétron inobservável, mas sim porque a teoria do elétron
explica o efeito magneto-óptico e a de Airy não.
As leis fenomenológicas descrevem o que acontece. Eles descrevem o que
acontece em superfluidos ou espalhamento méson-núcleo, bem como as mudanças mais
prontamente observadas no vidro borossilicato denso de Faraday, onde os campos
magnéticos giram o plano de polarização da luz. Para o físico, diferentemente do filósofo, a
distinção entre teórico e fenomenológico nada tem a ver com o que é observável e o que é inobservável.
Em vez disso, os termos separam as leis que são fundamentais e explicativas daquelas
que meramente descrevem.
A divisão entre teórico e fenomenológico comumente separa realistas de antirrealistas.
Defendo nestes ensaios uma espécie de anti-realismo, e tipicamente é um anti-realismo que
aceita o fenomenológico e rejeita o teórico. Mas não é teoria
Machine Translated by Google

versus observação que eu rejeito. Pelo contrário, é o teórico em oposição ao


fenomenológico. fim p.2

Na física moderna, e acho que também em outras ciências exatas, as leis fenomenológicas são
destinadas a descrever, e muitas vezes são razoavelmente bem-sucedidas. Mas as equações
fundamentais servem para explicar e, paradoxalmente, o custo do poder explicativo é a adequação
descritiva. Leis explicativas realmente poderosas do tipo encontrado na física teórica não declaram
a verdade.
Parto do pressuposto de que temos um número imenso de leis fenomenológicas altamente
confirmadas. A Spectra-physics Incorporated executa continuamente um quarto de milhão de
dólares em lasers até a morte para testar suas características de desempenho. Nada poderia ser
uma confirmação melhor do que isso. Mas como as leis fundamentais da mecânica quântica, que
deveriam explicar o comportamento detalhado dos lasers, obtêm sua confirmação? Apenas
indiretamente, por sua capacidade de dar contas verdadeiras de lasers, ou de anéis de benzeno,
ou de padrões de difração de elétrons. Argumentarei que os relatos que eles dão geralmente não
são verdadeiros, evidentemente não verdadeiros pelos mesmos padrões práticos que admitem
um número indefinido de leis fenomenológicas comuns. Temos experiência detalhada para testar
a afirmação da física sobre o que acontece em situações concretas. Quando olhamos para as
implicações reais de nossas leis fundamentais, elas não atendem a esses padrões comuns. Os
realistas tendem a acreditar que, se as leis teóricas são falsas e imprecisas, as leis fenomenológicas
são ainda mais. Exorto apenas o inverso. Quando se trata do teste, as leis fundamentais são muito
piores do que as leis fenomenológicas que deveriam explicar.

Os ensaios reunidos neste volume podem ser agrupados em torno de três argumentos
diferentes, mas inter-relacionados, para essa conclusão paradoxal.

(1) O poder explicativo manifesto das leis fundamentais não defende sua verdade.

(2) De fato, a maneira como são usados na explicação argumenta em favor de sua falsidade.
Explicamos por leis ceteris paribus , por composição de causas e por aproximações que
melhoram o que ditam as leis fundamentais. Em todos esses casos, as leis fundamentais
evidentemente não acertam os fatos.
(3) A aparência da verdade vem de um mau modelo de

final p.3

explicação, um modelo que liga as leis diretamente à realidade. Como alternativa ao


quadro convencional, proponho uma explicação simulacro da explicação. O caminho da
teoria para a realidade é da teoria para o modelo, e depois do modelo para a lei fenomenológica.
As leis fenomenológicas são de fato verdadeiras para os objetos na realidade — ou podem
ser; mas as leis fundamentais são verdadeiras apenas para objetos no modelo.
Machine Translated by Google

1. Contra Inferência à Melhor Explicação

Argumentarei que a falsidade das leis fundamentais é consequência de seu grande poder
explicativo. Isso é exatamente o oposto do que é assumido por uma forma de argumento bem
conhecida e amplamente discutida – inferência para a melhor explicação. A ideia básica deste
argumento é: se uma hipótese explica suficientemente bem uma variedade suficientemente
ampla de fenômenos, podemos inferir que a hipótese é verdadeira. Os defensores dessa forma
de argumento podem discordar sobre o que conta muito bem, ou quanta variedade é necessária.
Mas todos eles pensam que o poder explicativo, longe de estar em desacordo com a verdade, nos
leva a ela. Minha primeira linha de argumentação nesses ensaios nega que a explicação seja um guia para a verdade.
Numerosas posições filosóficas tradicionais impedem inferências de melhores explicações.
O ceticismo, o idealismo e o positivismo são exemplos. Mas o argumento mais poderoso que
5 reformulado em
conheço é encontrado em Aim and Structure of Physical Theory, de Pierre Duhem,
6
um caminho particularmente apontado por Bas van Fraassen em seu recente livro The Scientific Image.
Van Fraassen pergunta, o que tem poder explicativo a ver com a verdade? Ele oferece mais
um desafio do que um argumento: mostrar exatamente o que sobre a relação explicativa tende a
garantir que se x explica y e y é verdade, então x deveria ser verdade também. Esse desafio tem
resposta no caso da explicação causal , mas apenas no caso da explicação causal. Essa é a minha
tese em 'Quando a explicação leva à inferência'. Suponha que descrevamos o processo causal
concreto pelo qual um fenômeno é provocado. Esse tipo de explicação termina p.4

só é bem-sucedido se o processo descrito realmente ocorrer. Na medida em que achamos


aceitável a explicação causal, devemos acreditar nas causas descritas.
Por exemplo, considere o radiômetro, inventado por William Crookes em 1853. É um pequeno
moinho de vento cujas palhetas, pretas de um lado, brancas do outro, estão encerradas em uma
tigela de vidro evacuada. Quando a luz incide sobre o radiômetro, as palhetas giram. A princípio,
assumiu-se que uma leve pressão fazia com que as palhetas girassem. Logo percebeu-se que a
pressão da luz não seria grande o suficiente. Foi então acordado que a rotação se deve à ação
das moléculas de gás deixadas dentro da tigela evacuada. Crookes tentou produzir um vácuo em
seu radiômetro. Obviamente, se aceitarmos a explicação acordada, inferimos que o vácuo de
Crookes era imperfeito; a explicação exige a presença de moléculas na jarra.

Havia duas hipóteses rivais sobre o que as moléculas faziam. Ambas as ideias ainda são
defendidas por diferentes campos hoje. Uma primeira proposta foi que as palhetas são empurradas
pela pressão das moléculas saltando mais energicamente do lado preto do que do branco. Mas em
1879 James Clerk Maxwell, usando a teoria cinética dos gases, argumentou que as forças no gás
seriam as mesmas em todas as direções e, portanto, não poderiam empurrar as palhetas.
Em vez disso, o aquecimento diferencial no gás produz tensões tangenciais, que causam o
deslizamento do gás sobre a superfície. À medida que o gás flui ao redor da borda, ele puxa as
palhetas com ele. Em sua biografia de Maxwell, Francis Everitt insiste na superioridade do relato
de Maxwell sobre a alternativa mais amplamente aceita.7 Sua confiança na história causal de Maxwell é
Machine Translated by Google

refletido em suas visões ontológicas. Seus oponentes acham que as tensões


tangenciais são insignificantes. Mas, ao contrário deles, Everitt acredita que, se construir um
radiômetro grande o suficiente, poderá medir o fluxo de gás ao redor da borda das palhetas.
As moléculas no radiômetro de Crookes são invisíveis, e as tensões tangenciais não são os
tipos de coisas que se esperaria ver em primeiro lugar. No entanto, como Everitt, acredito em
ambos. Acredito neles porque aceito a explicação causal de Maxwell sobre por que as palhetas
se movem. Ao produzir essa explicação, Maxwell emprega certas leis fundamentais, como a
equação de Boltzmann e a equação da continuidade, nas quais não acredito. Mas pode-se
rejeitar leis teóricas sem rejeitar entidades teóricas. No caso das moléculas de Maxwell e das
tensões tangenciais no radiômetro, há uma resposta para a pergunta de van Fraassen: temos
uma explicação causal satisfatória e, portanto, temos boas razões para acreditar nas entidades,
processos e propriedades em questão.
O raciocínio causal fornece bons fundamentos para nossas crenças em entidades teóricas.
Dado nosso conhecimento geral sobre que tipos de condições e acontecimentos são possíveis
nas circunstâncias, raciocinamos de trás para a estrutura detalhada dos efeitos até exatamente
quais características as causas devem ter para produzi-los. Algumas vezes resumi minha visão
sobre a explicação desta forma: nenhuma inferência para a melhor explicação; única inferência
para a causa mais provável. Mas isso só está certo se formos muito cuidadosos sobre o que
torna uma causa 'provável'. Devemos ter razões para pensar que esta causa, e nenhuma outra,
é a única possibilidade prática, e deve ser necessária uma boa dose de experiência crítica para
nos convencer disso.
Fazemos nossas melhores inferências causais em situações muito especiais — situações
em que nossa visão geral do mundo nos faz insistir que um fenômeno conhecido tem uma
causa; onde a causa que citamos é o tipo de coisa que poderia produzir o efeito e há um
processo apropriado conectando a causa e o efeito; e onde a probabilidade de outras causas é
descartada. É por isso que experimentos controlados são tão importantes para descobrir
entidades e processos que não podemos observar. Raramente fora das condições controladas
de um experimento estamos em uma situação em que uma causa pode ser legitimamente inferida.

Novamente o radiômetro ilustra. Maxwell está em desacordo com a conta padrão. Para resolver
o debate, o defensor de Maxwell, Everitt, propõe não mais análises teóricas, mas um experimento.
Ele quer construir um enorme radiômetro, onde possa controlar o vácuo parcial e sua
viscosidade, variar o coeficiente de atrito nas palhetas, variar suas larguras, levar em conta os
ventos na jarra e terminar p.6

finalmente determinar se as tensões tangenciais são realmente a principal causa da rotação.


A disputa sobre tensões normais e tangenciais destaca um ponto interessante
sobre a observação. O debate filosófico concentrou-se nas entidades. Os instrumentistas, que
querem acreditar apenas no que podem ver, ficam presos em debates banais: será que
realmente 'vemos' através de um microscópio? Um microscópio eletrônico? Um microscópio de luz de interferência d
Mesmo a olho nu, não vemos de modo algum apenas efeitos? Mas muitas das coisas que são
realidades para a física não são coisas para serem vistas. São características não visuais — a
rotação do elétron, a tensão entre a superfície do gás, a rigidez da haste.
Observação – ver a olho nu – não é o teste de existência aqui. Experimente é.
Machine Translated by Google

Experimentos são feitos para isolar as causas verdadeiras e eliminar as falsas partidas. Isso é o
que está certo sobre os 'métodos' de Mill.
Onde uma ideia dessas pode fazer a diferença? Acho que esses são apenas os tipos
de considerações que precisam ser trazidas aos debates filosóficos atuais sobre a
eletrodinâmica quântica. Ninguém nega o enorme poder organizador e preditivo dessa teoria,
especialmente desde o desenvolvimento nos últimos anos das teorias de campo de calibre, que
unificam fenômenos fracos e eletromagnéticos. Muitos pensam que a eletrodinâmica quântica
é a teoria mais impressionante que já tivemos nesses aspectos. Mas, como observa o físico de
partículas elementares James Cushing, quando se olha para a sucessão de movimentos
flagrantemente ad hoc feitos em QFT [teoria quântica de campos] (mar de elétrons de energia
negativa, descarte de auto-energias infinitas e polarizações de vácuo, invariância de calibre local,
forçando renormalização nas teorias de calibre, quebra espontânea de simetria, quarks
permanentemente confinados, cor, apenas como exemplos) e da imagem que emerge do
'vácuo' (éter?), como fervilhando de pares de partículas antipartículas de toda descrição e
responsável pela quebra de simetrias inicialmente presente, pode-se perguntar se a natureza deve
ou não ser assim.
O sucesso da teoria quântica de campos defende a existência de elétrons de energia
negativa, quarks permanentemente confinados e um vácuo 'fervilhando de partículas?
extremidade

antipartícula p.7

pares de cada descrição'? O debate entre os filósofos tende a se concentrar na coerência


da teoria, ou na verdadeira extensão de seus sucessos . sobre os efeitos que são atribuídos a
eles, e exatamente quão boa é a nossa evidência de que eles o fazem? O sucesso geral da teoria
em produzir previsões precisas, ou em unificar o que antes era díspar, não ajuda aqui. Podemos
acreditar nas entidades inesperadas da eletrodinâmica quântica se pudermos dar-lhes papéis
causais concretos; e a racionalidade dessa crença dependerá de quais evidências experimentais
apóiam os detalhes exatos dessas alegações causais.

Embora eu afirme que uma explicação causal bem-sucedida dá boas razões para acreditar nas
entidades teóricas e nas propriedades teóricas que ela postula, tenho dito repetidamente que não
acredito em leis teóricas. Mas as propriedades e as leis não andam de mãos dadas? Bas van
Fraassen pergunta: afinal de contas, não são 'inferências de causas meramente inferências à
verdade de proposições que descrevem características. gerais
. . as coisas
de cerca'?10
que asAproposições
resposta à pergunta
são
de van Fraassen é, sem dúvida, sim. Mas as proposições com as quais nos comprometemos
quando aceitamos uma explicação causal são princípios causais altamente detalhados e leis
fenomenológicas concretas, específicas da situação em questão, não as equações abstratas de
uma teoria fundamental. Maxwell diz que as palhetas são arrastadas pelo gás que desliza sobre a
borda. Eles não são empurrados pela pressão leve ou pela força normal do gás na superfície. A
aceitabilidade de seu relato depende de uma série de afirmações gerais sobre o que acontece nos
radiômetros.
Aqui está uma lei fenomenológica – neste caso, um princípio causal – que Maxwell
usa:
Machine Translated by Google

[A] velocidade (com a qual o gás desliza sobre a superfície) e a tensão tangencial
correspondente são afetadas por desigualdades de temperatura final p.8

na superfície do sólido, que dão origem a uma força que tende a fazer o gás deslizar ao longo da
superfície de lugares mais frios para lugares mais quentes.11
Aqui está outra, esta crítica para seu argumento de que as palhetas não são empurradas pela
pressão normal à superfície: Quando o fluxo de calor é constante, essas forças (as forças totais
que atuam em todas as direções) estão em equilíbrio.12

A explicação de Maxwell de exatamente como o movimento nos radiômetros ocorre não estará
correta a menos que esses princípios sejam verdadeiros. Mas estas não são leis fundamentais.
Maxwell define sua história causal particular na estrutura da teoria cinética dos gases em
desenvolvimento. É útil contrastar as duas leis específicas citadas, sobre o que acontece nos
radiômetros, com duas equações fundamentais dessa teoria básica que Maxwell usa. Em sua
derivação, ele emprega tanto a equação de Boltzmann

• (1)

e a equação geral de continuidade

• (2)

Essas são equações gerais e abstratas; eles não são sobre quaisquer acontecimentos
particulares em quaisquer circunstâncias particulares. O contraste é como aquele entre os
princípios morais, como Aristóteles os vê na Ética a Nicômaco, Livro II, Capítulo 7, 'Entre as
afirmações sobre conduta, aquelas que são gerais aplicam-se mais amplamente, mas aquelas
que são particulares são mais genuínas.' fim p.9

O poder explicativo não é garantia de verdade, a menos que o desafio de van Fraassen possa
ser enfrentado. Argumento que, no caso muito especial da explicação causal, o desafio é
superado. Nas explicações causais, a verdade é essencial para o sucesso explicativo. Mas é
apenas a verdade de princípios causais de baixo nível e leis fenomenológicas concretas. Não
há outra explicação que assegure também a verdade das leis abstratas; nenhuma história de
explicação que mostre que as leis abstratas devem ser verdadeiras para explicar? Existem dois modelos de explicaçã
Machine Translated by Google

que poderia fazê-lo. Eu os discuto no ensaio 6. Ambos têm falhas sérias. Os outros
ensaios neste volume que argumentam contra a inferência para a melhor explicação são
"Quando a explicação leva à inferência" e "A realidade das causas em um mundo de leis instrumentais".
Como faço uso tão pesado da noção de princípios causais – uma noção que os
empiristas desconfiarão – um artigo anterior foi incluído. 'Leis causais e estratégias
eficazes' argumenta que as leis causais são tão objetivas quanto as leis de associação
mais Humeanas. Um ponto de vista padrão sustenta que as leis causais são necessárias
para explicar as assimetrias explicativas. Se apenas as leis de associação são admitidas, o
comprimento da sombra pode explicar tanto a altura do mastro quanto o contrário. Em The
Scientific Image , van Fraassen argumenta persuasivamente que essas assimetrias não
são genuínas. Acho que ele está enganado. Mas seu caso é poderoso e pode nos persuadir
a desistir de certas estratégias explicativas. Mas não seremos tão facilmente persuadidos
a desistir de nossas estratégias de ação, que são essenciais para a vida prática. Talvez não
haja nenhum fato sobre o que explica o quê. Mas não há dúvida de que pulverizar pântanos
é uma maneira eficaz de impedir a propagação da malária, enquanto queimar os cobertores
dos pacientes com malária não é. O ensaio sobre a causação argumenta que as leis de
associação são insuficientes para explicar os fatos sobre estratégias eficazes. As leis
causais também são necessárias. Além de defender essa tese filosófica central, o primeiro
ensaio reintroduz o paradoxo de Simpson na literatura filosófica e encontra no paradoxo
de Simpson a fonte subjacente de uma variedade de contra-exemplos diferentes que os
filósofos propuseram contra os modelos probabilísticos de causação.

1.1. Composição das Causas

Explicar em física envolve dois tipos bastante diferentes de atividades. Primeiro,


quando explicamos um fenômeno, declaramos suas causas. Tentamos fornecer relatos
detalhados de exatamente como o fenômeno é produzido. Em segundo lugar, enquadramos
o fenômeno em uma ampla estrutura teórica que reúne, sob um conjunto de equações
fundamentais, uma ampla gama de diferentes tipos de fenômenos. Ambos os tipos de
explicação usam o que os filósofos chamaram de leis da natureza, mas, como vimos no
caso do radiômetro, as leis para os dois tipos de explicação não são muito parecidas. A
história causal usa leis fenomenológicas altamente específicas que contam o que acontece
em situações concretas. Mas as leis teóricas, como a equação da continuidade e a equação
de Boltzmann, são fórmulas completamente abstratas que não descrevem circunstâncias particulares.
A explicação padrão da lei de cobertura tenta encaixar os dois tipos de explicação no
mesmo molde. Mas a função das leis é diferente nos dois casos, e assim também,
argumentei, são suas reivindicações de verdade. A diferença é mais do que filosófica.
Encontramo-lo na prática científica (cf. 'A realidade das causas num mundo de leis
instrumentais'). Na física é comum dar tratamentos teóricos alternativos do mesmo
fenômeno. Construímos diferentes modelos para diferentes propósitos, com diferentes
equações para descrevê-los. Qual é o modelo certo, qual o conjunto 'verdadeiro' de
equações? A pergunta é um erro. Um modelo traz à tona alguns aspectos do fenômeno;
um modelo diferente traz outros. Algumas equações fornecem uma estimativa aproximada
para uma quantidade de interesse, mas são mais fáceis de resolver. Nenhum modelo único serve melhor a tod
Machine Translated by Google

A explicação causal é diferente. Não contamos primeiro uma história causal depois outra,
de acordo com nossa conveniência. A explicação de Maxwell envolvendo tensões tangenciais no
radiômetro é incompatível com a conta anterior de pressão leve e é incompatível com a hipótese
mais padrão envolvendo pressões normais. Se um deles for adotado, os outros serão rejeitados.
Histórias causais alternativas competem na física de uma forma em que os tratamentos teóricos
terminam p.11

não. Histórias causais são tratadas como se fossem verdadeiras ou falsas, mas quais leis
teóricas “governam” o fenômeno é uma questão de conveniência.
Talvez as leis da física não sejam empregadas nas explicações como se fossem verdadeiras.
Mas afirmo algo mais forte: se as evidências são levadas a sério, devem ser julgadas falsas. Por
que insisto nessa afirmação muito mais forte? Uma razão é a tensão entre explicação causal e
explicação teórica. A física visa dar ambos, mas as necessidades dos dois estão em desacordo
uma com a outra. Uma das tarefas importantes de uma explicação causal é mostrar como várias
causas se combinam para produzir o fenômeno em estudo. As leis teóricas são essenciais para
calcular exatamente o que cada causa contribui. Mas eles não podem fazer isso se forem
literalmente verdadeiros; pois eles devem ignorar a ação das leis de outras teorias para fazer o trabalho.
O terceiro ensaio deste volume pergunta: 'As leis da física declaram os fatos?' Eu respondo
não. Quando diferentes tipos de causas se compõem, queremos explicar o que acontece na
interseção de diferentes domínios. Mas as leis que usamos são projetadas apenas para dizer
verdadeiramente o que acontece em cada domínio separadamente.13 Esse também é o tema principal do segundo ensa
Os realistas tendem a invocar a unidade da natureza em resposta: a verdadeira explicação nos
casos em que as causas se combinam vem de uma "super" lei que unifica os domínios
separados. Tenho dúvidas sobre a existência dessas leis unificadoras. Mais tarde, também
afirmarei que não acredito que existam leis de ponte suficientes de um certo tipo. Minhas razões
em ambos os casos são as mesmas. Acho que devemos acreditar apenas em leis para as quais
temos evidências. Maxwell mostrou que o eletromagnetismo e a luz podem ser tratados juntos
sob o mesmo guarda-chuva teórico, produzindo a teoria de Maxwell, que fornece relatos
maravilhosamente bem-sucedidos de ambos. O brilhante matemático aplicado e cosmólogo,
Stephen Hawking, intitulou sua palestra inaugural para o Plumean Professorship em Cambridge,
'O fim está à vista para a física teórica?' Ele tem uma confiança imensa e animada de que ele e
seus colegas terminam p.12

estão prestes a escrever as equações certas para unificar as forças básicas da natureza.
Devemos concordar que o fim da física teórica só está em vista quando estiver claro que eles o
fizeram.
Uma segunda razão pela qual não acredito nessas leis unificadas é metodológica. Ele é
executado ao longo dos ensaios aqui reunidos. Na metafísica tentamos dar modelos gerais da
natureza. Nós o retratamos como simples ou complexo, governado por leis ou aleatório, unificado ou diversificado.
Que fundamentos temos para nossas escolhas? Intuições a priori e argumentos abstratos não são
bons o suficiente. Vemos melhor como é a natureza quando olhamos para o nosso conhecimento
dela. Se nossas teorias mais bem fundamentadas agora são probabilísticas, não devemos insistir no determinismo. Se
Machine Translated by Google

Russell estava certo de que a física não emprega causas, devemos concordar com Hume, pelo
menos sobre os fenômenos materiais básicos estudados pela física. A unidade da ciência é um
caso em questão. Quão unificado é nosso conhecimento? Veja qualquer catálogo de uma escola de
ciências ou engenharia. O currículo é dividido em pequenas disciplinas separadas que irritam o interdisciplinar.
Nosso conhecimento da natureza, a natureza como melhor a vemos, é altamente compartimentalizado. Por
que pensar que a própria natureza é unificada?

Até agora me concentrei na composição das causas. Mas os problemas levantados pela
composição das causas são apenas um caso especial. Mesmo se não cruzarmos domínios ou
estudarmos causas que se enquadram em diferentes leis básicas, ainda assim o uso de leis
fundamentais argumenta por sua falsidade. Se as leis fundamentais são verdadeiras, elas devem
dar uma explicação correta do que acontece quando são aplicadas em circunstâncias específicas.
Mas eles não. Se seguirmos suas consequências, geralmente descobriremos que as leis
fundamentais estão erradas; eles são corrigidos pelas criteriosas correções do físico aplicado ou
do engenheiro de pesquisa.
'Para leis fenomenológicas' argumenta este ponto. Grande parte deste ensaio é retirado de um
artigo conjunto com Jon Nordby14 e começa a partir de uma visão que ambos compartilhamos:
não há soluções rigorosas para problemas da vida real. Aproximações e ajustes são necessários
sempre que a teoria trata da realidade. Como final p.13

Como exemplo da extensão do déficit, vejamos a introdução de um texto avançado, Métodos de


Perturbação em Mecânica dos Fluidos , de Milton Van Dyke.
Por causa dessa não-linearidade básica, soluções exatas são raras em qualquer ramo da
mecânica dos. .fluidos. Tão grande
denominada 'exata'émesmo
a necessidade
quando de que
uma uma solução
equação seja ordinária
diferencial vagamente deve ser
integrada numericamente. Lighthill (1948) deu uma lista mais ou menos exaustiva de tais soluções
para escoamento compressível inviscoso:15
Van Dyke lista sete casos, então continua,
Novamente, de Schlichting (1968) pode-se construir uma lista parcial para escoamento viscoso
incompressível:16
A segunda lista dá mais sete exemplos. Mas mesmo esses quatorze exemplos não fornecem
um vínculo rigoroso entre a teoria fundamental e as circunstâncias práticas. Van Dyke conclui: É
típico desses fluxos auto-semelhantes que eles envolvam geometrias idealizadas longe da maioria
das formas de interesse prático. Para prosseguir, deve-se geralmente aproximar.17

Filósofos de orientação realista tendem a pensar que as aproximações não levantam problemas
em princípio. A solução 'verdadeira' é a solução rigorosa, e desvios dela são necessários apenas
porque a matemática é muito difícil ou muito complicada. Nordby chama de aproximações que
realmente visam estimar os resultados rigorosos ab vero
aproximações.18 Aproximações ab vero parecem se adequar bem ao caso do realista, mas 'Para
leis fenomenológicas' argumenta que mesmo estas não fornecem evidência positiva para a verdade
das leis fundamentais. Pior para o realista é o uso generalizado do ad verum
aproximação. Aqui a aproximação vai na direção oposta. Os passos na derivação afastam-se das
consequências rigorosas das leis iniciais, corrigindo-as e aperfeiçoando-as, para chegar
finalmente ao fim p.14
Machine Translated by Google

em uma descrição precisa dos fenômenos. Dois tipos de ilustrações são dados em 'For
Phenomenological Laws', ambos retirados do artigo conjunto com Nordby. Ambos minam o
uso realista da inferência para a melhor explicação: a aplicação de leis à realidade por uma
série de aproximações ad verum defende sua falsidade, não sua verdade.
As aproximações entram quando vamos da teoria à prática. Considere a direção
inversa, não a 'saída da teoria', mas a 'entrada da teoria'. Na entrada da teoria, começamos
com uma descrição factual e procuramos ver como ela pode ser colocada sob uma lei ou equação fundamental.
O método canônico é através de um princípio de ponte. Mas essa proposta se baseia em
uma visão muito simples de como as explicações funcionam. Para passar de um conhecimento
factual detalhado de uma situação a uma equação, devemos preparar a descrição da situação
para atender às necessidades matemáticas da teoria. Geralmente o resultado não será mais
uma descrição verdadeira. Em "Ajustando os fatos às equações", dou alguns exemplos
simples dos tipos de descrições para as quais temos equações na mecânica quântica. Olhe lá
para ver como são diferentes dos tipos de descrições que daríamos se quiséssemos um relato preciso dos fatos.
Ao contrário da explicação convencional, que se baseia apenas nos princípios da ponte,
acho que a entrada da teoria ocorre em duas etapas. Começamos com uma descrição
despreparada que fornece um relatório o mais preciso possível da situação. O primeiro estágio
converte isso em uma descrição preparada . No segundo estágio, a descrição preparada é
combinada com uma representação matemática da teoria. Idealmente, a descrição preparada
deve ser fiel aos despreparados. Mas as duas atividades puxam em direções opostas, e uma
descrição adequada aos fatos raramente terá a estrutura matemática correta. Tudo isso é
discutido no Ensaio 7. O que eu chamo lá de 'preparar uma descrição' é exatamente o que
fazemos quando produzimos um modelo para um fenômeno, e a visão de dois estágios da
entrada da teoria nesse artigo estabelece as bases para a explicação em Ensaio 8 que coloca
os modelos no centro da explicação.

1.2 Uma Alternativa ao Modelo de Explicação da Lei de Cobertura

A terceira linha de argumentação oferece uma alternativa ao modelo de explicação da lei de cobertura.
Embora eu ache que podemos dar explicações causais de eventos isolados, discutirei
aqui apenas explicações para tipos de eventos que se repetem de maneira regular, eventos
que podem ser descritos por leis fenomenológicas. Estou pensando nos tipos de explicação
que são oferecidos em teorias altamente matemáticas.
Eu disse na última seção que existem dois tipos bem diferentes de coisas que fazemos
quando explicamos um fenômeno na física. Primeiro, descrevemos suas causas. Em segundo
lugar, encaixamos o fenômeno em um quadro teórico. Desde as primeiras exposições do
modelo da lei de cobertura, tem-se objetado que sua explicação do primeiro tipo de explicação
é inadequada. Fui fortemente influenciado pelas críticas de Michael Scriven19 e Alan Donagan,20
mas muitos outros também fazem pontos semelhantes. Atualmente Wesley Salmon21 está
desenvolvendo uma explicação alternativa desse tipo de explicação, que se concentra em
processos causais singulares e em interações causais. Aqui considero apenas a segunda
Machine Translated by Google

tipo de atividade explicativa. Como encaixamos um fenômeno em um quadro teórico geral?

Prima facie, o modelo da lei de cobertura parece idealmente adequado para responder: encaixamos
um fenômeno em uma teoria mostrando como várias leis fenomenológicas que são verdadeiras
derivam das leis e equações básicas da teoria. Essa forma de falar já me diferencia do teórico da lei
de cobertura. Não falo sobre explicar uma característica de um fenômeno derivando uma descrição
dessa característica; mas sim de tratar um fenômeno derivando uma variedade de leis
fenomenológicas sobre ele. Mas esta não é a principal diferença. A 'cobertura' do 'modelo da lei de
cobertura' é uma metáfora poderosa. Ensina não apenas que as leis fenomenológicas podem ser
derivadas de leis fundamentais, mas também que as leis fundamentais são leis que governam os
fenômenos. São leis que cobrem os fenômenos, talvez sob uma descrição mais geral ou abstrata,
talvez em virtude de algum fim p.16

características microestruturais ocultas; mas ainda assim as leis fundamentais se aplicam aos
fenômenos e descrevem como eles ocorrem.
Em vez disso, proponho uma conta de 'simulacro'. Essa não é uma palavra que usamos mais, mas
uma de suas definições de dicionário captura exatamente o que quero dizer. De acordo com a
segunda entrada no Oxford English Dictionary, um simulacro é “algo que tem apenas a forma ou
aparência de uma certa coisa, sem possuir sua substância ou qualidades próprias”. Na explicação
do simulacro, explicar um fenômeno é construir um modelo que encaixe o fenômeno em uma teoria.
As leis fundamentais da teoria são verdadeiras para os objetos no modelo e são usadas para derivar
uma explicação específica de como esses objetos se comportam.
Mas os objetos do modelo têm apenas "a forma ou aparência das coisas" e, em um sentido muito
forte, não sua "substância ou qualidades próprias".
A explicação da lei de cobertura supõe que há, em princípio, uma explicação 'correta' para cada
fenômeno. A conta do simulacro nega isso. O sucesso de um modelo explicativo depende de quão
bem as leis derivadas se aproximam das leis fenomenológicas e dos princípios causais específicos
que são verdadeiros para os objetos modelados. Há sempre mais leis fenomenológicas a serem
tidas, e elas podem ser aproximadas melhor e de maneiras diferentes. Não existe uma explicação
única que seja a correta, mesmo no limite, ou relativa à informação disponível. A explicação teórica
é, por sua própria natureza, redundante. Esta é uma das características endêmicas da explicação
em física que a explicação dedutiva-nomológica (DN) perde, embora com o argumento de que essa
característica irritante não estará mais presente quando o fim da física for alcançado.

'Ajustando Fatos a Equações' está cheio de exemplos dos tipos de modelos que usamos
para explicar as coisas na física. Apresento o relato do simulacro no próximo ensaio como
uma alternativa que fornece uma descrição melhor da prática explicativa real do que os relatos
convencionais da lei de cobertura. Obviamente, serve ao meu ataque às leis fundamentais.
O aspecto 'simulacro' é pretendido seriamente: geralmente as descrições preparadas e não
preparadas não podem ser feitas para corresponder. Mas apenas as descrições preparadas se
enquadram no final p.17
Machine Translated by Google

leis básicas. A lição para a verdade das leis fundamentais é clara: as leis fundamentais não
governam objetos na realidade; eles governam apenas objetos em modelos.

2. Que diferença faz?

O debate entre realistas e não realistas vem acontecendo há muito tempo. O resultado tem
alguma consequência prática? Eu acho que sim. O último ensaio deste volume fornece um
exemplo. Argumentei que muitos conceitos abstratos na física desempenham apenas um papel
organizador e não parecem representar propriedades genuínas. Unitaridade tem a marca de ser
apenas um conceito na mecânica quântica.
A unitaridade é uma propriedade dos operadores. Aqueles operadores que são unitários
representam movimentos que são indeterminísticos. A unitaridade não desempenha nenhum
papel causal na teoria; nada mais sobre seu uso argumenta para interpretá-lo como uma
propriedade real. No entanto, há uma tendência a pensá-lo não apenas como uma característica
matemática dos operadores, mas também como uma propriedade genuína das situações
representadas pelos operadores. Isso, eu afirmo, é a fonte do notório problema de medição na
mecânica quântica. A unitaridade não marca nenhuma propriedade real na teoria quântica, e se
não supusermos que deva fazê-lo, não teremos nenhum problema filosófico interessante sobre medição.
O ensaio 9 está preocupado exclusivamente com o problema da medição, e não com a outra
dificuldade conceitual na mecânica quântica que os filósofos comumente discutem, o paradoxo
Einstein-Podolsky-Rosen. Esses dois problemas tendem a ficar em extremos opostos de um
equilíbrio: tratamentos filosóficos que oferecem esperança para resolver um geralmente se
saem mal com o outro. Este é certamente o caso do programa que proponho. Se funcionasse,
na melhor das hipóteses eliminaria o problema de medição, que acredito ser um pseudoproblema.
Mas não teria nada a dizer sobre os fatos muito desconcertantes sobre a localidade trazidos
pelo paradoxo EPR. fim p.18

3. Conclusão

A imagem da ciência que apresento nestes ensaios carece da pureza do positivismo. É uma
confusão de entidades não observáveis, processos causais e leis fenomenológicas. Mas
compartilha uma profunda convicção positivista: não há realidade melhor além da realidade que
temos à mão. Na segunda frase desta introdução, caracterizei a distinção entre leis
fenomenológicas e teóricas: as leis fenomenológicas são sobre aparências; teóricos sobre a
realidade por trás das aparências. Essa é a distinção que rejeito. Richard Feynmann fala sobre
explicar em física como encaixar fenômenos nos 'padrões da natureza'. Mas onde estão os
padrões? As coisas acontecem na natureza. Muitas vezes eles acontecem de forma regular
quando as circunstâncias são semelhantes; os mesmos tipos de processos causais se repetem;
há analogias entre o que acontece em algumas situações e o que acontece em outras. Como
sugere Duhem, o que acontece pode até ser organizado em tipos naturais de uma forma que
torna a previsão fácil para nós (veja o último
Machine Translated by Google

seção de 'Quando a explicação leva à inferência'). Mas há apenas o que acontece, e o que
dizemos sobre isso. A natureza tende a uma profusão selvagem, que nosso pensamento não
confina totalmente.
A imagem metafísica subjacente a esses ensaios é uma crença aristotélica na riqueza e
variedade do concreto e do particular. As coisas são feitas para parecerem iguais apenas
quando deixamos de examiná-las muito de perto. Pierre Duhem distinguiu dois tipos de
pensadores: as mentes profundas, mas estreitas, dos franceses, e as mentes amplas, mas
superficiais, dos ingleses. A mente francesa vê as coisas de uma forma elegante e unificada.
Ele pega as três leis do movimento de Newton e as transforma na bela e abstrata matemática
da mecânica lagrangeana. A mente inglesa, diz Duhem, é um contraste exato. Ele projeta
pedaços de engrenagens e polias e evita que as cordas se enrosquem. Ele contém mil detalhes
diferentes ao mesmo tempo, sem impor muita ordem ou organização abstrata. A diferença entre
o realista e eu é quase teológica. O realista pensa que o criador do universo trabalhou como
um matemático francês. Mas acho que Deus tem a mente desordenada dos ingleses. fim p.19

Guia para o Leitor

O último ensaio sobre mecânica quântica mostra como o anti-realismo pode ser posto em
prática. O primeiro ensaio defende causas. Os principais argumentos a favor das entidades
teóricas e contra as leis teóricas estão nos ensaios intermediários. Embora os ensaios
argumentem a favor das entidades teóricas e contra as leis teóricas, a ênfase principal é neste último tema.
Este livro é um complemento, penso eu, das belas discussões sobre
representação, experimentação e criação de fenômenos em Representing and
22
Intervening, de Hacking
Ian Hacking.
fornece uma riqueza de exemplos que mostram como novas entidades são
admitido na física. O ensaio 6 aqui tem alguns exemplos detalhados e muitas equações que
podem não ser de interesse para o leitor com preocupações puramente filosóficas; mas o
ponto geral dos exemplos pode ser entendido lendo as seções introdutórias. Embora o Ensaio
9 seja sobre mecânica quântica, não é técnico e leitores sem conhecimento especializado
poderão acompanhar o argumento.

Ensaio 1 Leis causais e estratégias eficazes


Nancy Cartwright

0. Introdução

Existem pelo menos dois tipos de leis da natureza: leis de associação e leis causais. As leis
de associação são as leis familiares com as quais os filósofos geralmente lidam. Essas leis
dizem com que frequência duas qualidades ou quantidades são co-associadas. Eles podem
ser determinísticos – a associação é universal – ou probabilísticos. As equações da física são
Machine Translated by Google

um bom exemplo: sempre que a força sobre uma partícula clássica de massa m é f a aceleração é f/
m. As leis de associação podem ser indexadas no tempo, como nas leis probabilísticas da genética
mendeliana, mas, além das assimetrias impostas pela indexação no tempo, essas leis são causalmente
neutras. Eles contam com que frequência duas qualidades ocorrem simultaneamente; mas eles não
fornecem nenhum relato do que faz as coisas acontecerem.
As leis causais, em contraste, têm a palavra 'causa' — ou algum substituto causal — bem
nelas. Fumar causa câncer de pulmão; a transpiração atrai carrapatos de madeira; ou, por
exemplo da física, a força causa mudança no movimento: para citar Einstein e Infeld, 'A ação
. . tal força aumenta
de uma força externa altera a velocidade. velocidade conformeouatua
diminui a
na direção do movimento
ou na direção oposta.'1

Bertrand Russell argumentou que as leis de associação são todas as leis que existem, e que
os princípios causais não podem ser derivados das leis de associação causalmente simétricas.2
Vou argumentar aqui em apoio à segunda afirmação de Russell, mas contra a primeira. Os
princípios causais não podem ser reduzidos a leis de associação; mas eles não podem ser eliminados.
O argumento em apoio às leis causais baseia-se em alguns fatos sobre estratégias. Eles
são ilustrados em uma carta que termina na p.21

Recentemente recebi da TIAA–CREF, uma empresa que oferece seguro para professores
universitários. A carta começa: Simplesmente não seria verdade dizer,

'Nancy LD Cartwright. . . se você possui uma apólice de seguro de vida TIAA, viverá mais.'

Mas é um fato, no entanto, que os segurados pelo TIAA gozam, em média, de vidas mais
longas do que os segurados por companhias de seguros comerciais que atendem ao público
em geral.
Tomarei como ponto de partida para minha argumentação fatos como os relatados pela
carta do TIAA: não seria verdade que comprar uma apólice do TIAA seria uma estratégia
eficaz para prolongar a vida. O TIAA pode, é claro, estar enganado; afinal pode ser verdade. O
importante é que a afirmação deles é, como eles supõem, o tipo de afirmação que é verdadeira
ou falsa. Há um senso pré-utilitário de bondade da estratégia; e o que é e o que não é uma boa
estratégia nesse sentido de pré-utilidade é um fato objetivo. Considere um segundo exemplo.
Construindo o canal na Nicarágua, os franceses descobriram que borrifar óleo nos pântanos é
uma boa estratégia para impedir a propagação da malária, enquanto enterrar cobertores
contaminados é inútil. O que eles descobriram era verdade, independentemente de suas
teorias, de seu desejo de controlar a malária ou do custo de fazê-lo.
A razão para começar com alguns exemplos incontroversos de estratégias eficazes
e ineficazes é a seguinte: afirmo que as leis causais não podem ser eliminadas, pois são
necessárias para fundamentar a distinção entre estratégias eficazes e ineficazes. Se, de fato,
não é verdade que comprar uma apólice TIAA é uma maneira eficaz de prolongar a vida, mas
parar de fumar é, a diferença entre os dois depende das leis causais de
Machine Translated by Google

nosso universo, e em nada mais fraco. Isso será discutido na Parte 2. A Parte 1 endossa a
primeira das alegações de Russell, de que as leis causais não podem ser reduzidas a leis de associação.

1. Análises Estatísticas de Causalidade

Vou abreviar a lei causal, 'C causa E' por C E. Observe que C e E devem ser preenchidos por
termos gerais, end p.22

e não nomes de particulares; por exemplo, 'Força causa movimento' ou 'Aspirina alivia a
dor de cabeça'. A lei genérica 'C causa E' não deve ser entendida como uma lei
universalmente quantificada sobre particulares, mesmo sobre fatos causais particulares. É
genericamente verdade que a aspirina alivia a dor de cabeça, embora algumas aspirinas em
particular não o façam. Tentarei explicar o que as leis causais afirmam dando conta de como as
leis causais se relacionam, por um lado, com as leis estatísticas e, por outro, com verdades
genéricas sobre estratégias. A primeira tarefa não é simples; embora as leis causais estejam
intimamente ligadas às leis estatísticas, não podem ser reduzidas a elas.
Uma razão primária para acreditar que as leis causais não podem ser reduzidas a leis
probabilísticas é amplamente indutiva: nenhuma tentativa até agora foi bem sucedida. As
tentativas mais notáveis recentemente são dos filósofos Patrick Suppes3 e Wesley Salmon4 e,
nas ciências sociais, de um grupo de sociólogos e econometristas que trabalham com modelos
causais, dos quais Herbert Simon e Hubert Blalock5 são bons exemplos.
Não é apenas que essas tentativas falham, mas por que elas falham que é significativo. A razão é
esta. Como sugere Suppes, uma causa deve aumentar a frequência de seu efeito. Mas esse fato
pode não aparecer nas probabilidades se outras causas estiverem em ação. As correlações de
fundo entre a suposta causa e outros fatores causais podem ocultar o aumento da probabilidade
que de outra forma apareceria. Um exemplo simples irá ilustrar.
Supõe-se geralmente que fumar causa doença cardíaca (S H. Assim, podemos esperar que a
probabilidade de doença cardíaca no tabagismo seja maior do que de outra forma. (Podemos
escrever isso como Prob(H/S) > Prob(H), ou Prob(H/S) > Prob(H/ ÿS), pois os dois são
equivalentes.) Essa expectativa é equivocada. Mesmo que seja verdade que fumar causa doença
cardíaca, o aumento esperado na probabilidade não aparecerá se o tabagismo estiver
correlacionado com um preventivo suficientemente forte, digamos final p.23

exercício. (Deixando de lado algumas sutilezas, podemos traduzir 'Exercício previne doenças
cardíacas' como X ÿH.) Para ver por que isso acontece, imagine que o exercício é mais eficaz na
prevenção de doenças cardíacas do que fumar para causá-las. Então, em qualquer população
em que fumar e se exercitar são altamente correlacionados,6 pode ser verdade que Prob(H/S) =
Prob(H), ou mesmo Prob(H/S) < Prob(H). Pois a população de fumantes também contém um bom
número de praticantes, e quando os dois estão em combinação, o exercício tende a dominar.
Machine Translated by Google

É possível obter o aumento da probabilidade condicional de reaparecer. A diminuição decorre


da observação das probabilidades médias sobre praticantes e não praticantes. Embora na
população em geral pareça melhor fumar do que não fumar, na população composta inteiramente
de praticantes de exercícios, é pior fumar. Isso também é verdade na população de não
praticantes de exercícios. O aumento esperado na probabilidade ocorre não na população geral,
mas em ambas as subpopulações.
Este exemplo depende de um fato sobre probabilidades conhecido como paradoxo de
Simpson,7 ou às vezes como paradoxo de Cohen–Nagel–Simpson, porque é apresentado
como um exercício no texto de Morris Cohen e Ernest Nagel, An Introduction to Logic and
Scientific 8
Método. Nagel suspeita que ele aprendeu sobre isso com An Introduction to the Theory of
Statistics (1904), de G. Yule, que é um dos primeiros livros escritos sobre estatística; e, de
fato, é discutido longamente lá. O fato é este: qualquer associação—Prob(A/B) = Prob(A);
Prob(A/B) > Prob(A); Prob(A/B) < Prob(A)—entre duas variáveis que se mantém em uma dada
população pode ser revertida nas subpopulações encontrando uma terceira variável que está
correlacionada com ambas.
No exemplo do tabagismo-doença cardíaca, o terceiro fator é um fator preventivo para o
efeito em questão. Esta é apenas uma possibilidade. Wesley Salmon9 propôs diferentes
exemplos para mostrar que uma causa não precisa aumentar a probabilidade de seu efeito.
Seus exemplos também ligam o final de Simpson p.24

paradoxo, exceto que em seus casos a causa está correlacionada, não com a presença
de um fator negativo, mas com a ausência de um ainda mais positivo.
Salmon considera dois pedaços de material radioativo, urânio 238 e polônio 214. Devemos
sortear um ou outro material e colocá-lo na frente de um contador Geiger por algum tempo. O
polônio tem uma meia-vida curta, de modo que a probabilidade de um grande número de cliques
designado é de 0,9; para o urânio de vida longa, a probabilidade é 0,1.
Na situação descrita, onde uma das duas peças é sorteada ao acaso, a probabilidade total
de um grande número de cliques é ½(.9) + ½(.1) = .5. Portanto, a probabilidade condicional
de o contador Geiger clicar quando o urânio estiver presente é menor que a probabilidade
incondicional. Mas quando o urânio é extraído e o contador Geiger registra um grande número
de cliques, é o urânio que os causa. O urânio diminui a probabilidade de seu efeito neste caso.
Mas isso ocorre apenas porque o polônio ainda mais eficaz está ausente sempre que o urânio
está presente.
Todos os contra-exemplos que conheço para a afirmação de que as causas aumentam a
probabilidade de seus efeitos funcionarem da mesma maneira. Em todos os casos a causa não
aumenta a probabilidade de seus efeitos pela mesma razão: na situação descrita a causa está
correlacionada com algum outro fator causal que domina em seus efeitos. Isso sugere que a
condição conforme declarada é muito simples. Uma causa deve aumentar a probabilidade de
seus efeitos; mas apenas em situações em que tais correlações estão ausentes.
As situações mais gerais em que um determinado fator não está correlacionado com nenhum
outro fator causal são situações em que todos os outros fatores causais são mantidos fixos,
ou seja, situações que são homogêneas em relação a todos os outros fatores causais. Na
população onde todos se exercitam, o tabagismo não pode ser correlacionado com o exercício. Assim também em
Machine Translated by Google

populações onde ninguém faz exercício. Suponho então que a conexão correta entre leis causais e leis
de associação é esta: 'C causa E' se e somente se C aumenta a probabilidade de E em todas as situações
que de outra forma são causalmente homogêneas em relação a E.

A noção de Carnap de uma descrição de estado10 pode ser usada para selecionar as situações causalmente
homogêneas. Um conjunto completo de fatores causais para E é o conjunto de todos tal que
os Ctanto C i eu

+EorC i ÿE. (Para abreviar C i ± E.) Todo arranjo possível dos fatores de um conjunto que é completo,
exceto C , escolhe uma população homogênea em todos os fatores causais, exceto C. Cada arranjo desse
= ±C i sobre
tipo é dado por uma das 2n descrições de estado K o conjunto {C i } (i variando de 1 a n) consistindo de j
todos os fatores causais alternativos. Essas são as únicas situações em que as probabilidades dizem
alguma coisa sobre as leis causais. Vou me referir a eles como situações de teste para a lei C E.

Usando esta notação, a conexão entre leis de associação e leis causais é esta: CC: CE sse Prob(E/ CK
j ) > Prob(E/K j ) para todas as descrições de estado K j sobre o conjunto {C i } onde {C i } satisfaz

(i) C i {C i } C i ± E (ii) C {C i }
(iii) D(D ± ED = C ou D {C i })
(iv) C i {C i } ÿ (CC eu ).

A condição (iv) é adicionada para garantir que as descrições de estado não mantenham fixos quaisquer
fatores na cadeia causal de C a E. Ela será discutida mais adiante na próxima seção.
Obviamente CC não fornece uma análise do esquema C E, porque exatamente o mesmo esquema aparece
em ambos os lados da equivalência. Mas impõe restrições mútuas, de modo que determinados conjuntos
de leis causais e associativas não podem ser combinados arbitrariamente. CC é, acredito, a conexão mais
forte que pode ser traçada entre leis causais e leis de associação.

1.1 Duas vantagens para a explicação científica

A explicação original de CG Hempel da explicação estatística-indutiva11 tinha duas características


cruciais que foram abandonadas em explicações posteriores, particularmente nas de Salmon: (1) um
final p.26

o fator explicativo deve aumentar a probabilidade do fato ser explicado; (2) o que conta como uma
boa explicação é uma questão objetiva e independente da pessoa. Ambas as características me parecem
corretas. Se usarmos leis causais em explicações, podemos manter tanto
Machine Translated by Google

esses requisitos e ainda admitir como boas explicações apenas os casos que supostamente
argumentam contra eles. (i) Hempel insistiu que um fator explicativo aumenta a
probabilidade do fenômeno que explica. Este é um requisito inteiramente plausível, embora
haja um tipo de explicação para o qual não é apropriado. Em certo sentido, explicar um
fenômeno é localizá-lo em um padrão nômico. O objetivo é expor todas as leis pertinentes
ao fenômeno; e é irrelevante para este objetivo se o fenômeno tem alta ou baixa
probabilidade sob essas leis. Embora este pareça ser o tipo de explicação que Richard
Jeffrey descreve em 'Explicação estatística vs. Inferência estatística',12 não é o tipo de
explicação que outros críticos de Hempel têm em mente. Salmon, por exemplo, está
claramente preocupado com a explicação causal.13 Mesmo para a explicação causal,
Salmon acha que o fator explicativo pode diminuir a probabilidade de o fator ser explicado.
Ele apóia isso com o exemplo de urânio-plutônio descrito acima.

O que faz o urânio contar como uma boa explicação para os cliques no contador Geiger,
no entanto, não é a lei probabilística que Salmon cita (Prob(clicks/urânio) <Prob(clicks)),
mas sim a lei causal - "O urânio causa radioatividade '. Conforme necessário, a
probabilidade de decaimento radioativo aumenta quando a causa está presente, para cada
situação de teste. Há um nível mais alto de radioatividade quando o urânio é adicionado
tanto para situações em que o polônio está presente quanto para situações em que o
polônio está ausente. Salmon vê o fim da probabilidade p.27

diminuindo porque atende a uma população que não é causalmente homogênea.


Insistir no aumento da probabilidade em todas as situações de teste não apenas deixa
entrar os bons casos de explicação que Salmon cita; também exclui algumas explicações
ruins que devem ser admitidas por Salmon. Por exemplo, considere um caso que, no que
diz respeito à lei de associação, é estruturalmente semelhante ao exemplo do urânio de
Salmon. Eu considero erradicar o carvalho venenoso no fundo do meu jardim pulverizando-
o com desfolhante. A lata de desfolhante afirma que o spray é 90% eficaz; isto é, a
probabilidade de uma planta morrer dado que é pulverizada é 0,9, e a probabilidade de sua
sobrevivência é 0,1. Aqui, em contraste com o caso do urânio, apenas o resultado provável,
e não o improvável, é explicado pela pulverização. Pode-se explicar por que algumas
plantas morreram comentando que foram pulverizadas com um poderoso desfolhante; mas isso não explicará
A diferença está nas leis causais. No exemplo favorável, é verdade que o urânio causa
altos níveis de radioatividade e que o urânio causa baixos níveis de radioatividade. Isso
é confirmado nas leis de associação. Mantendo fixos outros fatores causais para um
determinado nível de decaimento, alto ou baixo, é mais provável que esse nível seja
alcançado se o urânio for adicionado do que não. Não é assim no caso desfavorável. É verdade
que a pulverização com desfolhante causa a morte das plantas, mas não é verdade que a
pulverização também cause a sobrevivência. Mantendo fixas outras causas de morte, borrifar
com meu desfolhante aumentará a probabilidade de uma planta morrer; mas mantendo fixas
outras causas de sobrevivência, a pulverização com esse desfolhante diminuirá, não aumentará,
as chances de sobrevivência de uma planta. (ii) Todas essas explicações são explicações por
recurso a leis causais. Relatos, como os de Hempel, Salmon ou Suppes, que em vez disso
explicam apelando a leis de associação, são atormentados pelo problema da classe de referência. Todas essas conta
Machine Translated by Google

explica outro caso alguma relação estatística privilegiada se obtenha entre eles.
(Para
final p.28

Hempel a probabilidade do primeiro fator sobre o segundo deve ser alta; para Suppes deve ser maior
do que quando o segundo fator está ausente; Salmon apenas exige que as probabilidades sejam
diferentes.) Mas se a relação estatística designada é obtida ou não depende de qual classe de
referência se escolhe examinar, ou de qual descrição se dá à situação de fundo. Em relação à
descrição de que o urânio ou o polônio é sorteado ao acaso, a probabilidade de um grande número
de cliques é menor quando o urânio está presente do que de outra forma. Em relação à descrição de
que o polônio e todas as outras substâncias radioativas estão ausentes, a probabilidade é maior.

Salmon resolve este problema escolhendo como descrição privilegiada a descrição assumida
no pedido de explicação. Isso torna a explicação uma questão subjetiva.
Se o urânio explica os cliques depende de quais informações o questionador tem em mãos ou de
quais descrições são de seu interesse. Mas a explicação que Hempel pretendia caracterizar não era
de forma alguma subjetiva. O que explica o que depende das leis e dos fatos verdadeiros em nosso
mundo, e não pode ser ajustado mudando nosso interesse ou nosso foco.
A explicação pela lei causal satisfaz este requisito. Quais leis causais são verdadeiras e quais
não são é uma questão objetiva. É certo que certas relações estatísticas devem ser obtidas; a causa
deve aumentar a probabilidade de seu efeito. Mas não surge nenhum problema de classe de
referência. Com quanto detalhe devemos descrever as situações em que essa relação deve ocorrer?
Devemos incluir todas e apenas as outras características causalmente relevantes. Quais interesses
temos, ou quais informações nos concentramos, são irrelevantes.
Não oferecerei aqui um modelo de explicação causal, mas certas teses negativas decorrem de
minha teoria. Observe particularmente que cair sob uma lei causal (mais a existência de condições
iniciais adequadas) não é necessário nem suficiente para explicar um fenômeno.

Não é suficiente porque um único fenômeno pode estar no domínio de várias leis causais e, em
muitos casos, será uma questão legítima perguntar: "Qual desses fatores causais realmente
provocou o efeito nesta ocasião?" Este problema não é peculiar à explicação por lei causal, end p.29

Contudo. Tanto Hempel em seu modelo indutivo-estatístico quanto Salmon no relato de relevância
estatística evitam a questão exigindo que uma explicação 'completa' cite todos os fatores
possivelmente relevantes, e não selecione entre eles.
Por outro lado, sob a suposição plausível de que declarações causais singulares são transitivas, cair
sob uma lei causal também não é necessário para explicação. Isso resulta do fato de que (como CC
deixa claro) as leis causais não são transitivas. Assim, um fenômeno pode ser explicado por um fator
ao qual está ligado por uma sequência de passos intervenientes, cada passo caindo sob uma lei
causal, sem que haja nenhuma lei causal que vincule o próprio explanans ao fenômeno a ser explicado.

1.2 Alguns Detalhes e Algumas Dificuldades


Machine Translated by Google

Antes de prosseguir para a Parte 2, alguns detalhes devem ser observados e alguns
defeitos admitidos. (a) Condição (iv). A condição (iv) é adicionada à caracterização acima para
evitar a referência a fatos causais singulares. Uma situação de teste para EC destina-se a
selecionar uma população (hipotética, infinita) de indivíduos que são semelhantes em todos os
fatores causais para E, exceto aqueles que naquela ocasião são causados pelo próprio C. As
situações de teste não devem conter fatores fixos na cadeia causal de C a E. Se assim fosse,
as probabilidades nas populações onde ocorrem todos os passos intermediários necessários
seriam enganosamente altas; e onde não ocorrem, enganosamente baixos. A condição (iv) é
adicionada, exceto fatores causados pelo próprio C da descrição da situação de teste.
Infelizmente é muito forte. Para a condição (iv) exclui qualquer fator que possa ser causado por
C mesmo naquelas ocasiões particulares em que o fator ocorre por outras razões. Ainda assim,
(iv) é o melhor método que posso pensar para lidar com esse problema, exceto pela introdução
de fatos causais singulares, e deixo-o no lugar. (b) Interações. Alguém pode perguntar: 'Mas
não pode acontecer que Prob(E/C) > Prob(E) em todos os
circunstâncias causalmente fixadas, e ainda C não ser uma causa de E?' Eu não sei. Não
consigo imaginar exemplos convincentes em que isso ocorra; mas isso dificilmente é uma
resposta. Mas um tipo de exemplo é claramente levado em conta. Esse é o problema da
correlação espúria (às vezes chamado de 'o problema dos efeitos conjuntos').1
e E2 são
Seambos
dois fatores
E efeitos de um terceiro fator C, então freqüentemente acontecerá que a probabilidade do
primeiro fator é maior quando o segundo está presente do que de outra forma, em uma ampla
variedade de circunstâncias. No entanto, não queremos princípio
seafirmar
quando CC,
Prob(E EE
11/E
C obtém, 2como
no.2De
entanto,
) >acordo
tambémEE
Prob(Ecom2) somente
o
1quando
tanto C
não obtém. Mas
1 esperar
a história
qualquer
de que um
E e desses
E 2 sãoaumentos.
efeitos conjuntos de C não fornece garantia para
1

Pode-se ter uma preocupação na outra direção também. Uma causa deve aumentar
a probabilidade de seu efeito em toda situação causalmente fixada? Não poderia fazê-lo em
alguns, mas não em todos? Eu acho que não. Sempre que uma causa não aumenta a
probabilidade de seu efeito, deve haver uma razão. Dois tipos de razões parecem possíveis.
A primeira é que a causa pode estar correlacionada com outros fatores causais. Esse tipo de
motivo é levado em consideração. A segunda é que a interação pode ocorrer. Dois fatores
causais são interativos se combinados atuam como um único fator causal cujos efeitos são
diferentes de pelo menos um dos dois atuando separadamente. Por exemplo, ingerir um
veneno ácido pode causar a morte; o mesmo acontece com a ingestão de um veneno alcalino. Mas a ingestão de am
Nesse caso, ao que parece, há três verdades causais: (1) ingerir ácido sem ingerir álcali
causa a morte; (2) ingerir álcalis sem ingerir ácido causa a morte; e (3) a ingestão de álcalis
e ácidos não causa a morte. Todas essas três verdades gerais devem estar de acordo com
CC.
Tratar as interações dessa maneira pode parecer banalizar a análise; qualquer coisa pode
contar como uma causa. Pegue qualquer fator que se comporte esporadicamente na variação
das circunstâncias causais. Não podemos considerá-lo como uma causa olhando-o
separadamente nas situações em que a probabilidade aumenta e alegar que está em interação
em qualquer caso em que a probabilidade não aumenta? Não. Não há garantia de que isso
sempre possa ser feito. Pois interação é sempre interação com algum outro fator causal; e
nem sempre é possível encontrar algum outro fator, ou conjunção de fatores, end p.31
Machine Translated by Google

que são obtidas exatamente quando a probabilidade de E no fator em questão diminui, e que
por si só satisfaz o princípio CC em relação a todos os outros fatores causais.15 Obviamente,
muito mais tem a ser dito sobre interações; mas esse fato pelo menos torna razoável esperar
que eles possam ser tratados adequadamente e que a exigência de aumento na probabilidade
em todas as situações causais não seja muito forte. (c) 0, 1 probabilidades e efeitos de limiar.
Princípio CC como está não permite CE
se houver mesmo um único arranjo de outros fatores para os quais a probabilidade de E é um,
independentemente de C ocorrer ou não. Então CC deve ser alterado para ler:

É uma consequência do segundo conjunto que algo que ocorre universalmente pode ser o
consequente de nenhuma lei causal. A alternativa é deixar qualquer coisa contar como a causa de
um fato universal.
Também não há uma maneira natural de lidar com efeitos de limiar, se houver. Se a
probabilidade de algum fenômeno pode ser aumentada tão alto, e não mais, o tratamento como
está não permite causas genuínas para ele. (d) Tempo e causa. CC não faz menção ao tempo. As
propriedades podem ser indexadas no tempo; tomar aspirina em t causa alívio em t + ÿt, mas a
ordenação dos índices não desempenha nenhum papel na condição. A ordenação temporal é
frequentemente introduzida em análises estatísticas de causalidade para garantir as assimetrias
necessárias. Alguns, por exemplo, tomam como base o aumento da probabilidade condicional.
Mas a seta causal é assimétrica, enquanto o aumento na probabilidade condicional é simétrico:
Prob(E/C) > Prob(E) se Prob(C/E) > Prob(C). Esse problema não surge para CC, porque o conjunto
de fatores causais alternativos para E será diferente do conjunto de fatores causais alternativos
para C. Considero uma vantagem que minha explicação deixe em aberto a questão da causação
reversa. Duvido que algum dia encontremos exemplos convincentes disso; mas se não terminar
p.32

fosse um caso em que um fator posterior aumentasse a probabilidade de um fator anterior em


todas as situações de teste, seria melhor considerá-lo uma causa.
2. Probabilidades na Teoria da Decisão
As versões padrão da teoria da decisão requerem dois tipos de informação. (1) Quão desejáveis
são as várias combinações de objetivos e estratégias e (2) quão eficazes são as várias estratégias
para a obtenção de objetivos específicos. A primeira é uma questão de utilidades, que não vou
discutir. A segunda é uma questão de eficácia; é geralmente traduzido como uma questão sobre
probabilidades. Precisamos saber o que pode ser grosseiramente caracterizado como 'a
probabilidade de que o objetivo seja alcançado se a estratégia for seguida'. É costume medir a
eficácia pela probabilidade condicional. Seguindo este costume, poderíamos definir !S como uma
estratégia efetiva para G sse Prob(G/S) > Prob(G).
Eu usei aqui o marcador de humor volativo! introduzido por HP Grice,16 para ser lido como 'que
seja o caso'. Vou me referir a S como o estado da estratégia. Por exemplo, se quisermos saber
Machine Translated by Google

se o desfolhante é eficaz para matar carvalho venenoso, o estado da estratégia relevante é


'uma planta de carvalho venenoso é pulverizada com desfolhante'. Na caracterização acima, o
desfolhante é eficaz apenas no caso de a probabilidade de morte de uma planta, dado que foi
pulverizada, é maior do que a probabilidade de sua morte por não ter sido pulverizada. Sob essa
caracterização, a distinção entre estratégias eficazes e ineficazes depende inteiramente de quais
leis de associação prevalecem.
Mas a probabilidade condicional não servirá desta forma, fato que foi defendido por Allan
Gibbard e William Harper.17 Harper e Gibbard apontam que o aumento da probabilidade
condicional pode ser espúrio, e termina p.33

que correlações espúrias não são motivos para ação. Seus próprios exemplos são um tanto
complexos porque abordam especificamente uma doutrina de Richard Jeffrey não
imediatamente ao ponto aqui. Podemos ilustrar com o caso TIAA já apresentado.
A probabilidade de vida longa dado que se tem uma apólice TIAA é maior do que de outra forma.
Mas, como diz a carta, seria uma má estratégia comprar TIAA para aumentar a expectativa de
vida.
O problema da correlação espúria na teoria da decisão leva naturalmente à introdução de
contrafactuais. Não estamos, segundo o argumento, interessados em quantas pessoas têm
vida longa entre as pessoas seguradas pelo TIAA, mas sim na probabilidade de alguém ter uma
vida longa se estiver segurado pelo TIAA. Por mais adequada que seja essa sugestão, ela exige
que avaliemos a probabilidade de contrafactuais, para os quais temos apenas o início de uma
semântica (através do dispositivo de medidas sobre mundos possíveis)18 e nenhuma
metodologia, muito menos uma explicação de por que a metodologia é adequado à semântica.
Como testamos afirmações sobre probabilidades de contrafactuais? Não temos resposta, muito
menos uma resposta que se encaixe com nossa semântica nascente. Seria preferível ter uma
medida de eficácia que exija apenas probabilidades sobre eventos que possam ser testados no
mundo real de maneiras padrão. É isso que vou propor.
O exemplo de Gibbard e Harper, um exemplo de correlação espúria devido a uma causa
conjunta, é um caso especial de um problema geral. Vimos que a probabilidade condicional não
servirá como marca de causalidade em situações em que a causa putativa esteja correlacionada
com outros fatores causais. Exatamente o mesmo problema surge para a eficácia. Seja qual for
o motivo da correlação, a probabilidade condicional não é uma boa medida de eficácia em
nenhuma população em que o estado da estratégia esteja correlacionado com outros fatores
causalmente relevantes para o estado da meta. O aumento da probabilidade condicional não é
sinal de eficácia em situações causalmente heterogêneas. É necessário, portanto, fazer o
mesmo fim p.34

restrições sobre situações de teste ao lidar com estratégias que fizemos ao lidar com
causas:
!S é uma estratégia eficaz para obter G na situação L sse Prob(G/ SK L ) > Prob(G/K L ). é a
Aqui K eu descrição de estado verdadeira em L, tomada sobre o conjunto completo {C i } de

fatores causais para G, exceto S. Mas L pode não fixar uma descrição de estado única. Por exemplo L pode
Machine Translated by Google

ser a situação em que estou quando decido fumar ou não, e no momento da decisão não está
determinado se serei um praticante de exercícios. Nesse caso, devemos comparar não os
valores reais Prob(G/ SK L ) e Prob(G/K L ), mas sim seus valores esperados:

SC: !S é uma estratégia eficaz para obter G em L ff

onde j varia sobre todo K compatível com L. 19


j
Esta fórmula para calcular a eficácia das estratégias tem várias características desejadas: (1) é
uma função da medida de probabilidade, Prob, dada pelas leis de associação no mundo real; e,
portanto, calculável por métodos padrão de inferência estatística. (2) Reduz à probabilidade
condicional nos casos em que deveria. (3) Restaura uma conexão natural entre causas e estratégias.

(1) SC evita probabilidades sobre contrafactuais. Implicações dos argumentos apresentados aqui
para construir uma semântica para probabilidades para contrafactuais serão apontadas na seção 2.2.

(2) Problemas para a probabilidade condicional surgem em casos como o exemplo do TIAA em que
há uma correlação entre a estratégia proposta e (outros) fatores causais para o objetivo em questão.
Quando tais correlações estão ausentes, a probabilidade condicional deve servir.
Isso segue imediatamente: quando não há correlações entre S e outros fatores causais, Prob(K
j / S) = Prob(K j ); então o lado esquerdo de SC se reduz a Prob(G/S) na situação L e o lado direito a
Prob(G) em L.
(3) Existe uma conexão natural entre causas e estratégias que deve ser mantida; se
alguém deseja obter um objetivo, é uma boa estratégia (no sentido de pré-utilidade do bem)
introduzir uma causa para esse objetivo. Enquanto se mantiver tanto a visão simples de que o
aumento na probabilidade condicional é uma marca segura de causação quanto a visão de que as
probabilidades condicionais são a medida certa de eficácia, a conexão é direta. Os argumentos na
Parte 1 contra a visão simples de causação quebram essa conexão. Mas SC o restabelece, pois é
fácil ver pela combinação de CC e SC que se XG for verdadeiro, então !X será uma estratégia eficaz
para G em qualquer situação.

2.1. Leis causais e estratégias eficazes

Embora a SC junte causas e estratégias, não é essa conexão que defende a objetividade das
leis causais sui generis . Como acabamos de ver, pode-se manter a conexão entre causas e
estratégias e ainda esperar eliminar as leis causais usando probabilidade condicional simples para
tratar ambas as ideias. A razão pela qual as leis causais são necessárias para caracterizar a eficácia
é que elas escolhem as propriedades certas para condicionar. O Kj _
que são necessários para caracterizar estratégias eficazes devem abranger
todos e apenas os fatores causais para G.
É fácil ver, a partir dos exemplos da Parte 1, por que o K j deve incluir todos os fatores causais.
Se algum for deixado de fora, podem surgir casos como o exemplo da doença cardíaca do tabagismo. Se
Machine Translated by Google

o exercício não está entre os fatores que Kj corrige , a probabilidade condicional de doença
cardíaca ao fumar pode ser menor do que de outra forma j , em
erroneamente
K e fumar aparecerá
como uma estratégia
eficaz para prevenir doenças cardíacas.
É igualmente importante que o K j não inclua muito. {K j } particiona o espaço de situações
possíveis. Particionar muito finamente é tão ruim quanto não particionar suficientemente finamente.
Particionar em uma irrelevância pode fazer uma causa genuína parecer irrelevante, ou
fazer um fator irrelevante parecer uma causa. A discussão anterior do paradoxo de Simpson
mostra que este é o fim p.36

estruturalmente possível. Qualquer associação entre dois fatores C e E pode ser revertida
encontrando um terceiro fator que está correlacionado da maneira correta com ambos. Quando
o terceiro fator é um fator causal, as classes menores são as corretas a serem usadas para
julgar as relações causais entre C e E. Nestes, quaisquer efeitos que o terceiro fator tenha
sobre E são mantidos fixos na comparação dos efeitos de C versus os de E. ÿC. Mas quando o
terceiro fator é causalmente irrelevante para E – isto é, quando não tem efeitos sobre E – não
há razão para que seja mantido fixo, e mantê-lo fixo dá julgamentos errados tanto sobre causas
quanto sobre estratégias.
Vou ilustrar a partir de um caso da vida real.20 A escola de pós-graduação em Berkeley foi
acusada de discriminar as mulheres em suas políticas de admissão, levantando assim a
questão 'Ser mulher faz com que alguém seja rejeitado em Berkeley?' A acusação parecia se
confirmar nas probabilidades: a probabilidade de aceitação era muito maior para os homens
do que para as mulheres. Bickel, Hammel e O'Connell21 examinaram os dados com mais
cuidado, no entanto, e descobriram que isso não era mais verdade se particionados por
departamento. Na maioria dos oitenta e cinco departamentos, a probabilidade de admissão de
mulheres era praticamente a mesma que a de homens, e em alguns até mais alta para mulheres
do que para homens. Este é um paradigma do paradoxo de Simpson. Bickel, Hammel e
O'Connell explicaram a paradoxal inversão de associações ao apontar que as mulheres tendiam
a se candidatar a departamentos com altas taxas de rejeição, de modo que departamento por
departamento as mulheres eram admitidas nas mesmas proporções que os homens; mas em
toda a universidade são admitidas consideravelmente menos mulheres, proporcionalmente.
Esta análise parece exonerar Berkeley da acusação de discriminação. Mas apenas por causa
da escolha da variável de particionamento. Se, ao contrário, os autores apontaram que as
associações se inverteram quando o final p.37

os candidatos foram divididos de acordo com sua habilidade de patinação que não contaria
como defesa.22 Por que isso acontece?
A diferença entre as duas situações está em nosso conhecimento causal antecedente.
Sabemos que se candidatar a um departamento popular (um com consideravelmente mais
candidatos do que vagas) é exatamente o tipo de coisa que causa rejeição. Mas sem muito
mais detalhes, não estamos preparados para aceitar o princípio de que ser um bom patinador
faz com que uma pessoa seja rejeitada pela escola de pós-graduação de Berkeley, e fazemos
outros julgamentos causais de acordo. Se o aumento da probabilidade de rejeição entre as mulheres
Machine Translated by Google

desaparece quando se mantém fixa uma variável causal, abandona-se a hipótese de


discriminação nas internações; mas não se desaparece apenas quando alguma variável
causalmente irrelevante é mantida fixa.
O exemplo de Berkeley ilustra o ponto geral: apenas partições por variáveis causalmente relevantes
contam na avaliação de leis causais. Se as mudanças na probabilidade sob partições causalmente
irrelevantes fossem importantes, quase qualquer lei causal verdadeira poderia ser derrotada ao
encontrar, em algum lugar, alguma terceira variável que se correlacionasse da maneira correta para
reverter a associação necessária entre causa e efeito.

2.2. Contas alternativas que empregam 'verdadeiras


probabilidades' ou contrafactuais

Pode-se objetar: uma vez que todos os fatores causalmente relevantes tenham sido fixados, não
há mal algum em uma partição mais fina por fatores causalmente irrelevantes. Ao contrário do que
é afirmado nas observações sobre patinação e taxas de admissão, mais partições não alterarão as
probabilidades. Há uma diferença entre probabilidades verdadeiras e frequências relativas observadas.
Admitidamente, é provável que sempre se possa encontrar alguma terceira variável irrelevante que,
com base em estimativas de dados finitos, parece estar correlacionada tanto com a causa quanto
com o efeito exatamente da maneira exigida pelo paradoxo de Simpson. Mas estamos preocupados
aqui não com frequências finitas, ou estimativas a partir delas, mas sim com probabilidades
verdadeiras. Você interpreta mal as verdadeiras probabilidades dos dados finitos e pensa que existem
correlações onde elas não existem. fim p.38

Para que essa objeção tenha sucesso, é necessária uma explicação da ideia de uma probabilidade
verdadeira, e essa explicação deve tornar plausível a afirmação de que partições por fatores pré-
analiticamente considerados não causais não resultam em probabilidades diferentes. Não é suficiente
insistir no ponto geral de que a melhor estimativa muitas vezes difere da verdadeira probabilidade;
deve haver, além disso, razão para pensar que isso está acontecendo em todos os casos em que
partições muito finas parecem gerar hipóteses causais implausíveis. Esta não é uma tarefa fácil, pois
muitas vezes as correlações que se gostaria de classificar como 'falsas' são empiricamente
indistinguíveis de outras que deveriam ser classificadas como 'verdadeiras'. As correlações enganosas,
ou "falsas", às vezes passam por testes estatísticos de qualquer grau de rigor que estamos dispostos
a aceitar como um requisito geral para inferir probabilidades de dados finitos. Muitas vezes, por
exemplo, serão estáveis ao longo do tempo e em amostras selecionadas aleatoriamente.

Insistir que essas frequências estáveis não são verdadeiras probabilidades é entregar muito do
programa empirista. No original, este programa fazia duas suposições.
Primeiro, afirmações sobre probabilidades são fundamentadas apenas em frequências
estáveis. Existem problemas notórios sobre conjuntos finitos versus conjuntos infinitos, mas
pelo menos isso é certo: o que as probabilidades obtêm não depende de forma alguma, seja
epistemologicamente ou metafisicamente, de quais suposições causais são feitas. Em segundo lugar, as alegações causais p
Machine Translated by Google

reduzidos completamente a afirmações probabilísticas, embora outros fatos empíricos


possam ser necessários para garantir as assimetrias necessárias.
Ataco apenas a segunda dessas duas suposições. O conhecimento causal prévio é necessário
junto com as probabilidades para inferir novas leis causais. Mas não vejo razão aqui para desistir
do primeiro, e acho que seria um erro fazê-lo. As probabilidades atendem a muitas outras
preocupações além do raciocínio causal e é melhor manter as duas o mais separadas possível.
Em sua Gramática da Ciência, Karl Pearson ensinou que as probabilidades deveriam ser livres de
teoria, e eu concordo. Se, no entanto, se deseja misturar causalidade e probabilidade desde o
início, pelo menos os argumentos que venho apresentando aqui mostram algumas das restrições
que essas "verdadeiras probabilidades" devem atender.
Observações semelhantes se aplicam a análises contrafactuais. Uma
extremidade p.39

O tipo popular de análise contrafactual diria que !S é uma


23
estratégia eficaz para G em L sse Prob(S ÿÿ G/ L) > Prob(ÿ S ÿÿ G/ L)
A abordagem contrafactual e de direito causal concordará, somente se
A: Prob(ÿ ÿÿ G/ X) = Prob(G/ ÿ.K x )

onde K é a descrição causal máxima (exceto ÿ) consistente com X. Assumindo que os


x
argumentos aqui estão corretos, a condição A fornece um critério de adequação para qualquer
semântica satisfatória de contrafactuais e probabilidades.

4. Como alguns mundos não poderiam ser Hume Worlds24

O crítico das leis causais perguntará: que diferença elas fazem? Uma maneira sucinta de
colocar essa questão é considerar para cada mundo seu mundo Hume correspondente - um
mundo exatamente como o primeiro em suas leis de associação, suas relações temporais e até
mesmo nas seqüências de eventos que ocorrem nele. Como o mundo que também tem leis
causais difere do mundo Hume correspondente? Já argumentei que os dois mundos seriam
diferentes no que diz respeito às estratégias.
Aqui eu quero insistir em um ponto menor, mas que pode passar despercebido: nem todos os
mundos podem ser transformados em mundos Hume eliminando suas leis causais. Dada a
condição anterior relacionando leis causais e leis de associação, muitos mundos não têm mundos
Hume relacionados. De fato, nenhum mundo cujas leis de associação forneçam quaisquer
correlações poderia ser transformado em um mundo Hume. A demonstração é trivial. Suponha que
um determinado mundo não tenha leis causais para um tipo particular de fenômeno E. A condição
anterior nos diz para testar as causas de E procurando fatores que aumentam a probabilidade de E
em subpopulações causalmente homogêneas máximas. Mas no mundo Hume não há causas, então
toda subpopulação é homogênea em todos os fatores causais, e a população homogênea máxima
é toda a população. Então, se houver algum C tal que Prob(E/C) > Prob(E), será verdade que C
causa E, e este mundo não será um mundo Hume afinal.
Machine Translated by Google

Aparentemente, as leis de associação subdeterminam as leis causais. É fácil construir exemplos nos
quais existem duas propriedades, P e Q, que podem ser usadas para particionar uma população.
Sob a partição em P e ÿ P, C aumenta a probabilidade condicional de E em ambas as subpopulações;
mas sob a partição em Q e ÿ Q, Prob(E/C) = Prob(E).
Assim, em relação à suposição de que P causa E, mas Q não, 'C causa E' é verdade. É falso em
relação à suposição de que Q E e P E. Isso sugere que, para um determinado conjunto de leis de
associação, qualquer conjunto de leis causais servirá. Uma vez que algumas leis causais tenham
sido estabelecidas, outras automaticamente seguirão, mas qualquer ponto de partida é tão bom quanto qualquer outro.
Esta sugestão está equivocada. Às vezes, as leis causais são subdeterminadas pelas leis de
associação, mas nem sempre. Algumas leis de associação são compatíveis com apenas um conjunto
de leis causais. Em geral, as leis de associação não implicam em leis causais: mas em casos
particulares podem. Aqui está um exemplo.
Considere um mundo cujas leis de associação cobrem três propriedades, A, B e C; e assumir
que o seguinte está implícito nas leis de associação:

(1) Prob(C/A) > Prob(C)


(2) Prob(C/B & A > Prob(C/ A); Prob(C/B & ÿ A) > Prob(C/ ÿA)
(3) Prob(C/B) = Prob(C)

Neste mundo, B C. As probabilidades podem, por exemplo, ser aquelas dadas no Quadro 1. Apenas
a partir dos fatos probabilísticos (1), (2) e (3), é possível inferir que A e B são causalmente relevantes
para C. Assuma B ±C. Então, por (1), A C, uma vez que toda a população é causalmente homogênea
(exceto A) em relação a C e, portanto, conta como uma população de teste para os efeitos de A em
C. Mas se end p.41

Gráfico 1
Machine Translated by Google

A C, então por (2), B ±C. Portanto B ± C. Mas de (3) isso não é possível a menos que A também
seja relevante, positiva ou negativamente, para C. No exemplo particular ilustrado no gráfico, A
e B são ambos positivamente relevantes para C.
Este tipo de exemplo pode fornecer consolo para o Humeano. Muitas vezes, os humanos
rejeitam as leis causais porque não têm acesso independente a elas. Eles se supõem capazes de
determinar as leis de associação, mas imaginam que nunca têm a informação causal inicial para
começar a aplicar a condição C. Se tiverem sorte, esse conhecimento inicial pode não ser
necessário. Talvez eles vivam em um mundo que não seja um mundo Hume; pode, no entanto,
ser um mundo onde as leis causais podem ser inferidas apenas a partir de leis de associação.

4. Conclusão

A quantidade Prob(E/ CK j ), que aparece tanto na condição causal da Parte 1 quanto na medida
de eficácia da Parte 2, é chamada pelos estatísticos de probabilidade condicional parcial de E
sobre C, mantendo K j fixo; e é usado de maneira
forma semelhante
a base final p.42 às maneiras que usei aqui. Ele

para análises de regressão de causalidade e é aplicado tanto por Suppes quanto por Salmon
para tratar o problema dos efeitos conjuntos. Na teoria da decisão, a fórmula SC é estruturalmente
idêntica à proposta por Brian Skyrms em sua hábil solução para o paradoxo de New-comb; e
25
elaborou ainda mais em seu livro Causal Necessity. O que é especialmente significativo sobre a
probabilidades condicionais parciais que aparecem aqui é o fato de que estas mantêm fixos
todos e apenas os fatores causais.
A escolha da partição, {K j }, é a característica crítica da medida de efetividade proposta
em SC. Isso é (a) o que faz a fórmula funcionar nos casos em que a probabilidade condicional
simples falha; e (b) o que torna necessário admitir leis causais se você deseja separar as
estratégias boas das ruins. A maneira como você particiona é crucial. Em geral, você obtém
resultados diferentes do SC se particionar de maneiras diferentes. Considere duas partições
diferentes para o mesmo espaço, KK . . , como
1 , .outras - ase eu
n Kasi são . . . que
I j1 ), mutuamente
tais eu s ,
que disjuntas e exaustivas,
cross-grain cada assim
j . Então é fácil
produzir uma medida sobre o campo (±G, ±C, ±K eu , ±I

Qual partição é empregada é, portanto, essencial para que uma estratégia pareça eficaz ou não.
A partição correta – aquela que julga as estratégias eficazes ou ineficazes de acordo com o que
é objetivamente verdadeiro – é determinada pelo que são as leis causais. Partições por outros
fatores darão outros resultados; e, se você não admite leis causais, não existe um procedimento
geral para escolher os fatores corretos. A objetividade das estratégias requer a objetividade das
leis causais.
Machine Translated by Google

fim p.43

Ensaio 2 A verdade não explica muito


Nancy Cartwright

0. Introdução

As teorias científicas devem nos dizer o que é verdadeiro na natureza e como devemos explicá-lo.
Argumentarei que essas são funções inteiramente diferentes e devem ser mantidas distintas. Geralmente os
dois são combinados. O segundo é comumente visto como um subproduto do primeiro.
Acredita-se que as teorias científicas explicam por meio das descrições que dão da realidade.
Uma vez que o trabalho de descrever é feito, a ciência pode encerrar. Isso é tudo o que há para fazer.
Descrever a natureza — dizer suas leis, os valores de suas constantes fundamentais, suas distribuições
de massa — é ipso facto estabelecer como devemos explicá-la.
Isso é um erro, devo argumentar; um erro que é fomentado pelo modelo de explicação da lei de cobertura.
O modelo da lei de cobertura supõe que tudo o que precisamos saber são as leis da natureza – e um pouco
de lógica, talvez um pouco de teoria da probabilidade – e então sabemos quais fatores podem explicar
quais outros. Por exemplo, na versão nomológica-dedutiva mais simples,1 o modelo da lei de cobertura diz
que um fator explica outro apenas caso a ocorrência do segundo possa ser deduzida da ocorrência do
primeiro dadas as leis da natureza.

Mas o modelo DN é apenas um exemplo. No sentido que é relevante para minhas alegações aqui, a maioria
dos modelos de explicação oferecidos recentemente na filosofia da ciência cobrem modelos de direito.
Isso inclui não apenas o próprio modelo estatístico indutivo de Hempel,2 mas também o modelo
probabilístico de causação de Patrick Suppes,3 o modelo de relevância estatística de Wesley Salmon,4

fim p.44

e até mesmo o modelo contextualista de Bengt Hanson.5 Todos esses relatos se baseiam nas leis da
natureza, e apenas nas leis da natureza, para escolher quais fatores podemos usar na explicação.
Muitas críticas foram dirigidas aos modelos originais de leis de cobertura de Hempel. Grande parte das
críticas objeta que esses modelos deixam entrar demais. Pelo relato de Hempel, parece que podemos explicar
o fracasso de Henry em engravidar tomando pílulas anticoncepcionais, e podemos explicar a tempestade pela
queda do barômetro. Minha objeção é exatamente o oposto.
Modelos de lei de cobertura deixam entrar muito pouco. Com um modelo de lei de cobertura, não podemos
explicar quase nada, mesmo as coisas das quais mais nos orgulhamos - como o papel do DNA na herança
de características genéticas ou a formação de arco-íris quando a luz do sol é refratada por gotas de chuva.
Não podemos explicar esses fenômenos com um modelo de lei de cobertura, argumentarei, porque não
temos leis que os cubram. As leis de cobertura são
escasso.
Muitos fenômenos que têm explicações científicas perfeitamente boas não são cobertos por nenhuma lei.
Sem leis verdadeiras, isso é. Eles são, na melhor das hipóteses, cobertos por ceteris paribus
Machine Translated by Google

generalizações — generalizações que se sustentam apenas sob condições especiais,


geralmente condições ideais. A tradução literal é 'outras coisas sendo iguais'; mas seria mais
adequado ler 'ceteris paribus' como 'outras coisas estando certas'. Às vezes agimos como se
isso não importasse. Temos no fundo de nossas mentes uma imagem 'substituta' das leis
ceteris paribus : as leis ceteris paribus são leis reais; eles podem atuar quando as leis que
gostaríamos de ver não estão disponíveis e podem desempenhar todas as mesmas funções, só
que não tão bem. Mas isso não vai funcionar. Ceteris paribus
generalizações, lidas literalmente sem o modificador 'ceteris paribus' , são falsas. Eles não são
apenas falsos, mas considerados falsos por nós; e não há base no quadro da lei de cobertura
para que leis falsas expliquem qualquer coisa. Por outro lado, com o modificador, as
generalizações ceteris paribus podem ser verdadeiras, mas cobrem apenas aqueles poucos
casos em que as condições estão corretas. Na maioria dos casos, ou temos uma lei que pretende
cobrir, mas não pode explicar porque é reconhecida como falsa, ou temos uma lei que não
cobre. De qualquer forma, é ruim para a imagem da lei de cobertura.

1. Outras Leis

Quando comecei a falar sobre a escassez de leis de cobertura, tentei resumir minha visão
dizendo 'Não há generalizações sem exceção'. Então um amigo perguntou: 'Que tal 'Todos os
homens são mortais'?' Ela estava certa. Eu estava me concentrando demais nas equações da
física. Uma afirmação mais plausível seria que não existem leis quantitativas sem exceções
na física. Na verdade, não apenas não existem leis sem exceções, mas, de fato, nossos
melhores candidatos são conhecidos por falhar. Isso é algo como a tese popperiana de que
toda teoria nasce refutada. Todas as teorias que propusemos na física, mesmo na época em
que estavam mais firmemente enraizadas, eram conhecidas por serem deficientes em aspectos
específicos e detalhados. Acho que isso também é verdade para todas as leis quantitativas
precisas dentro de uma teoria da física.
Mas este não é o ponto que eu queria fazer. Algumas leis são tratadas, pelo menos por enquanto,
como se não tivessem exceções, enquanto outras não, embora permaneçam 'nos livros'. A lei
de Snell (sobre o ângulo de incidência e o ângulo de refração de um raio de luz) é um bom
exemplo deste último tipo. No texto de óptica que uso como referência (Miles V. Klein, Optics),6
ele aparece pela primeira vez na página 21, e sem ressalvas: Lei de Snell: Em uma interface
entre meios dielétricos, há (também) um raio refratado no segundo médio, deitado no plano de
incidência, fazendo um ângulo ÿ obedecendo a lei de Snell: t com o normal e

onde ÿ 1 e ÿ 2 são as velocidades de propagação nos dois meios, e n 1 = (c/ÿ 1 ), n 2


= (c/ÿ 2 ) são os índices de refração. fim
p.46

É apenas cerca de 500 páginas depois, quando a lei é derivada da 'teoria eletromagnética
total da luz', que aprendemos que a lei de Snell, conforme declarada na página 21, é verdadeira
apenas para meios cujas propriedades ópticas são isotrópicas. (Em meios anisotrópicos, 'geralmente haverá dois
Machine Translated by Google

ondas transmitidas' ) . raio refratado no segundo meio, situado no plano de incidência,


fazendo um ângulo ÿ

t com o normal, tal que:

A lei de Snell da página 21 do livro de Klein é um exemplo de uma lei ceteris paribus ,
uma lei que vale apenas em circunstâncias especiais – neste caso, quando a mídia é isotrópica.
A declaração de Klein na página 21 claramente não deve ser interpretada literalmente.
Caridosamente, estamos inclinados a colocar o modificador 'ceteris paribus' na frente
para protegê-lo. Mas o que esse modificador ceteris paribus faz? De olho nas versões
estatísticas do modelo de lei de cobertura (a imagem IS de Hempel, ou o modelo de relevância
estatística de Salmon, ou o modelo probabilístico de causação de Suppes), podemos supor
que a lei de Snell não refinada não pretende ser uma lei universal, como literalmente afirmado,
mas sim algum tipo de lei estatística. O candidato óbvio é uma lei estatística grosseira: na
maior parte, em uma interface entreMas
meios
issodielétricos há um raio
não vai funcionar. refratado.
Para . . dos
a maioria
meios são opticamente anisotrópicos, e em um meio anisotrópico existem dois raios. Acho
que não há alternativas mais satisfatórias. Se as leis ceteris paribus devem ser leis verdadeiras, não há estatísticas
leis com as quais geralmente podem ser identificados.

2. Quando as leis são escassas

Por que mantemos a lei de Snell nos livros quando ambos sabemos que ela é falsa e
temos um refinamento mais preciso disponível? Há razões pedagógicas óbvias. Mas
existem científicos sérios? Acho que existem, e esses terminam p.47

razões têm a ver com a tarefa de explicar. Especificar quais fatores são explicativamente
relevantes para quais outros é um trabalho feito pela ciência além do trabalho de estabelecer
as leis da natureza. Uma vez que as leis da natureza são conhecidas, ainda temos que
decidir que tipos de fatores podem ser citados na explicação.
Uma coisa que as leis ceteris paribus fazem é expressar nossos compromissos
explicativos. Eles dizem que tipos de explicações são permitidas. Sabemos pela lei de
Snell refinada que em qualquer meio isotrópico, o ângulo de refração pode ser explicado
pelo ângulo de incidência, de acordo com a equação Paraÿ deixar
2/ 1ÿ/sen
t n = nsen . lei nosolivros
Snell énão refinado
sinalizar
que o mesmo tipo de explicação pode ser dado mesmo para alguns meios anisotrópicos.
O padrão de explicação derivado da situação ideal é empregado mesmo quando as
condições não são ideais; e assumimos que podemos entender o que acontece em meios
quase isotrópicos ensaiando como os raios de luz se comportam em casos isotrópicos
puros.
Machine Translated by Google

Essa suposição é delicada. Ele se encaixa muito melhor com a explicação do simulacro da
explicação que vou insistir no Ensaio 8 do que com qualquer modelo de lei de cobertura. No momento,
pretendo apenas salientar que é uma suposição, e uma suposição que (antes da "teoria eletromagnética
completa") vai muito além de nosso conhecimento dos fatos da natureza. Sabemos que em meios
isotrópicos, o ângulo de refração é devido ao ângulo de incidência sob a equação sen ÿ/sen ÿ 1 .
n = n 2/ t em
Decidimos explicar os ângulos dos dois raios refratados meios anisotrópicos
Podemos da para
ter boas razões mesma maneira.
a decisão;
neste caso, se os meios são quase isotrópicos, os dois raios estarão muito próximos e próximos do
ângulo previsto pela lei de Snell; ou acreditamos na continuidade dos processos físicos. Mas ainda assim
esta decisão não é forçada pelo nosso conhecimento das leis da natureza.

Obviamente esta decisão não poderia ser tomada se também tivéssemos nos livros um
segundo refinamento da lei de Snell, implicando que em qualquer meio anisotrópico os ângulos são
bem diferentes daqueles dados pela lei de Snell. Mas as leis são escassas e muitas vezes não temos
nenhuma lei sobre o que acontece em condições que não são ideais. fim p.48

Os teóricos da lei de cobertura contarão uma história diferente sobre o uso das leis ceteris paribus na
explicação. Do ponto de vista deles, as explicações ceteris paribus são elípticas para explicações
genuínas de leis de cobertura a partir de leis verdadeiras que ainda não conhecemos. Quando usamos
uma "lei" ceteris paribus que sabemos ser falsa, o teórico da lei de cobertura supõe que estamos fazendo
uma aposta sobre a forma que a lei verdadeira assume. Por exemplo, manter a lei não qualificada de Snell
seria apostar que a lei (na época desconhecida) para meios anisotrópicos acarretará valores 'próximos o
suficiente' para aqueles derivados da lei de Snell original.
Tenho duas dificuldades com essa história. A primeira surge de uma possibilidade metafísica
extrema, na qual de fato acredito. Os teóricos da lei de cobertura tendem a pensar que a natureza é
bem regulada; no extremo, que existe uma lei para todos os casos. Eu não. Imagino que os objetos
naturais sejam muito parecidos com as pessoas nas sociedades. Seu comportamento é limitado por
algumas leis específicas e por um punhado de princípios gerais, mas não é determinado em detalhes,
nem mesmo estatisticamente. O que acontece na maioria das vezes não é ditado por nenhuma lei.
Esta não é uma imagem metafísica que eu recomendo. Minha alegação é que essa imagem é tão plausível
quanto a alternativa. Deus pode ter escrito apenas algumas leis e se cansado. Não sabemos se estamos
em um universo arrumado ou desordenado. Qualquer que seja o universo em que estejamos, a atividade
comum e comum de dar explicações deve fazer sentido.
A segunda dificuldade para a versão de reticências da conta da lei de cobertura é mais pedestre.
Explicações elípticas não são explicações: elas são, na melhor das hipóteses, garantias de que
explicações devem ser obtidas. A lei que deveria aparecer na explicação completa e correta do DN não
é uma lei que temos em nossa teoria, não uma lei que podemos afirmar, muito menos testar. Pode haver
explicações sobre a lei de cobertura nesses casos. Mas essas explicações não são nossas explicações;
e essas leis desconhecidas não podem ser nossos fundamentos para dizer de um meio quase isotrópico,
'sen ÿ t ÿk(n 2 /n 1 ) porque sen ÿ = k'.
Quais são então os nossos fundamentos? Afirmo apenas o que não são: não são as leis da
natureza. As leis da natureza que conhecemos a qualquer momento não são suficientes para nos dizer
que tipos de explicações podem ser dadas naquele momento. Isso requer fim p.49
Machine Translated by Google

uma decisão; e é exatamente essa decisão que os teóricos da lei de cobertura tomam
quando apostam na existência de leis desconhecidas. Podemos acreditar nessas leis
desconhecidas, mas não o fazemos em bases comuns: elas não foram testadas, nem são
derivadas de uma teoria de nível superior. Nossas razões para acreditar neles são tão
boas quanto nossas razões para adotar a estratégia explicativa correspondente, e não melhor.

3. Quando as leis entram em conflito

Tenho mantido que não há leis de cobertura suficientes para todos. Por quê? A
visão depende da imagem da ciência que mencionei anteriormente. A ciência é
dividida em vários domínios distintos: hidrodinâmica, genética, teoria do laser, . . .
Temos muitas teorias detalhadas e sofisticadas sobre o que acontece dentro dos
vários domínios. Mas temos pouca teoria sobre o que acontece na interseção de domínios.
Diagramaticamente, temos leis como


e

Por exemplo, (ceteris paribus) adicionar sal à água diminui o tempo de


cozimento das batatas; levar a água para altitudes mais elevadas aumenta-a.
Refinando, se falarmos com mais cuidado, poderíamos dizer: 'Adicionar sal à
água mantendo a altitude constante diminui o tempo de cozimento; que aumentar
a altitude mantendo fixo o teor de salina aumenta-a»; ou


e

Mas nenhum deles diz o que acontece quando adicionamos sal à água e nos movemos
para altitudes mais altas.
Aqui pensamos que provavelmente há uma resposta precisa sobre o que aconteceria,
embora não faça parte de nossa sabedoria popular comum. Mas isso nem sempre é o
caso. Discuto isso em detalhes no próximo ensaio. A maioria dos casos da vida real envolve
alguma combinação de causas; e as leis gerais que descrevem o que acontece nesses
casos complexos nem sempre estão disponíveis. Embora tanto a teoria quântica quanto a
relatividade sejam altamente desenvolvidas, detalhadas e sofisticadas, não existe uma teoria
satisfatória da mecânica quântica relativística. Um exemplo mais detalhado da teoria dos
transportes é dado no próximo ensaio. A lição geral é esta: onde as teorias se cruzam, as leis geralmente são difíc
Machine Translated by Google

4. Quando as explicações podem ser dadas de qualquer maneira

Até agora, argumentei apenas metade do caso. Argumentei que as leis de cobertura são
escassas e que as leis ceteris paribus não são leis verdadeiras. Resta argumentar que, no
entanto, as leis ceteris paribus têm um papel explicativo fundamental. Mas isso é fácil, pois a
maioria de nossas explicações são explicações das leis ceteris paribus .
Deixe-me ilustrar com um exemplo monótono. No ano passado plantei camélias no meu jardim.
Eu sei que as camélias gostam de solo rico, então plantei-as em estrume compostado. Por
outro lado, o estrume ainda estava quente, e também sei que as raízes da camélia não aguentam
altas temperaturas. Então eu não sabia o que esperar. Mas quando muitas das minhas camélias
morreram, apesar do cuidado perfeito, eu sabia o que deu errado. As camélias morreram porque
foram plantadas em solo quente.
Esta é certamente a explicação certa a dar. É claro que não posso ter certeza absoluta de que
essa explicação seja a correta. Algum outro fator pode ter sido o responsável, deficiência de
nitrogênio ou algum defeito genético nas plantas, fator que eu não percebi, ou talvez nem
soubesse ser relevante. Mas essa incerteza não é peculiar aos casos de explicação. É apenas
a incerteza que cerca todos os nossos julgamentos sobre questões de fato. Devemos permitir
a supervisão; ainda assim, desde que fiz um esforço razoável para eliminar outras ameaças às
minhas camélias, podemos ter alguma confiança de que esta é a explicação correta. fim p.51

Então temos uma explicação para a morte das minhas camélias. Mas não é uma explicação
de nenhuma lei de cobertura verdadeira. Não há lei que diga que camélias como a minha,
plantadas em solo quente e rico, morram. Ao contrário, nem todos morrem. Alguns prosperam;
e provavelmente os que o fazem, o fazem por causa da riqueza do solo em que são plantados.
Podemos insistir que deve haver algum fator diferenciador que coloca o caso sob uma lei de
cobertura: em solo rico e quente, camélias de um tipo morrer; os de outro prosperam. Não vou
negar que pode haver tal lei de cobertura. Apenas repito que nossa capacidade de dar essa
explicação monótona precede nosso conhecimento dessa lei. No Dia do Juízo, quando todas as
leis são conhecidas, elas podem ser suficientes para explicar todos os fenômenos. Mas
enquanto isso damos explicações; e é tarefa da ciência nos dizer que tipos de explicações são
admissíveis.
Na verdade, quero insistir em uma tese mais forte. Se, como é possível, o mundo
não é um sistema determinista organizado, essa tarefa de dizer como devemos explicar será
uma tarefa que ainda resta quando a tarefa descritiva da ciência estiver completa. Imagine, por
exemplo (o que eu suponho ser realmente o caso) que os fatos sobre as camélias são irredutivelmente estatísticos.
Então é possível conhecer todos os fatos nomológicos gerais sobre as camélias que há para
conhecer - por exemplo, que 62 por cento de todas as camélias, exatamente nas circunstâncias
de minhas camélias, morrem e 38 por cento sobrevivem . sei explicar o que aconteceu no meu
jardim. Você ainda teria que olhar para o Sunset Garden
Machine Translated by Google

Livro para aprender que o calor do solo explica o perecimento, e a riqueza explica as plantas que
prosperam.

5. Conclusão

A maioria das explicações científicas usa as leis ceteris paribus . Essas leis, lidas
literalmente como declarações descritivas, são falsas, não apenas falsas, mas consideradas
falsas mesmo no contexto de uso. Este fim p.52

não é surpresa: queremos leis que unifiquem; mas o que acontece pode muito bem ser variado e diverso.
Temos sorte de podermos organizar fenômenos. Não há razão para pensar que os princípios que
melhor organizam serão verdadeiros, nem que os princípios verdadeiros organizarão muito. fim p.53

Ensaio 3 As leis da física declaram os fatos?


Nancy Cartwright

0. Introdução

Há uma visão sobre as leis da natureza que está tão profundamente arraigada que nem sequer
tem um nome próprio. É a visão de que as leis da natureza descrevem fatos sobre a realidade. Se
pensarmos que os fatos descritos por uma lei são válidos, ou pelo menos que os fatos que são
obtidos são suficientemente semelhantes aos descritos na lei, consideramos a lei verdadeira, ou
verdadeira por acaso, até que outros fatos sejam descobertos. Proponho chamar essa doutrina de visão de facticidade das
(O nome é devido a John Perry.)
É costume tomar as leis explicativas fundamentais da física como o ideal.
As equações de Maxwell, ou de Schroedinger, ou as equações da relatividade geral, são
paradigmas, paradigmas sobre os quais todas as outras leis — leis da química, biologia,
termodinâmica ou física de partículas — devem ser modeladas. Mas essa suposição contradiz a
visão facticidade das leis. Pois as leis fundamentais da física não descrevem fatos verdadeiros
sobre a realidade. Traduzidas como descrições de fatos, elas são falsas; corrigidas para serem
verdadeiras, elas perdem sua força explicativa fundamental.
Para entender essa afirmação, será útil contrastar a biologia com a física. JJC Smart
argumenta que a biologia não tem leis próprias genuínas.1 Ela se assemelha à engenharia.
Qualquer afirmação geral sobre um sistema complexo, como um rádio ou um organismo vivo,
provavelmente terá exceções. As generalizações da biologia, ou as regras práticas da engenharia,
não são leis verdadeiras porque não são isentas de exceções. Muitos (embora não o próprio Smart)
entendem que isso significa que a biologia é uma ciência de segunda categoria. Se este é um bom raciocínio, deve ser
Machine Translated by Google

física que é a ciência de segunda categoria. Não apenas as leis da física têm exceções; ao contrário
das leis biológicas, elas não são nem mesmo verdadeiras em sua maior parte, ou aproximadamente
verdadeiras. fim p.54

A visão das leis com a qual começo — "As leis da natureza descrevem fatos sobre a realidade" — é
uma visão banal que, imagino, qualquer realista científico sustentará. Supõe que as leis da natureza
dizem como os objetos de vários tipos se comportam: como eles se comportam algumas vezes, ou o
tempo todo, ou mesmo (se quisermos prefixar um operador de necessidade) como eles devem se comportar.
O que é crítico é que eles falam sobre objetos – coisas reais e concretas que existem aqui em nosso
mundo material, coisas como quarks, camundongos ou genes; e eles nos dizem o que esses objetos
fazem.
As leis biológicas fornecem bons exemplos. Por exemplo, aqui está uma generalização tirada de um
texto de Stanford sobre cordados: Os gimnotóides [peixes faca americanos] são peixes esbeltos com
barbatanas anais enormemente longas, que sugerem a lâmina de uma faca cuja cabeça é um cabo.
Eles costumam nadar lentamente com o corpo reto ondulando essa barbatana. Eles [presumivelmente
'sempre' ou 'na maior parte'] são encontrados na América Central e do Sul. Ao contrário dos
caracídeos eles ['geralmente'?] escondem-se durante .o. dia
ou sob as margens
até mesmo dos riosna
se enterram ouareia,
entreemergindo
raízes,
apenas à noite.2

As leis fundamentais da física, ao contrário, não dizem o que os objetos em seu domínio fazem. Se
tentarmos pensá-los dessa maneira, eles são simplesmente falsos, não apenas falsos, mas
considerados falsos pela própria teoria que os sustenta. Mas se as leis explicativas básicas da física
não descrevem como as coisas se comportam, o que elas fazem? Uma vez que abandonamos a
facticidade, não sei o que dizer. Richard Feynman, em The Character of Physical Law, oferece uma
. . . eque
ideia, uma metáfora. Feynman nos diz 'Existe um ritmo umnão
padrão
são entre
aparentes
os fenômenos
aos olhos,da
mas
natureza
apenas
aos olhos da análise; e são esses ritmos e padrões que chamamos de Leis Físicas. . .
'3
A maioria dos
filósofos vai querer saber muito mais sobre como esses ritmos e padrões funcionam. Mas pelo
menos Feynman não afirma que as leis que ele estuda descrevem os fatos.
Digo que as leis da física não fornecem descrições verdadeiras da realidade. Isso soa como uma
doutrina antirrealista. De fato, é, mas descrever a afirmação dessa maneira pode ser enganoso. Pois
as visões antirrealistas na filosofia da ciência são tradicionalmente de dois tipos. Bas van Fraassen4
é um defensor moderno de uma dessas versões de anti-realismo; Hilary Putnam5 do outro. Van
Fraassen é um instrumentista sofisticado. Ele se preocupa com a existência de entidades
inobserváveis, ou melhor, com a solidez de nossos fundamentos para acreditar nelas; e ele se
preocupa com as evidências que supostamente sustentam nossas afirmações teóricas sobre como
essas entidades se comportam. Mas não tenho problemas com entidades teóricas; e no momento não
estou preocupado em como sabemos o que eles fazem. O que me incomoda aqui é que nossas leis
explicativas não nos dizem o que fazem. Na verdade, faz parte de seu papel explicativo não contar.

Hilary Putnam em sua versão do realismo interno também sustenta que as leis da física não
representam fatos sobre a realidade. Mas isso ocorre porque nada – nem mesmo a afirmação mais
comum sobre os biscoitos que estão queimando no forno – representa fatos sobre a realidade. Se
alguma coisa acontecesse, Putnam provavelmente pensaria que as equações básicas da física
moderna funcionavam melhor. Esta é a afirmação que rejeito. Acho que podemos permitir que todos os tipos
Machine Translated by Google

de declarações representam fatos da natureza, incluindo as generalizações que se aprende em


biologia ou engenharia. São apenas as leis explicativas fundamentais que não representam verdadeiramente.
Putnam está preocupado com o significado e a referência e como estamos presos no círculo
das palavras. Estou preocupado com a verdade e a explicação, e como uma exclui a outra.

1. Explicação por Composição de Causas e Trade-Off


de Verdade e Poder Explicativo

Deixe-me começar com uma lei da física que todos conhecem – a lei da gravitação universal.
Esta é a lei que Feynman final
p.56

usos para ilustração; ele endossa a visão de que esta lei é 'a maior generalização alcançada
pela mente humana'.6

Em palavras, Feynman nos


diz: A Lei da Gravitação é que dois corpos exercem uma força entre si que varia inversamente
com o quadrado da distância entre eles e varia diretamente com o produto de suas massas.7

Essa lei realmente descreve como os corpos se comportam?

Com certeza não. O próprio Feynman dá uma razão. 'A eletricidade também exerce forças
'8 Não é verdade que
inversamente ao quadrado da distância, desta vez entre cargas. . . para quaisquer dois
corpos, a força entre eles é dada pela lei da gravitação. Alguns corpos são corpos carregados
2 . Ao contrário, é algum
e a força entre eles não é Gmmÿ/r
resultante dessa força com a força elétrica à qual Feynman se refere.
Para corpos que são massivos e carregados, a lei da gravitação universal e a lei de Coulomb
(a lei que dá a força entre duas cargas) interagem para determinar a força final. Mas nenhuma
lei por si só descreve verdadeiramente como os corpos se comportam. Nenhum objeto
carregado se comportará exatamente como diz a lei da gravitação universal; e quaisquer objetos
massivos constituirão um contra-exemplo à lei de Coulomb. Essas duas leis não são verdadeiras;
pior, elas não são nem aproximadamente verdadeiras. Na interação entre os elétrons e os prótons
de um átomo, por exemplo, o efeito Coulomb inunda o gravitacional, e a força que realmente
ocorre é muito diferente daquela descrita pela lei da gravidade.

Há uma réplica óbvia: não dei uma declaração completa dessas duas leis, apenas uma versão
abreviada. A versão Feynman tem um modificador ceteris paribus implícito
Machine Translated by Google

na frente, que eu suprimi. Falando com mais cuidado, a lei da gravitação universal é algo
assim: end p.57

Se não houver outras forças além das gravitacionais em ação, então dois corpos exercem entre si
uma força que varia inversamente com o quadrado da distância entre eles e varia diretamente com
o produto de suas massas.
Permitirei que esta lei seja uma lei verdadeira, ou pelo menos uma lei que se mantenha
verdadeira dentro de uma dada teoria. Mas não é uma lei muito útil. Uma das principais funções
da lei da gravidade é ajudar a explicar as forças que os objetos experimentam em várias circunstâncias complexas. Isto
a lei pode explicar apenas em circunstâncias muito simples, ou ideais. Pode explicar por que a
força é como é quando apenas a gravidade está em ação; mas não ajuda em casos em que tanto
a gravidade quanto a eletricidade são importantes. Uma vez que o modificador ceteris paribus foi
anexado, a lei da gravidade é irrelevante para as situações mais complexas e interessantes.
Essa característica infeliz é característica das leis explicativas. Eu disse que as leis
fundamentais da física não representam os fatos, enquanto as leis biológicas e os princípios
da engenharia sim. Esta afirmação é muito forte e muito fraca. Algumas leis da física representam
fatos, e algumas leis da biologia – particularmente as leis explicativas – não.
O fracasso da facticidade não tem tanto a ver com a natureza da física, mas com a natureza da
explicação. Pensamos que a natureza é governada por um pequeno número de leis simples e
fundamentais. O mundo está cheio de fenômenos complexos e variados, mas estes não são
fundamentais. Eles surgem da interação de processos mais simples que obedecem às leis básicas
da natureza. (Ensaios posteriores argumentarão que mesmo processos isolados simples não se
comportam, em geral, da maneira uniforme ditada pelas leis fundamentais.)
Essa imagem de como a natureza opera para produzir os efeitos sutis e complicados que vemos
ao nosso redor se reflete nas explicações que damos: explicamos fenômenos complexos reduzindo-
os a seus componentes mais simples. Este não é o único tipo de explicação que damos, mas é um
tipo importante e central. Usarei a linguagem de John Stuart Mill e chamarei essa explicação de
9
composição de causas.
É característico de explicações por composição de final
p.58

faz com que as leis que empregam não satisfaçam a exigência de facticidade. A força dessas
explicações vem da presunção de que as leis explicativas 'agem' em combinação da mesma forma
que 'agiriam' separadamente. É fundamental, então, que as leis citadas tenham a mesma forma,
dentro ou fora de combinação. Mas isso é impossível se as leis descrevem o comportamento real
dos objetos. O comportamento real é o resultado de leis simples em combinação. O efeito que
ocorre não é um efeito ditado por nenhuma das leis separadamente. Para ser verdadeira no caso
composto, a lei deve descrever um efeito (o efeito que realmente acontece); mas para ser
explicativo, deve descrever outro.
Há aqui um trade-off entre verdade e poder explicativo.

2. Como a adição de vetores introduz poderes causais


Machine Translated by Google

Nosso exemplo, onde gravidade e eletricidade se misturam, é um exemplo de composição de


forças. Sabemos que as forças se somam vetorialmente. A adição de vetores não fornece uma
resposta simples e óbvia para minhas preocupações? Quando a gravidade e a eletricidade estão
ambas em ação, duas forças são produzidas, uma de acordo com a lei de Coulomb, a outra de acordo
com a lei da gravitação universal. Cada lei é precisa. Tanto a força gravitacional quanto a elétrica são
produzidas como descrito; as duas forças então somam-se vetorialmente para produzir a força
'resultante' total.
A história da adição de vetores é, eu admito, boa. Mas é apenas uma metáfora. Adicionamos forças
(ou os números que representam forças) quando fazemos cálculos . A natureza não 'adiciona'
forças. Pois as forças 'componentes' não estão lá, em nenhum sentido senão metafórico, para serem
adicionadas; e as leis que dizem que estão lá também devem receber uma leitura metafórica. Deixe-me
explicar com mais detalhes.
A história da adição de vetores supõe que Feynman deixou algo de fora em sua versão da lei da
gravitação. Da maneira como ele escreve, parece que a lei descreve a força resultante exercida entre
dois corpos, em vez de uma força componente - a força que é produzida entre os dois corpos em
virtude de sua extremidade gravitacional.

massas (ou, abreviadamente, a força devido à gravidade). Uma maneira melhor de estabelecer a
lei seria Dois corpos produzem uma força entre si (a força devido à gravidade) que varia
inversamente com o quadrado da distância entre eles e varia diretamente com o produto de suas
massas.
Da mesma forma, para a lei de
Coulomb Dois corpos carregados produzem uma força entre si (a força devido à eletricidade)
que também varia inversamente com o quadrado da distância entre eles e varia diretamente com
o produto de suas massas.
Essas leis, afirmo, não satisfazem o requisito de facticidade. Eles parecem, à primeira vista,
descrever o que os corpos fazem: em um caso, os dois corpos produzem uma força de tamanho 2.
Gmmÿ/r ; no outro, eles produzem uma força de tamanho qqÿ/r2 . Mas isso não pode ser literalmente
Para a força de tamanho Gmmÿ/r2 e a força de tamanho qqÿ/r 2.
assim. não são forças reais e recorrentes. Dentro
interação ocorre uma única força - a força que chamamos de 'resultante' - e essa força não é a
força da gravidade nem a força elétrica. Na história da adição de vetores, a força gravitacional e a
força elétrica são ambas produzidas, mas nenhuma delas existe.
Mill negaria isso. Ele pensa que, nos casos de composição de causas, cada efeito separado existe -
existe como parte do efeito resultante, assim como a metade esquerda de uma tabela existe como
parte de toda a tabela. O paradigma de Mill para composição de causas é a mecânica.
Ele diz:
Nesta importante classe de casos de causação, uma causa nunca, propriamente falando, derrota ou
frustra outra; ambos têm seu pleno efeito. Se um corpo é impulsionado em duas direções por duas
forças, uma tendendo a conduzi-lo para o norte e a outra para o leste, ele é levado a se mover em um
determinado tempo exatamente tão longe em ambas as direções quanto as duas forças separadamente.
carregou . . .10
Machine Translated by Google

A afirmação de Mill é improvável. Os eventos podem ter partes temporais, mas não partes do
tipo que Mill descreve. Quando um corpo se moveu ao longo de um caminho para o nordeste,
ele não viajou nem para o norte nem para o leste. A primeira metade do movimento pode ser
uma parte do movimento total; mas nenhum movimento de norte puro pode ser parte de um
movimento que sempre se dirige para nordeste. (Aprendemos isso com Acts and Other Events,
de Judith Jarvis Thomson.) A lição fica ainda mais clara se o exemplo for um pouco alterado:
um corpo é puxado igualmente em direções opostas. Ela não se mexe, mas na foto de Mill ela
se moveu vários pés para a esquerda e vários pés para a direita. Percebo, no entanto, que as
intuições estão fortemente divididas nesses casos; então, na próxima seção, apresentarei um
exemplo para o qual não há possibilidade de ver os efeitos separados das causas compostas como parte do efeito qu
ocorre.
É implausível tomar a força devido à gravidade e a força devido à eletricidade literalmente como
partes da força que realmente ocorre. Não há como entender a história sobre a adição de
vetores? Acho que sim, mas envolve abrir mão da visão de facticidade das leis. Podemos
preservar a verdade da lei de Coulomb e da lei da gravitação fazendo-as sobre algo diferente
dos fatos: as leis podem descrever os poderes causais que os corpos têm.
Hume ensinou que 'a distinção, que muitas vezes fazemos entre o poder e o exercício
dela, é a.lei
. . da
semgravitação
fundamento'.11
que afirma
É apenas
que dois
da distinção
corpos têm
ilícita
o poder
de Hume
de produzir
que precisamos
uma forçaaqui:
de
tamanho Gmmÿ/r
2.
Mas nem sempre conseguem no exercício do mesmo. O que eles realmente produzem
depende de quais outros poderes estão em ação e de qual compromisso é finalmente
alcançado entre eles. Pode ser assim que às vezes imaginamos a composição das causas.
Mas se for assim, as leis que usamos falam não sobre o que os corpos fazem, mas sobre os poderes
que eles possuem.
A introdução de poderes causais não será vista como um ponto de partida muito produtivo
em nossa era atual de empirismo moderado. Sem dúvida, às vezes pensamos em termos de
poderes causais, então seria tolice sustentar que a visão da facticidade deve ser correta e o
uso de poderes causais um erro total. Mas a facticidade não pode ser abandonada facilmente.
Precisamos de uma explicação do que são as leis, uma explicação que as conecte, por um
lado, com métodos científicos padrão.

para confirmar as leis e, por outro, com o uso a que se destinam para previsão,
construção e explicação. Se se presume que as leis da natureza descrevem os fatos, então há
histórias filosóficas familiares e detalhadas a serem contadas sobre por que uma amostra de
fatos é relevante para sua confirmação e como eles ajudam a fornecer conhecimento e
compreensão do que acontece na natureza. Qualquer explicação alternativa do que as leis da
natureza fazem e o que elas dizem deve servir pelo menos também; e nenhuma história que
conheço sobre poderes causais é um bom começo.

3. A Força Devido à Gravidade


Machine Translated by Google

Vale a pena considerar ainda a força da gravidade e a força da eletricidade, uma vez que
esta solução é frequentemente pedida pelos defensores da facticidade. É uma de uma
classe de sugestões que tenta manter as leis causais separadas em algo muito parecido
com sua forma original e, simultaneamente, defender sua facticidade postulando algum
efeito intermediário que elas produzem, como uma força devido à gravidade, um potencial
gravitacional , ou um campo.
Lewis Creary deu a proposta mais detalhada desse tipo que eu conheço. Creary afirma que
existem dois tipos bastante diferentes de leis que são empregadas em explicações onde as
causas se compõem – leis de influência causal e leis de ação causal. Leis de influência
causal, como a lei de Coulomb e a lei da gravidade, "nos dizem quais forças ou outras
influências causais operam em várias circunstâncias", enquanto as leis de ação causal "nos
dizem quais são os resultados de tais influências causais, agindo individualmente ou
isoladamente". ou em várias combinações ”. no trabalho, mas também quantifica sua
importância relativa'.13 Creary também descreve tipos de composição menos satisfatórios,
incluindo reforço, interferência, p.62

e predominância. De acordo com Creary, a lei de Coulomb e a lei da gravidade se mostram


verdadeiras porque descrevem corretamente quais influências são produzidas – aqui, a
força devido à gravidade e a força devido à eletricidade. A lei de adição vetorial combina as
influências separadas para prever quais movimentos ocorrerão.
Isso me parece ser uma explicação plausível de como muitas explicações causais
são estruturadas. Mas como defesa da verdade das leis fundamentais, tem dois
inconvenientes importantes. Primeiro, em muitos casos não há leis gerais de interação. A
dinâmica, com sua lei de adição vetorial, é bastante especial nesse aspecto. Isso não quer
dizer que não haja verdades sobre como esse tipo específico de causa se combina com
isso, mas sim que as teorias raramente podem especificar um procedimento que funcione
de um caso para outro. Sem isso, a coleção de leis fundamentais perde a generalidade de
aplicação que a proposta de Creary esperava garantir. O estudo clássico de processos
irreversíveis fornece um bom exemplo de uma teoria altamente bem-sucedida que tem essa
falha. Processos de fluxo como difusão, transferência de calor ou corrente elétrica devem
ser estudados pelas equações de transporte da mecânica estatística. Mas geralmente, o
modelo para as funções de distribuição e os detalhes das equações de transporte são muito
complexos: o método é inutilizável. Um colega meu em engenharia estima que 90 por cento
de todos os sistemas de engenharia não podem ser tratados pelos métodos atualmente
disponíveis de mecânica estatística. "Nós os analisamos por qualquer meio que pareça apropriado para o proble
Na prática, os engenheiros lidam com processos irreversíveis com leis fenomenológicas
antiquadas que descrevem o fluxo (ou fluxo) da quantidade em estudo. A maioria dessas
leis são conhecidas há muito tempo. Por exemplo, há a lei de Fick, datada de 1855, que
relaciona a velocidade de difusão de um componente em uma mistura com o gradiente de
Fourier para seu
a densidade
= ÿ Dÿc/ÿx).
(J mLeis
fluxo
igualmente
de calor, asimples
lei de Newton
descrevem
paraoutros
a forçaprocessos:
de cisalhamento
a lei de
(fluxo de momento) e a lei de Ohm para a corrente elétrica. Cada uma delas é uma equação
diferencial linear
Machine Translated by Google

fim p.63

em t (por m na lei de Fick citada acima é dm/dt), dando a taxa de variação no tempo do
exemplo, a quantidade desejada J (no caso da lei de Fick, a massa). Portanto, uma solução
em um momento determina completamente a quantidade em qualquer outro momento. Dado
que a quantidade pode ser controlada em algum ponto de um processo, essas as equações
deveriam ser perfeitas para determinar a evolução futura do processo, mas não são.
O problema é que cada equação é uma lei ceteris paribus . Ela descreve o fluxo apenas
enquanto apenas um tipo de causa estiver operando. Exemplos mais realistas colocam diferentes
forças em jogo simultaneamente. Em uma mistura de líquidos, por exemplo, se as temperaturas e
as concentrações não forem uniformes, pode haver um fluxo de líquido devido não apenas aos
gradientes de concentração, mas também aos gradientes de temperatura. Isso é chamado de efeito
Soret.
A situação é esta. Para os vários fluxos J temos leis da forma,

Cada uma delas é apropriada apenas quando seu ÿ é a única variável relevante. Para
efeitos cruzados, exigimos leis da forma.

Este caso é estruturalmente exatamente como os exemplos causais simples que discuti no
último ensaio. Gostaríamos de ter leis que combinassem diferentes processos. Mas temos tais
leis apenas em alguns casos especiais, como o efeito Soret. Para o efeito Soret, assumimos
aditividade linear simples em nossa lei de ação e obtemos uma lei final de efeito cruzado
adicionando um fator de difusão térmica à lei de Fick. Mas essa lei de ação causal é altamente
específica para a situação e não funcionará para combinar influências arbitrárias estudadas pela
teoria dos transportes. fim p.64

Existem princípios a serem seguidos na modificação para permitir efeitos cruzados? Existe
apenas um relato sistemático de modificação de efeito cruzado para processos de fluxo. Originou-
se com Onsager em 1931, mas não foi desenvolvido até a década de 1950. A teoria de Onsager
define pares de força-fluxo e prescreve um método para escrever equações de efeito cruzado
envolvendo diferentes forças. Como CA Truesdell descreve, 'O Onsagerismo afirma unificar e
correlacionar muito conhecimento existente de processos irreversíveis'.15 Infelizmente, não
ter sucesso. Truesdell continua:
. . .é assim. Não só o
No que diz respeito à condução de calor, viscosidade e difusão, não
Onsagerismo não se aplica a nenhum desses fenômenos sem um ajuste de força de Procusto,
Machine Translated by Google

mas mesmo na interpretação generosa de seus sectários não produz tanta redução para a
teoria da viscosidade como era conhecida um século antes e decorre do fundamental. .16
princípios. .
Truesdell afirma que os princípios usados na teoria Onsager são vazios. Os princípios
devem ora ser aplicados de uma forma, ora de outra, de forma ad hoc exigida por cada nova
situação. A prescrição para a construção de leis, por exemplo, depende da escolha adequada
dos pares conjugados fluxo-força. A teoria de Onsager oferece um princípio geral para fazer
essa escolha, mas se o princípio fosse seguido literalmente, não faríamos a escolha
adequada mesmo nas situações mais simples. Na prática, em qualquer ocasião, a escolha é
deixada à imaginação do físico. Parece que, após seu primeiro vislumbre de generalidade, a
abordagem Onsager acaba sendo uma coleção de
técnicas.
Eu ilustrei com mecânica estatística; mas este não é um caso especial. De fato, a mecânica
clássica pode muito bem ser a única disciplina onde uma lei geral de ação está sempre
disponível. Isso limita a utilidade da ideia de Creary. O esquema de Creary, se funcionar,
compra facticidade, mas é de pouco benefício para os realistas que acreditam que os
fenômenos da natureza fluem de um pequeno número de leis abstratas e fundamentais. As
leis fundamentais serão severamente limitadas em escopo. Onde as leis de ação vão caso a
caso e não se encaixam em um esquema geral, leis básicas de influência, como a lei de
Coulomb e a lei da gravidade, podem dar explicações verdadeiras das influências que são
produzidas; mas o trabalho de descrever o que as influências fazem e quais os resultados do
comportamento será feito pela variedade de leis de ação complexas e mal organizadas: a lei
de Fick com fatores de correção e similares. Isso se encaixa melhor com minha imagem de
uma natureza melhor descrita por uma vasta gama de leis fenomenológicas adaptadas a
situações específicas, do que com uma regida de maneira ordenada a partir de primeiros princípios.
As próprias influências causais são a segunda grande desvantagem da abordagem de Creary.
Considere nosso exemplo original. Creary muda um pouco da maneira como eu o configurei
originalmente. Eu presumira que o objetivo era explicar o tamanho e a direção de uma força
resultante. Creary supõe que não é uma força resultante, mas um movimento consequente
que deve ser explicado. Isso lhe permite negar a realidade da força resultante. Ambos
concordamos que não pode haver três forças presentes — dois componentes e uma resultante.
Mas eu assumi a resultante, enquanto Creary insiste na existência dos componentes.
A mudança no exemplo é necessária para Creary. Seu esquema funciona interpondo um
fator intermediário – a influência causal – entre a causa e o que inicialmente parecia ser o
efeito. No exemplo dinâmico, a reestruturação é plausível. Creary pode estar certo sobre as
forças resultantes e componentes. Mas não acho que isso funcione como uma estratégia
geral, pois prolifera influências em todos os casos. Tomemos qualquer exemplo arbitrário
de composição de causas: duas leis, onde cada uma determina com precisão o que acontecerá
quando opera isoladamente, digamos 'C causa E' e C' causa E''; mas onde C e Cÿ em
combinação produzem algum efeito diferente, Eÿ. Se não quisermos supor que todos os três
efeitos – E, Eÿ, Eÿ – ocorram (como faríamos se pensássemos que E e Eÿ fossem partes de
Eÿ), então, segundo a proposta de Creary, devemos postular algumas ocorrências adicionais. ,
F e Fÿ, como efeitos próprios de nossas duas leis, efeitos que são combinados por uma lei de
ação para produzir Eÿ no final. Em alguns casos concretos a estratégia funcionará, mas em
geral não vejo razão para pensar que essas influências intermediárias terminam p.66
Machine Translated by Google

sempre pode ser encontrado. Não me oponho a eles por causa de qualquer objeção geral às
entidades teóricas, mas sim porque acho que toda nova entidade teórica que é admitida deve
ser fundamentada na experimentação, que mostra em detalhes sua estrutura causal. As influências
de Creary me parecem apenas ocorrências sombrias que representam os efeitos que gostaríamos
de ver, mas na verdade não conseguimos encontrar.

4. Um Exemplo Real da Composição das Causas

O estado fundamental do átomo de carbono tem cinco níveis distintos de energia (veja a Figura 3.1).
Os textos de física comumente tratam esse fenômeno de forma sequencial, em três etapas. Seguirei
17 Em primeiro
a discussão de Albert Messias no Volume II da Mecânica Quântica.
estágio, a energia do estado fundamental é calculada por uma aproximação de campo central;
e a linha simples (a) é derivada. Para alguns propósitos, é correto supor que somente este nível
ocorre. Mas alguns problemas

Fig. 3.1. Os níveis do estado fundamental do átomo de carbono; (a) na aproximação do


campo central (V 1 =V 2 =0); (b) desprezando o acoplamento spin-órbita (V 2 =0); (c) incluindo
acoplamento spin-órbita. (Fonte: Messias, Mecânica Quântica.) end p.67

requerem uma descrição mais precisa. Isso pode ser obtido observando que a aproximação do
campo central leva em conta apenas o valor médio da repulsão eletrostática dos elétrons da camada
interna sobre os dois elétrons externos. Este defeito é remediado no segundo estágio considerando
os efeitos de um termo que é igual à diferença entre a interação exata de Coulomb e o potencial
médio usado no estágio um. Este potencial corretivo 'divide' a única linha (a) em três linhas
representadas em (b).
Mas o tratamento é impreciso porque negligencia os efeitos de spin. Cada elétron tem um spin, ou
momento angular interno, e o spin do elétron se acopla com seu orbital.
Machine Translated by Google

momento angular para criar um potencial adicional. O potencial adicional surge


porque o elétron giratório tem um momento magnético intrínseco, e 'um elétron movendo-
se em um potencial [eletrostático] 'vê' um campo magnético '. :
3
O estado P é afetado pelo termo de energia spin-órbita; fica
3 3 3
P 0 , P 1 dividido
P 2 e'.19 Daí os cinco níveis retratados em (c).
As perplexidades filosóficas sobressaem mais na última etapa. Os cinco níveis são
devidos a uma combinação de um potencial de Coulomb, e um potencial criado pelo
acoplamento spin-órbita 'divide' o mais baixo deles novamente em três. Essa é a explicação
dos cinco níveis. Mas como podemos afirmar as leis que ele usa?
Para o efeito Coulomb, podemos tentar
Sempre que um potencial Coulombiano é semelhante ao do átomo de carbono, ocorrem os três
níveis de energia ilustrados em (b) .
(A lei real, é claro, substituirá 'como no átomo de carbono' por uma descrição
matemática do potencial de Coulomb no carbono; e similarmente para 'os três níveis de
energia retratados em (b)'.) O próprio átomo de carbono fornece um contador -exemplo
desta lei. Tem um potencial de Coulomb do tipo certo; no entanto, os cinco níveis de (c)
ocorrem, não os três níveis de (b). fim p.68

Podemos, em analogia com o tratamento de adição vetorial de forças compostas, tentar em vez
disso Os níveis de energia produzidos por um potencial de Coulomb como aquele no átomo de
carbono são os três níveis ilustrados em (b).
Mas (como com as forças 'produzidas pela gravidade' em nosso exemplo anterior) os
níveis que deveriam ser produzidos pelo potencial de Coulomb são níveis que não
ocorrem. Na realidade ocorrem cinco níveis, e eles não incluem os três níveis de (b). Em
3
particular, como podemos ver no diagrama do Messias, o mais baixo dos P—não é
três níveis –o
idêntico a qualquer um dos cinco. No caso da composição de movimentos, Mill tentou
ver os efeitos 'componentes' como partes do efeito real. Mas isso certamente não funcionará aqui.
O 3O nível P em (b) pode ser 'dividido' e, portanto, 'dar origem a',
3
Po0 , 3P 1 , e 3P 2 níveis
em (c); mas certamente não faz parte de nenhum desses níveis.
É difícil afirmar uma afirmação factual verdadeira sobre os efeitos do potencial de Coulomb
no átomo de carbono. Mas a teoria quântica garante que um certo contrafactual é verdadeiro; o
potencial de Coulomb, se fosse o único potencial em ação, produziria os três níveis em (b).
Claramente, esse contrafactual se baseia em nossa explicação. Mas não temos nenhum modelo
de explicação que mostre como. O modelo da lei de cobertura mostra como as declarações de
fato são relevantes para explicar um fenômeno. Mas como uma verdade sobre os níveis de
energia, que ocorreriam em circunstâncias bem diferentes, é relevante para os níveis que
ocorrem nessas circunstâncias? Achamos que o contrafactual é importante; mas não temos nenhum relato de como

5. Composição das Causas Versus Explicação pela Lei de Abrangência


Machine Translated by Google

A composição das causas não é o único método de explicação que pode ser empregado.
Existem outros métodos, e alguns deles são compatíveis com a visão de facticidade das leis. As
explicações padrão da lei de cobertura são um excelente exemplo.
Às vezes, esses outros tipos de explicação estão disponíveis
end p.69

mesmo quando damos uma explicação que diz quais são as causas componentes de um
fenômeno. Por exemplo, no caso da lei de Coulomb e da lei da gravidade, sabemos como escrever
uma lei mais complexa (uma lei com um antecedente mais complexo) que diz exatamente o que
acontece quando um sistema tem massa e carga. Mill pensa que tais "super" leis estão sempre
disponíveis para fenômenos mecânicos. Na verdade, ele pensa: 'Isso explica por que a mecânica é
uma ciência dedutiva ou demonstrativa, e a química não'.20

Quero fazer três observações sobre essas superleis e as explicações abrangentes que elas
fornecem. A primeira é familiar desde o último ensaio: as superleis nem sempre estão disponíveis.
Em segundo lugar, mesmo quando estão disponíveis, muitas vezes não explicam muito. Em
terceiro lugar, e mais importante, mesmo quando outras boas explicações estão à mão, se
deixarmos de descrever os processos componentes que se unem para produzir um fenômeno,
perdemos uma parte central e importante de nossa compreensão do que faz as coisas acontecerem.

(1) Há um bom número de fenômenos científicos complexos que temos muito orgulho de poder
explicar. Como insisti no último ensaio, para muitas dessas explicações, as leis de supercobertura
não estão disponíveis para nós. Às vezes temos todos os motivos para acreditar que existe uma
super lei. Em outros casos, não temos uma boa razão empírica para supor nem isso. No entanto,
depois de ter visto o que ocorre em um caso específico, muitas vezes somos capazes de
entender como várias causas contribuíram para que isso acontecesse.
Nós explicamos, mesmo sem conhecer as superleis. Precisamos de uma explicação
filosófica das explicações que cubra essa prática científica muito comum e que mostre por que
essas explicações são boas.
(2) Às vezes, as superleis, mesmo quando estão disponíveis para cobrir um caso, podem não ser
muito explicativas. Esta é uma velha reclamação contra o modelo de explicação da lei de
cobertura: "Por que a codorna no jardim balança a cabeça para cima e para baixo dessa maneira
engraçada sempre que anda?" ...
— Porque todos eles gostam. No exemplo do acoplamento spin-
órbita, ele não explica os cinco níveis de energia que aparecem em um experimento específico
para dizer 'todos os átomos de carbono têm cinco níveis de energia'.
(3) Muitas vezes, é claro, uma lei de cobertura para o caso complexo será explicativa. Isso é
especialmente verdadeiro quando o antecedente da lei não apenas reúne as circunstâncias
particulares que prevalecem na ocasião em questão, mas fornece uma descrição mais abstrata
que se encaixa com um corpo geral de teoria. No caso do acoplamento spin-orbital, Stephen
Norman observa que a mecânica quântica fornece teoremas gerais sobre grupos de simetria,
hamiltonianos e degenerescências, dos quais poderíamos esperar derivar, no estilo de lei de
cobertura, os níveis de energia do carbono da caracterização abstrata apropriada de seu
hamiltoniano e as simetrias que exibe.
Machine Translated by Google

Na verdade, podemos fazer isso; e se não o fizermos, não veremos que o padrão dos níveis de
carbono é um caso particular de um fenômeno geral que reflete um fato profundo sobre os
efeitos das simetrias na natureza. Por outro lado, fazer apenas isso perde a história causal
detalhada de como a divisão das linhas espectrais pela remoção da simetria consegue ser
trabalhada em cada caso particular.
Esse caráter de duas caras é uma característica generalizada da explicação. Mesmo que haja
um único conjunto de superleis que unifique todos os fenômenos complexos que estudamos
na física, nosso quadro atual ainda pode fornecer a base para essas leis: o que as leis
unificadas ditam que deve acontecer, acontece por causa da ação combinada de leis de
domínios separados, como a lei da gravidade e a lei de Coulomb. Sem essas leis, perderíamos
uma parte essencial da história explicativa. A explicação por subsunção sob leis super
unificadas de cobertura não substituiria a composição das causas. Seria um complemento.
Para entender como as consequências das leis unificadas são produzidas, seria necessário
operar separadamente a lei da gravidade, a lei de Coulomb e assim por diante; e o fracasso da
facticidade dessas leis contributivas ainda teria de ser enfrentado. fim p.71

6. Conclusão

Há uma visão simples e direta das leis da natureza que é sugerida pelo realismo científico, a
visão da facticidade: as leis da natureza descrevem como os sistemas físicos se comportam.
Esta é de longe a visão mais comum e sensata; mas não funciona. Não se encaixa em leis
explicativas, como as leis fundamentais da física. Alguma outra visão é necessária se quisermos
explicar o uso de leis na explicação; e não vejo nenhum candidato óbvio que seja consistente
com a exigência razoável do realista de que as leis descrevam a realidade e declarem fatos que
possam ser verdadeiros. Há, como argumentei, um trade-off entre conteúdo factual e poder
explicativo. Explicamos certos fenômenos complexos como resultado da interação de leis
simples e causais. Mas o que essas leis dizem? Para desempenhar o papel de explicação que
exigimos delas, essas leis devem ter a mesma forma quando agem em conjunto e quando agem
isoladamente. No caso mais simples, as consequências que as leis prescrevem devem ser
exatamente as mesmas em interação, como as consequências que obteriam se a lei operasse
sozinha. Mas então, o que a lei declara não pode ser literalmente verdade, pois as consequências
que ocorreriam se ela agisse sozinha não são as consequências que realmente ocorrem quando
ela age em conjunto.
Se declararmos as leis fundamentais como leis sobre o que acontece quando apenas uma única
causa está em ação, podemos supor que a lei fornece uma descrição verdadeira. O problema
surge quando tentamos pegar essa lei e usá-la para explicar as coisas muito diferentes que
acontecem quando várias causas estão em ação. Este é o ponto de 'A verdade não explica muito'.
Não há dificuldade em escrever leis que supomos serem verdadeiras: 'Se não há cargas, não
há forças nucleares, . . então a .força entre duas massas de tamanho m e mÿ
2
separados por uma distância r é Gmmÿ/r .' Consideramos esta lei verdadeira - o que ela diz que vai acontecer,
acontece - ou pelo menos acontece dentro de uma boa aproximação. Mas esta lei não
Machine Translated by Google

explicar muito. É irrelevante para os casos em que há forças elétricas ou nucleares em ação.
As leis da física, concluí, na medida em que são verdadeiras, acabam
p.72

não explicar muito. Poderíamos conhecer todas as verdadeiras leis da natureza e ainda não
saber explicar os casos compostos. A explicação deve basear-se em algo diferente da lei.
Mas essa visão é absurda. Não há dois veículos de explicação: leis para as raras ocasiões
em que as causas ocorrem separadamente; e outro dispositivo secreto e sem nome para
quando ocorrem em combinação. As explicações funcionam da mesma maneira, quer uma
causa esteja em ação ou muitas. 'A verdade não explica' levanta perplexidades sobre a
explicação pela composição das causas; e conclui que a explicação é uma atividade científica
muito peculiar, que comumente não faz uso das leis da natureza. Mas as explicações
científicas usam leis. São as próprias leis que são peculiares. A lição a ser aprendida é que
as leis que explicam por composição de causas não satisfazem o requisito de facticidade. Se
as leis da física devem explicar como os fenômenos ocorrem, elas não podem declarar os fatos.
fim p.73

Ensaio 4 A realidade das causas em um mundo de leis instrumentais


Nancy Cartwright

0. Introdução Os
empiristas são notoriamente desconfiados das causas. Eles não têm sido igualmente
cautelosos com as leis. Hume estabeleceu a tradição quando substituiu fatos causais
por fatos sobre generalizações. Os empiristas modernos fazem o mesmo. Mas hoje em dia
as generalizações de Hume são as leis e equações de teorias científicas de alto nível. Em
contas correntes, pode haver alguma dúvida sobre onde as leis de nossas teorias
fundamentais obtêm sua necessidade; mas não há dúvida de que essas leis são o núcleo
da ciência moderna. Bertrand Russell é bem conhecido por esta visão: A lei da gravitação
. . . Certo
irá ilustrar o que ocorre em qualquer ciência exata que equações diferenciais podem ser
encontradas, que valem a cada instante para cada partícula do sistema. poderia ser
. . Mas não
apropriadamente chamado
há nadade 'efeito'
que possaem
sertalpropriamente
sistema.1 chamado de 'causa' e nada que

Para Russell, as causas "embora úteis à vida cotidiana e na infância de uma ciência, tendem a
ser substituídas por leis bem diferentes assim que uma ciência é bem-sucedida".
É conveniente que Russell fale sobre física e que as leis que ele elogia sejam suas
equações fundamentais — as equações de Hamilton ou de Schroedinger, ou as equações
da relatividade geral. É isso que eu quero discutir também. Mas eu defendo exatamente o
contrário da visão de Russell. Sou a favor das causas e contra as leis. Acho que, dada a
maneira como as teorias modernas da física matemática funcionam, só faz sentido acreditar
em suas alegações causais e não em suas leis explicativas. fim p.74
Machine Translated by Google

1. Explicando por Causas

Seguindo Bromberger, Scriven e outros, sabemos que há várias coisas que podemos fazer para
explicar. Dois são importantes aqui: ao explicar um fenômeno pode-se citar as causas desse
fenômeno; ou pode-se situar o fenômeno em um quadro teórico geral. A estrutura da física moderna
é matemática, e boas explicações geralmente nos permitem fazer cálculos bastante precisos sobre
os fenômenos que explicamos. Rene Thom observa a diferença entre esses dois tipos de explicação,
embora pense que apenas as causas realmente explicam: 'DesCartes com seus vórtices, seus
átomos em forma de gancho e coisas semelhantes explicou tudo e não calculou nada; Newton, com
o inverso do quadrado da gravitação, calculou tudo e não explicou nada'.2

Ao contrário de Thom, fico feliz em chamar ambas de explicação, desde que não atribuamos
ilicitamente à explicação teórica características que se aplicam apenas à explicação causal. Há
uma tradição, desde a época de Aristóteles, de deliberadamente confundir os dois. Mas devo
argumentar que eles funcionam de maneira bem diferente na física moderna. Se aceitarmos a
história causal de Descartes como adequada, devemos considerar verdadeiras suas afirmações
sobre átomos em gancho e vórtices. Mas não usamos a lei do inverso do quadrado de Newton como se fosse verdadeira
Um argumento poderoso fala contra minha afirmação e a favor da verdade das leis explicativas –
o argumento da coincidência. Aqueles que levam as leis a sério tendem a concordar com o que
Gilbert Harman chamou de inferência para a melhor explicação. Eles assumem que o fato de uma
lei explicar fornece evidência de que a lei é verdadeira. Quanto mais diversos os fenômenos que
ela explica, mais provável é que seja verdade. Seria uma coincidência absurda se uma ampla
variedade de diferentes tipos de fenômenos fossem todos explicados por uma lei particular, e
ainda assim não fossem na realidade consequentes da lei. Assim, o argumento da coincidência
apóia muitas das inferências que fazemos para as melhores explicações.
No entanto, o método de inferência para a melhor explicação está sujeito a uma importante
restrição — a exigência de não redundância. Podemos inferir a verdade de uma explicação apenas
se não houver alternativas que dêem conta de maneira igualmente satisfatória para os fenômenos.
Na física de hoje em dia, devo argumentar, uma história causal aceitável deve satisfazer esse
requisito. Mas exatamente o oposto é o caso das equações e modelos específicos que compõem
nossas explicações teóricas. Há redundância de tratamento teórico, mas não de explicação causal.

Há, penso eu, uma razão simples para isso: as causas fazem seus efeitos acontecerem.
Começamos com um fenômeno que, em relação às nossas outras crenças gerais, pensamos que
não ocorreria a menos que algo peculiar o provocasse. Na física, muitas vezes marcamos essa
crença rotulando os fenômenos como efeitos - o efeito Sorbet, o efeito Zeeman, o efeito Hall.
Um efeito precisa de algo para produzi-lo, e as características peculiares do efeito dependem da
natureza particular da causa, de modo que - na medida em que pensamos ter acertado -
temos o direito de inferir o caráter da causa do caráter do efeito.
Mas as equações não produzem as leis fenomenológicas que delas derivamos (mesmo que as
próprias leis fenomenológicas sejam equações). Nem são usados na física como se fossem. As
equações específicas que usamos para tratar fenômenos particulares fornecem uma maneira de
Machine Translated by Google

lançando os fenômenos na estrutura geral da teoria. Assim, somos capazes de tratar uma
variedade de fenômenos díspares de maneira semelhante e fazer uso da teoria para fazer cálculos
bastante precisos. Para ambos os propósitos é uma vantagem multiplicar os tratamentos teóricos.

Pierre Duhem usou o requisito de redundância como argumento contra o realismo científico, e
recentemente Hilary Putman o usa como argumento contra o realismo em geral. Ambos propõem
que, em princípio, para qualquer explicação de qualquer quantidade de dados sempre haverá uma
alternativa igualmente satisfatória. A história da ciência sugere que essa afirmação pode estar
certa: constantemente construímos explicações melhores para substituir as do passado. Mas tais
argumentos são irrelevantes aqui; eles não distinguem entre alegações causais e explicações
teóricas. Ambos provavelmente serão substituídos por contas melhores no futuro. fim p.76

Aqui não estou preocupado com alternativas que, na melhor das hipóteses, estão disponíveis
apenas em princípio, mas sim com a disponibilidade prática de alternativas dentro das teorias
que realmente temos à mão. Para esta discussão, quero tomar o ponto de vista que Putnam
chama de 'realismo interno'; considerar teorias físicas reais que estamos dispostos a considerar
aceitáveis, mesmo que apenas por enquanto, e perguntar: 'Em relação a essa teoria, quais de
suas alegações explicativas devemos considerar verdadeiras?' Minha resposta é que afirmações
causais devem ser consideradas verdadeiras, mas considerar as leis explicativas básicas como
verdadeiras é deixar de levar a sério como a física consegue dar explicações.
Vou usar dois exemplos para mostrar isso. O primeiro – amortecimento quântico e seu
alargamento de linha associado – é um fenômeno cuja compreensão é fundamental para a teoria dos lasers.
Aqui temos uma única história causal, mas uma multiplicação frutífera de explicações teóricas
bem-sucedidas. Isso contrasta com a multiplicação inaceitável de histórias causais no segundo
exemplo.
Há uma questão que devemos considerar antes de examinar os exemplos, uma pergunta
feita por dois colegas de filosofia da ciência, Dan Hausman e Robert Ennis.
Como podemos distinguir as leis explicativas, que defendo que não devem ser tomadas
literalmente, das alegações causais e declarações de fato mais prosaicas, que são? A resposta
curta é que não há como. Uma maneira típica de tratar um problema como esse é encontrar
algum critério independente – idealmente sintático, mas mais realisticamente semântico –
que dividirá as alegações de uma teoria em duas partes. Em seguida, argumenta-se que as
alegações de um tipo devem ser tomadas literalmente, enquanto as do outro tipo funcionam
de alguma maneira diferente.
Não é isso que tenho em mente. Penso em uma teoria da física como fornecendo um esquema
explicativo no qual fenômenos de interesse podem ser encaixados. Concordo com Duhem
aqui. O esquema simplifica e organiza os fenômenos para que possamos tratar de forma
semelhante acontecimentos que são fenomenologicamente diferentes, e diferentemente os que
são fenomenologicamente iguais. É parte da natureza desta atividade de organização que não
pode ser muito bem feita se nos atermos muito ao final da p.77
Machine Translated by Google

afirmando o que é verdade. Algumas afirmações da teoria devem ser literalmente descritivas
(acho que as afirmações sobre a massa e a carga do elétron são um bom exemplo) para que
a teoria seja aplicada aos fenômenos; mas suspeito que não há uma maneira geral
independente de caracterizar quais serão. O que é importante perceber é que, para que a
teoria tenha um poder explicativo considerável, a maioria de suas afirmações fundamentais
não declarará verdades, e que isso, em geral, incluirá a maior parte de nossas leis e equações
mais valorizadas.

2. Exemplos: Amortecimento Quântico

No amortecimento radiativo, os átomos desexcitam, emitindo fótons cujas frequências


dependem dos níveis de energia do átomo. Sabemos por experiência que a linha de emissão
observada em um espectroscópio para um átomo radiante não é infinitamente nítida, mas tem
uma largura de linha finita; ou seja, há um espalhamento de frequências na luz emitida. O que
causa essa largura de linha natural? Aqui está a resposta padrão que os físicos dão, citada de
um bom livro sobre teoria da radiação quântica de William Louisell: Existem muitas interações
que podem ampliar uma linha atômica, mas a mais fundamental é a reação do campo de
radiação no átomo. Ou seja, quando um átomo decai espontaneamente de um estado excitado
radiativamente, ele emite um quantum de energia no campo de radiação. Esta radiação pode
ser reabsorvida pelo átomo. A reação do campo no átomo dá ao átomo uma largura de linha e
faz com que o nível original seja deslocado como mostramos. Esta é a fonte da largura de linha
natural e do deslocamento de Lamb.3
Seguindo seu tratamento matemático do decaimento radiativo, Louisell continua:
Vemos que o átomo está continuamente emitindo e reabsorvendo quanta de radiação. A
mudança de nível de energia não requer que a energia seja conservada, enquanto o
amortecimento requer conservação de energia. Assim amortecimento final p.78

é provocada pela emissão e absorção de fótons reais, enquanto os fótons emitidos e


absorvidos que contribuem para a mudança de energia são chamados de fótons virtuais.4
Esta conta é universalmente aceita. O amortecimento e o alargamento da linha associado são
causados pela emissão e absorção de fótons reais.
Aqui temos uma história causal; mas não um tratamento matemático. Ainda não
estabelecemos a ampliação da linha para a estrutura matemática geral da mecânica quântica.
Existem muitas maneiras de fazer isso. Um dos Springer Tracts de GS Agarwal5 resume os
tratamentos básicos oferecidos. Ele lista seis abordagens diferentes em seu índice: (1)
método Weisskopf–Wigner; (2) método de Heitler-Ma; (3) Goldberger–
método Watson; (4) Método estatístico quântico: equações mestras; (5) equações de
Langevin correspondentes à equação mestra e uma representação do número c; e (6) teoria
neoclássica da emissão espontânea.
Antes de discutir essas seis abordagens, darei outro exemplo. A teoria do amortecimento
forma o núcleo dos atuais tratamentos quânticos de lasers. A Figura 4.1 é um diagrama de um
artigo resumido de H. Haken sobre 'a' teoria quântica do laser.6 Nós
Machine Translated by Google

veja que a situação que descrevi para a teoria do amortecimento é ainda pior aqui. Existem
tantos tratamentos diferentes que Haken fornece uma 'árvore genealógica' para definir suas
conexões. Olhando para a situação, o próprio Haken a descreve como um caso de 'exagero da
teoria'. A teoria do laser é um caso extremo, mas acho que não há dúvida de que esse tipo de
redundância de tratamento, que Haken e Agarwal retratam, é comum em toda a física.

Agarwal descreve seis tratamentos de alargamento de linha. Todos os seis fornecem cálculos
precisos e precisos para a extremidade da forma p.79
Machine Translated by Google

Fig. 4.1. Árvore genealógica da teoria quântica do laser. (Fonte: Haken, 'The
Semiclassical and Quantum Theory of the Laser'.) e largura da linha alargada. Como
eles diferem? Todas as abordagens empregam o formato básico da mecânica quântica. Cada
um escreve uma equação de Schroedinger; mas é uma equação diferente em cada tratamento
diferente . (Na verdade, entre os seis tratamentos existem apenas três equações diferentes.) A
visão que estou atacando requer explicações teóricas para fornecer, da melhor maneira
possível, declarações de leis objetivas. Nessa visão, as seis abordagens listadas por Agarwal
competem umas com as outras; eles oferecem leis diferentes para exatamente os mesmos
fenômenos.
Mas essa não é a atitude de Agarwal. Diferentes abordagens são úteis para diferentes
propósitos; eles complementam em vez de competir. As equações de Langevin e Master de (4) e (5),
Machine Translated by Google

por exemplo, têm formas emprestadas da mecânica estatística. Eles foram introduzidos em parte
porque o desenvolvimento de lasers criou um interesse em experimentos de correlação de fótons.
Claramente, se tivermos questões estatísticas, é uma boa ideia começar com o tipo de equações
das quais sabemos como obter respostas estatísticas.
Consideremos uma objeção ao ponto de vista que venho defendendo. Todos sabemos que os
físicos escrevem os tipos de equações que sabem resolver; se não podem usar uma aproximação,
tentam outra; e quando encontram uma técnica que funciona, eles a aplicam em qualquer lugar que
possam. São observações corriqueiras que nos lembram a atitude pragmática dos físicos. Talvez,
contrariamente ao meu argumento, a multiplicação de tratamentos teóricos diga mais sobre essa
orientação pragmática do que sobre como as leis explicativas devem ser vistas. Discordo. Acho que
fala de leis e, em particular, mostra como as leis diferem das causas. Não temos a mesma tolerância
pragmática de alternativas causais. Não usamos primeiro uma história causal na explicação, depois
outra, dependendo da facilidade de cálculo ou qualquer outra coisa.

O caso do radiômetro ilustra. O radiômetro foi introduzido por William Crookes em 1873,
mas ainda não está claro o que o faz funcionar. Lembre-se da introdução desses ensaios que existem
três teorias plausíveis. A primeira atribui o movimento das palhetas a uma leve pressão. Esta
explicação é agora universalmente rejeitada. Como observa M. Goldman em 'The Radiometer
Revisited', Um cálculo simples mostra que em um dia típico de verão britânico, quando o céu é de um
cinza uniforme (igualmente luminoso em todo o lado), o torque do preto e do prata se equilibra
exatamente, de modo que para um final perfeito p.81

radiômetro [ou seja, um radiômetro com vácuo perfeito] nenhum movimento seria possível.7
Duas explicações ainda disputam. A primeira é a conta mais padrão, de livro didático, que é apoiada
pelos cálculos de Goldman. Supõe que o movimento é causado pela pressão perpendicular do gás
no vácuo perfeito contra as palhetas. Mas, como vimos, na explicação de Maxwell o movimento deve
ser devido à tensão tangencial criada pelo gás deslizando ao redor da borda das palhetas. Há um
sentido em que Maxwell e Goldman podem estar certos: o movimento pode ser causado por uma
combinação de tensão tangencial e perpendicular. Mas não é isso que eles afirmam. Cada um afirma
que o fator que ele cita é o único fator significativo na realização da moção, e apenas uma ou outra
dessas reivindicações pode ser aceita. Essa situação contrasta claramente com os diferentes
tratamentos teóricos de Agarwal. Na medida em que estamos interessados em dar uma explicação
causal do movimento, devemos estabelecer uma conta ou outra. Não podemos usar primeiro uma
conta, depois a outra, de acordo com nossa conveniência.

Conheço este exemplo através de Francis Everitt, que pensa em construir um experimento que
resolva a questão. Menciono novamente o experimento de Everitt porque ele defende a diferença
de objetividade que defendo entre as leis teóricas e as alegações causais.
Isso nos lembra que, diferentemente dos relatos teóricos, que podem ser justificados apenas por
uma inferência da melhor explicação, os relatos causais têm um teste independente de sua
veracidade: podemos realizar experimentos controlados para descobrir se nossas histórias causais estão certas ou erradas
Experimentos desse tipo de fato desempenham um papel importante em um exemplo do qual
Wesley Salmon defende inferências para a melhor explicação.
Machine Translated by Google

3. O Argumento da Coincidência

Em um artigo recente8 Salmon considera os argumentos de Jean Perrin para a existência


de átomos e para a verdade do fim de Avagadro p.82

hipótese de que há um número fixo de moléculas em qualquer grama mol de um fluido. Perrin
realizou experimentos meticulosos sobre o movimento browniano em colóides, a partir dos
quais conseguiu calcular o número de Avagadro com bastante precisão. Seu tratado de 1913,
no qual ele resume seus experimentos e relata as evidências da existência de átomos, ajudou
a influenciar a comunidade de físicos em favor dessas hipóteses. Além do movimento
browniano, Perrin lista treze situações físicas bastante diferentes que fornecem uma
determinação do número de Avogadro. Tanta evidência de uma variedade de tipos, todas
apontando para o mesmo valor, certamente deve nos convencer, insiste Perrin, de que os
átomos existem e que a hipótese de Avogadro é verdadeira.
Para muitos, o raciocínio de Perrin é um paradigma de inferência para a melhor explicação;
e mostra a solidez desse método. Acho que isso diagnostica erroneamente a estrutura do
argumento. Perrin não faz uma inferência sobre a melhor explicação, onde a explicação inclui
desde leis teóricas até uma descrição detalhada de como o explanandum foi criado. Ele faz
uma inferência mais restrita – uma inferência para a causa mais provável.

Um experimento bem planejado é construído para nos permitir inferir o caráter da causa a
partir do caráter de seus efeitos mais facilmente observáveis. Antes de Perrin, os químicos
concentravam sua atenção no tamanho e nas velocidades das partículas suspensas. Mas este
estudo não foi recompensador; as medições eram difíceis e os resultados não significavam muito.
Perrin, em vez disso, estudou a distribuição de altura dos grânulos brownianos em equilíbrio.
A partir de seus resultados, com um modelo relativamente simples para as interações de
colisão, ele conseguiu calcular o número de Avogadro. Perrin era um experimentador brilhante.
Fazia parte de seu gênio ser capaz de encontrar efeitos bastante específicos, particularmente
sensíveis ao caráter exato das causas que desejava estudar. Dado seu modelo, o fato de os
fluidos transportadores terem apenas 6 × 1023 átomos para cada mol fez diferenças precisas e
calculáveis na distribuição que ele observou.
O papel do modelo é importante. Mostra exatamente o papel que a coincidência desempenha
na estrutura do argumento de Perrin. Nosso raciocínio a partir do caráter do efeito final p.83

ao caráter da causa é sempre contra um pano de fundo de outro conhecimento. Nosso objetivo
é descobrir uma causa com uma estrutura particular. Quais efeitos aparecem como resultado
dessa estrutura serão altamente sensíveis à natureza exata dos processos causais que
conectam os dois. Se estivermos enganados sobre os processos que ligam causa e efeito em
nosso experimento, o que observamos pode não resultar na maneira como pensamos a partir da causa em questão.
Machine Translated by Google

estudar. Nossos resultados podem ser um mero artefato do experimento, e nossas conclusões
serão inúteis.
Perrin explicitamente tem essa preocupação com o primeiro dos treze fenômenos que ele
cita: a viscosidade dos gases, que fornece um valor para o número de Avogadro através
da equação de Van der Waal e da teoria cinética dos gases. Em seus Átomos , ele escreve que
"o erro provável, para todos esses números, é de aproximadamente 30%, devido às
aproximações feitas nos cálculos que levam às equações de Clausius-Maxwell e Van der
Waal". Ele continua: “A Teoria Cinética justamente excita nossa admiração. [Mas] não carrega
uma convicção completa, por causa das muitas hipóteses que envolve.' (Acho que ele quer
dizer "hipóteses infundadas".) O que acalma as preocupações de Perrin? Ele mesmo nos diz na
frase seguinte: 'Se por caminhos inteiramente independentes formos levados aos mesmos
valores para as magnitudes moleculares, certamente encontraremos nossa fé na teoria
consideravelmente fortalecida.'9
Aqui é onde a coincidência entra. Temos treze fenômenos a partir dos quais podemos
calcular o número de Avogadro. Qualquer um desses fenômenos - se tivéssemos certeza
sobre os detalhes de como o comportamento atômico o origina - seria bom o suficiente para
nos convencer de que Avogadro está certo. Freqüentemente não temos certeza o suficiente;
queremos mais garantias de que estamos observando resultados genuínos e não artefatos
experimentais. É o caso de Perrin. Falta-lhe confiança em alguns dos modelos em que se
baseiam os seus cálculos. Mas ele pode apelar para a coincidência. Não seria uma coincidência
se cada uma das observações fosse um artefato e, no entanto, todas concordassem tão
intimamente sobre o número de Avogadro? fim p.84

A convergência dos resultados fornece razão para pensar que os vários modelos usados nos
diversos cálculos de Perrin foram bons o suficiente. Assim, assegura-nos que esses modelos
podem legitimamente ser usados para inferir a natureza da causa a partir do caráter dos efeitos.

Em cada um dos treze casos de Perrin, inferimos uma causa concreta de um efeito concreto.
Temos o direito de fazê-lo porque assumimos que as causas fazem com que os efeitos ocorram
exatamente da maneira que ocorrem, por meio de processos causais específicos e concretos.
A estrutura da causa determina fisicamente a estrutura do efeito. A coincidência entra no
argumento de Perrin, mas não de uma forma que suporte a inferência da melhor explicação em
geral. Não há conexão análoga à propagação causal entre as leis teóricas e as generalizações
fenomenológicas que elas reúnem e explicam. As leis explicativas resumem as leis
fenomenológicas; eles não os tornam verdadeiros. A coincidência não ajudará com as leis. Não
temos base para inferir de qualquer lei fenomenológica que uma lei explicativa deva ser
exatamente assim; multiplicar os casos não pode ajudar.
Mencionei que Gilbert Harman introduziu a expressão 'inferência para a melhor
explicação'. Harman usa dois exemplos em seu artigo original.10 O primeiro é o exemplo que
acabamos de discutir: passar a acreditar em átomos. O segundo é um exemplo comum e
importante da vida cotidiana: inferir que o mordomo fez isso. Observe que ambos são casos
em que inferimos fatos sobre causas concretas: não são inferências às leis de algum esquema
explicativo geral. Como o argumento de Perrin, estes não justificam um método geral para
inferir a verdade das leis explicativas. O que eles ilustram é um tipo muito mais restritivo de
inferência: inferência para a melhor causa.
Machine Translated by Google

4. Conclusão

Perrin não fez uma inferência para a melhor explicação, apenas uma inferência para a causa
mais provável. Isso é típico da física moderna. Tratamentos teóricos 'competidores'—
tratamentos que escrevem leis diferentes para os mesmos fenômenos são encorajados na física,
mas apenas uma única história causal é permitida. Embora os filósofos geralmente acreditem
em leis e neguem causas, a prática explicativa na física é exatamente o contrário. fim p.86

Ensaio 5 Quando a explicação leva à inferência


Nancy Cartwright

0. Introdução

Quando podemos inferir a melhor explicação? Essa questão divide os realistas científicos, por
um lado, dos operacionalistas, instrumentalistas, positivistas e empiristas construtivos, por outro.
Obviamente, deve haver certas disposições para garantir que 'o melhor' seja bom o suficiente. Mas
uma vez que isso seja entendido, a resposta realista à pergunta é "sempre"; o anti-realista, 'nunca'.
O realista pergunta: 'Como algo poderia explicar se não fosse verdade?' O antirrealista acha que
essa pergunta expõe uma visão equivocada sobre o que fazemos ao explicar. As explicações (pelo
menos as explicações de alto nível da ciência teórica que são o foco prático do debate) organizam,
de forma breve e eficiente, a massa difícil e talvez inapreensível de conhecimento altamente
detalhado que temos dos fenômenos.
Mas o poder organizador não tem nada a ver com a verdade.
Vou discutir dois antirrealistas, Bas van Fraassen e Pierre Duhem. O livro de Van Fraassen,
1
A Imagem Científica, fornece uma defesa poderosa e elegante de um
tipo de anti-realismo que ele chama de "empirismo construtivo". Os pontos de vista de Duhem
2
são apresentados em sua obra clássica de 1906, The Aim and Structure of Physical Theory.
De acordo com
van Fraassen, o empirista construtivo, afirma: A ciência
visa nos dar teorias que sejam empiricamente adequadas; e a aceitação de uma teoria envolve
apenas a crença de que ela é empiricamente adequada. (Basicamente, uma teoria é
empiricamente adequada 'exatamente se o que ela diz sobre as coisas e eventos observáveis
neste mundo é verdade'.)3
Van Fraassen apresenta a diferença entre o realista e o empirista construtivo como uma questão
de atitude. Ambos podem terminar p.87

explicar mostrando como os fenômenos em questão podem ser derivados de certos princípios
fundamentais. Mas os dois tipos de filósofos têm atitudes opostas em relação aos princípios.
Machine Translated by Google

O realista acredita que elas são verdadeiras e genuinamente dão origem aos fenômenos; o
empirista construtivo acredita meramente que os princípios são suficientes para derivar os
fenômenos.
O realista, diz van Fraassen, está cometendo um erro. Quando uma teoria consegue salvar os
fenômenos, o realista científico está pronto para inferir que suas leis são verdadeiras (ou quase
verdadeiras, ou verdadeiras por enquanto) e que suas entidades existem. Van Fraassen sustenta
que o sucesso de uma teoria em salvar os fenômenos dá razão para acreditar apenas nisso: que
ela salva os fenômenos e nada mais. Que a teoria é verdadeira é uma suposição adicional gratuita.
Este é o cerne da visão de Duhem também. Duhem não discorda das leis fenomenológicas, que
podem ser confirmadas por métodos indutivos. O que ele se opõe são leis teóricas, cujo único
fundamento é sua capacidade de explicar. Como van Fraassen, Duhem rejeita as leis teóricas
porque não admite inferência para a melhor explicação.
Nem van Fraassen nem Duhem se opõem à inferência ampliativa em geral. Eles fazem um
ataque específico e concreto a um tipo particular de inferência que consideram inválida –
inferência à melhor explicação – e, portanto, ao realismo científico que ela dá origem.

Este é o real interesse de sua visão. Eles têm uma objeção específica a um modo de
raciocínio e a uma classe de conclusões científicas. Eles não argumentam a partir de uma
posição cética radical que começa com a fraqueza de nossos sentidos e a pobreza de nossas
capacidades e conclui que ninguém pode saber nada. Tampouco argumentam a partir de uma
teoria do significado que considera o discurso teórico como desprovido de valor de verdade,
juntamente com todas as nossas reivindicações de moralidade, causalidade e religião. Finalmente,
eles não são idealistas transcendentais como Kant. Nem (para usar o rótulo apropriado de Ian
Hacking) eles são nominalistas transcendentais como Hilary Putnam, que argumenta que, como
o pensamento nunca pode se conectar com a realidade, nosso conhecimento pode, na melhor
das hipóteses, alcançar uma coerência interna. Duhem e van Fraassen fazem uma distinção no
campo do final p.88

conhecimento científico, enquanto o ceticismo, o positivismo e os transcendentalismos são


doutrinas globais sobre todo o domínio da ciência. Duhem e van Fraassen admitem que muitas
inferências são sólidas, mas não inferências à teoria pura que são justificadas apenas em termos
de explicação.
Seus argumentos são persuasivos. Mas acho que van Fraassen e Duhem eliminam mais do que
deveriam. É evidente a partir de ensaios anteriores que compartilho seu antirrealismo sobre as leis
teóricas. Por outro lado, acredito em entidades teóricas, e esse é o meu tema principal neste
ensaio. Argumentos contra a inferência da melhor explicação não funcionam contra as explicações
que as entidades teóricas fornecem. Essas são explicações causais, e a inferência do efeito à
causa é legítima. Não terei nada de novo a dizer sobre a estrutura dessas inferências. Pretendo
apenas mostrar que podemos ser realistas sobre entidades teóricas nos próprios fundamentos de
van Fraassen e Duhem.

1. Ataque de Van Fraassen


Machine Translated by Google

Van Fraassen pergunta: 'Por que eu deveria acreditar em entidades teóricas?' Há uma resposta
canônica: não há regularidades genuínas no nível fenomenológico. É apenas entre entidades
teóricas que a ciência encontra verdadeiras regularidades. Uma vez que os apresentamos, temos
um poderoso esquema explicativo. As leis sem exceção que postulamos no nível teórico podem
explicar não apenas por que os fenômenos são tão regulares como são, mas por que vemos as
exceções que vemos. Van Fraassen concede isso. Mas, ele pergunta, que razão temos para
inferir do fato de que um feixe de princípios salva os fenômenos ao fato de que eles são
verdadeiros? Precisamos de alguma razão, alguma boa razão, embora certamente não uma razão
conclusiva. Muitos argumentos carregam sua validade na manga: 'Eu acho.
Portanto, eu existo.' Mas não, 'P explica Q. Q é verdade. Portanto P é verdadeiro.'
Esse argumento, e também o de Duhem, assume que a verdade é uma característica externa
da explicação; isto é, que algo poderia satisfazer todos os outros critérios para ser uma
explicação e ainda assim não ser verdade. Esta é a maneira como muitas vezes somos
ensinados a pensar na astronomia ptolomaica. Pode acabar p.89

bem formam um esquema explicativo completamente satisfatório, mas isso não resolve a
questão de sua verdade. Isto, por exemplo, é o que o medieval Piccolomini, um dos heróis de
Duhem, diz de Ptolomeu e seus sucessores: para esses astrônomos, bastava que suas
construções salvassem as aparências, que permitissem o cálculo dos movimentos dos corpos
celestes. , seus arranjos e seu lugar. Se as coisas realmente são ou não como elas as imaginam—

essa questão eles deixam para os filósofos da natureza.4


Como vimos no último ensaio, o próprio argumento de Duhem contra a inferência da
melhor explicação é o argumento da redundância: para qualquer conjunto de fenômenos,
em princípio sempre haverá mais de uma explicação igualmente satisfatória, e algumas dessas
explicações serão incompatível. Como nem todas podem ser verdadeiras, fica claro que a
verdade independe da satisfação da explicação. Às vezes, o argumento de Duhem é lido
epistemologicamente. Ele é levado a fazer uma observação, não sobre quais são os critérios,
mas sim sobre nossa capacidade de ver se eles se aplicam. Na leitura epistemológica, Duhem
afirma apenas que sempre haverá leis diferentes que parecem igualmente verdadeiras, até onde
podemos dizer, e ainda assim são incompatíveis.
Isso, eu acho, é uma leitura equivocada. Pois é uma característica geral de nosso conhecimento
e não mostra o que é peculiar à inferência para a melhor explicação que Duhem ataca.
Duhem não se opõe, por exemplo, às leis fenomenológicas, que surgem por generalização
indutiva. É um fato familiar que é possível construir diferentes regras indutivas que dão origem
a diferentes generalizações a partir da mesma evidência. Aqui também sempre haverá mais de
uma lei incompatível que parece igualmente verdadeira até onde podemos dizer. Esses tipos de
problemas com inferência indutiva eram conhecidos por Duhem. Mas ele não se deteve neles.
Sua preocupação não era com questões epistemológicas desse tipo, mas sim com a relação
entre verdade e explicação.
Eu disse que Duhem e van Fraassen tomam a verdade como uma característica externa
à explicação. Aqui está uma analogia. Peço-lhe que me conte uma história interessante, e você o
faz. Posso acrescentar que a história deve ser verdadeira. Mas se eu fizer isso, esse é um
requisito novo e adicional como aquele que os filósofos naturais de Piccolomini fazem. Eles vão chamar algo de
Machine Translated by Google

explicação genuína somente se ela faz tudo o mais que deveria e é além disso verdadeira. Aqui
está outra analogia. Van Fraassen e Duhem nos desafiam a contar o que há de especial na relação
explicativa. Por que a verdade do segundo relatum garante a verdade do primeiro? As relações de duas
posições em geral não possuem essa característica. Considere outra relação de duas posições: — é o
artigo na Conferência de Washington Ocidental de 1980 que imediatamente precedeu —.
Naquele ano, meu artigo imediatamente precedeu o de Richard
Wollheim; O artigo de Wollheim pode muito bem ter sido verdade. Mas isso não faz o meu
verdadeiro.

2. O Caso das Entidades Teóricas

Van Fraassen e Duhem argumentam que a explicação tem a verdade apenas como um ingrediente extra.
Mas as explicações causais têm a verdade embutida nelas. Quando deduzo de um efeito para uma causa,
estou perguntando o que fez o efeito ocorrer, o que o provocou. Nenhuma explicação desse tipo explica
nada, a menos que apresente uma causa; e ao aceitar tal explicação, estou aceitando não apenas que ela
explique no sentido de organizar e tornar claro, mas também que me apresente uma causa. Meu limoeiro
recém-plantado está doente, as folhas amarelando e caindo. Finalmente explico isso dizendo que a água
se acumulou na base da plantadeira: a água é a causa da doença. Faço um buraco na base do barril de
carvalho onde vive o limoeiro e sai água suja.

Essa foi a causa. Antes de fazer o furo, eu ainda podia dar a explicação e dar essa explicação era
apresentar a suposta causa, a água. Deve haver tal água para que a explicação seja correta. Uma
explicação de um efeito por uma causa tem um componente existencial, não apenas um ingrediente
extra opcional.
Da mesma forma quando explico a mudança na taxa de queda
de um final p.91

uma gota de luz em um campo elétrico, afirmando que há pósitrons ou elétrons na bola, estou inferindo
do efeito à causa, e a explicação não tem nenhum sentido sem a implicação direta de que há elétrons ou
pósitrons na bola. Aqui não há como fazer um buraco para deixar os elétrons jorrar diante de nossos
olhos. Mas há a geração de outros efeitos: se a bola estiver carregada negativamente, eu a borrifo com
um emissor de pósitrons e assim mudo a taxa de queda da bola: os pósitrons do emissor apagam os
elétrons da bola. O que invoco ao completar tal explicação não são leis fundamentais da natureza, mas
sim propriedades de elétrons e pósitrons, e afirmações altamente complexas e altamente específicas
sobre o comportamento a que elas levam exatamente nesta situação. Infiro para a melhor explicação,
mas apenas de forma derivada: infiro para a causa mais provável, e essa causa é um item específico, o
que chamamos de entidade teórica. Mas observe que o elétron não é uma entidade de nenhuma teoria
em particular. Em um contexto relacionado, van Fraassen pergunta se é o elétron de Bohr, o elétron de
Rutherford, o elétron de Lorenz ou o quê. A resposta é que é o elétron, sobre o qual temos um grande
número de teorias incompletas e às vezes conflitantes.
Machine Translated by Google

Na verdade, eu deveria usar um exemplo de van Fraassen aqui para mostrar como somos diferentes.
Em uma câmara de nuvens, vemos certos rastros que, segundo ele, têm aproximadamente a mesma
explicação física do rastro de vapor de um jato no céu. Em cada caso, posso explicar a trilha
declarando algumas leis. Mas e as entidades? Digo que a causa mais provável do rastro na câmara é
uma partícula e, à medida que vou descobrindo mais, posso até dizer com alguma especificidade que
tipo de partícula. Isso, argumenta van Fraassen, ainda é bem diferente do jato no céu. Pois, lá, diz van
Fraassen, olhe para a mancha logo à frente da trilha, ou aqui, use este poderoso vidro para espioná-la.
Não existe tal espionagem quando chegamos à câmara de nuvens. Concordo com essa premissa, mas
não com a conclusão. Ao explicar o rastro pela partícula, estou dizendo que a partícula causa o rastro,
e essa explicação, ou inferência para a causa mais provável, não tem sentido a menos que se afirme
que a partícula em movimento provoca, causa, faz, produz , essa mesma faixa. A partícula no final p.92

a câmara de nuvens é apenas um exemplo. Nossa crença em entidades teóricas é geralmente


fundada em inferências de efeitos concretos para causas concretas. Aqui há uma resposta para a
pergunta de van Fraassen-Duhem. O que há de especial na explicação por entidade teórica é que ela
é uma explicação causal, e a existência é uma característica interna das alegações causais. Não há
nada semelhante para as leis teóricas.
Van Fraassen não acredita em causas. Ele considera toda a rubrica causal uma ficção.
Isso é irrelevante aqui. Alguém que não acredita em causas não dará explicações causais. Pode-
se ter dúvidas sobre algumas alegações causais particulares, ou, como van Fraassen, sobre
todo o empreendimento de dar explicações causais. Essas dúvidas dizem respeito apenas a quão
satisfatório você deve contar uma explicação causal. Eles não se referem a que tipo de inferências
você pode fazer depois de aceitar essa explicação.
Podemos ver esse ponto contrastando a explicação causal com a explicação de uma lei por outra,
ou com a relação de 'papel precedente' que mencionei acima. Precisamos separar o desafio especial
de van Fraassen-Duhem que temos discutido de preocupações epistemológicas mais gerais que nos
fazem questionar (como talvez sempre devêssemos) se realmente temos uma boa explicação. Então,
vamos introduzir uma ficção. Deus pode lhe dizer que o artigo de Wollheim está atrás do meu, e que o
artigo dele é verdadeiro. Você não tem dúvidas sobre nenhuma dessas proposições. Isso não significa
nada sobre a verdade do meu artigo. Da mesma forma, Deus lhe diz que a equação de Schroedinger
fornece uma derivação completamente satisfatória da lei fenomenológica do decaimento radioativo.
Você não tem dúvidas de que a derivação está correta. Mas você ainda não tem motivos para acreditar
na equação de Schroedinger. Por outro lado, se Deus lhe diz que o apodrecimento das raízes é a causa
do amarelecimento das folhas, ou que a ionização produzida pela carga negativa explica o rastro na
câmara de nuvens, então você tem razão, razão conclusiva , acreditar que há água na banheira e que
há um elétron na câmara. fim p.93

3. Uma objeção
Machine Translated by Google

Argumento que as inferências para a causa mais provável têm uma força lógica
diferente das inferências para a melhor explicação. Larry Laudan levanta uma séria objeção:
"Parece-me que suas distinções são plausíveis apenas porque você insiste (aparentemente
arbitrariamente) em apoiar uma visão pragmática das leis teóricas e uma visão não pragmática
da conversa causal" . Acho que essa distinção não é arbitrária, apresentarei duas visões de
explicação muito familiares, uma que fundamenta o modelo dedutivo-nomológico (D–N)6 e a
segunda, a visão de Duhem. Van Fraassen desafia o realista a dar uma explicação que mostre
por que o sucesso da explicação, juntamente com a verdade do explanandum, defende a
verdade do explanans. Eu disse que havia uma resposta para essa pergunta no caso de
inferência causal. Da mesma forma, acho que há uma resposta na conta D–N. Se o modelo D–N
é uma explicação correta de como é a explicação, concordo que minha distinção é arbitrária;
mas não é assim se Duhem estiver certo.
Se pudéssemos imaginar que nossas leis explicativas tornavam as leis fenomenológicas
verdadeiras, isso responderia ao desafio de van Fraassen. Mas há outro relato mais plausível
que funcionaria tão bem. Discutirei esse relato em grande detalhe no próximo ensaio. Adolf
Grünbaum dá um breve esboço da visão: É crucial perceber que enquanto (uma lei mais
abrangente) G implica (uma lei menos abrangente) L logicamente, fornecendo assim uma
explicação de L, G não é a 'causa' de L Mais especificamente, as leis se explicam não mostrando
as regularidades que afirmam ser produtos da operação de causas, mas sim reconhecendo sua
verdade como casos especiais de verdades mais abrangentes.7

Para qualquer situação específica, supõe-se que as leis fundamentais façam as mesmas
reivindicações que as leis fenomenológicas mais concretas que elas explicam. Isso é confirmado
no final da p.94

pelo fato de que as leis fenomenológicas podem ser deduzidas das leis fundamentais, uma
vez fornecida uma descrição da situação. Se as leis fenomenológicas acertaram, então
também a fundamental, pelo menos nessa situação. Há ainda um problema indutivo: as leis
fundamentais estão fazendo a generalização correta entre as situações? Mas pelo menos vemos
por que o sucesso da explicação requer a verdade do explanans. Explicar uma lei fenomenológica
é reformulá-la, mas de uma maneira suficientemente abstrata e geral que também afirma uma
variedade de outras leis fenomenológicas. As leis explicativas são declarações verdadeiras do
que acontece; mas, ao contrário das leis fenomenológicas, são formas econômicas de dizer
muito.
Isso pode parecer simples. O que mais poderia ser a explicação? Mas contraste Duhem.
Duhem acredita que os fenômenos da natureza se enquadram aproximadamente em tipos
naturais. O realista procura algo que unifique os membros da espécie natural, algo que todos
tenham em comum; mas Duhem nega que haja alguma coisa. Não há nada mais do que os fatos
brutos da natureza de que às vezes algumas coisas se comportam como outras, e o que
acontece com uma é uma pista para o que as outras farão. As explicações fornecem um esquema
que nos permite fazer uso dessas pistas. A luz e a eletricidade se comportam de maneira
semelhante, mas os procedimentos para fazer as analogias são intrincados e difíceis. É mais
fácil para nós postular o campo eletromagnético e as quatro leis de Maxwell, ver tanto a luz
quanto a eletricidade como uma manifestação de uma única característica subjacente. Não
existe tal recurso, mas se formos cuidadosos, é melhor trabalhar com esses unificadores fictícios do que tentar comp
Machine Translated by Google

diretamente a vasta gama de analogias e desanalogias. Os esquemas explicativos que


postulamos funcionam tão bem, até mesmo para produzir novas produções, porque os
fenômenos se enquadram aproximadamente em tipos naturais. Mas, na verdade, os fenômenos
são genuinamente diferentes. Eles só se assemelham algumas vezes em alguns aspectos, e a
tentativa D–N de produzir uma descrição verdadeira para todos os membros da mesma classe
deve inevitavelmente falhar. Não podemos esperar encontrar uma lei explicativa que descreva
dois fenômenos que são de fato diferentes e, no entanto, sejam verdadeiros para ambos. O que
podemos exigir da explicação é um esquema que nos permita explorar as semelhanças que existem.

Estas são descrições muito superficiais das duas visões. Mas basta ver que os dois incorporam
concepções de explicação bastante diferentes. Tampouco se trata apenas de escolher por qual
perseguir, uma vez que se unem a quadros metafísicos distintos. Na prática, as duas
concepções se encontram; pois nas explicações da vida real, o fracasso da dedutividade é a norma.
Duhem prevê isso. Mas os proponentes do modelo D–N também podem explicar os fatos
práticos. Eles atribuem o fracasso da dedutividade não à falta de unidade na natureza, mas às
falhas de cada teoria particular que temos à mão.
A diferença entre as duas concepções em relação ao desafio de van Fraassen pode ser
obscurecida por essa convergência prática. Às vezes assumimos erroneamente que as
explicações individuais, em ambos os casos, terão a mesma aparência. O próprio Van Fraassen
parece supor isso; pois ele exige que as subestruturas empíricas fornecidas por uma teoria
sejam isomórficas às verdadeiras estruturas dos fenômenos. Mas Duhem diz que pode haver,
na melhor das hipóteses, uma partida difícil. Se Duhem estiver certo, não haverá riqueza de
explicações verdadeiramente dedutivas, não importa quão bem desenvolvida seja uma disciplina científica que procu
Duhem está do lado dos pensadores que dizem que "Uma teoria física é um sistema abstrato
cujo objetivo é resumir e classificar logicamente um grupo de leis experimentais sem o
objetivo de explicar essas leis", onde "explicar (explicar, explicare) é retirar a realidade das
aparências que a cobrem como um véu, a fim de ver a própria realidade nua.'8 Em um esforço
para permanecer metafisicamente neutro, podemos levar em conta uma explicação que é mais
geral do que a história de Duhem ou D-N: explicar uma coleção de leis fenomenológicas é dar
uma teoria física delas, uma teoria física no sentido de Duhem, que resuma as leis e as
classifique logicamente; só agora permanecemos neutros sobre se também somos chamados a
explicar no sentido mais profundo de desnudar as aparências. Este é o tipo geral de explicação
que venho supondo ao longo deste ensaio.

Não há dúvida de que podemos explicar nesse sentido.


fim p.96

As teorias físicas são abundantes, e não precisamos olhar para a futura conclusão da ciência
para argumentar que elas são razoavelmente bem-sucedidas em resumir e organizar; isso é o
que eles claramente fazem agora. Mas esse senso de explicação mínimo, e que não faz
perguntas, não atende ao desafio de van Fraassen. Não há nada sobre uma organização bem-
sucedida que exija a verdade. A caracterização despojada não serve. Precisamos de toda a
parafernália da conta D–N para obter a conexão necessária entre verdade e
Machine Translated by Google

explicação. Mas ir além da visão despojada para a metafísica completa envolvida em um relato
D–N é apenas a questão em questão.
Ainda há mais na crítica de Laudan. O próprio Laudan escreveu um belo texto contra a
inferência da melhor explicação.9 O cerne de seu argumento é este: é uma forma pobre de
inferência que repetidamente gera conclusões falsas. Ele comenta caso após caso na história
da ciência, onde agora sabemos que nossas melhores explicações eram falsas.
Laudan argumenta que esse problema aflige igualmente as leis teóricas e as entidades teóricas.
Do meu ponto de
vista, ele diz: O que eu quero saber é que diferença epistêmica existe entre a evidência que
podemos ter para uma lei teórica (que você admite não ser robusta) e a evidência que podemos
ter para uma entidade teórica – tal que estamos autorizados a concluir que, digamos, elétrons e
prótons existem, mas que não estamos autorizados a concluir que as leis teóricas são
provavelmente verdadeiras. Parece-me que os dois estão provavelmente em pé de igualdade epistemicamente.
O exemplo favorito de Laudan é o éter eletromagnético, que 'teve todos os tipos de
fontes independentes de suporte para ele coletadas ao longo de um século e meio'. Ele
pergunta: 'Os sucessos invejáveis das teorias de eletricidade de um e dois fluidos mostraram
que realmente havia um fluido elétrico?'10
Tenho duas observações, a primeira muito breve. Embora o éter eletromagnético seja um
exemplo impressionante, acho que esses casos são muito mais raros do que Laundan.
Então temos uma disputa histórica. A segunda observação tem a ver com a primeira. Tenho
argumentado que devemos estar comprometidos com a existência da causa se quisermos
aceitar uma dada explicação causal. fim p.97

O mesmo não é verdade para considerar uma explicação teórica boa. As duas afirmações
se entrelaçam quando abordamos a questão não trivial e difícil, quando temos motivos
razoáveis para considerar aceitável uma explicação causal? O fato de as hipóteses causais
serem parte de uma teoria explicativa geralmente satisfatória não é suficiente, pois o
sucesso em organizar, prever e classificar nunca é um argumento para a verdade. Aqui, como
venho enfatizando, a ideia de testes experimentais diretos é crucial. Considere o exemplo da
empresa de laser, Spectra Physics, mencionada na introdução destes ensaios. Engenheiros da
Spectra Physics constroem seus lasers com a ajuda da teoria quântica da radiação, óptica não
linear e similares; e calculam suas características de desempenho. Mas isso não vai satisfazer
seus clientes. Para garantir que obterão os efeitos que alegam, eles usam lasers no valor de um
quarto de milhão de dólares a cada poucos meses em testes.

Acho que não há teoria geral, além dos métodos de Mill, para o que estamos fazendo em
testes experimentais; manipulamos a causa e procuramos ver se os efeitos mudam de maneira
apropriada. Para alegações causais específicas, existem diferentes metodologias detalhadas.
Ian Hacking, em 'Experimentation and Scientific Realism', dá um longo exemplo do uso do
Peggy II de Stanford para testar violações de paridade em correntes neutras fracas. Aí ele faz
uma afirmação surpreendente: O experimentalista não acredita em elétrons porque, nas
palavras recuperadas da ciência medieval por Duhem, eles "salvam os fenômenos". Pelo
contrário, acreditamos neles porque os usamos para criar novos fenômenos, como o fenômeno
de violação de paridade em interações de corrente neutra fraca.11
Machine Translated by Google

Concordo com Hacking que quando podemos manipular nossas entidades teóricas de
maneira fina e detalhada para intervir em outros processos, então temos a melhor evidência
possível para nossas afirmações sobre o que elas podem e não podem fazer; e entidades
teóricas que foram garantidas por afirmações causais bem testadas como essa raramente são
descartadas no progresso da ciência. fim p.98

4. Conclusão

Eu acredito em entidades teóricas. Mas não em leis teóricas. Muitas vezes, quando tento
explicar meus pontos de vista sobre leis teóricas, deparo com uma resposta realista padrão:
'Como uma lei poderia explicar se não fosse verdadeira?' Van Fraassen e Duhem nos ensinam
a replicar: 'Como isso poderia explicar se fosse verdade?' O que há na explicação que garante
a verdade? Acho que não há resposta plausível para essa pergunta quando uma lei explica
outra. Mas quando raciocinamos sobre entidades teóricas a situação é diferente. O raciocínio
é causal, e aceitar a explicação é admitir a causa. Há água no barril do meu limoeiro, ou não
tenho explicação para sua doença, e se não há elétrons na câmara de nuvens, não sei por que
os rastros estão lá. fim p.99

Ensaio 6 Para Leis Fenomenológicas


Nancy Cartwright

0. Introdução

Uma longa tradição distingue as leis fundamentais das fenomenológicas e favorece o


fundamental. As leis fundamentais são verdadeiras em si mesmas; leis fenomenológicas valem
apenas por conta de outras mais fundamentais. Essa visão incorpora um realismo extremo
sobre as leis fundamentais das teorias explicativas básicas. Não apenas são verdadeiras (ou
seriam se tivéssemos as corretas), mas são, em certo sentido, mais verdadeiras do que as leis
fenomenológicas que elas explicam. Exorto apenas o inverso. Eu faço isso não porque as leis
fundamentais são sobre entidades e processos não observáveis, mas sim por causa da própria
natureza da explicação teórica. Como sempre insisti em ensaios anteriores, como Pierre
Duhem, acho que as leis e equações básicas de nossas teorias fundamentais organizam e
classificam nosso conhecimento de maneira elegante e eficiente, uma maneira que nos permite
fazer cálculos e previsões muito precisos. O grande poder explicativo e preditivo de nossas
teorias está em suas leis fundamentais. No entanto, o conteúdo do nosso conhecimento
científico é expresso nas leis fenomenológicas.
Suponha que algumas leis fundamentais sejam usadas para explicar uma lei fenomenológica.
O ultra-realista pensa que a lei fenomenológica é verdadeira por causa das leis mais
fundamentais. Uma explicação elementar disso é que as leis fundamentais tornam o
Machine Translated by Google

leis fenomenológicas verdadeiras. A verdade das leis fenomenológicas deriva da verdade


das leis fundamentais em um sentido bastante literal – algo como uma relação causal existe
entre elas. Esta é a visão da filosofia mecânica do século XVII de Robert Boyle e Robert Hooke.
Quando Deus escreveu o Livro da Natureza, ele inscreveu as leis fundamentais da mecânica e
estabeleceu a distribuição inicial da matéria no universo. Quaisquer leis fenomenológicas que
fossem verdadeiras caíram como consequência.
Mas essa não é apenas a visão
da filosofia mecânica do século XVII. É uma visão que está no cerne de grande parte da
filosofia da ciência atual – particularmente certos tipos de reducionismo – e acho que é em
parte responsável pelo apelo generalizado do modelo de explicação nomológico-dedutivo,
embora certamente não é uma visão que os proponentes originais do modelo DN, como Hempel,
Grünbaum e Nagel, jamais teriam considerado. Eu mesmo costumava ter algo parecido com
essa visão e a usava em minhas aulas para ajudar os alunos a adotarem o modelo DN. Tentei
explicar a visão com duas histórias de criação.
Imagine que Deus está prestes a escrever o Livro da Natureza com São Pedro como seu assistente.
Ele poderia proceder da maneira que a filosofia mecânica supunha. Ele mesmo decidiu
quais deveriam ser as leis fundamentais da mecânica e como a matéria deveria ser distribuída
no espaço. Então ele deixou para São Pedro a tarefa laboriosa, mas sem imaginação, de
calcular quais leis fenomenológicas evoluiriam em tal universo. Esta é uma história que dá
conteúdo à visão reducionista de que as leis da mecânica são fundamentais e todo o resto é
epifenomenal.
Por outro lado, Deus pode ter tido uma preocupação especial com quais regularidades
obteriam na natureza. Não deveria haver distinções entre as leis: o próprio Deus ditaria cada
uma delas — não apenas as leis da mecânica, mas também as leis das ligações químicas, da
fisiologia celular, das interações de pequenos grupos e assim por diante. Nesta segunda história,
a tarefa de São Pedro é muito mais exigente. A São Pedro foi deixada a tarefa difícil e delicada
de encontrar alguma disposição possível da matéria no início que permitisse que todas as
diferentes leis trabalhassem juntas ao longo da história sem inconsistência. Por isso, todas as
leis são verdadeiras ao mesmo tempo, e nenhuma é mais fundamental que as demais.
Os diferentes papéis de Deus e de São Pedro são essenciais aqui: eles dão sentido à ideia de
que, entre toda uma coleção de leis, todas supostamente verdadeiras, algumas são mais
básicas ou mais verdadeiras do que outras. Para a filosofia mecânica do século XVII, Deus e o
Livro da Natureza eram dispositivos legítimos para pensar as leis e as relações entre elas. Mas
para a maioria de nós hoje em dia essas histórias são p.101

meras metáforas. Por muito tempo usei as metáforas e busquei algumas análises não
metafóricas. Agora eu acho que isso não pode ser feito. Sem Deus e o Livro da Natureza não
faz sentido a ideia de que uma lei deriva de outra na natureza, que as leis fundamentais são
básicas e que as outras valem literalmente "por causa" das fundamentais.

Aqui, o modelo de explicação DN pode parecer ajudar. Para explicar e defender nossas visões
reducionistas, buscamos algumas relações quase causais entre as leis da natureza.
Quando não encontramos nenhuma maneira razoável de caracterizar essas relações na
natureza, transferimos nossa atenção para a linguagem. As relações dedutivas que supostamente
Machine Translated by Google

entre as leis de uma explicação científica agem como um substituto de modo formal para
as relações causais que não encontramos no mundo material. Mas o modelo DN em si não é
argumento para o realismo, uma vez que eliminamos a metafísica questionável. Enquanto
pensarmos que as relações dedutivas entre os enunciados da lei refletem a ordem de
responsabilidade entre as próprias leis, podemos ver por que o sucesso explicativo deve
defender a verdade das leis explicativas. Sem a metafísica, o fato de que um punhado de
equações elegantes pode organizar muitas informações complexas sobre uma série de leis
fenomenológicas não é argumento para a veracidade dessas equações. Como insisti no
último ensaio, precisamos de alguma história sobre qual deve ser a conexão entre as
equações fundamentais e as leis mais complicadas. Lá vimos que Adolf Grünbaum esboçou
tal história. Acho que seu esboço coincide com os pontos de vista de muitos realistas contemporâneos.
A visão de Grünbaum evita a metafísica e deve ser aceitável para qualquer
empirista moderno. Lembre-se de que Grünbaum diz: É crucial perceber que
enquanto (uma lei mais abrangente) G implica (uma lei menos abrangente) L
logicamente, fornecendo assim uma explicação de L, G não é a 'causa' de L. Mais
especificamente, leis se explicam não mostrando as regularidades que afirmam ser
produtos da operação de causas, mas sim reconhecendo sua verdade como casos especiais
de verdades mais abrangentes.1
fim p.102

Chamo esse tipo de explicação da relação entre leis fundamentais e fenomenológicas de


explicação genérica-específica . Sustenta que, em qualquer conjunto particular de
circunstâncias, as leis explicativas fundamentais e as leis fenomenológicas que elas
explicam fazem as mesmas afirmações. As leis fenomenológicas são o que as leis
fundamentais representam nas circunstâncias em questão. Mas as leis fundamentais são
superiores porque expõem os fatos de uma maneira mais geral, de modo a também fazer
afirmações sobre uma variedade de circunstâncias diferentes.
A explicação genérica-específica é bem apoiada pelo modelo dedutivo-nomológico de
explicação: quando as leis fundamentais explicam uma lei fenomenológica, a lei
fenomenológica é deduzida da mais fundamental em conjunto com uma descrição das
circunstâncias em que a lei fenomenológica prevalece. A dedução mostra exatamente o
que as leis fundamentais fazem nas circunstâncias descritas.

Mas as explicações raramente são de fato dedutivas, de modo que a explicação genérica
específica ganha pouco apoio da prática explicativa real. Wesley Salmon2 e Richard Jeffrey,3
e agora muitos outros, argumentaram persuasivamente que explicações não são argumentos.
Mas seus pontos de vista parecem incidir mais diretamente nas explicações de eventos
isolados; e muitos filósofos ainda esperam que o tipo de explicação que nos interessa aqui,
onde uma lei é derivada de outras mais fundamentais, ainda seguirá a forma DN.
Uma razão pela qual a conta DN muitas vezes parece adequada para esses casos é que
ela começa a procurar explicações somente depois que muito trabalho científico já foi
feito. Ignora o fato de que as explicações em física geralmente começam com um
modelo. O cálculo das propriedades de pequenos sinais de amplificadores, que discuto
na próxima seção, é um exemplo.4 Primeiro terminamos a p.103
Machine Translated by Google

decidir qual modelo usar - talvez o modelo T, talvez o modelo híbrido-ÿ. Só então podemos escrever as
equações com as quais começaremos nossa derivação.
Qual modelo é o certo? Cada um tem certas vantagens e desvantagens. A abordagem do modelo
T para calcular as propriedades de banda média do estágio CE é direta e simples, mas se
precisarmos saber como o estágio CE muda quando as condições de polarização mudam,
precisaríamos saber como todos os parâmetros no circuito do transistor variam com viés. É
incrivelmente difícil produzir esses resultados em um modelo T. O modelo T também carece de
generalidade, pois requer uma nova análise para cada mudança na configuração, enquanto a
abordagem do modelo híbrido-ÿ é mais útil na análise sistemática de redes. Esta é geralmente a
situação em que temos que trazer a teoria para um sistema físico real como um amplificador. Para
diferentes propósitos, diferentes modelos com diferentes leis incompatíveis são os melhores, e não
existe um modelo único que se adapte às circunstâncias. Os fatos da situação não escolhem um
modelo certo para usar.
Discutirei os modelos detalhadamente nos próximos ensaios. Aqui, quero deixar de lado minhas
preocupações com modelos e pensar em como as derivações ocorrem depois que um modelo é escolhido.
Os proponentes da visão DN tendem a pensar que, pelo menos, a conta genérica específica é válida.
Mas essa visão é evidentemente equivocada quando se olha para derivações reais em física ou
engenharia. Nunca é uma dedução estrita que leva você das equações fundamentais no início às
leis fenomenológicas no final. Em vez disso, exigimos uma variedade de aproximações diferentes.
Em qualquer campo da física, há no máximo um punhado de soluções rigorosas, e geralmente para
situações altamente artificiais. Engenharia é pior.
Os proponentes da explicação genérica específica tendem a pensar que o uso de aproximações não é
uma objeção real à sua visão. Eles têm uma história para contar sobre aproximações: o processo de
derivar uma solução aproximada é paralelo a uma explicação DN. Começamos com algumas equações
gerais que consideramos exatas e uma descrição da situação a que se aplicam. Muitas vezes é difícil,
se não impossível, resolver essas equações com rigor, por isso confiamos em nossa descrição da
situação para sugerir procedimentos aproximados. fim p.104

Nesses casos, a solução aproximada é apenas um substituto. Supomos que a solução rigorosa dê
os melhores resultados; mas por causa das dificuldades de cálculo, devemos nos satisfazer com
alguma aproximação disso.
Às vezes, essa história não está longe. Aproximações ocasionalmente funcionam exatamente assim.
Considere, por exemplo, a equação usada para determinar a velocidade do ar equivalente, de um
E,

plano V (onde P é um
T é número
a pressão
detotal,
Mach):P 0 é a pressão ambiente, ÿ S é a densidade ao nível do mar e M

• (6.1)

O valor de V E determinada por esta equação está próxima da velocidade real do avião.
Machine Translated by Google

As aproximações ocorrem em conexão com (6.1) de duas maneiras distintas, mas típicas. Primeiro, o segundo
termo,

é significativo apenas quando a velocidade do avião se aproxima de Mach Um. Se M < 0,5, o segundo termo é
descartado porque o resultado para V E dado por

diferirá insignificantemente do resultado dado por (6.1). Dada esta variação insignificante, podemos
aproximar V E usando

• (6.2)

para M < 0,5. Em segundo lugar, (6.1) já é uma aproximação, e não uma equação exata. O
prazo

tem outros termos no denominador. É uma expansão em série de Taylor. O próximo termo da expansão é M
6
/1600, então obtemos

no denominador, e assim por diante. Para números de Mach menores que um, o erro resultante de
ignorar este terceiro termo é menor que um por cento, então truncamos e usamos apenas dois
termos.

Por que o avião viaja com uma velocidade, V, aproximadamente igual a

Por causa da equação (6.1). Na verdade, o avião está realmente viajando a uma velocidade igual a


Machine Translated by Google

Mas como M é menor que 0,5, não notamos a diferença. Aqui a derivação da velocidade do avião é paralela
a uma explicação da lei de cobertura. Assumimos que a equação (6.1) é uma lei verdadeira que cobre a
situação em que o avião se encontra. Cada passo longe da equação (6.1) nos leva um pouco mais longe da
velocidade verdadeira. Mas cada passo que damos é justificado pelos fatos do caso e, se formos cuidadosos,
não erraremos muito. O resultado final será próximo o suficiente da resposta verdadeira.

Esta é uma imagem bonita, mas não é tão típica. A maioria dos casos está repleta de problemas para a
conta específica do genérico. Duas me parecem especialmente prejudiciais: (1) aproximações práticas
geralmente melhoram a precisão de nossas leis fundamentais. Geralmente os resultados manipulados são
muito mais precisos do que os resultados rigorosos que estão estritamente implícitos nas leis com as quais
começamos. (2) Na explicação genérica-específica, supõe-se que os passos da derivação mostrem como as
leis fundamentais fazem as mesmas reivindicações que as leis fenomenológicas, dados os fatos da situação.
Mas raramente os fatos são suficientes para justificar a derivação. Onde as aproximações são necessárias,
mesmo um conhecimento completo das circunstâncias pode não fornecer as premissas adicionais necessárias
para deduzir as leis fenomenológicas das equações fundamentais que as explicam.

As escolhas devem
terminar p.106

feitos que não são ditados pelos fatos. Já mencionei que é assim com a escolha dos modelos. Mas também é
o caso dos procedimentos de aproximação: a escolha é limitada, mas não ditada pelos fatos, e escolhas
diferentes dão origem a resultados diferentes e incompatíveis. A explicação genérica-específica falha porque
o conteúdo das leis fenomenológicas que derivamos não está contido nas leis fundamentais que as explicam.

Esses dois problemas são abordados sucessivamente nas próximas duas seções. Grande
parte da argumentação, especialmente na Seção 2, é extraída de um artigo escrito em conjunto por
Jon Nordby e eu, 'Como as aproximações nos afastam da teoria e em direção à verdade '. de Aproximações
na Prática da Ciência'.6

1. Aproximações que melhoram as leis

Na explicação genérica específica, qualquer aproximação diminui a verdade. Mas é difícil encontrar exemplos
disso no nível em que as aproximações conectam a teoria com a realidade, e é aí que a explicação genérica
específica deve funcionar para garantir que as leis fundamentais sejam verdadeiras no mundo real.
Geralmente, nesse nível, as aproximações nos afastam da teoria e cada passo longe da teoria se aproxima
da verdade. Ilustro com dois exemplos do artigo conjunto com Jon Nordby.

1.1. Um modelo de amplificador


Machine Translated by Google

Considere um amplificador construído de acordo com a Figura 6.1. Como mencionei


anteriormente, existem duas maneiras de calcular as propriedades de pequenos sinais deste
amplificador, o modelo T e o modelo híbrido-ÿ. O primeiro substitui um modelo de circuito para o
transistor e analisa a rede resultante. A segunda caracteriza o transistor como um conjunto de
parâmetros de duas portas e calcula as propriedades do pequeno sinal da extremidade do
amplificador p.107

Fig. 6.1

Fig. 6.2

Fig. 6.3

em relação a esses parâmetros. Os dois modelos são mostrados nas Figuras 6.2 e 6.3 dentro da
área pontilhada.
A aplicação desses modelos de transistores em situações específicas fornece uma
primeira aproximação grosseira dos parâmetros do transistor em baixas frequências. Esses
parâmetros podem ser estimados teoricamente sem ter que fazer nenhuma medição no circuito real.
Mas as estimativas teóricas são muitas vezes grosseiramente imprecisas devido a características
causais específicas presentes no circuito real, mas ausentes dos modelos. fim p.108
Machine Translated by Google

Pode-se imaginar lidar com esse problema construindo um modelo maior e mais complexo que
inclua os recursos causais ausentes. Mas tal modelo teria que ser altamente específico para o
circuito em questão e, portanto, não teria aplicabilidade geral.
Em vez disso, um procedimento diferente é seguido. As medições dos parâmetros relevantes são
feitas no circuito real em estudo e, em seguida, os valores medidos, em vez dos valores teoricamente
previstos, são usados para cálculos adicionais nos modelos originais. Para ilustrar, considere um

E =1 e
amplificador real, construído e testado de tal forma que I 2,3 k ohm; R = 1 k ohm ma; R eu r= b2,7 15 =
assuma
1 = 1k ohms. ÿ = 162 e R S
= 50 ohms. O
expectativa teórica de ganho de banda média é

• (6.3)

O ganho de banda média real medido para este amplificador com uma tensão de saída em f = 2 kHz
e tensão de fonte em 1,8 mv e 2 kHz, é

• (6.4)

Esse resultado não chega nem perto do que a teoria prevê. Este fato é explicado causalmente
considerando duas características da situação: primeiro, a imprecisão do modelo do transistor devido
a alguma combinação não diagnosticada de fatores causais; e segundo, uma omissão especificamente
diagnosticada – a omissão da resistência em série equivalente no capacitor de bypass. A primeira
imprecisão envolve o valor atribuído a re pela teoria
proporcionalidade
. Em teoria, r quepara = kT/qI
é aproximadamente
esteE tipo E , 25,9/I
de transistor
mv, então
é 30
As medições
r Em segundo lugar, a resistência
E. _ em sériereais indicam
é omitida doque a constante
capacitor de os capacitores eletrolíticos
ideal. Mas
reais não são ideais. Há fuga de corrente no eletrólito, e isso pode
E
= ser
30/Imodelado
E , não 25,9/I
por uma
E. _resistência

em série com o capacitor. Esta resistência em série é geralmente entre 1 e 10 ohms, às vezes tão alta
quanto 25 ohms. É bastante constante em baixa frequência, mas final p.109

aumenta com o aumento da frequência e também com o aumento da temperatura. Neste caso
específico, a resistência em série, , é medida como 12 ohms.
Devemos agora modificar (6.3) para levar em conta esses recursos, dado nosso resultado medido
em (6.4) de A
V , meas. = 44:

• (6.5)


Machine Translated by Google

Resolver esta equação nos dá um ganho de banda média previsto de 47,5, que é suficientemente
próximo do ganho de banda média medido para a maioria dos propósitos.
Vamos agora olhar para trás para ver que esse procedimento é muito diferente do que supõe a
conta específica genérica. Começamos com uma equação abstrata geral, (6.3); fazer algumas
aproximações; e termina com (6.5), que dá origem a previsões fenomenológicas detalhadas. Assim,
superficialmente, pode parecer uma explicação DN dos fatos previstos.
Mas, ao contrário das leis de cobertura das explicações de DN, (6.3) como está não é uma equação
que realmente descreva os circuitos aos quais é aplicada. (6.3) é refinado levando-se em conta as
características causais específicas de cada situação individual para formar uma equação como
(6.5). (6.5) dá origem a previsões precisas, enquanto uma solução rigorosa para (6.3) seria
dramaticamente equivocada.
Mas pode-se objetar: o modelo de circuito, sem adição de resistência, não é apenas uma
idealização? E que mal é isso? Concordo que o modelo de circuito é um exemplo muito bom de uma
coisa que normalmente queremos dizer com o termo idealização. Mas como isso pode ajudar o
defensor das leis fundamentais? A maioria dos filósofos fez as pazes com as idealizações: afinal, nós
as usamos na física matemática há mais de dois mil anos. Aristóteles ao provar que o arco-íris não é
maior que um semicírculo em Meterologica III. 5 não apenas trata o sol como um ponto, mas em uma
falsidade descarada coloca o sol e o meio refletor (e, portanto, o próprio arco-íris) à mesma distância
do observador. Hoje ainda fazemos os mesmos tipos de idealizações em nossas teorias celestes.

No entanto, conseguimos descobrir o planeta Netuno e manter nossos satélites no espaço. As


idealizações não são uma ameaça ao progresso da ciência.
Mas que consolo é esse para o realista? Como as idealizações salvam a verdade das leis
fundamentais? A ideia parece ser essa. Chamar um modelo de idealização é sugerir que o modelo é
uma simplificação do que ocorre na realidade, geralmente uma simplificação que omite algumas
características relevantes, como a massa estendida dos planetas ou, no exemplo do modelo de
circuito, a resistência no capacitor de desvio. Às vezes, os fatores omitidos fazem apenas uma
contribuição insignificante para o efeito em estudo. Mas isso não parece ser essencial para as
idealizações, especialmente para as idealizações que acabam sendo aplicadas pelos engenheiros para
estudar coisas reais. Ao chamar algo de idealização, não parece tão importante que as contribuições
dos fatores omitidos sejam pequenas, mas que sejam aquelas para as quais sabemos corrigir. Se a
idealização for útil, quando chegar a hora de aplicá-la a um sistema real, é melhor sabermos como
somar de volta as contribuições dos fatores que foram omitidos. Nesse caso, o uso de idealizações
não parece contrariar o realismo: ou os fatores omitidos não importam muito, ou em princípio sabemos
como tratá-los.

No sentido que acabei de descrever, o modelo de circuito é patentemente uma idealização.


Começamos com a equação (6.3), que é inadequada; sabemos que a conta pode ser melhorada —
Nordby e eu mostramos como. Mas as melhorias vêm no lugar errado para o defensor das leis
fundamentais. Eles vêm de baixo para cima, por assim dizer, e não de cima para baixo. Não
modificamos o tratamento derivando de nossos princípios teóricos uma nova equação inicial para
substituir (6.3). É claro que não poderíamos fazê-lo, pois apenas parte da falha é diagnosticada. O que
fazemos em vez disso é adicionar um fator de correção fenomenológica, um fator que ajuda a produzir
uma descrição correta, mas que não é ditada pela lei fundamental.
Machine Translated by Google

Mas não poderíamos 'em princípio' fazer as correções logo no início e escrever uma equação
mais precisa desde o início? Essa é apenas a suposição que eu desafio. Mesmo se pudéssemos,
por que achamos que, indo cada vez mais para trás, tentando obter uma equação que estará
certa quando todos os fatores significativos forem incluídos, eventualmente terminaremos p.111

obter algo simples que se parece com uma das leis fundamentais de nossas teorias básicas?
Lembre-se da discussão dos efeitos cruzados do Ensaio 3. Lá, insisti que geralmente não
temos nenhum procedimento uniforme para 'adicionar' interações. Quando tentamos escrever
as equações 'mais corretas', obtemos uma lista cada vez mais longa de leis complicadas de
diferentes formas, e não um punhado de equações simples que poderiam ser fundamentais
em uma teoria física.
Generalidade e simplicidade são a substância da explicação. Mas eles também são cruciais
para a aplicação. Na engenharia, querem-se leis com um alcance razoavelmente amplo,
modelos que possam ser usados primeiro em um lugar e depois em outro. Se eu estiver
certo, uma lei que realmente cobrisse qualquer caso específico, sem muita mudança ou
correção, seria tão específica que provavelmente não funcionaria em nenhum outro lugar.
Lembre-se da objeção de Bertrand Russell ao princípio da 'mesma causa, mesmo efeito': O
princípio 'mesma causa, mesmo efeito', que os filósofos imaginam ser vital para a ciência, é,
portanto, totalmente ocioso. Assim que os antecedentes foram dados suficientemente
completos para permitir que os consequentes sejam calculados com alguma exatidão, os
antecedentes tornaram-se tão complicados que é muito improvável que eles se repitam.
Portanto, se este fosse o princípio envolvido, a ciência permaneceria totalmente estéril.8
A solução de Russell é passar para leis funcionais que estabelecem relações entre
propriedades (em vez de relações entre indivíduos). Mas o movimento não funciona se
quisermos tratar com precisão situações reais e complexas. Os engenheiros estão confortáveis com as funções.
Ainda assim, eles não parecem capazes de encontrar leis funcionais que lhes
permitam calcular consequências 'com alguma exatidão' e ainda assim não são 'tão
complicadas que é muito improvável que se repitam'. Para encontrar leis simples que
possamos usar de novo e de novo, parece que devemos nos contentar com leis que
claramente precisam de melhorias. Seguindo Russell, parece que se modelarmos a
aproximação na explicação do DN, a engenharia 'permaneceria totalmente estéril'. fim
p.112

1.2 Decaimento Exponencial

O segundo exemplo diz respeito à derivação da lei de decaimento exponencial na mecânica


quântica. Vou descrever essa derivação em detalhes, mas o ponto que quero enfatizar pode
ser resumido citando um dos melhores textos padrão, de Eugen Merzbacher: processos
radioativos, não é uma consequência rigorosa da mecânica quântica, mas o resultado de
aproximações um tanto delicadas.'9
Machine Translated by Google

A lei do decaimento exponencial é uma lei simples e probabilisticamente elegante,


para a qual – como diz Merzbacher – temos uma riqueza de suporte experimental. No
entanto, não pode ser derivada exatamente na teoria quântica. A lei exponencial só pode
ser derivada fazendo alguma aproximação significativa. No tratamento convencional a
solução rigorosa não é exponencial pura, mas inclui vários termos adicionais. Esses
termos adicionais devem ser pequenos, e a diferença entre a solução rigorosa e a
aproximada não será observável para quaisquer períodos de tempo realistas. O fato é que
os dados, juntamente com qualquer critério razoável de simplicidade (e algum critério
desse tipo deve ser assumido se quisermos generalizar de dados para leis) falam pela
verdade de uma lei exponencial; mas tal lei não pode ser derivada com rigor. Assim, parece
que as aproximações que fazemos na derivação nos aproximam, não mais longe, da verdade.
Existem dois tratamentos padrão de decaimento exponencial: o tratamento de
Weisskopf-Wigner, que foi desenvolvido em seu artigo clássico de 1930,10 e o mais
recente tratamento de Markov, que vê o decaimento exponencial de um átomo excitado
como um caso especial na teoria quântica. de amortecimento. Veremos primeiro o
tratamento mais recente. Aqui consideramos um sistema abstrato fracamente acoplado a
um reservatório. O objetivo é derivar uma equação mestra geral para o final p.113

evolução do sistema. Esta equação é semelhante às equações de evolução da mecânica


estatística clássica. Para o caso específico em que nos interessa, onde o sistema é um
átomo excitado e o reservatório o campo eletromagnético, a equação mestra se
transforma na equação da taxa de Pauli, que é o análogo da lei exponencial quando pode
ocorrer re-excitação: equação de Pauli :

(Aqui S é j a probabilidade de ocupação do j-ésimo estado; ÿ o inverso do tempo de vida; e


j , éj.)a ÿprobabilidade
estado deda
jk A derivação transição
equaçãodo estado
mestra k para o
é bastante
complexa. Vou me concentrar na característica crítica do meu ponto de vista - a
aproximação de Markov. Geralmente tal derivação começa com a expansão de perturbação
de segunda ordem padrão para o estado x do composto, sistema e reservatório, que na
imagem de interação se parece com isso:

Observe que o estado do sistema e do reservatório em t depende de toda a sua


história passada através das integrais do lado direito desta equação. O ponto da
aproximação de Markov é derivar uma equação diferencial para o estado do sistema sozinho tal
Machine Translated by Google

que a mudança neste estado de cada vez depende apenas dos fatos sobre o sistema naquele
tempo, e não em sua história passada. Isso é normalmente realizado por dois movimentos:
(i) estendendo as integrais de tempo que envolvem apenas as correlações do reservatório para o
infinito, alegando que as correlações no reservatório são significativas apenas por um curto
período em comparação com os períodos sobre os quais estamos observando o sistema ; e (ii) deixando t ÿ t 0 ÿ
0, sob o argumento de que os períodos de tempo considerados para o sistema são pequenos em
relação ao seu tempo de vida. A consequência é uma equação mestre final p.114

com o recurso desejado. Como WH Louisell observa em seu capítulo sobre


amortecimento: Notamos que o rhs [lado direito] da [equação mestra] não contém mais integrais
de tempo sobre S(t') [S é o estado do sistema sozinho] para tempos anteriores do que o presente,
de modo que o futuro agora é realmente determinado pelo presente. Assumimos que os tempos de
correlação do reservatório são zero em uma escala de tempo em que o sistema perde uma
. . Algumas
quantidade apreciável de sua energia. como vezesde
uma média segranulação
refere à aproximação
grossa.11 de Markoff

Assim, a aproximação de Markov dá origem à equação mestra; para um átomo em


interação com o campo eletromagnético, a equação mestra se especializa na equação de Pauli;
e a equação de Pauli prevê o decaimento exponencial do átomo. Sem a aproximação de Markov,
o decaimento pode, na melhor das hipóteses, ser quase exponencial.
Vejamos agora o método de Weisskopf-Wigner, tal como é empregado hoje em dia.
Começamos com as equações exatas de Schroedinger para as amplitudes, mas assumimos que o
único acoplamento significativo é entre os estados excitado e desexcitado:

(ÿ é , para E E a energia do estado excitado, E é a a energia do desanimado;


por exemplo g

frequência do quinto modo do campo; e g ef é a constante acoplamento


de entre ÿ f
o estado excitado e o quinto modo. c E é a amplitude no estado excitado, sem fótons

presente.)
A primeira aproximação observa que os modos do campo disponíveis para o átomo desexcitante
formam um continuum próximo. (Vamos aprender mais sobre isso na próxima seção.) Assim, a
soma sobre f pode ser substituída por uma integral, para dar


Machine Translated by Google

• Podemos agora extrair os termos que estão variando lentamente em ÿ e fazer o ÿ

integral, dando uma função delta em t:


2
ou configurandoÿ ÿ 2ÿg (ÿ por exemplo
) (ÿ por exemplo
),

e finalmente,

Mas, movendo-nos tão rapidamente, perdemos o deslocamento de Lamb — um


pequeno deslocamento nos níveis de energia descoberto por Willis Lamb e RC
Retherford em 1947. Valerá a pena fazer as integrais na ordemnotamos
oposta.
queNesse
c e (t) caso,
está
variando lentamente em comparação com as oscilações rápidas da exponencial e,
portanto, pode ser fatorada da integral t', e o limite superior dessa integral pode ser
estendido ao infinito . Observe que a extensão do limite t' é muito semelhante à
aproximação de Markov já descrita, e o raciocínio é semelhante. Nós temos


2
ou, definindo ÿ ÿ 2ÿg (ÿ por exemplo
) (ÿ por exemplo
)e

fim p.116

( (x) = parte principal de x.)


Machine Translated by Google

Aqui ÿÿ é o deslocamento de Lamb. O segundo método, que resulta em um deslocamento de Lamb, bem
como o alargamento de linha ÿ, é o que agora é chamado de método de 'Weisskopf-Wigner'.
Podemos tentar ser mais formais e evitar totalmente a aproximação. A maneira óbvia de proceder é
avaliar a transformada de Laplace, que acaba sendo


então

Para resolver esta equação, o integrando deve ser definido na primeira e segunda folhas de Riemann.
O método é descrito claramente no texto de Goldberger e Watson sobre a teoria da colisão.12

A contribuição primária virá de um polo simples ÿ tal que

Este termo nos dará a exponencial que queremos:

Mas esta não é uma solução exata. À medida que distorcemos o contorno nas folhas de Riemann,
cruzamos outros pólos que ainda não consideramos. Também negligenciamos a integral em torno do
próprio contorno final. Goldberger e Watson calculam que esta última integral contribui com um termo

proporcional apenas ao final p.117 . Eles esperam que os outros pólos adicionem

contribuições desprezíveis também, de modo que a resposta exata será uma aproximação próxima à lei
exponencial que estamos procurando; uma aproximação, mas ainda apenas uma aproximação. Se uma lei
exponencial pura deve ser derivada, é melhor tomarmos nossas aproximações como melhorias na equação
inicial de Schroedinger, e não como desvios da verdade.

Não existe nenhum teste experimental que diga qual é o certo? O decaimento é realmente exponencial ou a
teoria está correta ao prever desvios da lei exponencial quando t aumenta? Houve uma série de testes da
lei de decaimento experimental em meados da década de 1970, estimulada por ETs
Machine Translated by Google

A teoria "neoclássica" de Jaynes da interação da matéria com o campo eletromagnético,


uma teoria que se saiu surpreendentemente bem ao tratar o que antes se pensava ser
fenômenos quânticos puros. Mas esses testes estavam principalmente preocupados com
a afirmação de Jaynes de que as taxas de decaimento dependeriam do nível de ocupação
do estado inicial. Os experimentos não tiveram nenhuma relação com a questão do
comportamento de decaimento em tempo muito longo. Esta é realmente uma pergunta muito
difícil de testar. Rolf Winter13 experimentou o decaimento de Mn56 em até 34 meias-vidas,
e DK Butt e AR Wilson no decaimento alfa do radônio por mais de 40 meias-vidas . são
bastante longos, não são relevantes para as diferenças que venho discutindo, já que 'para
o decaimento radioativo do Mn56. . . efeitos não exponenciais não devem ocorrer antes de
aproximadamente 200 meias-vidas. Neste exemplo, como em todos os materiais usuais de
decaimento radioativo, nada observável deve ser deixado muito antes do final da região
exponencial'.15 Em suma, como lemos em um artigo de revisão de 1977 de A. Pais, tais
16 Os tempos antes das diferenças
desvios desempenham um papel não foram encontrados até o momento.'
emergem são muito
longos. fim p.118

2. Aproximações não ditadas pelos fatos

Mais uma vez, vou ilustrar com dois exemplos. Os exemplos mostram como o
procedimento correto de aproximação pode ser indeterminado pelos fatos. Ambos são
casos em que o mesmo procedimento, justificado exatamente pelas mesmas alegações
factuais, dá resultados diferentes dependendo de quando o aplicamos: a mesma
aproximação aplicada em diferentes pontos da derivação produz duas previsões
incompatíveis diferentes. Acho que isso é típico da derivação em toda a física; mas para
evitar gastar muito espaço detalhando os diferentes casos, vou ilustrar com dois fenômenos
relacionados: (a) o deslocamento de Lamb no estado excitado de um único átomo de dois níveis; e (b) o desloca
estado do átomo.

2.1. A mudança de cordeiro no estado excitado

Considere novamente a emissão espontânea de um átomo de dois níveis. A maneira


tradicional de tratar o decaimento exponencial deriva do artigo clássico de V. Weisskopf
e Eugene Wigner em 1930, que descrevi na seção anterior. Na sua forma atual, o método
de Weisskopf-Wigner faz três aproximações importantes: (1) a aproximação da onda
rotativa; (2) a substituição de uma soma por uma integral sobre os modos do campo
eletromagnético e a fatoração de termos que variam lentamente na frequência; e (3)
fatorando um termo de variação lenta da integral do tempo e estendendo o limite da integral
até o infinito. Discutirei a primeira aproximação abaixo quando considerarmos a mudança
de nível no estado fundamental. A segunda e a terceira são familiares da última seção. Aqui
eu quero me concentrar em como eles afetam a mudança de Lamb no estado excitado.
Machine Translated by Google

Ambas as aproximações são justificadas pelo apelo às características físicas do par de campos
atômicos. A segunda aproximação é razoável porque os modos do campo devem formar um
continuum próximo; isto é, há um número muito grande de modos muito próximos. Isso nos
permite substituir a soma por uma integral. A integral é sobre um produto da constante de
acoplamento em função da frequência, ÿ, e um termo da forma exp(ÿiÿt). A extremidade do
acoplamento p.119

A constante depende do potencial de interação para o átomo e o campo, e supõe-se que seja
relativamente constante em ÿ em comparação com a exponencial de oscilação rápida. Portanto,
pode ser fatorado fora da integral com pouca perda de precisão. A terceira aproximação é
igualmente justificada pelas circunstâncias.
O importante é que, embora cada procedimento seja racionalizado separadamente, apelando
para fatos sobre o átomo e o campo, faz diferença a ordem em que são aplicados.
Isto é apenas o que vimos na última seção. Se começarmos com a terceira aproximação e
executarmos a integral t antes de usarmos a segunda aproximação para calcular a soma sobre
os modos, prevemos um deslocamento de Lamb no estado excitado. Se fizermos as
aproximações e tomarmos as integrais na ordem inversa - que é essencialmente o que Weisskopf
e Wigner fizeram em seu artigo original - perdemos o deslocamento de Lamb. Os fatos que
citamos justificam ambos os procedimentos, mas os fatos não nos dizem em que ordem aplicá-
los. Não há nada sobre a situação física que indique qual ordem está correta além do fato a ser
derivado: uma mudança de Lamb é observada, então é melhor fazermos primeiro (3), depois (2).
Dados todos os fatos com os quais começamos sobre o átomo e o campo e sobre suas
interações, o deslocamento de Lamb para o estado excitado se encaixa nas equações quânticas
fundamentais. Mas não a derivamos deles.
Pode-se objetar que não estamos realmente usando a mesma aproximação em ordens
diferentes; pois, aplicada em pontos diferentes, a mesma técnica não produz a mesma
aproximação. É verdade que os coeficientes em te em ÿ estão variando lentamente, e fatorá-los
das integrais resulta em apenas um pequeno erro. Mas o tamanho exato do erro depende da
ordem em que as integrações são feitas. A ordem que leva primeiro a integral t e depois a integral
ÿ é claramente preferível, porque reduz o erro.
Duas observações devem ser feitas sobre essa objeção. Ambos têm a ver com
como as aproximações funcionam na prática. Primeiro, neste caso parece praticável tentar
calcular e comparar as quantidades de erro introduzidas pelas duas aproximações. Mas muitas
vezes é praticamente impossível decidir qual dos dois procedimentos levará a resultados mais
precisos. Por exemplo, muitas vezes justificamos a retirada de termos de uma equação
mostrando que os coeficientes dos termos omitidos são pequenos comparados aos dos termos que retemos.
Mas, como o próximo exemplo mostrará, conhecer os tamanhos relativos dos termos na
equação não é um guia seguro para os efeitos exatos na solução, particularmente quando a
aproximação está embutida em uma série de outras aproximações. Este é apenas um caso
simples. O problema é generalizado. Como argumentei no Ensaio 4, a proliferação de
tratamentos é a norma na física, e muitas vezes ninguém sabe exatamente como eles se
comparam. Quando a situação fica ruim o suficiente, livros inteiros podem ser dedicados a
resolvê-la. Aqui está apenas um exemplo, The Theory of Charge Exchange , de Robert Mapleton. O objetivo primordia
Machine Translated by Google

o livro é explicar métodos de aproximação para seções transversais e probabilidades


de captura eletrônica. Mas seu objetivo secundário é comparar diferentes previsões
aproximadas entre si e com valores determinados experimentalmente. Essas
comparações devem nos permitir determinar quais procedimentos de aproximação
são mais bem-sucedidos na previsão de seções transversais para diferentes . eles
gamas . . também devem indicar quais métodos são mais promissores para
melhoria.17
Comparar aproximações muitas vezes não é fácil.
Em segundo lugar, a objeção pressupõe o princípio “quanto mais precisão, melhor”. Mas
muitas vezes não é assim, por uma variedade de razões bem conhecidas: o problema inicial
é estabelecido apenas para um determinado nível de precisão, e qualquer precisão na
conclusão além desse nível é espúria; ou o uso de certos dispositivos matemáticos, como
números complexos, gerará termos em excesso que não esperamos que tenham qualquer
significado físico; e assim por diante. A lição é esta: uma aproximação mais refinada fornece
uma explicação melhor do que uma mais áspera somente se a aproximação mais áspera não
for boa o suficiente. No caso em questão, a aproximação mais refinada é agora considerada
preferível, não porque produz um tratamento quantitativamente um pouco mais preciso, mas
porque expõe um novo fenômeno qualitativamente significativo - o deslocamento de Lamb no
estado fundamental. Se você olhar para as equações na última seção, termine a p.121

é óbvio que a primeira ordem ÿ-então t perde um termo imaginário: a amplitude


para permanecer no estado excitado tem a forma Este
ao invés
termodeimaginário adicional,
. iÿ,
aparece quando as integrais são feitas na ordem inversa, e é isso termo que
representa o deslocamento de Lamb. Mas que diferença esse termo faz? Na aplicação
mais imediata, para calcular probabilidades de decaimento, é completamente
irrelevante, pois a probabilidade é obtida multiplicando a amplitude e seu conjugado
, probabilidade
complexo, caso em que a parte imaginária desaparece e ficamos
de decaimento ,
com a conhecida
exponencial , exp(ÿÿt).

O ponto é sustentado historicamente. A primeira ordem ÿ-então-t , que perde o


deslocamento de Lamb, é uma aproximação equivalente ao ansatz que Weisskopf e
Wigner usam em seu artigo de 1930, e foi o tratamento absolutamente convencional por
dezessete anos. Para calcular o valor dos termos imaginários ausentes, é preciso se
deparar com divergências que surgem da teoria de Dirac do elétron, e que agora são tão
notórias na eletrodinâmica quântica. Esses problemas foram deixados de lado até os
notáveis experimentos em 1947 por Willis Lamb e seu aluno RC Retherford, pelos quais
Lamb mais tarde ganhou o prêmio Nobel.
A teoria de Dirac, levando em conta o spin do elétron, previu uma coincidência
exata dos níveis de 22 P.
1/2
Havia uma suspeita
e o 22S 1/2
de que essa previsão
estava errado. Novas técnicas de micro-ondas desenvolvidas durante a guerra mostraram a Lamb
uma maneira de descobrir, usando o estado
1947, metaestável
o Cordeiro do hidrogênio 22 S 1/2 . No experimento de
mudança foi descoberta e dentro de um mês Bethe descobriu uma maneira de
lidar com as divergências. Após a descoberta do Cordeiro, mude o Weisskopf-Wigner original
Machine Translated by Google

método teve de ser alterado. Agora temos o cuidado de tomar as integrais no primeiro t-então-ÿ
pedido. Mas veja o que o próprio Bethe tem a dizer:
Por experimentos muito bonitos, Lamb e Retherford mostraram que a estrutura fina do segundo
estado quântico do hidrogênio não concorda com a previsão da teoria de Dirac. O nível 2s , que
termina p.122

de acordo com a teoria de Dirac deve coincidir com o nível 2p 1/2 , é na verdade maior do que o
último em uma quantidade de cerca de 0,033 cmÿ1 ou 1000 megaciclos. . .
Schwinger e Weisskopf e Oppenheimer sugeriram que uma possível explicação pode ser a
mudança dos níveis de energia pela interação do elétron com o campo de radiação. Essa mudança
se mostra infinita em todas as teorias existentes e , portanto, sempre foi ignorada.
18

Ou considere o comentário de Lamb sobre Bethe em seu discurso do


Prêmio Nobel: Um mês depois [depois que 'os desvios de estrutura fina foram
definitivamente estabelecidos experimentalmente' por Lamb e Retherford], Bethe descobriu
que a eletrodinâmica quântica havia realmente escondido atrás de suas divergências um
conteúdo físico que estava em acordo muito próximo com as observações de microondas.19
Agora atendemos aos termos imaginários porque eles têm um 'conteúdo físico muito ... dentro

próximo das observações de micro-ondas'. Mas até os experimentos de Lamb, eles eram apenas
detritos matemáticos que não representavam nada de significado físico e foram, corretamente,
omitidos.

2.2. A mudança de cordeiro no estado fundamental

Os detalhes do segundo exemplo estão na monografia de GS Agarwal sobre emissão


espontânea.20 Lembre-se de que existem dois métodos comuns para tratar a emissão espontânea.
O primeiro é o método de Weisskopf-Wigner, e o segundo é através de uma
aproximação de Markov, levando a uma equação mestra ou equação de Langevin, análoga às
usadas na mecânica estatística clássica. Como Agarwal enfatiza, uma razão para preferir a nova
abordagem estatística é que ela nos permite derivar o deslocamento de Lamb no estado
fundamental, que não é previsto pelo método de Weisskopf-Wigner, mesmo após esse método ter
sido alterado para obter o deslocamento no estado fundamental. Estado de excitação. Mas
podemos derivar a mudança do estado fundamental apenas se formos cuidadosos sobre como
usamos a aproximação de onda rotativa. fim p.123

A aproximação de onda rotativa é usada quando a interação entre radiação e matéria é fraca.
Em interações fracas, como aquelas que dão origem à emissão espontânea, os átomos e o campo
podem ser vistos como sistemas quase separados, de modo que a energia perdida pelos átomos
será encontrada no campo e vice-versa. Assim, as transições virtuais nas quais tanto o átomo
quanto o campo ganham ou perdem simultaneamente um quantum de energia terão efeitos
desprezíveis. A aproximação de onda rotativa ignora esses efeitos. Quando o acoplamento é
Machine Translated by Google

fraco, os termos que representam transições virtuais variam conforme exp{±i(ÿ+ÿ


, para os níveis de energia Em k )t} ( enEdo átomo; ÿ k é uma frequência modal do
campo). As transições de conservação de energia variam como exp{±i(ÿÿÿ k )t}. Para frequências ópticas ÿ k
é grande. Assim, para tempos comuns de observação, os termos exp{±i(ÿ+ÿ k )t} oscilam
rapidamente e terão uma média aproximada de zero. A aproximação é chamada de
aproximação de 'onda rotativa' porque retém apenas os termos em que o átomo e as ondas
de campo 'giram juntos'.
Os tratamentos estatísticos que dão origem à equação mestra fazem uso essencial de uma
aproximação de Markov. Na última seção, delineei uma maneira padrão de derivar as equações
de Pauli, que são as equações mestras relevantes para a emissão espontânea. Mas de acordo
com Agarwal, existem duas maneiras de realizar tal derivação, e os resultados são
significativamente diferentes dependendo de onde aplicamos a aproximação de onda rotativa.
Por um lado, podemos começar com o hamiltoniano completo para a interação do elétron
orbitante com o campo eletromagnético, e retirar deste hamiltoniano os termos de 'contra-
rotação' que representam transições virtuais, para obter um hamiltoniano aproximado
encurtado que Agarwal numera (2.24). Então, seguindo passos como os descritos acima,
obtém-se uma versão da equação mestra—
A equação de Agarwal A.7. Alternativamente, podemos usar o hamiltoniano completo,
descartando os termos contra-rotativos apenas na última etapa. Isso nos dá a equação
de Agarwal (A.6).
Que diferença os dois métodos fazem para o deslocamento de Lamb? Agarwal
relata: A mudança do estado fundamental está ausente de (A.7), principalmente devido às
transições virtuais que são automaticamente excluídas do final p.124

Hamiltoniano (2.24). A equação mestra (A.6) obtida fazendo RWA (aproximação de onda
rotativa) na equação mestra ao invés do hamiltoniano inclui o deslocamento do estado
fundamental. Essas observações deixam claro que RWA no hamiltoniano original não é o
mesmo que RWA na equação mestra e que deve-se fazer RWA nas equações finais de
movimento.21
A aproximação da onda rotativa se justifica em casos de emissão espontânea pela
fraqueza do acoplamento entre o átomo e o campo. Mas nenhuma outra característica da
interação determina se devemos aplicar a aproximação ao hamiltoniano original ou se
devemos aplicá-la à equação mestra. Agarwal aplica-o à equação mestra e, portanto, é capaz
de derivar um deslocamento de Lamb no estado fundamental. Mas sua derivação não mostra
que a equação de Schroedinger dita um deslocamento de Lamb para um átomo de dois níveis
em interação fraca com um campo eletromagnético. A mudança é consistente com o que a
equação diz sobre interações fracas, mas não decorre disso.

Esse tipo de situação é ilustrado de forma ainda mais impressionante se tentarmos calcular
os valores dos deslocamentos para os átomos de dois níveis. Os experimentos de Lamb e
Retherford, por exemplo, mediram o valor da mudança para o estado 2S no hidrogênio em
1057 megaciclos por segundo. Podemos 'derivar' um resultado muito próximo disso em
eletrodinâmica quântica usando a técnica de renormalização de massa para o elétron. Mas a
derivação é notória: os detalhes exatos, em que os infinitos são subtraídos um do outro da maneira certa para
Machine Translated by Google

produzem um resultado convergente, são completamente ad hoc e, no entanto, os resultados


quantitativos que produzem são excessivamente precisos.
O realista tem uma defesa pronta. Digo que a equação de Schroedinger não faz uma afirmação
sobre se há ou não uma mudança de Lamb nas circunstâncias descritas. Mas o realista responderá
que não descrevi as circunstâncias da forma mais completa possível. As aproximações de ondas
rotativas dependem do fato de que a interação entre o campo e o átomo é 'fraca'; mas se o realismo
estiver correto, há uma resposta precisa para a pergunta "Quão fraco?" A interação átomo-campo
terá uma representação quantitativa precisa que pode, em princípio, ser escrita na equação de
Schroedinger. A solução exata para a equação com esse termo escrito conterá um deslocamento de
Lamb ou não, e isso
é o que a equação de Schroedinger diz sobre um deslocamento de Lamb em casos de emissão
espontânea.
Essa defesa me permite afirmar com mais exatidão os objetivos deste ensaio. Não discuto contra tomar
as leis fundamentais como verdadeiras, mas tento apenas contrariar o argumento mais persuasivo a
favor de fazê-lo. Como argumento positivo a favor do realismo, a defesa do realista, que aposta em
soluções exatas e derivações rigorosas, desordena a lógica do debate. Começo com o desafio: 'Por
que deveríamos supor que as equações abstratas curtas, que formam o núcleo de nossas teorias
fundamentais, são verdadeiras, mesmo 'verdadeiras o suficiente por enquanto'?' O realista responde:
"Porque as equações fundamentais são tão bem-sucedidas em explicar uma variedade de leis
fenomenológicas confusas e complicadas". Eu digo 'Conte-me mais sobre a explicação. O que há na
relação explicativa que garante que a verdade do explanandum defenda a verdade do explanans?' A
resposta do realista, pelo menos na explicação genérica-específica plausível, é que as leis fundamentais
dizem a mesma coisa que as leis fenomenológicas que são explicadas, mas as leis explicativas são
mais abstratas e gerais. Portanto, a verdade das leis fenomenológicas é uma boa evidência para a
verdade das leis fundamentais. Eu respondo a isso: 'Por que devemos pensar que as leis fundamentais
e as fenomenológicas dizem a mesma coisa sobre as situações específicas estudadas?' e o realista
responde: 'Basta olhar para a prática científica.

Lá você verá que as leis fenomenológicas são dedutíveis das leis mais fundamentais que as explicam,
uma vez que uma descrição das circunstâncias é dada.' Acabamos de examinar detalhadamente casos
de prática científica, casos que considero bastante típicos. Os realistas podem, de fato, dar um brilho
a esses exemplos que os alinha com as suposições realistas: soluções rigorosas para equações exatas
podem possivelmente reproduzir as leis fenomenológicas corretas sem ambiguidade “quando as
equações certas são encontradas”. Mas a razão para acreditar nesta glosa não é a prática em si, que
vimos, mas sim o fim realista p.126

metafísica, que comecei por desafiar. Exemplos do tipo que consideramos aqui podem, na melhor
das hipóteses, ser considerados consistentes com suposições realistas, mas não os defendem.

3. Conclusão
Leis fundamentais são supostas por muitos para determinar quais leis fenomenológicas são
verdadeiras. Se o argumento principal para esta visão é o sucesso explicativo prático das leis
fundamentais, a conclusão deveria ser exatamente o inverso. Temos um muito grande
Machine Translated by Google

número de leis fenomenológicas em todas as áreas da física aplicada e engenharia que


fornecem descrições altamente precisas e detalhadas do que acontece em situações realistas.
Em um tratamento explicativo, elas são derivadas de leis fundamentais apenas por uma longa
série de aproximações e emendas. Quase sempre as emendas melhoram os ditames da lei
fundamental; e mesmo onde as leis fundamentais são mantidas em sua forma original, os
passos da derivação freqüentemente não são ditados pelos fatos. Isso causa sérios problemas
para o modelo DN, a conta genérica específica e a visão de que as leis fundamentais são
melhores. Quando se trata de descrever o mundo real, as leis fenomenológicas vencem. fim
p.127

Ensaio 7 Ajustando Fatos às Equações


Nancy Cartwright

0. Introdução

No seminário de HP Grice sobre metafísica no verão de 1975, discutimos as categorias de


Aristóteles. Argumentei então que a categoria de quantidade era vazia; não havia quantidades
na natureza — nenhum atributo com valores numéricos exatos dos quais se pudesse dizer que
eram precisamente iguais ou desiguais entre si. Eu estava pensando particularmente sobre
física, e a ideia que eu tinha era como a que venho defendendo nestes ensaios, de que o
conteúdo real de nossas teorias em física está no conhecimento causal detalhado que elas
fornecem de processos concretos em materiais reais. Eu pensei que essas relações causais
seriam válidas apenas entre qualidades e não entre quantidades. Não obstante, reconheci que os
materiais reais são compostos de átomos e moléculas reais com massas, spins e cargas
numericamente específicas; que os átomos e as moléculas se comportam dessa maneira por
causa de suas massas, spins e cargas; e que nossas análises teóricas dos processos causais
em que estão envolvidos produzem cálculos numéricos precisos de outras grandezas, como
formas de linhas em espectroscopia ou coeficientes de transporte em mecânica estatística.
Por que então eu quis afirmar que esses processos eram essencialmente qualitativos? Era
porque nosso conhecimento sobre eles, embora detalhado e preciso, não podia ser expresso
em simples equações quantitativas do tipo que estudei em física teórica. A distinção que eu
queria, ao que parece, não era aquela entre o qualitativo e o quantitativo, mas sim a distinção
entre as equações matemáticas organizadas e simples da teoria abstrata, e as descrições
intrincadas e confusas, em palavras ou fórmulas, que expressam nossas conhecimento do que
acontece em sistemas reais feitos de materiais reais, como lasers de hélio-neon ou motores
turbojato. Podemos usar as equações fundamentais da física para calcular fatos quantitativos
precisos sobre situações reais, end p.128

mas, como afirmei em ensaios anteriores, as leis fundamentais abstratas não são nada
parecidas com as leis complicadas e confusas que descrevem a realidade. Não quero mais insistir, como fiz no
Machine Translated by Google

seminário de verão, que não há quantidades na natureza, mas que a natureza não é
governada por simples equações quantitativas do tipo que escrevemos em nossas teorias
fundamentais.
Minha visão básica é que as equações fundamentais não governam objetos na realidade; eles
governam apenas objetos em modelos. A segunda metade desta tese surgiu de outro seminário de
Grice sobre metafísica não muito tempo depois. No segundo seminário falamos sobre pretensões,
ficções, substitutos e afins; e Grice perguntou sobre várias afirmações teóricas em física, onde
devemos colocar o operador 'como se': o gás hélio se comporta como se fosse uma coleção de
moléculas que interagem apenas em colisão? Ou o gás hélio é composto de moléculas que se
comportam como se interagissem apenas em colisão? Ou . . . ?
Mais uma vez, eu queria fazer afirmações aparentemente conflitantes. Há casos bem conhecidos
em que o operador 'como se' certamente deve ir bem na frente: as moléculas radiantes em um
maser de amônia se comportam como se fossem osciladores de elétrons clássicos. (Veremos mais
sobre isso no último ensaio.) Qual a distância entre os osciladores na cavidade do maser?
Essa pergunta realista é absurda; osciladores de elétrons clássicos são eles próprios uma
mera construção teórica. O que acontece em um átomo quântico real é notavelmente
semelhante às prescrições teóricas para um oscilador de elétrons clássico. Os osciladores
replicam o comportamento de átomos reais; mas ainda assim, como observou o especialista
em laser Anthony Siegman em sua aula de engenharia a laser, 'eu não saberia onde conseguir um saco cheio deles'.1
Os osciladores de elétrons clássicos são ficções indubitáveis. Mas, mesmo nos casos em que
as entidades teóricas são mais robustas, eu ainda queria colocar o operador 'como se' totalmente
na frente. Por exemplo, um laser de hélio-neon se comporta como se fosse uma coleção de átomos
de três níveis em interação com um único modo amortecido de um campo quantizado, acoplado a
um reservatório de bombeamento e amortecimento. Mas, ao fazê-lo, não quis negar que as
cavidades do laser contêm uma extremidade de três níveis p.129

átomos ou que um único modo do campo eletromagnético é dominante. Eu queria reconhecer


esses fatos existenciais e ainda localizar o operador logo no início.
Parece agora que eu tinha visões conflitantes sobre como tratar esse tipo de caso porque estava
combinando duas funções que o operador poderia servir. Por um lado, colocar as coisas à
esquerda do operador é um sinal de nosso compromisso existencial. Um laser de hélio-neon é
. . . Comumente
uma coleção de átomos de três níveis, mas colocar as coisas na
à direita
física,tem uma
o que funçãoàdiferente.
aparece direita é
exatamente o que precisamos saber para começar nosso tratamento matemático. A descrição à
direita é o tipo de descrição para a qual a teoria fornece uma equação. Dizemos que um 'átomo
quântico real' se comporta como um oscilador de elétrons clássico; já a teoria nos diz qual equação
é obedecida por um oscilador de elétrons clássico. Da mesma forma, a longa descrição que dei
acima de um laser como uma coleção de átomos de três níveis também nos diz uma equação
específica para escrever, neste caso uma equação chamada equação de Fokker-Planck; e há outras
descrições de lasers de gás que combinam com outras equações. Freqüentemente, por exemplo,
tratamos o laser como um oscilador van der Pol, e então a equação apropriada seria aquela que B.
van der Pol desenvolveu em 1920 para o oscilador triodo.

Ao contrário da minha suposição inicial, agora vejo que as duas funções do operador 'como se'
são bastante distintas. Dar uma descrição à qual a teoria vincula uma equação pode ser
Machine Translated by Google

relativamente independente de expressar compromisso existencial. Ambos os tratamentos


do laser que mencionei assumem que o laser de hélio-neon contém um grande número
de átomos de néon de três níveis misturados com um número muito maior de átomos de
hélio, em interação quase inteiramente com um único modo do campo eletromagnético.
Da mesma forma, quando um experimentalista nos fala de um único modo de um laser
CW GaAs (arseneto de gálio) que 'abaixo do limiar, o modo emite ruído como uma fonte
de corpo negro de banda estreita; acima do limiar, seu ruído é característico de um
oscilador estabilizado de amplitude quieto',2 ele está nos dizendo não que a composição
do laser mudou, mas que suas flutuações de intensidade decorrem de diferentes
equações acima e abaixo do limiar. Nesses casos, o que acontece à direita do operador
'como se' não depende do que tomamos como real e do que tomamos como ficcional.
Em vez disso, depende de qual descrição precisamos saber para escrever a equação que inicia nosso tratam
Os pontos de vista que exortei nos dois seminários andam de mãos dadas. É porque as duas
funções do operador 'como se' são independentes que as equações fundamentais de nossas
teorias não podem ser tomadas para governar objetos na realidade. Quando usamos o operador
para expressar compromisso existencial, devemos descrever à esquerda tudo o que
consideramos real. De um primeiro ponto de vista ingênuo, para servir a segunda função
devemos apenas mover tudo da esquerda do operador para a direita. Para obter uma descrição
da qual possamos escrever uma equação, devemos simplesmente relatar o que consideramos ser o caso.
Mas não é assim que funciona. A teoria tem um estoque muito limitado de princípios
para passar de descrições a equações, e os princípios requerem informações de um tipo
muito particular, estruturadas de uma maneira muito particular. As descrições que vão à
esquerda – as descrições que dizem o que existe – são escolhidas por sua adequação
descritiva. Mas as "descrições" à direita - as descrições que dão origem às equações -
devem ser escolhidas em grande parte por suas características matemáticas. Isso é
característico da física matemática. As descrições que melhor descrevem geralmente
não são aquelas às quais as equações se ligam. Esta é a tese que desenvolverei nas seções restantes deste
1. Dois estágios de entrada da
teoria Comecemos discutindo os princípios da ponte. No que Fred Suppe chamou
de "visão convencional das teorias",3 defendida por Hempel, Grünbaum, Nagel e outros
na tradição do empirismo lógico, as proposições de uma teoria são de dois tipos:
princípios internos e ponte final p.131

princípios. Os princípios internos apresentam o conteúdo da teoria, as leis que dizem


como as entidades e os processos da teoria se comportam. Os princípios da ponte
devem ligar a teoria a aspectos da realidade mais facilmente acessíveis a nós. A princípio,
os princípios da ponte foram pensados para vincular as descrições da teoria com algum tipo de relatório de o
Mas com o colapso da distinção teoria-observação, os princípios da ponte foram
necessários apenas para vincular a teoria a um vocabulário que foi 'compreendido com antecedência'.
A rede de princípios internos e princípios de ponte deve assegurar o caráter
dedutivo da explicação científica. Para explicar por que os lasers amplificam os sinais de
luz, começamos com uma descrição no vocabulário antecedente de como um laser é
construído. Um princípio de ponte combina isso com uma descrição formulada na
linguagem da teoria quântica. Os princípios internos da mecânica quântica predizem o que deve acontecer em
Machine Translated by Google

situações que atendem a essa descrição teórica, e um segundo princípio de ponte traz os
resultados de volta para uma proposição que descreve a amplificação observada. A explicação
é dedutiva porque cada uma das etapas é justificada por um princípio considerado necessário
pela teoria, seja um princípio ponte ou um princípio interno.
Recentemente, no entanto, Hempel começou a duvidar de que explicações desse tipo sejam
verdadeiramente dedutivas.4 A falha está nos princípios da ponte, que em geral estão longe
de ser excepcionais e, portanto, carecem da necessidade necessária. Uma barra pesada atrai
limalhas de ferro. É assim magnético? Não necessariamente: nunca podemos ter certeza de
que conseguimos descartar todas as outras explicações. Um ímã atrairá, com certeza, limalha
de ferro apenas se todas as circunstâncias associadas estiverem corretas. Os princípios da
ponte, conclui Hempel, não têm o caráter de leis universais; eles são válidos apenas na maior
parte, ou quando as circunstâncias são suficientemente ideais.
Acho que a situação é muito melhor e muito pior do que as fotos de Hempel. Se os tipos
corretos de descrições forem dados aos fenômenos em estudo, a teoria terminará p.132

diga-nos qual descrição matemática usar e os princípios que fazem essa ligação são tão
necessários e sem exceções na teoria quanto os próprios princípios internos. Mas o 'tipo
certo de descrição' para atribuir uma equação raramente é, ou nunca, uma 'descrição verdadeira'
do fenômeno estudado; e há poucos princípios formais para passar de "descrições verdadeiras"
ao tipo de descrição que envolve uma equação. Existem apenas regras práticas, bom senso e,
em última análise, a exigência de que a equação com a qual acabamos deve fazer o trabalho.

A entrada da teoria ocorre em duas etapas. Imagino que comecemos por escrever tudo o que
sabemos sobre o sistema em estudo, um exagero grosseiro, mas que ajudará a esclarecer a
questão. Esta é a descrição não preparada - é a descrição que vai para a esquerda do operador
'como se' quando o operador é usado para expressar compromisso existencial.
A descrição não preparada contém qualquer informação que julguemos relevante, em qualquer
forma que tenhamos disponível. Não há distinção teoria-observação aqui. Anotamos qualquer
informação que temos: podemos saber que os elétrons no feixe estão todos girando porque
nos esforçamos para prepará-los dessa maneira; ou podemos escrever as especificações de
engenharia para a construção dos espelhos finais de um laser de hélio-neon; e também podemos
saber que a cavidade está cheia de átomos de hélio de três níveis. A descrição despreparada
pode muito bem usar a linguagem e os conceitos da teoria, mas não é limitada por nenhuma
das necessidades matemáticas da teoria.
No primeiro estágio de entrada da teoria, preparamos a descrição: apresentamos o fenômeno
de uma forma que o trará para dentro da teoria. A necessidade mais aparente é escrever uma
descrição à qual a teoria corresponda a uma equação. Mas, para resolver as equações, teremos
que saber quais condições de contorno podem ser usadas, quais procedimentos de
aproximação são válidos e assim por diante. Portanto, as descrições preparadas devem fornecer
informações que as especifiquem também. Por exemplo, podemos descrever as paredes da
cavidade do laser e seus arredores como um reservatório (um sistema com um grande número
de modos ressonantes). Isso significa que o laser não tem memória. Formalmente, quando
chegamos à derivação, podemos fazer uma aproximação de Markov. (Lembre-se da discussão
no Ensaio 6.) end p.133
Machine Translated by Google

Este primeiro estágio de entrada da teoria é informal. Pode haver tentativas melhores e
piores, e muita sabedoria prática ajuda, mas nenhum princípio da teoria nos diz como
devemos preparar a descrição. Não procuramos um princípio-ponte para nos dizer qual é a
maneira correta de extrair os fatos de nossa descrição antecedente e despreparada e
expressá-los de uma maneira que satisfaça as necessidades matemáticas da teoria. A
verificação da correção neste estágio não é quão bem representamos na teoria os fatos que
conhecemos fora da teoria, mas apenas quão bem-sucedido será o tratamento matemático final.
Isso está em nítido contraste com o segundo estágio de entrada da teoria, onde os
princípios da teoria examinam a descrição preparada e ditam equações, condições de
contorno e aproximações. Devemos tratar um laser CW GaAs abaixo do limite como uma
'fonte de corpo negro de banda estreita' em vez do 'oscilador estabilizado silencioso' que o modela acima do lim
A teoria quântica não responde. Mas uma vez que decidimos descrevê-la como uma
fonte de corpo negro de banda estreita, os princípios da teoria dizem quais equações a
governarão. Portanto, temos princípios-ponte, e os princípios-ponte não são nem mais nem
menos universais do que qualquer um dos outros princípios. Mas eles governam apenas o
segundo estágio de entrada da teoria. No primeiro estágio, não há nenhum princípio teórico
— apenas regras práticas e a perspectiva de uma boa previsão.
Esta é, obviamente, uma descrição altamente idealizada. As teorias estão sempre
melhorando e se expandindo, e um novo tratamento interessante pode oferecer um princípio
de ponte totalmente novo. Mas o relato original de Hempel foi igualmente idealizado; sempre
olhava para a teoria tal como ela se apresentava após a adoção da explicação. Proponho
pensar sobre isso da mesma maneira. Na próxima seção, quero ilustrar alguns princípios de
ponte e descreverei os dois estágios de entrada da teoria com alguns exemplos da mecânica
quântica. fim p.134

2. Alguns Princípios da Ponte Modelo

Se olharmos para as formalizações típicas da mecânica quântica,5 parece que os princípios


fundamentais se dividem em princípios internos e princípios de ponte, como sustenta a
visão convencional das teorias. O princípio interno central é a equação de Schroedinger. A
equação de Schroedinger conta como os sistemas, sujeitos a várias forças, evoluem no tempo.
Na verdade, as forças não são literalmente mencionadas na equação, pois a mecânica
quântica é baseada na formulação da mecânica clássica de William Hamilton, que se
concentra não nas forças, mas nas energias. Na apresentação padrão, a equação de
Schroedinger conta como um sistema quântico evolui no tempo em que o hamiltoniano do
sistema é conhecido, onde o hamiltoniano é uma representação matemática das energias
cinética e potencial do sistema. Princípios de conservação, como a conservação de energia,
momento ou paridade, também podem aparecer como princípios internos em tal
formalização. (Por outro lado, podem não ser, apesar de serem de fundamental importância,
porque esses princípios muitas vezes podem ser derivados de outros princípios básicos.)
A segunda classe de princípios fornece esquemas para entrar e sair da linguagem
matemática da teoria: os estados devem ser representados por vetores; observável
Machine Translated by Google

as quantidades são representadas por operadores; e o valor médio de uma dada quantidade
em um dado estado é representado por um certo produto envolvendo o operador e o vetor
apropriados. Até agora, tudo parece bom para a visão convencional das teorias.
Mas observe: pode-se saber tudo isso e não conhecer nenhuma mecânica quântica. Em um
bom texto de graduação, esses dois conjuntos de princípios são abordados em um pequeno
capítulo. É verdade que a equação de Schroedinger diz como um sistema quântico evolui
sujeito ao hamiltoniano; mas para fazer mecânica quântica, é preciso saber escolher o
hamiltoniano.

Os princípios que nos dizem como fazer isso são os verdadeiros princípios-ponte da
mecânica quântica. Estes dão conteúdo à teoria, e são com eles que os alunos iniciantes passam
a maior parte do tempo aprendendo.
Se a visão convencional estivesse correta, os alunos deveriam estar trabalhando aprendendo
princípios de ponte com fórmulas matemáticas de um lado e descrições de coisas reais do outro.
Bons livros didáticos para graduandos avançados estariam repletos de discussões de situações
concretas e dos hamiltonianos que as descrevem. Pode haver simplificações e idealizações para
fins pedagógicos; no entanto, deve-se mencionar as coisas concretas feitas com os materiais
do mundo real. Isso é surpreendentemente ausente. Geralmente não há nenhuma palavra de
qualquer substância material. Em vez disso, aprende-se os princípios da ponte da mecânica
quântica aprendendo uma sequência de hamiltonianos modelo. Eu os chamo de 'hamiltonianos
modelo' porque eles se encaixam apenas em objetos altamente ficcionalizados. Aqui está uma
lista de exemplos. Eu a selecionei de dois textos, ambos chamados de Mecânica Quântica, um
de Albert Messiah6 e outro de Eugen Merzbacher.7 Esta lista cobre o que alguém estudaria em
praticamente qualquer bom curso de nível superior sobre mecânica quântica. Aprendemos
Hamiltonianos para:

movimento de partículas livres,


incluindo a partícula livre em uma
dimensão, a partícula livre em três
dimensões, a partícula em uma caixa;
o oscilador harmônico linear; potenciais
constantes por partes, incluindo o poço
quadrado, o degrau de potencial, o
potencial periódico, o potencial de
Coulomb; 'o átomo de hidrogênio';
moléculas diatômicas; espalhamento de
potencial central;

fim p.136

e, eventualmente, a base de toda a teoria do laser, o


elétron em interação com o campo eletromagnético.
Há um material real mencionado nesta lista - hidrogênio. Na verdade, este caso fornece uma
ilustração impressionante do meu ponto de vista, e não um contra-exemplo contra ele. O hamiltoniano nós
Machine Translated by Google

aprender aqui não é isso para qualquer átomo de hidrogênio real. Átomos de hidrogênio
reais aparecem em um ambiente, em um tanque muito frio, por exemplo, ou em uma molécula
de benzeno; e os efeitos do ambiente devem ser refletidos no hamiltoniano. O que estudamos
em vez disso é um átomo hipoteticamente isolado. Esperamos que mais tarde possamos
juntar esse hamiltoniano com outros para duplicar as circunstâncias de um átomo em sua situação real.
Mas esta não é a omissão mais marcante. Em sua seção intitulada 'O átomo de hidrogênio',
Messias propõe um hamiltoniano particular e o usa para fornecer uma solução para o espectro de
energia do hidrogênio. Ele diz: Este espectro é exatamente aquele previsto pela Antiga Teoria
Quântica; sua excelente concordância com o espectro experimental já foi apontada. Para ser mais
preciso, a teoria explica corretamente a posição das linhas espectrais, mas não sua estrutura fina.
Sua deficiência essencial é ser uma teoria não relativista.
. . [Também o
A teoria de Schroedinger não leva em consideração o spin do elétron.8
Estas são omissões críticas. A descoberta e o relato da estrutura fina do hidrogênio foram
eventos significativos na mecânica quântica pelas razões mencionadas por Messias. A
estrutura fina ensina lições importantes tanto sobre a relatividade quanto sobre o spin
intrínseco do elétron.
A passagem citada acima aparece cerca de três quartos do volume I.
Sobre a mesma distância no Volume II, o Messias novamente tem uma seção chamada
'O Átomo de Hidrogênio'. Lá ele usa a teoria relativista do elétron de Dirac. Mesmo o
segundo tratamento não é verdadeiro para o átomo de hidrogênio real. As razões são familiares
de nossa discussão sobre a mudança de Lamb no Ensaio 6. Aqui está o que o próprio Messias
diz: end p.137

Os resultados experimentais sobre a estrutura fina do átomo de hidrogênio e átomos


semelhantes a hidrogênio (notavelmente He+) estão de acordo com essas previsões.
No entanto, o acordo não é perfeito. A maior discrepância é observada na estrutura fina dos
níveis n=2 do átomo de hidrogênio. Na aproximação não relativística, os três níveis 2s 1/2 , 2p
1/2 e 2p 3/2 são iguais. Na2p
nível teoria
3/2 éde Dirac, os
de níveis
ligeiramente
distância 2s2p
inferior
nível de e
(a2p 1/2 ainda
separação
3/2 a 2p são iguais,com
1/2éconcorda
da ordem enquanto
de 10ÿ4eV).oA
a teoria, 1/2 ,

mas a

nível 2s 1/2 é inferior ao nível 2p 1/2 , e a distância de 2s 1/2 a 2p 1/2 é igual a cerca de
um décimo da distância de 2p 3/2 a 2p 1/2 . Este efeito é conhecido como o deslocamento de Lamb.

Para explicá-lo, precisamos de um tratamento rigoroso da interação entre o elétron, o próton e


o campo eletromagnético quantizado; na teoria de Dirac retém-se apenas o potencial de Coulomb
que é o principal termo dessa interação; o deslocamento de Lamb representa 'correções
radiativas' para essa aproximação.9
Sabemos de nossa discussão anterior que o tratamento dessas 'correções radiativas' para o
espectro de hidrogênio não é uma questão simples.
A última frase da observação do Messias é reveladora. As duas seções são ambas intituladas
'O átomo de hidrogênio', mas em nenhuma delas recebemos um hamiltoniano para átomos de
hidrogênio reais, mesmo se abstrairmos do ambiente. Em vez disso, somos ensinados a escrever
o potencial de Coulomb entre um elétron e um próton, no primeiro caso de forma não relativística e no
segundo, relativisticamente. O próprio Messias diz isso: 'O sistema mais simples de dois corpos
com uma interação Coulombiana é o átomo de hidrogênio'.10 'O átomo de hidrogênio' em nossa lista é apenas um
Machine Translated by Google

nome para um sistema de dois corpos onde apenas a força de Coulomb é relevante. Mesmo
que o sistema estivesse sozinho no universo, não poderíamos retirar o spin do elétron.
Menos ainda poderíamos eliminar o campo eletromagnético, pois ele dá origem ao deslocamento
de Lamb mesmo quando não há fótons presentes. Esse sistema de dois corpos, que chamamos de
"átomo de hidrogênio", é uma mera construção mental.
O Messias é, naturalmente, um texto elementar, destinado a idosos ou estudantes de pós-graduação
iniciantes. Talvez estejamos olhando para versões da teoria que são muito elementares? fim p.138

Não faça tratamentos mais sofisticados – artigos de periódicos, relatórios de pesquisa e afins –
fornecer uma riqueza de princípios de ponte diferentes e mais envolventes que ligam a teoria a
descrições mais realistas? Eu vou argumentar no próximo capítulo que a resposta a esta pergunta é
não. Existem alguns princípios de ponte mais complicados; e é claro que a teoria está sempre
crescendo, acrescentando tanto aos seus princípios internos quanto aos seus princípios-ponte.
Mas, no fundo, a teoria funciona juntando de maneira original um pequeno número de princípios
familiares, acrescentando correções quando necessário. É assim que deve funcionar. O objetivo é
cobrir uma ampla variedade de fenômenos diferentes com um pequeno número de princípios, e
isso inclui os princípios da ponte, bem como os princípios internos. Não é nenhuma teoria que
precisa de um novo hamiltoniano para cada nova circunstância física. O poder explicativo da teoria
quântica vem de sua capacidade de implantar um pequeno número de hamiltonianos bem
compreendidos para cobrir uma ampla gama de casos. Mas esse poder explicativo tem seu preço.
Se limitarmos o número de hamiltonianos, isso restringirá nossas habilidades de representar
situações de forma realista. É por isso que nossas descrições preparadas mentem.
Voltarei a essas observações sobre os princípios da ponte no próximo capítulo. Aqui eu quero
proceder de uma maneira diferente. Eu afirmo que, em geral, teremos que distorcer o quadro
verdadeiro do que acontece se quisermos encaixá-lo nas estruturas altamente restritas de nossas
teorias matemáticas. Eu acho que há uma boa analogia que pode nos ajudar a ver por que isso é assim.
Esse é o tema da próxima seção.

3. A Física como Teatro

Vou apresentar primeiro uma analogia e depois um exemplo. Começamos com a visão de Tucídides
sobre como escrever a história: XXII. Quanto aos discursos que foram feitos por diferentes homens,
seja quando estavam prestes a começar a guerra ou quando já estavam envolvidos nela, é difícil
lembrar com estrita exatidão as palavras realmente pronunciadas, tanto para mim quanto para o que
eu eu mesmo ouvi, e para aqueles que de várias outras fontes me trouxeram relatos. Por isso os
discursos são proferidos na língua em que, ao que me pareceu, os vários oradores se exprimiriam,
sobre os assuntos end p.139
Machine Translated by Google

em consideração, os sentimentos mais adequados à ocasião, embora ao mesmo tempo eu


tenha aderido o mais próximo possível ao sentido geral do que foi realmente dito.
Imagine que queremos encenar um determinado episódio histórico. Estamos principalmente
interessados em ensinar uma moral sobre os motivos e o comportamento dos participantes.
Mas também gostaríamos que o drama fosse o mais realista possível. Em geral, não
poderemos simplesmente 'repassar' o episódio novamente, mas desta vez no palco. O
episódio original teria que ter uma notável unidade de tempo e espaço para tornar isso
possível. Existem muitas outras restrições também. Isso nos forçará a fazer primeiro uma
distorção, depois outra para compensar. Aqui está um exemplo trivial. Imagine que dois dos
participantes tiveram uma conversa secreta no canto da sala. Se os atores sussurrarem
juntos, o público não poderá ouvi-los. Assim, os outros personagens devem ser movidos
para fora do palco e, em seguida, de volta. Mas, na realidade, todos ficaram no mesmo lugar
o tempo todo. Nestes casos estamos na posição de Tucídides. Não podemos replicar o que
os personagens realmente disseram e fizeram. Nem é essencial que o façamos. Precisamos
apenas aderir "o mais próximo possível do sentido geral do que foi realmente dito".
A física é assim. É importante que os modelos que construímos nos permitam tirar as conclusões
corretas sobre o comportamento dos fenômenos e suas causas. Mas não é essencial que os
modelos descrevam com precisão tudo o que realmente acontece; e, em geral, não será possível
fazê-lo, e pelas mesmas razões. Os requisitos da teoria restringem o que pode ser representado
literalmente. Isso não significa que as lições certas não possam ser extraídas. Os ajustes são
feitos onde a exatidão literal não importa muito para obter os efeitos corretos onde desejamos;
e muitas vezes, como no exemplo da encenação, uma distorção é corrigida por outra. É por isso
que muitas vezes parece enganoso dizer que um aspecto particular de um modelo é falso para a
realidade: dadas as outras restrições, essa é apenas a maneira de restaurar a representação.

Aqui está um exemplo muito simples de como a operação de restrições pode nos levar
a estabelecer uma descrição falsa na física. Na mecânica quântica, as partículas livres são
representadas por ondas planas – funções que se parecem com senos ou cossenos,
estendendo-se ao infinito em ambas as direções. Esta é a representação que é ditada pela
equação de Schroedinger, dado o hamiltoniano convencional para uma partícula livre. Até
agora não precisa haver nada de errado com uma onda como essa. Mas a mecânica quântica
também tem outra restrição: supõe-se que o quadrado da onda em um ponto representa a
probabilidade de que a partícula esteja localizada naquele ponto. Assim, a integral do
quadrado sobre todo o espaço deve ser igual a um. Mas isso é impossível se a onda, como um seno ou cosseno,
Existem duas soluções comuns para este problema. Uma é usar uma função delta de Dirac.
Essas funções são uma grande ajuda para a física, e a teoria das funções generalizadas
agora explica como elas funcionam. Mas eles evitam em vez de resolver o problema. Usar a
função delta é realmente desistir do requisito de que as próprias probabilidades se integrem a uma.
Merzbacher, por exemplo, diz 'Como a normalização de ÿÿ*ÿ para a unidade está fora de
questão para ondas planas infinitas, devemos decidir sobre uma normalização alternativa
para essas funções. Uma ferramenta conveniente na discussão de tais funções de onda é o delta
função'.12 Assim, sempre preferi a segunda solução.
Esta solução é chamada de 'normalização de caixa'. No modelo, assumimos que a partícula
está em uma caixa muito, muito grande e que a onda desaparece inteiramente nas bordas
dessa caixa. Para levar a onda a zero, devemos supor que o potencial ali - muito, muito distante
Machine Translated by Google

de qualquer coisa que nos interesse — é infinito. Aqui está o que Merzbacher diz em defesa
dessa suposição: As autofunções não são quadraticamente integráveis em todo o espaço.
Portanto, é impossível falar de probabilidades absolutas e de valores esperados para
quantidades físicas em tal estado. Uma maneira de evitar essa situação seria reconhecer o fato
de que fisicamente nenhuma partícula é absolutamente livre e que há inevitavelmente algum
confinamento, sendo o recinto, por exemplo, a extremidade da parede.

de um tubo acelerador ou do laboratório. V [o potencial] sobe ao infinito nos limites do


recinto e então não tem o mesmo valor em todos os lugares, as autofunções não são
mais ondas planas infinitas, e o espectro de autovalores é discreto em vez de contínuo.13

Aqui está uma clara distorção da verdade. As paredes podem interagir com a partícula e ter
algum efeito sobre ela, mas certamente não produzem um potencial infinito.
Acho que Merzbacher pretende que pensemos a situação dessa maneira. As paredes
e o ambiente contêm a partícula; e, de fato, a probabilidade é uma de que a partícula seja
encontrada em alguma região finita. A maneira de obter esse efeito no modelo é definir o
potencial nas paredes para o infinito. Claro que esta não é uma descrição verdadeira dos
potenciais que são realmente produzidos pelas paredes e pelo ambiente. Mas também não é
exatamente falso. É apenas a maneira de alcançar os resultados no modelo que as paredes e o
ambiente deveriam alcançar na realidade. O potencial infinito é uma boa peça de encenação. fim
p.142

Ensaio 8 A Explicação do Simulacro


Nancy Cartwright

0. Introdução

Vimos no capítulo anterior que os princípios da ponte em uma teoria como a mecânica quântica
são poucos e lidam principalmente com descrições altamente ficcionalizadas. Por que deveria
ser assim? Alguns trabalhos de TS Kuhn sugerem uma resposta. Em seu artigo, 'A Function
for Measurement in the Physical Sciences', e em outros artigos com a palavra 'function' no
título, Kuhn tenta algo como explicações funcionais da prática científica. Os antropólogos
encontram um povo com um costume peculiar. As próprias pessoas dão várias ou talvez
nenhuma razão para seu costume. Mas o antropólogo conjectura que o costume permanece
entre essas pessoas não apenas por suas razões declaradas, mas também porque outros
costumes ou condições ecológicas tornam muito difícil para sua sociedade sobreviver sem ele.
Esta é então a 'função' do costume em questão, mesmo que não seja praticado com qualquer
consciência dessa função. Naturalmente, todas as explicações funcionais têm uma lógica
duvidosa, mas muitas vezes trazem à tona aspectos instrutivos do costume em questão.
Machine Translated by Google

Agora vamos perguntar que função pode ser atendida tendo relativamente poucos princípios
de ponte à mão quando estamos envolvidos na construção de modelos de fenômenos. Kuhn
conclui seu artigo sobre medição dizendo que acredita "que a matematização da ciência física
no século XIX produziu critérios profissionais vastamente refinados para a seleção de problemas
e que simultaneamente aumentou muito a eficácia dos procedimentos de verificação
profissional" . ser dito sobre
tendo um número bastante pequeno de princípios de ponte. Os fenômenos a serem descritos
são infinitamente complexos. Para realizar qualquer pesquisa coletiva, um grupo deve ser
capaz de delimitar os tipos de modelos que terminam p.143

são mesmo concorrentes. Se houvesse infinitas maneiras possíveis para uma determinada
comunidade de pesquisa ligar fenômenos a construções intelectuais, a construção de modelos
seria inteiramente caótica e não haveria consenso de problemas compartilhados sobre os quais
trabalhar.
A limitação dos princípios da ponte fornece um consenso dentro do qual formular
explicações teóricas e permite relativamente poucos parâmetros livres na construção de
modelos. Isso, por sua vez, fornece critérios precisos para a seleção de problemas. Naturalmente,
pode haver uma mudança substancial na estrutura dos princípios da ponte se nada funcionar;
mas nos apegamos a eles enquanto podemos. É precisamente a existência de relativamente
poucos princípios de ponte que torna possível a construção, avaliação e eliminação de modelos.
Esse fato também parece ter efeitos colaterais altamente antirrealistas. Como vimos, aumenta
fortemente a probabilidade de existirem modelos literalmente incompatíveis que se ajustem aos
fatos até onde os princípios da ponte podem discriminar.
Este é apenas um esboço de um relato kuhniano, mas acredito que vale a pena prosseguir.
Tomando emprestado um termo dos historiadores da ciência, pode ser chamado de relato
"externo" de por que os princípios da ponte precisam ser limitados em número. Mas se encaixa
perfeitamente com uma explicação "interna" paralela, que sustenta que a limitação dos
princípios da ponte é crucial para o poder explicativo da teoria. Defenderei essa explicação
interna na seção 1 deste ensaio. Na seção 2, proponho um modelo de explicação que permite
a escassez de princípios de ponte e deixa claro o papel das descrições ficcionalizadas.

1. Princípios de ponte e modelos 'realistas'

Uma boa teoria visa cobrir uma ampla variedade de fenômenos com o mínimo de
princípios possível. Isso inclui princípios de ponte. É uma teoria pobre que requer um
novo hamiltoniano para cada nova circunstância física. O grande poder explicativo da
mecânica quântica vem de sua capacidade de implantar um pequeno número de hamiltonianos
bem compreendidos para cobrir uma ampla gama de casos, e não de sua capacidade de
combinar cada situação individualmente com um novo fim p.144
Machine Translated by Google

representação matemática. Essa maneira de proceder seria uma loucura.


Este é um fato óbvio sobre como as teorias devem ser para que sejam gerenciáveis. Mas tem
as consequências antirrealistas que vimos. Por que os realistas não ficaram mais preocupados
com esse fato? A resposta, penso eu, é que muitos realistas supõem que a natureza conspira
para limitar o número de princípios-ponte. Apenas alguns princípios de ponte são necessários
porque apenas um pequeno número de interações básicas existe na natureza. Uma teoria ideal
representará cada uma das interações básicas; novos casos não exigirão novos princípios de
ponte porque a representação para situações complexas pode ser construída a partir das
representações dos componentes básicos.
Acho que esse é um ponto de vista radicalmente equivocado. Primeiro, é um modelo de uma
física que não temos. Esse é um ponto familiar até agora. Muito pior, é um modelo de uma
física que não queremos. O procedimento de montagem seria insuportavelmente complexo.
Vai exatamente na direção errada. A beleza e a força da física contemporânea reside em sua
capacidade de fornecer tratamentos simples com modelos simples, onde pelo menos o
comportamento no modelo pode ser entendido e as equações podem não apenas ser escritas,
mas podem até ser resolvidas por aproximação. O modelo do oscilador harmônico é um
exemplo disso. Ele é usado repetidamente na mecânica quântica, mesmo quando é difícil
descobrir exatamente o que deveria estar oscilando: o átomo de hidrogênio é retratado como
um elétron oscilante; o campo eletromagnético como uma coleção de osciladores quantizados;
o laser como oscilador de van der Pol; e assim por diante. A mesma descrição aplicada repetidas
vezes dá poder explicativo.
É melhor ilustrar com um caso concreto. No último ensaio, procuramos em textos elementares
exemplos de princípios de ponte. Aqui apresentarei um exemplo mais sofisticado: uma
explicação teórica quântica de um laser. Lembre-se do Ensaio que há uma variedade de
métodos para o tratamento de lasers na mecânica quântica. Uma é a abordagem estatística
quântica na qual uma equação mestra (ou uma equação de Langevin) é derivada para o sistema.
Esse tipo de abordagem é familiar em nossa discussão no Ensaio 6 da aproximação
de Markov para átomos radiantes, então este é um bom exemplo para escolher.
Há um desenvolvimento completo deste método em Quantum Statistical Properties
2
of Radiation de William Louisell. O tratamento lá é mais adequado para um laser de gás,
como o antigo laser de hélio-neon. Louisell propõe o que ele chama de 'diagrama de blocos'.
(Veja a Figura 8.1.) Ele imagina que o laser consiste em átomos de três níveis em interação
com um campo eletromagnético quantizado. Antes da abordagem estatística quântica, os
tratamentos com laser eram geralmente semiclássicos: os átomos eram quantizados, mas o
campo não. Louisell também inclui explicitamente a interação dos átomos e do campo com um
reservatório de amortecimento. Essas duas características são importantes porque permitem a
derivação de correlações entre os fótons emitidos que são difíceis de duplicar nas abordagens
semiclássicas anteriores.
Machine Translated by Google

Fig. 8.1. Diagrama de blocos do modelo de laser. (Fonte: Louisell, Propriedades Estatísticas
Quânticas da Radiação.)

No Ensaio 6, falei brevemente sobre idealizações difíceis de eliminar no nível teórico. Aqui está
uma boa ilustração. Louisell supõe que os átomos estão distribuídos uniformemente, N por
unidade de volume, e que não interagem entre si: "Eles são acoplados uns aos outros apenas
por meio de sua interação átomo-campo".3 Na realidade, os átomos interagem, embora isso
não tem muito efeito sobre o desempenho do laser. Os efeitos ausentes às vezes podem
terminar p.146

ser corrigido, mas isso é feito aos poucos quando a teoria é aplicada e não pela adição de termos
ao hamiltoniano fundamental dado no tratamento teórico.
A equação de Louisell para o sistema representado por seu diagrama de blocos consiste
em três partes. Vou escrever aqui apenas para referência:

Ele nos fala dessa equação que 'os primeiros termos descrevem o comportamento causal. O
O último
segundo termo descreve a interação do modo de campo com seu reservatório. .. termo
descreve a interação dos átomos com seus reservatórios de bombeamento e amortecimento.4
Essa equação é enganosamente simples porque ainda é apenas um esquema. Ainda não
sabemos comoÉW, (ÿS/ÿt)
aqui F , e assim
que entram por diante,dadevem
os princípios ponte.ser
Umarepresentados para
página e meia o laser
depois, de bloco.
quando
essas variáveis forem preenchidas, essa equação aparentemente simples levará doze linhas de
texto para Louisell escrever.
O primeiro termo deve representar o 'comportamento causal', em contraste com os dois
últimos termos. Outra maneira comum de expressar esse contraste seria dizer: a interação do
campo atômico é representada de forma realista, mas os termos para as interações do reservatório
são apenas fenomenológicos. O método de expressão de Louisell é melhor porque é mais estreito.
Os físicos usam 'realista' em vários sentidos. Um senso comum contrasta 'realista' com
'idealizado'. Esse sentido diz respeito à relação entre o modelo e a situação retratada no
modelo: quão bem as descrições preparadas e as despreparadas combinam?
Vimos que o tratamento dos átomos por Louisell é altamente idealizado. Assim também são outros
Machine Translated by Google

aspectos de seu diagrama de blocos. Nesse sentido , o modelo de Louisell para o 'comportamento
causal' não é muito realista.
Há outra maneira diferente pela qual os físicos usam a palavra "realista". Vou ilustrar com
três exemplos. O primeiro exemplo vem do curso de engenharia a laser que mencionei no último
ensaio.5 Depois de várias palestras no final da p.147

osciladores de elétrons clássicos, o professor Anthony Siegman anunciou que estava pronto para
falar sobre o meio laser em um laser real. Achei que ele ia ensinar sobre os bastões de rubi – que o
rubi é safira dopada com cromo, que os íons de cromo 3+ são intercalados aleatoriamente em baixas
densidades em toda a rede de safira e que uma descarga elétrica comum é usada para excitar os
íons de cromo e trazer sobre uma inversão populacional.
Em vez disso, começou: "Considere uma coleção de átomos de dois níveis". Em certo sentido, ele
começou a falar sobre lasers reais – um meio laser é de fato composto de sistemas quantizados
como átomos, e não de osciladores de elétrons fictícios. Mas em outro sentido ele não o fez: os
átomos de dois níveis são apenas um substituto grosseiro para a estrutura intrincada e variada
dos materiais reais de laser.
O segundo exemplo vem de uma conversa com meu colega Francis Everitt, um físico
experimental que mencionei antes em relação ao seu trabalho histórico sobre James Clerk
Maxwell. No último ensaio vimos que um laser pode ser tratado pela equação de van der Pol: de
várias maneiras o laser se comportará como um oscilador triodo em um circuito CC. Ao conversar
com Everitt, comparei essa descrição com a de Louisell. Louisell menciona componentes reais do
laser, como os átomos e o campo. Achei a de Louisell a descrição mais realista. Everitt concordou.
Mas ele acrescentou: 'O reservatório ainda é apenas um modelo.' No diagrama de Louisell, o
reservatório de amortecimento representa as paredes da cavidade e a sala em que está alojado. Os
átomos de três níveis representam o meio laser. Em que sentido o reservatório, ao contrário dos
átomos, é apenas um modelo?
O terceiro exemplo dá uma pista explícita. No texto Óptica Quântica John Klauder e E.
CG Sudarshan relata: "Vários autores trataram sistemas de interação idealizados como modelos
para lasers ".6 Louisell é um exemplo. Embora altamente idealizado, o modelo de Louisell ainda é
realista de uma forma que os modelos de Klauder e Sudarshan não são.
Eles mesmos descrevem seus modelos como 'fenomenológicos'. O que eles querem dizer? Dizem
que seus modelos são fenomenológicos porque os modelos 'funcionam p.148

diretamente no . . . como uma função do tempo e não a derivam como uma solução para um
hamiltoniano de estado.7 Lembre-se de que o hamiltoniano entra na equação de Schroedinger
e determina a evolução temporal do estado. Representa as energias que orientam o
comportamento do sistema. Sudarshan e Klauder pretendem obter o estado certo; mas eles anotam
esse estado diretamente, post hoc, de olho no comportamento que ele deve prever.
Eles não escrevem uma equação de Schroedinger e derivam o estado como uma solução para
ela; e assim não mostram que energias produzem o estado. Seu tratamento é irrealista do ponto
de vista da teoria explicativa. Dá uma descrição teórica do comportamento, mas nada no modelo
mostra o que dá origem a esse comportamento.
Machine Translated by Google

Olhe agora para o reservatório de amortecimento e lembre-se de nossa discussão sobre


radiação atômica no Ensaio 6. O efeito de um reservatório de amortecimento é provocar uma
mudança irreversível no sistema que se acopla a ele. As informações que vão para o reservatório
se perdem ali e a memória do sistema é apagada. O reservatório é uma forma de representar as
paredes da cavidade e do ambiente circundante. Mas é como a proverbial caixa preta. Gera os
efeitos que as paredes deveriam ter, mas não há representação do método pelo qual as paredes
produzem esses efeitos. Não se descreve como são constituídas as paredes, nem o que dá
origem às características formais que as albufeiras devem ter para provocar o amortecimento.
Isso contrasta com o tratamento de Siegman do meio de laser. Átomos de dois níveis não são
muito parecidos com íons de cromo em um laser de rubi. Mas eles dão origem a equações de
acordo com princípios explicativos estabelecidos e não de forma ad hoc .

Os dois sentidos de 'realista' atuam em níveis diferentes. A primeira diz respeito à relação entre
o modelo e o mundo. O modelo é realista se apresenta uma imagem precisa da situação
modelada: descreve os constituintes reais do sistema – as substâncias e os campos que o
compõem – e atribui a eles características e relações que realmente existem. O segundo sentido
tem a ver com a relação entre o fim p.149

modelo e a matemática. Uma teoria fundamental deve fornecer um critério para o que deve
contar como explicativo. Em relação a esse critério, o modelo é realista se explica a
representação matemática.
Os dois sentidos do realista são bem ilustrados no tratamento de Louisell. Já vimos que o
modelo de Louisell é apenas quase realista no primeiro sentido. Ele descreve os componentes
significativos, mas as características que atribui a eles são uma caricatura daqueles na
realidade. O modelo é realista e irrealista no segundo sentido também. O primeiro termo da
equação de Louisell representa o potencial decorrente da interação átomo-campo que ele
estabelece no modelo. É isso que ele quer dizer ao dizer que representa o 'comportamento
causal'. Os termos do reservatório são diferentes. Eles dão origem às soluções certas, mas
nenhum mecanismo concreto é fornecido no modelo para explicá-los.
As duas maneiras pelas quais um modelo pode ser irreal estão relacionadas. A modelagem
do reservatório de Louisell é irreal no primeiro sentido, bem como no segundo, em parte
porque ele não pretende usar a estrutura detalhada do reservatório para gerar sua equação.
Mas isso não é tudo. Dizemos no Ensaio 6 que se o reservatório deve realmente fazer seu
trabalho de fazer os átomos decaírem, as correlações de tempo devem ser exatamente zero.
Esta é uma suposição que Louisell faz; mas é altamente irrealista no primeiro sentido. Este
caso é exatamente como os potenciais infinitos na última seção do último ensaio. A teoria
convencional de Schroedinger não pode ser ajustada exatamente à situação, então lidamos
com o problema distorcendo a situação. Mas colocamos a distorção o mais longe possível do
sistema de preocupação imediata. Se estivermos interessados apenas nos átomos, podemos
colocar a distorção na descrição do campo, atribuindo-lhe um número infinito de graus de
liberdade. Mas se quisermos estudar também o campo, os infinitos graus de liberdade ou as
correlações de tempo zero são colocados nas paredes da cavidade e no ambiente circundante.
E assim por diante.
Machine Translated by Google

Aprendemos uma importante lição sobre os princípios da ponte com essas considerações.
Um tratamento mais realista no segundo sentido empregará mais princípios de ponte.
A abordagem estatística quântica é um método altamente sofisticado para prever detalhes
finos sobre estatísticas de fótons em luz laser. Mesmo em um tratamento avançado como
este, grande parte do trabalho é feito por termos fenomenológicos que minimizam o número de
princípios de ponte necessários. Por exemplo, os termos fenomenológicos que Louisell emprega
são de sua teoria geral de sistemas amortecidos e podem ser empregados repetidamente
independentemente de como o amortecimento é causado.
O primeiro termo da equação de Louisell também ilustra esse ponto sobre os princípios da
ponte. No último ensaio, levantei a preocupação de que os princípios da ponte que discuti ali
fossem elementares demais para serem instrutivos. A equação de Louisell mostra que não é
assim. Apenas o primeiro termo é um termo hamiltoniano genuíno combinado por um princípio
de ponte convencional com uma descrição do potencial. Que hamiltoniano é? É apenas o
Hamiltoniano para a interação de um átomo com um campo de radiação, que apareceu em
nossa lista no Ensaio 7 e que foi desenvolvido em um artigo clássico de Enrico Fermi em 1932.
A única mudança que Louisell faz é somar o Hamiltoniano sobre todos os átomos da cavidade.
Isso confirma minha afirmação geral sobre os princípios da ponte. O sucesso do tratamento
estatístico quântico não depende do uso de novos princípios altamente envolvidos, mas sim
do uso de alguns princípios bem conhecidos e bem compreendidos de uma maneira nova.

2. A Conta do Simulacro de Explicação

A conta DN convencional supõe que explicamos um fenômeno quando mostramos como ele
decorre de uma lei mais fundamental. Isso requer que os tratamentos que damos aos fenômenos
da física sejam certamente realistas no primeiro sentido, e de preferência também no segundo,
para que sirvam de explicação. Proponho uma alternativa ao modelo DN que aproxima a
explicação filosófica das práticas explicativas da física como as imaginei. Baseia-se na visão
de explicação de Duhem, que esbocei no Ensaio 5, e decorre imediatamente da discussão da
última seção. fim p.151

O objetivo principal deste livro é argumentar contra a facticidade das leis fundamentais. Como
vimos no primeiro ensaio, um dos principais argumentos que os realistas usam em favor de
sua facticidade é seu amplo sucesso explicativo e preditivo. Tenho argumentado aqui que a
grande maioria dos tratamentos bem-sucedidos em física não são realistas. Eles não são
realistas no primeiro sentido de retratar os fenômenos de maneira precisa; e mesmo no segundo
sentido, muito realismo pode ser uma parada para o poder explicativo, uma vez que o uso de
termos 'fenomenológicos' em vez de uma construção 'causal' mais detalhada pode nos permitir
implantar soluções conhecidas com características compreendidas e, assim, ampliar o escopo
de nossa teoria.
Se o que digo está correto, exige uma nova explicação. Lembre-se da discussão do Ensaio 6.
Explicar um fenômeno é encontrar um modelo que o encaixe na estrutura básica
Machine Translated by Google

da teoria e que assim nos permite derivar análogos para as confusas e complicadas leis
fenomenológicas que são verdadeiras para ela. Os modelos servem a uma variedade de
propósitos, e os modelos individuais devem ser julgados de acordo com o quão bem eles servem ao propósito em q
Em cada caso, pretendemos 'ver' o fenômeno através da estrutura matemática da teoria, mas
para problemas diferentes há ênfases diferentes. Podemos desejar calcular uma determinada
quantidade com grande precisão ou estabelecer sua relação funcional precisa com outra. Em
vez disso, podemos querer replicar uma gama mais ampla de comportamento, mas com menos
precisão. Uma coisa importante que às vezes queremos fazer é expor os processos causais
que provocam os fenômenos e, para esse propósito, é melhor usar um modelo que trate os
fatores causalmente relevantes da maneira mais realista possível, em ambos os sentidos de
'realista'. . Mas isso pode impedir o tratamento realista de outros fatores. Não devemos ser
enganados ao pensar que o modelo mais realista servirá melhor a todos os propósitos.
A fim de enfatizar esse aspecto 'anti-realista' dos modelos, chamo minha visão de
explicação de uma explicação de 'simulacro'. A segunda definição de 'simulacro' no Oxford
English Dictionary diz que um simulacro é 'algo que tem apenas a forma ou aparência de uma
certa coisa, sem fim p.152

sem possuir sua substância ou qualidades próprias'.8 Isso é exatamente o que venho afirmando
que os modelos na física são. Um laser de hélio-neon é realmente um oscilador de van der Pol?
Bem, é realmente uma mistura de átomos de hélio e neon, na proporção de nove para um,
encerrados em uma cavidade com paredes lisas e espelhos refletores em ambas as
extremidades, e ligados a um dispositivo para bombear os átomos de neon para seu estado
excitado. . Não é literalmente um oscilador triodo em um circuito CC. Se o tratarmos com a
equação de van der Pol para um oscilador triodo, poderemos replicar boa parte de seu
comportamento acima do limiar, e esse é o nosso objetivo. O sucesso do modelo depende de quanto e com que pre
sobre.

Um modelo é uma obra de ficção. Algumas propriedades atribuídas a objetos no modelo


serão propriedades genuínas dos objetos modelados, mas outras serão meramente
propriedades de conveniência. O termo 'propriedades de conveniência' foi sugerido por HP
Grice, e é apropriado. Algumas das propriedades e relações em um modelo serão propriedades
reais, no sentido de que outros objetos em outras situações podem genuinamente tê-las. Mas
eles são introduzidos neste modelo por conveniência, para trazer os objetos modelados para
o alcance da teoria matemática.
Nem todas as propriedades de conveniência serão reais. Existem as idealizações óbvias da
física – potenciais infinitos, correlações de tempo zero, hastes perfeitamente rígidas e planos
sem atrito. Mas seria um erro pensar inteiramente em termos de idealizações – de propriedades
que concebemos como casos limites, das quais podemos nos aproximar cada vez mais na
realidade. Pois algumas propriedades nem sequer são abordadas na realidade. São puras ficções.
Eu gostaria de argumentar que as distribuições de probabilidade da mecânica estatística
clássica são um exemplo. Esta é uma afirmação muito séria, e eu apenas esbocei minha
visão aqui como ilustração. As distribuições são essenciais para a teoria – elas são o que as
equações da teoria governam – e a própria teoria é extremamente poderosa, por exemplo, no
tratamento detalhado do escoamento de fluidos. Além disso, em alguns casos especiais
simples, a ideia da distribuição de probabilidade pode ser
Machine Translated by Google

fim p.153

operacionalizado; e os testes suportam as distribuições atribuídas pela teoria.9


No entanto, não acho que essas distribuições sejam reais. A mecânica estatística funciona em um
grande número de situações altamente diferenciadas e altamente complexas. Na grande maioria
deles é incrível pensar que existe uma verdadeira distribuição de probabilidade para aquela
situação; e provas de que, para certos propósitos, uma distribuição é tão boa quanto outra, não
contribuem de forma alguma para tornar plausível que exista uma. É melhor, penso eu, ver essas
distribuições como ficções, ficções que têm um poderoso papel organizador em qualquer caso e que
não nos enganarão muito, mesmo que as tomemos como reais no simples
casos.
Podemos ilustrar com o tratamento de Maxwell do radiometro, descrito na introdução
deste livro. Maxwell começa com a equação de Boltzmann (equação 1, Introdução), que
governa a evolução da distribuição de velocidade das moléculas de gás. (Esta distribuição
dá a probabilidade, para cada combinação possível de valores para v, w, x, . terceira velocidade
. . uma
x; etc.) Maxwell escreve , quedas muitas funções
a primeira moléculaque
temresolvem a equação
velocidade de Boltzmann
v; a segunda, e afirma
velocidade w; a
que esta função é a distribuição para 'um meio no qual existem desigualdades de temperatura e
velocidade' e no qual a viscosidade varia 'como a primeira potência da temperatura absoluta'.10

Eu afirmo que o meio que Maxwell descreve é apenas um modelo. Não é o meio que existe em
nenhum dos radiômetros que encontramos no departamento de brinquedos da Woolworth's. Os
radiômetros nas prateleiras da Woolworth's não têm características delicadas e bem afinadas. Eles
custam US$ 2,29. Eles têm uma série de características causalmente relevantes além das duas
críticas mencionadas por Maxwell, e diferem nessas características de uma para outra.
Alguns têm correntes de convecção consideráveis; em outros as correntes são desprezíveis;
provavelmente os coeficientes de atrito entre as palhetas e a extremidade p.154

gases diferem; assim como as taxas de condução, as densidades dos gases contidos e a composição
do próprio gás.
Podemos estar inclinados a pensar que isso não importa muito. Maxwell fez uma idealização
inofensiva: os efeitos dos outros fatores são pequenos, e a verdadeira distribuição em cada
radiômetro de Woolworth é suficientemente próxima para os propósitos propostos por Maxwell. Uma
conta de simulacro é desnecessária, a história padrão da lei de cobertura servirá.
Mas não é assim. Pois na teoria da lei de cobertura, se o tratamento de Maxwell é explicar a rotação
em um radiômetro de Woolworth, o radiômetro deve ter uma função de distribuição específica e essa
função deve estar nomologicamente ligada às condições que obtém. Mas a teoria de Maxwell não
registra tais leis. As condições nesses radiômetros são indefinidamente variadas e indefinidamente
complexas, de modo que uma infinidade de leis desconhecidas altamente complicadas devem ser
assumidas para salvar a explicação de Maxwell. Eu acho que essas leis são uma ficção completa.
Não podemos escrevê-los. Certamente não podemos construir experimentos para testá-los. Apenas
o modelo de explicação da lei de cobertura defende sua existência.
Machine Translated by Google

Lembre-se das preocupações de Hempel sobre os princípios da ponte, que discuti no último ensaio.
Hempel estava preocupado com o fato de os princípios da ponte não terem o caráter sem
exceções adequado para garantir conexões dedutivas entre explanans e explanandum. Cânhamo
ilustrado com ímãs e limalha de ferro. Mas o radiômetro de Maxwell é um bom exemplo. Nem
todos os radiômetros que atendem às duas descrições de Maxwell têm a função de distribuição
que Maxwell anota; a maioria tem muitos outros recursos relevantes. Isso provavelmente continuará
sendo verdade, não importa quantas correções adicionais adicionemos. Em geral, como concluiu
Hempel, a lei da ponte entre o meio de um radiômetro e uma distribuição proposta pode conter
apenas ceteris paribus.
Essa, no entanto, é uma posição difícil para um teórico da lei de cobertura tomar. Como argumentei
no início, no segundo ensaio, uma lei que vale apenas em circunstâncias restritas pode explicar
apenas nessas circunstâncias. A maior parte dos radiômetros da Woolworth's não foi tocada pela
explicação de Maxwell. A história de idealização com a qual começamos supõe que cada radiômetro
de Woolworth tem alguma função de distribuição verdadeira e que as funções de distribuição em
questão são suficientemente próximas das de Maxwell. Neste caso, a explicação de Maxwell para
o meio ideal serve como um substituto para as explicações apropriadas para cada um dos
radiômetros reais. Mas estas últimas não são explicações sobre a visão da lei de cobertura, a
menos que o Livro da Natureza seja retomado com volumes e volumes de leis-ponte.
Digo que não existem tais leis de ponte, ou, mais cautelosamente, não temos motivos para
assumi-las. Mas sem as leis da ponte, as funções de distribuição não têm poder explicativo.
Assim, nossa principal motivação para acreditar neles desaparece, e com razão. As funções de
distribuição desempenham principalmente um papel organizador. Eles não podem ser vistos; eles
não causam nada; e como muitas outras propriedades de conveniência, não temos ideia de como
aplicá-las fora das condições controladas do laboratório, onde a vida real imita modelos explicativos.
Qual é a função de distribuição para as moléculas nesta sala? Ou o valor do vetor campo
elétrico na região na ponta do meu lápis? Essas perguntas são estranhas.
São queer porque são perguntas sem respostas. Eles perguntam sobre propriedades que
apenas objetos em modelos possuem, e não objetos reais em lugares reais.
Acho que muitas vezes somos enganados por um raciocínio inverso aqui. Às vezes, para um
determinado modelo, é possível conceber (ou encontrar) uma situação real em que as principais
características relevantes para a fenomenologia são apenas as características mencionadas no
modelo, e não outras. O hélio de baixa densidade, por exemplo, é um gás quase ideal do ponto de
vista do modelo de bola de bilhar da mecânica estatística. Nesses casos, tendemos a pensar no
modelo como uma réplica exata da realidade e a atribuir aos objetos modelados não apenas as
propriedades genuínas do modelo, mas também as propriedades de conveniência. Por continuidade,
argumentamos então, as propriedades de conveniência devem se aplicar também a casos mais
complexos. Mas isso é apenas para trás. Com muitas propriedades teóricas abstratas, não temos
base para atribuí-las a casos complexos e realistas. Por continuidade, também não se aplicam aos
casos ideais.
Voltando aos modelos, pode ser útil relembrar uma discordância
final p.156

entre Mary Hesse11 e Wilfrid Sellars.12 O paradigma de Hesse é o modelo da bola de bilhar para
a teoria cinética dos gases. Ela acha que os objetos no modelo (as bolas de bilhar) e os objetos
modelados (as moléculas de gás) compartilham algumas propriedades e não compartilham
Machine Translated by Google

outras; e ela fala em termos de analogias positivas, negativas e neutras entre o modelo e os objetos
modelados. Sellars discorda. Sua atenção está um nível acima. O que é importante para Sellars não é o
compartilhamento de propriedades, mas o compartilhamento de relacionamentos entre propriedades.
Suponho que nosso exemplo de laser se adequaria bem a Sellars. O laser de néon de hélio e um oscilador
triodo real não precisam ter propriedades em comum. O que é relevante é que as propriedades de cada uma
se comportam de maneira semelhante, de modo que ambas podem ser tratadas pela mesma equação de van
der Pol.
Compartilho a ênfase de Sellars nas relações entre propriedades, pois o objetivo do tipo de modelo em
que estou interessado é trazer o fenômeno sob as equações da teoria.
Mas Sellars e eu nos opomos ao realismo. Ele vê que as leis fenomenológicas são difíceis de acertar. Se
queremos um comportamento regular, a descrição das circunstâncias deve se tornar cada vez mais
complicada, as leis têm cada vez menos generalidade, e nossas declarações delas nunca serão sem exceções.
As leis fundamentais, ao contrário, são simples, gerais e sem exceção. Portanto, para Sellars, elas são as
verdades básicas da natureza.
Em oposição a Sellars, tenho argumentado que sua generalidade e ausência de exceção são mera aparência,
aparência que surge de focar demais no segundo estágio de entrada da teoria. As equações fundamentais
podem ser verdadeiras para os objetos no modelo, mas isso ocorre porque os modelos são construídos dessa
maneira. Para usar a linguagem que introduzi no último ensaio, quando apresentamos um modelo de um
fenômeno, preparamos a descrição do fenômeno da maneira correta para que uma lei se aplique a ele.

O problema para o realismo é o primeiro estágio de entrada da teoria. Se os modelos corresponderem um


a um, ou pelo menos terminar aproximadamente p.157

assim, com as situações que estudamos, as leis que regem o modelo poderiam ser presumidas também
aplicáveis às situações reais. Mas os modelos quase nunca são realistas no primeiro sentido; e tenho
argumentado, isso é crucial para o funcionamento da física. Diferentes modelos incompatíveis são usados
para diferentes propósitos; isso acrescenta, em vez de diminuir, o poder da teoria. Já tivemos muitos
exemplos, mas deixe-me citar mais um texto descrevendo a variedade de tratamentos disponíveis para
lasers: Vários autores trataram sistemas de interação idealizados como modelos para lasers.

Amplos estudos foram realizados por Lax, Scully e Lamb, Haken, Sauerman e outros. Modelos solúveis foram
examinados por Schwable e Therring. Vários modelos dinâmicos simplificados para dispositivos de vários
tipos são apresentados no último capítulo do livro de Louisell.13

E assim por diante.

Ultimamente, tem havido muito interesse em modelos entre os filósofos da ciência. Ajudará a comparar o
uso que faço dos modelos com outras contas. Primeiro, Redhead e Cushing: tanto Michael Redhead14
quanto James Cushing15 fizeram recentemente investigações muito boas de modelos em física
matemática, particularmente em mecânica quântica e em teoria quântica de campos. Ambos estão
preocupados principalmente não com os modelos analógicos de Hesse, mas com o que Redhead chama de
'modelos teóricos', ou teorias incompletas (modelo 3 de Cushing - modelos de cobaia ou brinquedos de
funileiro). Embora, como
explicação
eu, Cushing
dos fenômenos
diga explicitamente
em uma que
teoria
osmatemática,
modelos servem
ele e Redhead
para "incorporar"
se concentram
uma
em um tipo especial de modelo - uma teoria
Machine Translated by Google

que é reconhecidamente incompleto ou impreciso. Estou preocupado com um sentido mais geral
da palavra "modelo". Eu acho que um modelo - uma descrição especialmente preparada,
geralmente ficcional do sistema em estudo - é empregado sempre que uma teoria matemática é
aplicada à realidade, e eu uso a palavra 'modelo' deliberadamente para sugerir o fracasso do fim
exato.

correspondência que os simulacros compartilham tanto com os modelos analógicos de


Hesse quanto com os modelos teóricos de Redhead e Cushing.
Em segundo lugar, a visão semântica das teorias: na explicação do simulacro, os modelos
são essenciais para a teoria. Sem eles, há apenas uma estrutura matemática abstrata, fórmulas
com buracos, sem relação com a realidade. A equação de Schroedinger, mesmo acoplada a
princípios que dizem quais hamiltonianos devem ser usados para potenciais de poços quadrados,
interações Coulombianas de dois corpos e similares, não constitui uma teoria de nada. Para ter
uma teoria do laser de rubi, ou da ligação em uma molécula de benzeno, é preciso ter modelos
para aqueles fenômenos que os ligam a descrições na teoria matemática. Em suma, na conta do
simulacro, o modelo é a teoria do fenômeno. Isso se parece muito com a visão semântica das
teorias, desenvolvida por Suppes16 e Sneed17 e van Fraassen.18 Mas a ênfase é bem diferente.
Nesse estágio, acho que o aparato formal da teoria dos conjuntos obscureceria em vez de
esclarecer meus pontos centrais. É mais fácil ver isso contrastando os pontos que quero fazer
com o uso que van Fraassen faz da visão semântica em The Scientific Image.
19

Van Fraassen sustenta que só temos o direito de acreditar no que podemos observar e que
devemos permanecer agnósticos em relação a afirmações teóricas que não podemos confirmar
pela observação. Isso o leva a exigir que apenas a subestrutura observável dos modelos
permitidos pelas leis de uma teoria deve mapear a estrutura das situações modeladas. Apenas a
parte de uma teoria que supostamente representa fatos observáveis, e não as partes que
representam fatos teóricos, precisa ser uma representação precisa de como as coisas realmente
são.
O livro de Van Fraassen toma uma posição firme contra o realismo. Sellars, já mencionei, é um
profundo realista. Mas eles terminam p.159

têm em comum um surpreendente respeito pela teoria. Ambos esperam que as teorias acertem
os fatos sobre os fenômenos observáveis ao nosso redor. Para van Fraassen, as afirmações
teóricas de uma boa teoria não precisam corresponder à realidade, mas as afirmações sobre observáveis deveriam.
Em uma boa teoria, a subestrutura observável prescrita pela teoria deve corresponder à estrutura
da realidade. Não é assim que vejo boas teorias funcionando. As consequências observacionais
da teoria podem ser uma correspondência grosseira com o que supomos ser verdade, mas
geralmente não são o melhor que podemos fazer. Se almejamos a adequação descritiva e não nos
preocupamos com a organização ordenada dos fenômenos, podemos escrever leis fenomenológicas
melhores do que aquelas que uma teoria pode produzir. Isso é o que tentei mostrar, começando
com 'A verdade não explica muito' e terminando com as descrições preparadas, mas imprecisas,
discutidas no último ensaio.
Machine Translated by Google

Há também uma segunda diferença importante com van Fraassen que não se encaixa
prontamente no formalismo semântico. Falei sobre subestruturas observacionais para
contrastar minhas visões com as de van Fraassen. Mas, ao contrário de van Fraassen, não
estou preocupado exclusivamente com o que pode ser observado. Acredito em entidades
teóricas e também em processos causais. A admissão de entidades teóricas torna minha
visão muito mais próxima de Sellars do que parecia antes. Todos os tipos de coisas não
observáveis estão em ação no mundo, e mesmo que queiramos prever apenas resultados
observáveis, ainda teremos que olhar para suas causas não observáveis para obter as respostas certas.
Quero me concentrar nos detalhes do que realmente acontece em situações concretas,
se essas situações envolvem entidades teóricas ou não, e como elas diferem do que
aconteceria se até mesmo a melhor de nossas leis fundamentais apresentasse suas
consequências com rigor. Na verdade, a explicação do simulacro faz a afirmação mais forte:
geralmente não faz sentido falar das leis fundamentais da natureza exercendo suas
consequências na realidade. Pois o tipo de situações antecedentes que se enquadram nas
leis fundamentais são geralmente as situações ficcionais de um modelo, preparado para as
necessidades da teoria, e não as situações complicadas da realidade. Não quero dizer que
nunca poderia haver situações às quais as leis fundamentais se apliquem. Isso só é impedido
se a teoria empregar propriedades ou arranjos que são puras ficções, como eu acho que a
mecânica estatística clássica faz. Um pode ocorrer por acidente, ou, mais provavelmente,
podemos ser capazes de construir um em um experimento cuidadosamente controlado, mas
a natureza geralmente não é suficientemente amável para fornecê-los livremente.
Deixe-me repetir um ponto que já fiz muitas vezes antes. Se vamos argumentar do sucesso
da teoria à verdade das leis teóricas, é melhor que tenhamos um grande número e uma ampla
variedade de casos. Um punhado de experimentos cuidadosos não serve; o que leva à
convicção é a ampla aplicação da teoria, a aplicação a lasers, transistores e dezenas de
milhares de outros dispositivos reais. Os realistas precisam desses exemplos, aplicação
após aplicação, para defender seu caso. Mas esses exemplos não têm a estrutura adequada
para sustentar a tese realista. Pois as leis não se aplicam literalmente a eles.
A conta do simulacro não é uma conta formal. Diz que traçamos um modelo, e dentro do
modelo "derivamos" várias leis que combinam mais ou menos bem com pedaços de
comportamento fenomenológico. Mas mesmo dentro do modelo, a derivação não é o que a
conta DN gostaria que fosse, e não tenho nenhuma alternativa clara. Isto é em parte porque
eu não sei como tratar a causalidade. Os melhores tratamentos teóricos acertam um número
significativo de leis fenomenológicas. Mas eles também devem contar as histórias causais certas.
Frequentemente, um modelo ideal para uma atividade não se adapta a outra e, muitas
vezes, uma vez que os princípios causais são entendidos a partir de um modelo simples,
eles são apenas importados para modelos mais complexos que cobrem uma variedade
maior de comportamentos. Por exemplo, Richard Feynman, quando trata da refração da
luz no Volume II de suas famosas palestras em Berkeley, diz: Queremos agora discutir o
fenômeno da refração da luz. . por materiais densos. .
No capítulo 31 do Volume I discutimos uma teoria do índice de refração, mas por causa de
nossas habilidades matemáticas limitadas na época, tivemos que nos restringir a encontrar o
índice apenas para materiais de baixa densidade, como gases. Os princípios físicos que
produziram o índice foram, no entanto, esclarecidos. . . Agora, no entanto, final p.161
Machine Translated by Google

descobriremos que é muito fácil tratar o problema pelo uso de equações diferenciais.
Este método obscurece a origem física do índice (como proveniente das ondas re-irradiadas
interferindo nas ondas originais), mas torna a teoria para materiais densos muito mais
simples.20
Mas o que é para um tratamento teórico "contar" uma história causal? Como o estudo da luz
de Feynman no Volume I 'torna claro' os princípios físicos que produzem a refração? Eu não
tenho uma resposta. Posso dizer o que Feynman faz no Volume I, e será óbvio que ele consegue
extrair uma explicação causal de seu modelo para materiais de baixa densidade. Mas eu não
tenho uma teoria filosófica sobre como isso é feito. A ênfase em acertar a história causal é nova
para os filósofos da ciência; e nossas velhas teorias de explicação não estão bem adaptadas ao
trabalho. Precisamos de uma teoria da explicação que mostre a relação entre os processos
causais e as leis fundamentais que usamos para estudá-los, e nem minha explicação do simulacro
nem a explicação tradicional da lei de cobertura são de muita ajuda.

Histórias causais não são o único problema. Mesmo se quisermos derivar apenas fatos puros
de associação de Hume, a conta DN não servirá. Vimos duas maneiras pelas quais ela falha nos
capítulos anteriores. Primeiro, a partir do Ensaio 6, as leis fundamentais que iniciam um tratamento
teórico frequentemente são corrigidas no decorrer da derivação. Em segundo lugar, muitos
tratamentos reúnem leis de diferentes teorias e de diferentes domínios, de uma forma que também
não é dedutiva. Este é o tema do ensaio 3.
Esses são problemas para qualquer uma de nossas teorias de explicação existentes, e nada
do que eu disse sobre simulacros ajuda a resolvê-los. Os simuladores fazem um trabalho
diferente. Em geral, a natureza não prepara situações para se adequar aos tipos de teorias
matemáticas pelas quais ansiamos. Construímos tanto as teorias quanto os objetos aos quais
elas se aplicam, então as combinamos aos poucos com situações reais, derivando – às vezes
com grande precisão – um pouco do que acontece, mas geralmente não entendendo todos os
fatos de uma só vez. As leis fundamentais não governam a realidade. O que eles governam tem
apenas a aparência da realidade e a aparência é muito mais organizada e mais prontamente
arregimentada do que a própria realidade. fim p.162

Ensaio 9 Como o problema de medição é um artefato da matemática


Nancy Cartwright

0. Introdução

O trabalho clássico de Von Neumann de 1932 estabeleceu o problema da medição na


mecânica quântica.1 Existem dois tipos de evolução na teoria quântica, disse von Neumann.
O primeiro tipo é governado pela equação de Schroedinger. É contínuo e determinístico.
A segunda, chamada de redução do pacote de ondas, é descontínua e indeterminística. É descrito
pelo postulado de projeção de von Neumann.
Machine Translated by Google

A terminologia surge assim: os sistemas clássicos têm valores bem definidos tanto para
posição quanto para momento. Os sistemas quânticos, por outro lado, podem não ter valor bem
definido para nenhum dos dois. Nesse caso, dizemos que eles estão em uma superposição de
estados de momento, ou de estados de posição. Considere a posição. Um elétron frequentemente
se comporta não como uma partícula, mas como uma onda. Parecerá estar espalhado no
espaço. Mas quando uma medição é feita, sempre a encontramos em um único local. A medida,
dizemos, reduz o pacote de ondas; o elétron é projetado de um estado de onda para um estado de partícula.
Mas o que há de especial na medição? Na maioria das vezes, os sistemas são governados
pela equação de Schroedinger. As reduções ocorrem quando e somente quando uma medição é feita.
Como, então, as medições diferem de outras interações entre sistemas? Acontece que é muito
difícil encontrar qualquer diferença que destaque as medições de forma única. Von Neumann
postulou que as medições são especiais porque envolvem um observador consciente. Eugene
Wigner concordou;2 e acho que essa é a única solução que consegue selecionar medidas entre
todas as outras interações. fim p.163

É evidente que não é uma solução muito satisfatória. O problema da medição é uma das
dificuldades filosóficas de longa data que perturba a teoria quântica.
Vou argumentar aqui que o problema da medição não é um problema real. Não há nada de
especial na medição. Reduções do pacote de ondas também ocorrem em uma ampla
variedade de outras circunstâncias, indeterminadamente e por conta própria, sem a
necessidade de qualquer intervenção consciente. A seção 1 argumenta que as reduções
ocorrem sempre que um sistema é preparado para estar em um determinado estado
microscópico. A Seção 2 pede que as reduções ocorram também em outros processos de
transição, notadamente no espalhamento e no decaimento. Há boas razões para atender a esses
processos de transição. Na interpretação convencional, que considera as probabilidades de
posição como primárias, as proposições quânticas têm uma lógica peculiar ou uma estrutura de
probabilidade peculiar ou ambas. Mas os processos de transição, onde ocorrem reduções do
pacote de ondas, têm uma lógica padrão e uma probabilidade padrão. Eles fornecem uma interpretação não problemá
A proposta de desenvolver uma interpretação para a mecânica quântica baseada em
probabilidades de transição me parece exatamente correta. Mas esbarra em uma nova
variação do problema de medição. Dois tipos de evolução são postulados. As reduções do
pacote de ondas não estão mais confinadas às medições, mas quando elas ocorrem? Se houver
dois tipos diferentes de mudança, deve haver alguma característica que dite quais situações
serão regidas pela lei de Schroedinger e quais pelo postulado da projeção. A própria disciplina
que melhor trata as transições sugere uma resposta. A mecânica estatística quântica fornece
tratamentos detalhados de uma variedade de situações em que a redução parece ocorrer de
forma mais plausível. Esta teoria oferece não duas equações, mas uma. Nas formulações gerais
da mecânica estatística quântica, a evolução de Schroedinger e a redução do pacote de ondas
aparecem como casos especiais de uma única lei de movimento que rege todos os sistemas
igualmente. Os desenvolvimentos desta teoria oferecem esperança, eu insisto na Seção 4, para
eliminar completamente o problema da medição e suas variações. As duas evoluções não são
de natureza diferente; sua diferença é um artefato da notação convencional. fim p.164
Machine Translated by Google

1. Em Defesa da Redução do Pacote de Ondas

Em 1975 escrevi 'Superposição e Observação Macroscópica'. Eis o problema que estabeleci


naquele artigo: estados macroscópicos, ao que parece, não se sobrepõem. Corpos
macroscópicos parecem possuir valores nítidos para todas as quantidades observáveis
simultaneamente.
Mas em pelo menos uma situação bem conhecida – a da medição – a mecânica quântica
prevê uma superposição. É costume tentar conciliar a realidade macroscópica e a
mecânica quântica reduzindo a superposição a uma mistura. Este é um programa que von
Neumann iniciou em 1932 e para o qual Wigner, Groenewold e outros contribuíram. Von
Neumann realizou sua redução tratando a medição como um caso especial e único que não
está sujeito às leis padrão da teoria quântica. Trabalhos posteriores confirmaram que uma
evolução normal de Schroedinger não pode produzir a mistura necessária. Esta não é, no
entanto, uma conclusão tão infeliz como geralmente se faz. A mecânica quântica exige uma
superposição: o problema filosófico não é substituí-la por uma mistura, mas sim explicar por
que acreditamos erroneamente que uma mistura é necessária.3
Estas são as palavras de um realista comprometido: a teoria diz que ocorre uma
superposição; então, se formos considerar a teoria como uma boa, é melhor supor que ela o faz.
Hoje não tenho essa visão. Uma teoria tem sorte se acertar alguns dos resultados em algum
momento. Insistir que uma teoria realmente boa faria melhor é assumir uma simplicidade e
uniformidade da natureza que é desmentida por nossas melhores tentativas de lidar com ela.
Na mecânica quântica em particular, acho que não há esperança de colocar todos os
fenômenos sob a regra única da equação de Schroedinger. A redução do pacote de ondas
também ocorre, e de forma não sistemática ou uniforme. A ideia de que todas as evoluções
quânticas podem ser lançadas na mesma forma abstrata é uma ilusão. Para entender o porquê,
é importante ver como o programa realista que defendi em 1975 falha.
Os sistemas quânticos, sabemos, não deveriam ter

Figura 9.1. Ortodibromobenzeno (Fonte: Feynman, Lectures on Physics.)

valores bem definidos para todas as suas variáveis simultaneamente. Um sistema com
um momento preciso não terá posição. Ele se comportará como uma onda e será distribuído
pelo espaço. Isso é crítico para as explicações que a mecânica quântica dá para uma variedade de
Machine Translated by Google

fenômenos. O famoso caso da energia de ligação do benzeno é um bom exemplo. Essa energia
é muito menor do que seria esperado se houvesse ligações duplas onde elas deveriam estar
entre os átomos de carbono. O caso é mais fácil de ver se olharmos para o ortodibromobenzeno
– isto é, benzeno com dois bromos substituídos por dois hidrogênios. Existem duas estruturas
possíveis (veja a Figura 9.1).
Na verdade, todas as formas na natureza são as mesmas. Eles têm uma ligação simples
separando os bromos, como em 9.1a, ou uma ligação dupla, como em 9.1b? Nenhum. A energia
está entre aquela prevista de uma ligação e aquela prevista de duas. É como se houvesse um vínculo e meio.
Linus Pauling disse que cada molécula ressoa entre o primeiro arranjo e o segundo, e isso
não está muito longe da resposta quântica. De acordo com a mecânica quântica, a molécula
está em uma superposição das duas configurações. Isso significa que não está na configuração
9.1a inteiramente, nem na 9.1b inteiramente, mas em ambos simultaneamente. Onde então
estão os elétrons que formam as ligações? Em uma imagem clássica de partículas, elas devem
estar localizadas em um ponto ou outro. A mecânica quântica diz que, como as ondas, elas se
espalham pelos locais alternativos.
Este comportamento não é muito perturbador em elétrons. Afinal, eles são muito pequenos e
não temos final muito refinado p.166

intuições sobre eles. Mas não é uma explicação correta para objetos macroscópicos, cujas
posições, velocidades, etc., são estritamente fixas. Como podemos evitar manchas em
objetos macroscópicos? Primeiro, notamos que o espalhamento em uma variável, como a
posição, ocorre apenas quando uma quantidade incompatível, como o momento, é definida
com precisão. Isso sugere que todos os observáveis macroscópicos são compatíveis.
Podemos arranjar isso da seguinte maneira: reconhecidamente, as quantidades reais que
descrevem sistemas macroscópicos não serão todas compatíveis. Mas na verdade não observamos o valor real de um
Em vez disso, o que vemos é uma média de longo prazo sobre esses valores - longa
em comparação com os tempos de relaxamento nos próprios objetos. Por uma média
grosseira, podemos construir novas quantidades que são todas compatíveis. Afirmamos então
que essas novas quantidades, e não as originais, são os observáveis macroscópicos que nos interessam.
Mas isto não é o suficiente. A construção garante que é possível que objetos
macroscópicos estejam em estados com valores bem definidos para todos os observáveis
macroscópicos. É até possível que eles sempre evoluam de um tal estado para outro se deixados
por conta própria. Mas as interações com objetos microscópicos os colocam em superposições.
Isso é o que acontece em uma medição de acordo com a equação de Schroedinger. O
elétron começa em uma superposição, com o aparelho em seu estado fundamental. Juntos o
compósito dos dois termina após a medição em uma superposição, onde o ponteiro do aparelho
não tem uma posição bem definida, mas é distribuído pelo mostrador.
É por isso que von Neumann postulou que a medição é especial. No final, as
interações de medição não são governadas pela equação de Schroedinger. Após a
medição ter cessado, ocorre um novo tipo de mudança. O estado superposto do aparelho-
mais-objeto se reduz a um dos componentes da superposição. Esse tipo de mudança é chamado
de redução do pacote de ondas, e o princípio que a rege é o postulado da projeção. O processo
é indeterminístico: nada decide qual das
Machine Translated by Google

estados ocorrerão, embora as probabilidades para cada estado sejam previamente determinadas.
Em um conjunto de medida semelhante final p.167

interações, haverá uma mistura de estados finais. Por isso, às vezes dizemos que uma redução
do pacote de ondas leva superposições em misturas. Mas é importante lembrar que esta é uma
descrição inteiramente no nível do conjunto. Individualmente, a redução do pacote de ondas
transforma as superposições em componentes da superposição.
Existem dois testes óbvios para ver se von Neumann está certo, e ambos falam a favor da
redução do pacote de ondas. A primeira olha para os indivíduos. Se o ponteiro estiver de fato
em uma superposição após uma medição, ele deve ser distribuído de alguma forma pelo espaço.
Mas, na verdade, sempre observamos o ponteiro em um lugar definido. A segunda analisa conjuntos.
Misturas e superposições geram diferentes previsões estatísticas sobre o comportamento
futuro do conjunto. Coleções de sistemas macroscópicos sempre se comportam,
estatisticamente, como se estivessem em misturas. Em 'Superposition and Macroscopic
Observation' defendo a superposição contra essas duas dificuldades.
A primeira defesa consiste em 'quebrar a ligação autovalor-autovetor'. A discussão até agora
assumiu que o elétron não tem valor de posição porque está em uma superposição de estados de
posição. Assim, adotamos o princípio: S tem um valor para um dado observável (um autovalor)
se e somente se S estiver no estado correspondente (o autoestado).
Negar a inferência na direção do estado para o valor exigiria uma séria revisão de nossa
compreensão da teoria quântica, que ensina que a probabilidade em um dado autoestado de um
sistema exibir o autovalor correspondente é uma. Mas não há mal nenhum em quebrar a
inferência na outra direção. É preciso ter cuidado para não entrar em conflito com várias provas
sem variáveis ocultas, como as de Kochen e Specker4 e de JS
Bell.5 Mas há uma variedade de maneiras satisfatórias de atribuir valores a sistemas em
superposições.6
Passemos à segunda dificuldade. Por que os físicos
terminam p.168

não está muito preocupado com o problema de medição na prática? Aqui está uma resposta
comum: objetos macroscópicos têm um número muito grande de graus de liberdade com
fases distribuídas aleatoriamente. O efeito da média de todos esses graus de liberdade é eliminar
os termos de interferência que são característicos das superposições. Em um sistema muito
grande com fases não correlacionadas, a superposição será exatamente como uma mistura.
Este argumento é exatamente como o descrito no Ensaio 6 para derivar a lei do decaimento
exponencial. O átomo está em interação com o campo eletromagnético. Se interagisse com apenas
um modo, ou um punhado de modos, oscilaria para frente e para trás como se estivesse em uma
superposição de estados excitados e desexcitados. (Há uma discussão muito boa sobre isso em
PCW Davies, The Physics of Time Asymmetry.)7 Na verdade, está em interação com um 'quase-
contínuo' de modos, e calculando a média sobre eles, como fazemos no Weisskopf–
A aproximação de Wigner, elimina os termos que representam a interferência. Um conjunto de tais
átomos evoluindo ao longo do tempo parecerá exatamente como se estivesse em uma mistura de
estados excitados e desexcitados, e não em uma superposição.
Machine Translated by Google

Houve várias tentativas de aplicar essas ideias com mais rigor a situações de medição. A
tentativa mais detalhada que conheço está no trabalho de Danieri, Loinger e Prosperi.8 É o que
descrevo em 'Superposition and Macroscopic Observation'.
Daneri, Loinger e Prosperi propõem um modelo abstrato de uma situação de medição e consideram
o que acontece nesse modelo quando o aparato macroscópico chega ao equilíbrio após a
interação. Eles concluem que a superposição que a equação de Schroedinger prevê será
estatisticamente indistinguível da mistura prevista pelo postulado da projeção. Isso não quer
dizer que a superposição e a mistura sejam a mesma. Não há como sob a equação de Schroedinger
end p.169

para que o sistema acabe em uma mistura genuína. A alegação de Daneri, Loinger e Prosperi é
mais fraca. Superposições e misturas fazem previsões estatísticas diferentes. Mas, neste caso, os
dois concordarão com as previsões sobre todos os observáveis macroscópicos. A superposição
e a mistura são diferentes, mas a diferença não é uma que possamos testar diretamente com
nossos instrumentos macroscópicos.
Formalmente, há um análogo exato entre a medição no tratamento de Daneri, Loinger e
Prosperi e o caso de decaimento exponencial. Ao derivar a lei do decaimento exponencial, não
produzimos, em aproximação, uma mistura como estado final. Em vez disso, mostramos que a
superposição é indistinguível de uma mistura em relação a um certo conjunto limitado de
variáveis de teste.
Jeffrey Bub9 e Hilary Putnam10 atacaram o programa Daneri, Loinger e Prosperi. Eles não se
opõem aos detalhes do modelo de medição. A objeção deles é mais fundamental. Mesmo que o
modelo seja satisfatório, ele não resolve o problema. Uma superposição ainda é uma superposição,
mesmo que se vista como uma mistura. Queremos ver uma mistura na conclusão da medição.
Não é crédito para a teoria que a superposição que ela prevê se pareça muito com uma mistura
em uma variedade de testes. Agora argumento que um relato correto produzirá uma mistura para
o estado final. Mas em 1975 eu pensei que Bub e Putnam tinham a situação invertida. A maneira
deles é exatamente a maneira errada de um realista olhar para o trabalho de Daneri, Loinger e
Prosperi. A teoria prevê uma superposição, e devemos supor que a superposição ocorre. A prova
da indistinguibilidade serve para explicar por que não somos levados a muitas dificuldades pela
suposição equivocada de que uma mistura é produzida.

Esse foi o argumento que apresentei em 1975 em defesa da equação de Schroedinger. Agora
acho que não podemos deixar de admitir o postulado da projeção, e por uma razão muito
simples: precisamos da redução do pacote de ondas para dar conta do comportamento de
sistemas individuais ao longo do tempo. Os sistemas macroscópicos têm histórias ordenadas.
Um ponteiro que em um instante repousa em um determinado lugar não está milagrosamente
em outro lugar no próximo. Isso é exatamente o que a redução do pacote de ondas garante.
Após a medição, o ponteiro é projetado em um autoestado de posição. Seu comportamento será
posteriormente governado por esse estado - e isso significa que ele se comportará ao longo do tempo exatamente como
Não há como obter esse resultado simples a partir de uma superposição. Seguindo as linhas da
primeira defesa acima, podemos atribuir uma localização ao ponteiro mesmo que esteja em uma
superposição. Um instante depois, podemos novamente atribuir-lhe uma posição. Mas nada
garante que a segunda posição será a evolução da primeira. Os Daneri, Loinger e
Machine Translated by Google

A prova de Prosperi, se funcionar, mostra que as distribuições estatísticas em uma coleção


de ponteiros serão exatamente aquelas previstas pela mistura a qualquer momento que escolhermos
olhar. Mas isso não prova que os indivíduos da coleção evoluam corretamente ao longo do tempo.
Os indivíduos podem alterar seus valores ao longo do tempo tão erraticamente quanto quiserem,
desde que as estatísticas de toda a coleção sejam preservadas.
Esta imagem de objetos pulando é obviamente uma imagem maluca. É claro que sistemas
individuais não se comportam assim. Mas a suposição de que não é apenas a suposição de que
o pacote de ondas é reduzido. Após a medição, cada sistema individual se comporta como se
realmente estivesse em um ou outro dos componentes e não como se estivesse em uma
superposição. Existem na literatura alguns tratamentos para algumas situações específicas que
tentam replicar teoricamente esse comportamento, mas não há bons argumentos de que isso
possa ser alcançado em geral. Uma estratégia seria consertar a conta realista adicionando
restrições: os valores individuais devem ser atribuídos da maneira certa para garantir que eles
evoluam adequadamente no tempo. Mas se a superposição nunca mais desempenha um papel, e
de fato os sistemas passam a se comportar como se estivessem nos autoestados componentes,
fazer isso é apenas admitir a redução do pacote de ondas sem dizer isso. Por outro lado, que papel
a superposição pode desempenhar? Nenhum, se os objetos macroscópicos tiverem valores bem
definidos e histórias contínuas. fim p.171

Até agora temos nos concentrado em objetos macroscópicos e como mantê-los fora de
superposições. Na verdade, também precisamos nos preocupar com objetos microscópicos. Os
sistemas quânticos, como vimos, estão frequentemente em superposições. O elétron não está
localizado nem em um átomo nem em outro na molécula de benzeno. Na próxima seção veremos
outro exemplo. Quando um elétron passa por uma grade de difração, ele não passa por nenhuma
das aberturas da grade. Mais como uma onda, parece passar tudo de uma vez. Como então tiramos
microssistemas de superposições e entramos em estados puros quando precisamos deles? Para
estudar a estrutura interna dos prótons nós os bombardeamos em alta velocidade com elétrons.
Para isso precisamos de um feixe, estreitamente focado, de elétrons muito energéticos; ou seja,
precisamos de elétrons com um momento grande e bem definido. O Stanford Linear Accelerator
(SLAC) deve suprir essa necessidade. Mas como faz isso?

Aqui está um modelo simples de um acelerador linear (um 'linac de tubo de deriva')—veja a Figura
9.2. O tubo de derivação linac consiste em duas partes principais: um injetor e uma série de tubos
de derivação ligados a uma tensão alternada. O injetor é uma fonte de elétrons bem colimados - isto
é, elétrons que têm uma dispersão estreita na direção de seu momento. Podemos obtê-los desta
forma: primeiro, ferva um grande número de elétrons de um fio quente. Em seguida, acelere-os com
um campo eletrostático – por exemplo, em um capacitor. Dobrá-los com um ímã e tela todos, mas
uma pequena gama de ângulos. O feixe resultante pode ser focado usando um solenoide ou ímãs
de quadratura antes de entrar na configuração do tubo de deriva para a maior parte da aceleração
da partícula.
Machine Translated by Google

Figura 9.2. Modelo de uma extremidade do


acelerador linear p.172

Dentro dos tubos de deriva o campo elétrico é sempre zero. Nos intervalos alterna com a
frequência do gerador. Considere agora uma partícula de carga e que cruza a primeira lacuna
em um momento em que o campo de aceleração está em seu máximo. O comprimento L do
próximo tubo é escolhido de modo que a partícula chegue ao próximo intervalo quando o
campo mudou de sinal. Então, novamente a partícula experimenta a tensão de aceleração
. Para fazer
máxima, já tendo0 ganho isso, L deve
uma energia ser igual
2eV onde v é aavelocidade da partícula e T
o período de oscilação. Assim, L aumenta até o valor limite: pois O elétron .
no linac é como uma bola rolando por uma série de tubos. Quando atinge o final de cada tubo,
ele cai no tubo abaixo, ganhando energia. Enquanto a bola está rolando pelo segundo tubo, o
tubo inteiro é elevado até a altura do primeiro. No final a bola cai novamente. Enquanto
atravessa o tubo, a bola mantém sua energia. A cada queda ele ganha mais. Após uma aceleração
de três quilômetros no SLAC, os elétrons estarão viajando quase à velocidade da luz.

Imagine agora que queremos trazer todo esse processo sob a equação de Schroedinger.
Isso será muito complicado, mesmo se usarmos um modelo diagramático simples. Sistemas
quânticos são representados por vetores em um espaço de Hilbert. Cada sistema no processo
é representado em seu próprio espaço de Hilbert - os átomos emissores, o campo
eletrostático, o campo magnético, a tela absorvente e os campos em cada um dos tubos de derivação separados.
Quando dois sistemas interagem, seu estado conjunto é representado no produto dos
espaços de Hilbert para os componentes. Como vimos na discussão sobre medição, a
interação traz o sistema composto para uma superposição no espaço do produto para os dois.
Quando um terceiro sistema é adicionado, o estado será uma superposição no produto de três espaços.
Adicionar um quarto nos dá uma superposição em um espaço de quatro produtos e assim por
diante. No final do acelerador, temos uma grande superposição para os elétrons mais o capacitor
mais o ímã mais o campo no primeiro tubo mais o campo no segundo e assim por diante.
As duas contas do que acontece são incompatíveis. Queremos um elétron viajando em uma
direção especificada com uma extremidade p.173

energia bem definida. Mas a equação de Schroedinger prevê uma superposição para um
composto enorme, no qual o elétron não tem uma direção específica nem uma energia
específica. Ingenuamente, podemos supor que o problema é resolvido no início do processo.
Uma variedade de direções são representadas quando os elétrons saem do fio ou do capacitor,
mas os ângulos indesejados são filtrados na placa absorvente. Se o tratamento formal de
Schroedinger for seguido, esta solução não funcionará. A tela absorvente deve produzir um
estado com o momento espalhado por apenas um ângulo sólido muito pequeno. No formalismo
de Schroedinger não há como a tela absorvente fazer isso
Machine Translated by Google

trabalho. A interação com a tela produz outra superposição em um espaço ainda maior. Se
quisermos colocar nosso raio no final do acelerador, a evolução de Schroedinger deve falhar. A
redução do pacote de ondas deve ocorrer em algum ponto do processo de preparação.
Esse tipo de situação ocorre o tempo todo. Em nossos laboratórios preparamos milhares de
estados diferentes por centenas de métodos diferentes todos os dias. Em cada caso, um pacote de
ondas é reduzido. As medições, portanto, não são o único lugar para procurar uma falha da equação
de Schroedinger. Qualquer preparação bem sucedida servirá.

2. Por que as probabilidades de transição são fundamentais

As probabilidades de posição desempenham um papel privilegiado na interpretação da mecânica quântica.


Considere um texto típico. Na seção intitulada 'A Interpretação de ÿ e a Conservação da Probabilidade'
Eugen Merzbacher nos fala sobre a função de onda ÿ: Antes de entrar em detalhes matemáticos, no
entanto, parece sábio tentar dizer precisamente o que ÿ é. Estamos na situação paradoxal de termos
obtido uma equação [a equação de Schroedinger] que acreditamos ser satisfeita por essa quantidade,
mas de ter dado até agora apenas uma interpretação deliberadamente vaga de seu significado físico.
Consideramos a função de onda como 'uma medida da probabilidade' de encontrar a partícula no
instante t na posição r. Como essa afirmação pode ser precisa? fim p.174

ÿ em si obviamente não pode ser uma probabilidade. Todas as esperanças que poderíamos ter
nessa direção desapareceram quando ÿ se tornou uma função complexa, já que as probabilidades
são reais e positivas. Diante desse dilema, o próximo melhor palpite é que a probabilidade é
2
proporcional a |ÿ | , o quadrado da amplitude da função de onda ...
É claro que fomos descuidados quando usamos a frase 'probabilidade de encontrar a partícula na
posição r'. Na verdade, tudo o que podemos falar é a probabilidade de que a partícula esteja em um
elemento de volume d3 r que contém o ponto r. Portanto, agora tentamos a interpretação de que |ÿ(r,
3
t)|2 d r é proporcional à probabilidade de que, após uma medição de sua posição, o
partícula será encontrada no elemento de volume dado. A probabilidade de encontrar a partícula em
alguma região finita do espaço é proporcional à integral de ÿ*ÿ sobre esta região.11
3
Então |ÿ(r)|2 é uma probabilidade. Isso é amplamente reconhecido. Mas exatamente o que é |ÿ(r)|2 rd
a probabilidade de? Qual é o espaço de eventos que essas probabilidades da mecânica quântica
abrangem? Não há resposta sem problemas. Merzbacher faz a proposta convencional, que '|ÿ(r, t)|
3
2d r é proporcional à probabilidade de que após uma medição de
sua posição a partícula será encontrada no elemento de volume dado.' Mas por que devemos nos
referir à medição? Devemos primeiro ensaiar as dificuldades que cercam a proposta muito mais
3
simples de que |ÿ(r)|2 d r representa a probabilidade de que a partícula esteja localizada na região
em torno de r, medido ou não. Esta resposta supõe que os eventos que as probabilidades
quânticas descrevem são as localizações reais dos objetos quânticos. Tem dificuldade em lidar com
situações em que os fenômenos de interferência são significativos - por exemplo, a ligação de átomos
na molécula de benzeno ou os padrões ondulatórios observados em um experimento de difração.
Machine Translated by Google

O experimento de duas fendas é o exemplo canônico. Um feixe de elétrons passa por uma tela
com dois orifícios e cai sobre uma chapa fotográfica. Imagine que, no momento de passar pela
tela, cada elétron esteja localizado na fenda 1 (r = s 1 ) ou na fenda 2 (r = s 2 ).
Então podemos raciocinar da seguinte forma. Um elétron pousa em um ponto y na tela se e
somente se ele pousa em y e passa pela fenda um ou pela fenda dois, ou seja,


assim


Segue que

e, como s 1 e s 2 são disjuntos

Agora faça o cálculo da mecânica quântica. Se a fonte for equidistante da fenda 1 e da fenda 2,
a probabilidade de passar pela fenda 1 = probabilidade de passar pela fenda e o estado dos
, elétrons na tela será ÿ(y) = 1/ÿ2ÿ 1 (y) + 1/ÿ2ÿ 2 (y), onde ÿ 1 (y) é o estado de um feixe
de elétrons que passou inteiramente pela fenda 1; ÿ 2
(y), um feixe passando inteiramente pela fenda 2. Então, usando a regra da mecânica quântica

Mas identificar

e similarmente para s 2 , vemos que o cálculo clássico C para a probabilidade de pouso em y, e


o cálculo da mecânica quântica Q não dão os mesmos resultados. Eles diferem pelos termos de
. O cálculo
interferência supõe que os elétrons têm uma localização definida na Ctela
é aquele
e suasque
consequências
não são comprovadas em experimentos.

Existem várias maneiras de evitar a conclusão C 4 , bem ensaiado até agora. O primeiro

insiste que as proposições da mecânica quântica têm uma lógica engraçada. Em particular, eles não
Machine Translated by Google

fim p.176

obedecer a lei distributiva. Isso bloqueia o argumento no movimento entre C. 1eC 2.


Essa solução foi por um tempo instigada de forma persuasiva por Hiliary Putnam.12 Putnam
agora desistiu dela por causa de várias reflexões sobre o significado e uso do conectivo ou;
mas estou muito impressionado com as objeções de Michael Gardner13 e Peter Gibbins14 de
que as lógicas quânticas usuais não dão, de fato, os resultados corretos para o experimento de duas fendas.
O segundo lugar conhecido para bloquear a derivação C é entre o terceiro e o quarto
passos. A primeira tentativa sustentava que as proposições quânticas têm uma lógica
peculiar; essa tentativa insiste que eles têm uma estrutura de probabilidade peculiar. É
um fato bem conhecido sobre a mecânica quântica que a teoria não define probabilidades
conjuntas para quantidades não comutantes (ou seja, incompatíveis). Posição e momento
são os exemplos convencionais. Mas as diferentes posições de um único sistema em dois
momentos diferentes também são quantidades incompatíveis e, portanto, suas probabilidades conjuntas também não
(A incompatibilidade de 'r em t' e 'r em t' é frequentemente provada no caminho para
derivar o teorema de Ehrenfest que, na média, os processos da mecânica quântica obedecem
às equações clássicas de movimento.) Então Prob(y & s 1 ) e Prob(y & s4 2não
) deexiste. Se deve
C Prob(y)
ser calculado, ele deve ser calculado de alguma maneira diferente - notadamente, como na
derivação Q.
O que significa em uma derivação como essa negar uma probabilidade conjunta? Afinal, na
época de Cposição
3 chegamos ao pontotanto
bem definida de admitir
na telaque cadana
quanto elétron,
placa.individualmente,
O que dá errado tem uma
quando
tentamos atribuir uma probabilidade a esse evento conjuntivo? Operacionalmente, o fracasso
das distribuições conjuntas deve aparecer assim. Podemos imaginar traçar histogramas
finitos para os valores conjuntos de 'r em t' e 'r em t', mas os histogramas sempre saltam e
nunca convergem para uma única curva. Existe por hipótese algum final de frequência
conjunta p.177

em cada coleção finita, mas essas frequências não se aproximam de nenhum limite à
medida que as coleções crescem. Isso pode não parecer surpreendente em um universo
completamente caótico, mas é muito surpreendente aqui onde as probabilidades marginais
são perfeitamente bem definidas: nas mesmas coleções, observe as frequências para 'r em t' ou 'r' em t' separadamen
Essas frequências sempre podem ser obtidas pela soma das frequências conjuntas: por
exemplo, em qualquer coleção a frequência (y) = frequência(y & s 1 ) + frequência(y & s 2 ). À
medida que as coleções crescem, a soma se aproxima de um limite, mas nenhum dos termos
da soma se aproxima. Este é um comportamento probabilístico peculiar para um sistema físico.
(Embora, como observei no último ensaio, desconfie até mesmo das probabilidades
correspondentes na mecânica estatística clássica, minha opinião é que ela é consideravelmente
menos peculiar do que a lógica quântica.)
Antes de prosseguir, é importante notar que ambas as tentativas de iniciar com C e para 1
bloqueiam a inferência para C 4 dependem dede
incompatibilidade incompatibilidade. É a pela tela e localização
localização ao passar
no prato que interrompe a inferência de C 1 para C Na lógica quântica convencional, a lei 2
. distributiva vale se todas as proposições forem
Machine Translated by Google

compatível. Da mesma forma, a teoria sempre dará uma distribuição conjunta para
quaisquer duas quantidades que comutam.
Começamos com a pergunta, do que são probabilidades quânticas ?
Os praticantes da teoria quântica têm relutado em adotar lógicas não padronizadas ou probabilidades
não padronizadas. Eles rejeitaram completamente a primeira proposta. Probabilidades quânticas
não são probabilidades de que o sistema esteja 'localizado em r', mas sim, como diz Merzbacher,
que ele 'será encontrado em r em uma medição de posição'. Esta resposta não é mais livre de
problemas do que a primeira. Supõe que o elétron não passa por uma fenda nem pela outra quando
não estamos olhando. Quando olhamos, lá, de repente, está, ou na fenda superior ou na parte
inferior. O que há de especial no olhar que faz com que os objetos sejam lugares onde não estariam
de outra forma? Esta é apenas outra versão do notório problema de medição, que discutimos pela
primeira vez na última seção.
Eu acho nenhuma dessas duas respostas convencionais
muito final p.178

satisfatório, e proponho uma alternativa mais radical. Quero eliminar completamente as


probabilidades de posição e, junto com elas, as probabilidades de todas as grandezas dinâmicas
clássicas. As únicas probabilidades reais na mecânica quântica, mantenho, são as probabilidades
de transição. Em algumas circunstâncias, um sistema quântico fará uma transição de um estado
para outro. Indeterminística e irreversivelmente, sem a intervenção de qualquer observador
externo, um sistema pode mudar seu estado: o número quântico do novo estado será diferente e
um quantum de alguma quantidade conservada – energia, ou momento, ou momento angular, ou
possivelmente até mesmo estranheza. — será emitido ou absorvido. Quando tal situação ocorre,
as probabilidades dessas transições podem ser calculadas; são essas probabilidades que servem
para interpretar a mecânica quântica.
Ilustrarei com alguns exemplos: o primeiro, decaimento exponencial; e a segunda, a dispersão
de uma partícula em movimento por um alvo estacionário. Seja em um átomo quando um elétron
da camada externa muda de órbita e um fóton é emitido, ou em um núcleo resultando em radiação
ÿ, ÿ ou ÿ, o decaimento é o processo indeterminístico clássico. Considere uma coleção de átomos
que não interagem, cada um em um estado excitado. O número de átomos que continuam no estado
excitado diminui exponencialmente com o tempo. Um a um os átomos decaem, e quando um átomo
decai, algo concreto acontece – um fóton é emitido em uma direção específica, a energia do campo
eletromagnético é aumentada e sua polarização é afetada. Qual átomo irá decair, ou quando, é
completamente indeterminístico. Mas a probabilidade de decair é fixa, e essa probabilidade de
transição é a probabilidade na qual quero me concentrar.

O segundo exemplo é da teoria do espalhamento – uma teoria de importância crítica na física


de altas energias, onde as partículas fundamentais são estudadas quase inteiramente por meio
de seu comportamento em colisões. Considere um feixe que atravessa um tubo muito longo de
diâmetro muito pequeno e depois colide com um alvo de partículas massivas e é espalhado. Se
tocarmos o alvo com detectores, descobriremos que muitas das partículas que chegam erram o
alvo e continuam na direção para frente. Mas vários outros serão dispersos no final da p.179
Machine Translated by Google

através de vários ângulos. Se o espalhamento for elástico, as partículas que chegam mudarão
apenas de direção; no espalhamento inelástico, as partículas em movimento trocarão tanto a
direção do momento quanto a energia com o alvo. As probabilidades de transição neste caso são
as probabilidades de uma partícula cujo momento estava inicialmente na direção direta de estar
viajando após se espalhar em outra direção específica e com uma energia bem definida.

As probabilidades de transição que ocorrem no espalhamento têm uma história venerável: são as
primeiras a serem introduzidas na mecânica quântica. O artigo preliminar de Max Born de 1926 é
geralmente aceito por fornecer a proposta original para interpretar a função de onda
probabilisticamente. O resumo desse artigo diz: 'Por meio de uma investigação de processos de
colisão, o ponto de vista é desenvolvido de que a mecânica quântica na forma de Schrödinger pode
ser usada para descrever não apenas estados estacionários, mas também saltos quânticos.'15
Born trata de uma colisão entre um elétron em movimento e um átomo. No meio do artigo ele diz Se
agora se deseja entender este resultado em termos corpusculares, então apenas se define a
probabilidade1 de que o elétron vindo da interpretação seja possível: a direção z será projetada na
onde sua energia I aumentou em um quantum
direçãoà definida
custa dapor
energia
(ÿ, ÿ, atômica.16
ÿ) (e com mudança de fase ÿ),

A nota de rodapé é
famosa: 1. Observação adicionada em correções de prova: Uma análise mais precisa mostra que a
17
. Então a probabilidade entrou na mecânica quântica
probabilidade é proporcional ao quadrado de
não como uma probabilidade de posição ou uma probabilidade de momento, mas sim como a
probabilidade de transição 'que a elétron vindo da direção z será projetado na direção definida por
(ÿ, ÿ, ÿ)'.
Estou pedindo que abandonemos as probabilidades de posição, probabilidades de momento e
similares, e nos concentremos nas probabilidades de transição. A vantagem das probabilidades
de transição é que elas têm uma estrutura clássica e o espaço de eventos no qual elas variam tem
uma lógica booleana comum. Para entender por que, precisamos por um momento olhar para o
tratamento formal das transições. As transições ocorrem em situações em que o hamiltoniano
total H é naturalmente decomposto em duas partes - H 0 , o hamiltoniano
um potencial
'livre' na perturbador:
situação e V, H
= H 0 + V. Supõe-se que o sistema comece em um autoestado
exemplos
de Hde
0 transições,
. Supondo, como
que H énão
o caso
comuta
em
com V e, portanto, não comuta
inicial de
com
H será
H, o uma
autovalor
superposição
de H se conserva.
de H 0 autoestados:
Formalmente,
ÿ(t) o= autoestado
ÿc i (t)ÿ0i
não vai 0
evoluirá para um novo estado que 0
onde H i 0 = ÿÿi | ÿi ÿi _ |.
As probabilidades de transição são dadas pelas (t)|2 . Na língua antiga, eles são os
probabilidades |c de um sistema inicialmente em um dado ÿ 0 para 'ser' ou 'ser encontrado'
posteriormente, em t, em algum ou outro dos
As probabilidades
autoestados ÿ ie.o espaço de eventos que elas variam
over são clássicos apenas porque não observamos observáveis incompatíveis. É como se
estivéssemos lidando com os valores possuídos
0 . a para
partirH.deTodos
H serão
os mutuamente
observáveis que
compatíveis,
podemose0gerar
a
lógica das proposições compatíveis é clássica. Assim também é a probabilidade.

A principal consideração que fez os filósofos favorecerem a lógica quântica é o impulso para o
realismo (embora Alan Stairs18 apresente outros fundamentos mais duradouros). Eles querem
encontrar alguma maneira de garantir que um sistema quântico possua valores para todas as
Machine Translated by Google

quantidades dinâmicas - posição, momento, energia e similares. Mas esta motivação é mal
fundamentada. Se quisermos saber quais propriedades são reais em uma teoria, precisamos
observar quais propriedades desempenham um papel causal nas histórias que a teoria conta
sobre o mundo. Este é um ponto que venho enfatizando ao longo deste livro, e faz uma diferença
crucial aqui. Julgadas por este critério, as grandezas dinâmicas clássicas se saem mal. Os
valores estáticos terminam p.181

de variáveis dinâmicas não têm efeitos; é somente quando os sistemas trocam energia
ou momento, ou alguma outra quantidade conservada, que algo acontece na mecânica
quântica. Por exemplo, saber a posição de um elétron ligado não nos diz nada sobre seu
comportamento futuro, e sua localização onde quer que esteja não traz nada. Mas se o elétron
salta de órbita - isto é, se o átomo faz uma transição de energia - esse evento tem efeitos que
aparecem em linhas espectroscópicas, na dissolução de ligações químicas, na formação de
íons e assim por diante. Isso é verdade mesmo para medições de posição. O detector não
responde à mera presença do sistema, mas é ativado apenas quando ocorre uma troca de
energia entre os dois. Precisamos considerar um exemplo que mostre como as transições
desempenham um papel causal na mecânica quântica que as quantidades dinâmicas
convencionais não têm. Este parece ser bom de usar.
Henry Margenau19 há muito defende que todas as medidas quânticas são, em última
análise, medidas de posição. Mas as próprias medições de posição são basicamente
registros de interações de espalhamento. As medições de posição ocorrem quando a partícula
cuja posição deve ser medida se espalha de um detector. O espalhamento é inelástico: a
energia não é conservada na partícula e o detector é ativado pela energia que a partícula cede à
medida que se espalha. Nos dispositivos comuns de medição de posição – câmaras de nuvem,
contadores de cintilação e chapas fotográficas – a interação de espalhamento relevante é a
mesma. A partícula se espalha de um alvo no detector, e a energia que é cedida pela partícula
faz com que o detector se ionize. Os dispositivos diferem na forma como coletam ou registram
os íons; mas em cada caso a presença da partícula é registrada apenas se ocorrer a interação
de ionização apropriada. Assim, na melhor das hipóteses, a probabilidade de uma contagem no
dispositivo de detecção é igual à probabilidade da interação de ionização designada.
As coisas podem ser muito piores. A radiação geral de fundo pode produzir ionização quando
nenhuma partícula está presente. Por outro lado, o procedimento de coleta de íons pode ser
ineficiente e terminar p.182

íons que são produzidos pela partícula espalhada podem deixar de registrar. As
emulsões fotográficas são altamente eficientes nesse sentido; as eficiências em alguns casos
são superiores a 98 por cento. Mas outros dispositivos não são tão bons. Em princípio, é
possível corrigir esses efeitos no cálculo de probabilidades. Para simplificar, considerarei
apenas dispositivos que são idealmente eficientes - isto é, assumirei que todos e apenas os
íons produzidos pela partícula espalhada são coletados e contados.
Afirmei que um detector real não pode responder à mera presença de uma partícula, mas
reagirá apenas se a partícula transferir energia para ela. Se o processo de amplificação for
eficiente ao máximo, de modo que o contador registre apenas no caso de a energia
apropriada ser transferida, então uma partícula será registrada no detector se e somente se o
Machine Translated by Google

ocorre troca de energia. Isso poderia criar um sério problema de consistência para a
teoria: uma partícula será encontrada em r em uma medição de posição apenas no caso
de um detector localizado em r sofrer alguma interação de energia específica com a
3 r. Mas o
partícula. Como temos discutido, supõe-se que a probabilidade do primeiro evento seja |ÿ(r)|2 d
a probabilidade do segundo é calculada de maneira bem diferente, pelo uso dos métodos da
teoria de espalhamento. A mecânica quântica é consistente apenas se as duas probabilidades
forem iguais, ou aproximadamente iguais. Caso contrário |ÿ(r)|2 não dará a probabilidade de
que o sistema seja encontrado em r em uma medição física real.
Na verdade, isso é mais forte do que o necessário, pois não estamos interessados nos
valores absolutos das probabilidades, mas apenas em seus valores relativos. Considere, por
exemplo, a chapa fotográfica, que é o dispositivo mais adequado para determinar densidades
de partículas em posições bastante bem definidas. Em uma chapa fotográfica não estamos
preocupados que o número de pontos na chapa deva registrar o número real de partículas,
mas sim que o padrão na chapa deva refletir a distribuição das partículas. Isso requer
estabelecer não uma igualdade, mas apenas uma proporcionalidade:

• (9.1)

fim p.183

Figura 9.3. Origem localizada na fonte da onda

Para uma justificativa geral, (9.1) deve ser verdadeiro para qualquer função de estado ÿ
para a qual o problema está bem definido. Para simplificar, tratarei de um exemplo bidimensional,
no qual uma fileira de detectores é disposta em uma linha perpendicular ao eixo z . Podemos pensar no
Machine Translated by Google

detectores como os elementos ativos em uma chapa fotográfica. Neste caso , ÿ(r, t) deve ter
formato arbitrário, exceto que em t = 0 ele estará localizado inteiramente à esquerda da placa (veja a
Figura 9.3). É mais fácil estabelecer (9.1) não em sua forma imediata, mas sim invertendo para obter

• (9.2)

Assim, o objetivo é mostrar que a razão em (9.2) é uma constante independente de r. Uma mudança
de coordenadas ajudará. Pensamos em fixar o centro da onda e variar a localização da extremidade
p.184

Figura 9.4. Origem localizada no detector

o detector através da placa (Figura 9.3). Mas o mesmo efeito é obtido fixando a localização do
detector e variando o centro da onda (Figura 9.4). Visto desta forma, o resultado da consistência
pode ser visto como uma consequência trivial de um teorema fundamental da teoria do espalhamento.
Este teorema afirma que a seção transversal de espalhamento, tanto total quanto diferencial, é uma
constante independente da forma ou localização do pacote de onda de entrada. A seção transversal
de espalhamento total é essencialmente a razão da probabilidade total de a partícula ser espalhada,
dividida pela probabilidade de cruzar o detector. Grosso modo, o teorema assegura que a probabilidade
de espalhamento do detector para uma onda centrada
Machine Translated by Google

em r dividido pela probabilidade de 'estar no' detector, é uma constante independente de r


0 . 0 , Isto é exatamente o que é requerido por (9.2).
Há uma dificuldade. As provas de livros-texto padrão deste teorema não estabelecem o resultado
para ondas arbitrárias, mas apenas para pacotes de ondas que têm um espalhamento estreito na
direção do momento. Isso não é suficiente para garantir a consistência. Em um artigo anterior, calculei
(9.2) diretamente e mostrei que ele vale para estados iniciais arbitrários.20
Tenho insistido para que a interpretação da mecânica quântica seja vista inteiramente em
termos de probabilidades de transição. Onde não ocorrem transições, ÿ deve permanecer sem
interpretação, ou ter apenas uma interpretação subjuntiva: se o sistema estivesse sujeito a
um potencial perturbador do tipo certo, a probabilidade de uma transição para o estado seria.
—. Isso torna a teoria consideravelmente menos pitoresca. Pensamos em termos de onde
nossos microssistemas estão localizados, e todos os nossos instintos nos levam a tratar esses
locais como reais. É difícil abrir mão desses instintos; mas sabemos, por casos como o
experimento das duas fendas, que precisamos, para que nossa conversa seja coerente.
Devemos considerar mais um exemplo em detalhes, para ver exatamente quanto de nosso
raciocínio na mecânica quântica depende de retratar as posições dos sistemas quânticos de
forma realista, e quais etapas adicionais devemos tomar se quisermos rejeitar essa imagem.
A radiação dipolar é um dos exemplos mais claros em que a posição parece contar. Lembre-se do
ensaio 7 que os átomos em um laser se comportam muito como osciladores de elétrons clássicos.
Usarei o tratamento em Sargent, Scully e Lamb para facilitar a compreensão do leitor, mas a
abordagem básica é bastante antiga. A radiação dipolar é uma das primeiras situações em que
Schroedinger aplicou sua nova mecânica ondulatória. Sargent, Scully e Lamb nos dizem: Supõe-se
que os elétrons quânticos nos átomos efetivamente se comportem como cargas sujeitas à oscilação
forçada e amortecida de um campo eletromagnético aplicado. Não é nada óbvio que os elétrons
ligados se comportem dessa maneira. No entanto, a distribuição de carga média oscila, como pode
ser entendido pelo seguinte argumento simples. Conhecemos a densidade de probabilidade para o
elétron a qualquer momento, pois isso é dado pela função de onda do elétron como ÿ*(r, t)ÿ(r, t).
Portanto, a densidade de carga efetiva é

fim p.186

Por exemplo, considere um átomo de hidrogênio inicialmente em seu estado fundamental com
distribuição esférica [a]a carga média do elétron está concentrada no centro da esfera. A
. . . Aqui
aplicação de um campo elétrico força essa distribuição a se deslocar em relação ao núcleo carregado
positivamente. . . A remoção subsequente
frente e para
dotrás
campo
através
faz com
do núcleo
que a devido
esfera carregada
à atração de
oscile
Coulomb.
para
Esse dipolo oscilante age como uma carga em uma mola.21
Machine Translated by Google

Figura 9.5. Distribuição de carga oscilante em um átomo de hidrogênio (Fonte: Siegman, Lasers).

Considere como exemplo concreto um átomo de hidrogênio em seu estado fundamental (o


estado 1s , que designarei
ele evoluirá
por U a para
(r)). Se
uma
o átomo
superposição
estiver sujeito
de estados
a umexcitados
campo elétrico
e desexcitados,
externo,
end p.187

como vimos antes. (Aqui, tomarei o estado excitado como o estado 2p , com m = 0, designado
por U b (r).) Assim, em t , o estado do átomo de hidrogênio em um campo elétrico é

Se traçarmos a densidade de carga e|ÿ(r, t)|2 em intervalos separados, vemos na Figura


9.5 que a distribuição de carga se move no espaço como um dipolo linear e, portanto, tem um
momento de dipolo . átomo é dado por

Os colchetes, er à esquerda,
, indicam que estamos tomando a expectativa da mecânica
quântica. Como Sargent, Scully e Lamb dizem, 'O valor esperado do momento de dipolo
elétrico er é dado pelo valor médio de er em relação a esta densidade de probabilidade [a
densidade ÿ*(r)ÿ(r)]' . A localização do elétron recebe, assim, uma
Machine Translated by Google

tratamento realista aqui: o momento de dipolo em um tempo t é caracterizado em termos


da posição média do elétron em t.
Classicamente, um dipolo oscilante irradia energia. O análogo quântico desta radiação dipolo
é central para a teoria de Lamb do laser. Em um laser, um campo externo aplicado à cavidade
induz um momento de dipolo nos átomos do meio laser. O cálculo é mais complicado, mas a
ideia é a mesma do caso do átomo de hidrogênio que acabamos de ver. A soma de cada um
dos momentos dipolo microscópicos dá o momento macroscópico, ou polarização, do meio.
Isso, por sua vez, atua como uma fonte nas equações de Maxwell. Uma condição de
autoconsistência então requer que o campo assumido seja igual ao campo de reação. Definindo
os dois iguais, podemos derivar um conjunto completo de equações para descrever a oscilação
em um laser.
Eu tenho dois comentários sobre o uso realista do elétron
final p.188

posição na teoria de Lamb. O primeiro é bastante instrumentalista no tom. As principais


equações que derivamos neste tipo de tratamento são equações de taxa para os fótons ou
para os átomos. Estas são equações para a taxa de variação temporal do número de fótons ou
para os números de ocupação dos vários níveis atômicos: isto é, são equações para
probabilidades de transição. Tal como acontece com o espalhamento ou decaimento simples,
essas probabilidades são completamente clássicas. As equações são apenas as que devem
resultar se os átomos realmente fizerem transições de um estado para outro. Louisell, por
exemplo, em sua discussão sobre o tratamento de Lamb, deriva uma equação para o númeroum ,
do
de ocupação N estado excitado:

• L.8.3.21:


Ele nos diz:
O significado físico dessas equações deve ser bastante claro. A Equação (8.3.21) fornece a
taxa líquida de variação na qual os átomos estão entrando e saindo do estadoO|aR. prazo
uma

dá a taxa na qual os átomos estão sendo 'bombeados' para o nível |a O


. ÿÿ N prazo
uma uma

representa o decaimento incoerente dos átomos do nível |a para níveis inferiores. Poderíamos
também adicionar um termo +W ab N b para representar transições incoerentes , mas
denós
|b omitimos
para | isso
a por simplicidade. O é o tempo de vida do átomo no nível |a na ausência de [a] campo de
condução. Esses primeiros termos são incoerentes, pois não contêm informações de .fase. .
O último termo i(PE*ÿP*E) representa a mudança líquida da população induzida no nível |a
devido à presença de um campo de condução.24
O que é importante notar é que a mudança no número de átomos excitados é exatamente igual
ao número de átomos que entram no estado excitado menos o número que sai. Não há termos
que reflitam a interferência entre os estados excitado e desexcitado.
Lembre-se que no Ensaio 6 mostramos que a lei do decaimento exponencial pode ser
derivada por uma aproximação de Markov, que assume que não há correlação entre as
variáveis do reservatório. Exatamente o mesmo dispositivo é usado para eliminar o final
p.189
Machine Translated by Google

termos de interferência não clássicos aqui. Por exemplo, ao derivar a equação da taxa de fótons, H. Haken
observa:

Negligenciaremos todos os termos com Isso pode ser .justificado da seguinte forma. . . As
fases dos b*'s flutuam. Desde que não ocorra bloqueio de fase, as flutuações de fase dos diferentes b's não
são correlacionadas. Os termos mistos no lado direito de 134 [isto é, os termos de interferência na equação
da taxa de fótons] desaparecem se for feita uma média sobre as fases.25

O caráter clássico das equações de taxa nos deixa em uma posição peculiar. Por um lado, a superposição
de estados excitados e desexcitados é essencial para a explicação teórica. Não há momento de dipolo sem
a superposição - a densidade de carga e|ÿ(r)|2 não oscila no espaço nem no estado excitado sozinho nem
no estado desexcitado sozinho. Sem os momentos de dipolo, não há polarização macroscópica produzida
pelo meio e, portanto, não há base para as equações de autoconsistência com as quais as derivações de
Lamb começam. Por outro lado, o caráter clássico das equações de velocidade sugere que os átomos
genuinamente mudam seus estados. Nesse caso, é exatamente como a imagem que esbocei para casos
simples de decaimento: o átomo faz uma transição, a evolução de Schroedinger para e a redução do pacote
de ondas assume. O próprio formalismo que nos permite prever que isso ocorrerá não se aplica a todo o
processo.

Isso me leva a supor que todo o relato é uma ficção explicativa, incluindo os dipolos oscilantes, cujo papel
é apenas nos motivar a escrever a equação inicial correta. A conta é melhor vista como uma explicação de
simulacro. A resposta menos radical é notar que Lamb e outros descrevem e|ÿ(r)|2 como 'a distribuição de
carga'. Neste caso muito simples, não precisamos vê-lo como uma distribuição de probabilidade, mas como
uma densidade de carga genuína no espaço. Isso, obviamente, não servirá como uma interpretação geral de
ÿ*ÿ. (Geralmente ÿ deve ser tomado como uma função em um espaço de fase. Quando mais de um elétron
estiver envolvido, ÿ será uma função da posição de todos os elétrons; e em geral ÿ*ÿ no espaço de fase não
se reduzirá a uma distribuição simples no espaço real para as cargas envolvidas.) Mas para qualquer caso em
que queremos afirmar que o momento de dipolo surge de uma oscilação genuína, isso deve ser possível.
Caso contrário, a maneira correta de pensar sobre o processo não é em termos de probabilidades, mas sim
desta forma: o campo produzido pelos átomos contribui para a polarização macroscópica. er é a quantidade
nos átomos responsável pela micropolarização que produz. Aprendemos a calcular essa quantidade tomando
e|ÿ(r)|2 , e esse cálculo é formalmente análogo ao cálculo de um momento ou uma média. Mas a analogia é
puramente formal. e|ÿ(r)|2 é uma grandeza que dá origem à polarização no campo; não tem interpretação
probabilística. Estarecebe
forma de
umver
papel
as 'expectativas'
físico real, ela não
deveé ser
especial
despojada
para este
de sua
caso.
interpretação
Sempre queprobabilística.
uma expectativa
Caso contrário, como poderia fazer o seu trabalho? er certamente não é a média das posições reais possuídas,
uma vez que os elétrons em geral não possuem posições. A alternativa convencional seria a média das
posições que seriam encontradas na medição. Mas essa média dificilmente pode contribuir para a polarização
macroscópica na cavidade não medida.

Nesta seção, argumentei que duas razões independentes sugerem interpretar a mecânica quântica por
probabilidades de transição e não por probabilidades de posição ou probabilidades para outros valores de
grandezas dinâmicas clássicas. Em primeiro lugar, os eventos de transição desempenham um papel causal na
Machine Translated by Google

teoria que não é correspondida pelas posições reais, momentos, etc. dos sistemas quânticos.
A segunda é que as probabilidades de transição são clássicas, assim como seus espaços de
eventos, portanto não há necessidade de uma lógica especial ou uma probabilidade especial.
Ambos os argumentos supõem que as transições são eventos que realmente ocorrem: em
algum momento, indeterministicamente, o sistema realmente muda seu estado. Essa é a
visão que Max Born defendeu ao longo de sua vida. Encontramos uma afirmação moderna
disso no texto de David Bohm: Concluímos que |C
m |2 fornece a probabilidade de que uma transição tenha ocorrido do
sth para o m- ésimo autoestado 0de
, H desde o tempo t = t 0 . Mesmo que o C m a mudança
continuamente a uma taxa determinada final p.191

pela equação de Schrödinger e pelas condições de contorno em t = t 0 , o sistema


realmente sofre uma transição descontínua e indivisível de um estado para outro. A
existência desta transição poderia ser demonstrada, por exemplo, se o potencial
perturbador fosse desligado pouco tempo feito
apósmuitas
t = t 0mvezes
,ainda
enquanto
sucessivamente,
o experimento
eram muito verificar-se-
pequenos. C fosse
Se este
ia que o sistema era sempre deixado em algum autoestado de H Na esmagadora maioria
dos casos, o sistema seria deixado 0em. sistema
seu estado
proporcional
original, mas a |C em
seria
vários
deixado
casos,
no m- o
ésimo estado. Assim, o potencial perturbador deve ser pensado como causando m |2 , a
transições indivisíveis para outros autoestados de H. Mas essa visão não é incontroversa.
26
Para ver as vistas alternativas, considere o decaimento0radioativo.
. Há duas maneiras de
olhar para isso, uma sugerida pela velha teoria quântica, a outra pela nova teoria
quântica. A história contada pela velha teoria quântica é exatamente aquela com a qual
a maioria de nós está familiarizada e que adoto, seguindo Bohm. Primeiro, o decaimento
radioativo é indeterminístico; segundo, a atividade diminui exponencialmente com o
tempo; e terceiro, produz uma mudança química nos elementos radioativos. Henri
Becquerel relatou as primeiras observações de radioatividade do urânio em uma série
de três artigos em 1886. Marie Curie fez um estudo sistemático de urânio e tório
começando em 1898, pelo qual ela e Pierre Curie dividiram um prêmio Nobel com
Becquerel. Mas foi somente com o trabalho de Rutherford e Soddy em 1902 que esses
três fatos importantes sobre a radioatividade foram reconhecidos. O primeiro e o
segundo fatos se juntam. A probabilidade do material permanecer em seu estado
excitado diminui exponencialmente com o tempo, e nenhuma influência externa pode
afetar essa probabilidade, seja para aumentá-la ou diminuí-la. Relatório de Rutherford e
Soddy: Será mostrado mais tarde que a radioatividade da emanação produzida por
compostos de tório decai geometricamente com o tempo em todas as condições, e não
é afetada pelo tratamento químico e físico mais drástico. O mesmo foi demonstrado por
um de nós para a radioatividade excitada produzida pela emanação de tório. fim p.192

Este decai na mesma taxa, seja no fio em que foi originalmente depositado, ou na
solução de ácido clorídrico ou nítrico. A radioatividade excitada produzida pela
emanação de rádio parece análoga.27
Machine Translated by Google

O terceiro fato é o que nos interessa. Da introdução de Rutherford e Soddy: "A radioatividade
mostra-se acompanhada por mudanças químicas nas quais novos tipos de matéria estão
sendo continuamente produzidos ." 28 Durante o decaimento, o urânio 238 é transformado
em tório 234. Quando a partícula alfa é emitida, o estado de o material muda.
Isso é exatamente análogo ao tratamento de Einstein do decaimento atômico em sua derivação
da lei de Plank da radiação do corpo negro (embora o sentimento real de Einstein sobre essa
situação pareça ter sido muito mais ambíguo). A respeito do que agora chamamos de emissão
espontânea, ele diz: 'Esta é uma transição do estado Z para mo daestado
energia
Zndejunto
radiação
transição
com E
a emissão
ÿE
ocorre
Esta
sem qualquer influência externa. Dificilmente
m de reação
n . se
imagem
pode
radioativa.
evitar
quando pensar
”29
quantiza
Bohr
nisso
também
pela
como
primeira
tem
umaa mesma
espécie
vez os
níveis de energia do átomo. Apenas certas órbitas são permitidas aos elétrons. Na radiação,
o elétron muda de uma órbita fixa para outra, emitindo um quantum de energia luminosa. Ao
discutir o espectro do hidrogênio, Bohr diz: "Durante a emissão da radiação, o sistema pode
ser considerado como passando de um estado para outro".30 No quadro da antiga teoria
quântica, o tempo de decaimento é indeterminado. Mas quando ocorre o decaimento, um fóton,
uma partícula alfa ou uma partícula beta é emitida, e o material emissor muda de estado.

Compare isso com a história da nova teoria quântica. Esta é a história que lemos do
formalismo da teoria matemática desenvolvida. Nesta história nada acontece. No final
p.193

decaimento atômico o átomo começa em seu estado excitado e o campo não tem fótons nele.
Ao longo do tempo, o átomo-mais-campo composto evolui continuamente sob a equação de
Schroedinger para uma superposição. Em um componente da superposição o átomo ainda
está no estado excitado e não há fótons presentes; no outro, o átomo é desexcitado e o campo
contém um fóton de frequência apropriada. O átomo não está nem em sua órbita externa nem
em sua órbita interna, e o fóton não está nem lá no campo se afastando do átomo com a
velocidade da luz, nem ausente. Com o tempo, a probabilidade de 'ser encontrado' no estado
com um átomo excitado e nenhum fóton decai exponencialmente. No limite como t ÿ ÿ, a
probabilidade vai para zero. Mas apenas como t ÿ ÿ! Na história da nova teoria quântica, nunca,
em tempo finito, um átomo emite radiação. Contrariamente à imagem de Bohr, o sistema nunca
pode ser considerado como "passando de um estado para outro".
A situação com a dispersão não é melhor. Uma partícula com uma direção fixa e uma
energia fixa bombardeia um alvo e é espalhada. O estado da partícula espalhada é
representado por uma onda esférica de saída (veja a Figura 9.6 no Apêndice). Após a
dispersão, a partícula não viaja em direção fixa; seu estado de saída é uma superposição de
estados de momento em todas as direções. Podemos circular o alvo com um anel de detectores.
Mas, como vimos ao discutir o problema da preparação, isso não ajuda em nada. Se olharmos
para os detectores, encontraremos a partícula registrada em um e apenas um deles. Somos
então lançados em uma superposição; cada componente auto vê a contagem em um detector
diferente. Não é à toa que von Neumann diz que aqui ocorre pelo menos a redução do pacote
de ondas. Mas sua redução vem tarde demais. Mesmo sem os detectores, a partícula deve estar
viajando de uma maneira ou de outra para longe do alvo.
Então, na minha opinião, como na antiga teoria quântica, a redução do pacote de ondas
ocorre em uma variedade de situações e independentemente da medição. Desde que eu disse que super-
Machine Translated by Google

posições e misturas fazem previsões estatísticas diferentes, esta afirmação deve ser
sujeita a teste. Mas o teste estatístico direto não será fácil. Por exemplo, para distinguir os
dois no caso de decaimento atômico, teríamos que fazer uma correlação final p.194

experimento tanto no átomo quanto no fóton associado, e teríamos que medir alguns
observáveis que não comutassem nem com os níveis de energia do átomo nem com os modos
do campo perturbado. (Isso é apresentado formalmente em 'Superposition and Macroscopic
Observation'.) Mas esses tipos de medições são geralmente inacessíveis para nós. É isso que
explora o trabalho de Daneri, Loinger e Prosperi. Ainda assim, com engenhosidade, podemos
expor os efeitos da interferência de uma maneira mais sutil.

PH Eberhard propôs alguns experimentos que tentam fazê-lo.31 Vandana Shiva também propõe
um teste.32 Nem todos os testes para interferências serão relevantes, é claro, pois ocorrem
reduções, mas não o tempo todo. Caso contrário, não haveria padrão de interferência na tela no
experimento de duas fendas, e a energia de ligação do benzeno seria diferente. Mas há um
experimento que Eberhard propõe que eu consideraria crucial. Este é um teste para procurar a
redução do pacote de ondas em um dos casos que estamos considerando - na dispersão.
Discutirei o experimento de Eberhard no Apêndice.

3. Como o problema de medição é um artefato da matemática

Von Neumann afirmou que a redução do pacote de ondas ocorre quando uma medição é feita.
Mas também ocorre quando um sistema quântico é preparado em um autoestado, quando uma
partícula se espalha de outra, quando um núcleo radioativo se desintegra e também em um
grande número de outros processos de transição. Essa é a lição das duas últimas seções.
Reduções do pacote de ondas acontecem o tempo todo, em uma ampla variedade de circunstâncias.
Não há nada de peculiar na medição, e não há um papel especial para a consciência
na mecânica quântica.
Este é um passo em frente. O problema de medição desapareceu. Mas parece que outro o
substituiu. Dois tipos de evolução ainda são postulados: evolução de Schroedinger e
redução do pacote de ondas. Este último não se restringe a situações do tipo medição, mas
quando ocorre? Que características determinam quando um sistema evoluirá de acordo com
a equação de Schroedinger e quando seu pacote de ondas será reduzido? Eu chamo esse
problema de problema de caracterização. Vou argumentar que não é um problema real: surge
porque levamos erroneamente a formulação matemática da teoria muito a sério. Mas primeiro
devemos olhar para um tipo mais convencional de resposta.
Há uma solução para o problema de caracterização que é sugerida pelas tentativas formais
de Schroedinger para minimizar os termos de interferência: a redução do pacote de onda
ocorre quando e somente quando o sistema em questão interage com outro que tem um
número muito grande de graus de liberdade independentes. Lembre-se das derivações de
decaimento exponencial discutidas no Ensaio 6. No tratamento de Weisskopf-Wigner, assumimos
Machine Translated by Google

que o átomo se acopla a um 'quase-contínuo' de modos do campo eletromagnético. Se, em vez


disso, se acoplasse a apenas um, ou alguns, a probabilidade não decairia com o tempo, mas
oscilaria para frente e para trás para sempre entre os estados excitado e desexcitado. Isto é
chamado Rabi-flopping. Mencionei antes da discussão de PCW Davies.33 A derivação de Davies
mostra claramente como o aumento do número de graus de liberdade elimina os termos de
interferência e transforma a oscilação de Rabi em um decaimento exponencial.
Da mesma forma, a prova de Daneri-Loinger-Prosperi que descrevi na Seção 1 deste capítulo baseia-
se no grande número de graus de liberdade do aparelho de medição. Esta é a base para sua
emque
suposição (correspondente à suposição A Macroscopic Observation')2 de 'Superposição
não haverá e
correlação
no tempo entre sistemas originados em diferentes microestados do mesmo macro-observável. Isso
é exatamente análogo à suposição de Haken, citada na última seção, que não se correlaciona ao
, e b ÿ são
longo do tempo, e desempenha um papel análogo. Pois isso é apenas a suposição final p.196

que permite a Haken eliminar os termos de interferência para os fótons e derivar as equações de
taxa clássicas.
As provas mais gerais desse tipo que conheço estão em derivações da equação mestra da
estatística quântica, uma equação análoga às equações de evolução da mecânica estatística
clássica. O tratamento de Markov do decaimento radioativo do Ensaio 6 é um caso especial desse
tipo de derivação. Ao derivar a equação mestra, o sistema quântico é acoplado a um reservatório.
Em teoria, os dois deveriam evoluir para uma superposição no espaço composto; mas a aproximação
de Markov remove os termos de interferência e desacopla os sistemas.
Novamente a aproximação de Markov, que trata o tempo de observação como infinitamente longo,
é justificada pelo grande número de graus de liberdade independentes no reservatório, o que dá
origem a tempos de correlação curtos ali.
Existem duas dificuldades com esses tipos de provas como forma de resolver o
problema de caracterização. A primeira é prática. É uma dificuldade compartilhada com a abordagem
que defenderei ao final. A redução do pacote de ondas, argumentei, ocorre em uma ampla variedade
de circunstâncias. Mas tratamentos do tipo que descrevi foram desenvolvidos apenas para um
pequeno número de casos e, no que diz respeito à medição em particular, tratamentos como o de
Daneri, Loinger e Prosperi são muito abstratos e diagramáticos. Eles não tratam nenhum processo
de medição real em detalhes.
A segunda dificuldade é uma em princípio. Mesmo que tratamentos como esses possam ser
estendidos para cobrir mais casos, eles de fato não resolvem o problema de caracterização. Esse
problema surge porque postulamos dois tipos diferentes de evolução na natureza e procuramos
uma característica física que determine quando uma ocorre e não a outra.
Infelizmente, a característica que descobrimos a partir dessas provas é válida apenas em modelos.
Não é uma característica de situações reais. Para eliminar a interferência o número de graus de
liberdade relevantes deve ser infinito, ou correlativamente, o tempo de correlação zero. Na realidade,
o número de graus de liberdade é sempre finito e os tempos de correlação são sempre positivos.

É concebível que se possa tomar a direção oposta e insistir que todos os sistemas reais
têm infinitos graus de liberdade. fim p.197
Machine Translated by Google

Isso também não deixa nenhuma base para distinguir os dois tipos de evolução. O fato de
essa visão sobre sistemas reais ser intrinsecamente nem mais nem menos plausível do que
a primeira sugere que o conceito de número relevante de graus de liberdade é aquele que se
aplica apenas em modelos e não na realidade. Se quisermos aplicá-lo à realidade, acho melhor
admitirmos que os sistemas reais sempre têm um número finito de graus de liberdade.
Um sistema real pode ser muito grande – grande o suficiente para modelá-lo como tendo
infinitos graus de liberdade, ou zero correlações de tempo – mas isso não resolve o
problema de caracterização. Esse problema exige que se separe dois tipos muito diferentes
de mudança, e o tamanho não divide o mundo em pedaços nitidamente. Esta é uma objeção
familiar: se a grandeza importa, quão grande é o suficiente? Exatamente quando um sistema
é grande o suficiente para a natureza pensar que é infinito?
O tamanho puro não pode resolver o problema de caracterização como eu o expus. Mas agora
acho que o que expus é um pseudoproblema. O problema de caracterização é um artefato da
matemática. Não há problema real porque não há dois tipos diferentes de evolução na mecânica
quântica. Há evoluções que são corretamente descritas pela equação de Schroedinger, e há
evoluções que são corretamente descritas por algo como o postulado de projeção de von
Neumann. Mas esses não são tipos diferentes em nenhum sentido fisicamente relevante.
Achamos que são por causa da maneira como escrevemos a teoria.
Cheguei a ver isso olhando para as estruturas teóricas recentemente desenvolvidas na
mecânica estatística quântica. ( Teoria Quântica de Sistemas Abertos de EB Davies34
provavelmente representa a melhor formalização abstrata.) O ponto é simples e não
depende de detalhes da teoria estatística. Von Neumann disse que havia dois tipos de
evoluções. Ele escreveu duas equações de aparência muito diferentes. A estrutura que ele
fornece não é conveniente para estudar sistemas dissipativos, como lasers ou átomos
radiantes. Como vimos, a equação de Schroedinger não é capaz de lidar com isso; nem o
postulado da projeção simples termina p.198

dado por Von Neumann. A mecânica estatística quântica desenvolveu um formalismo mais
abstrato, mais adequado a esses tipos de problemas. Esse formalismo escreve apenas uma
equação de evolução; a equação de Schroedinger e o postulado da projeção são ambos casos
especiais desta única equação.
A evolução prescrita no formalismo estatístico quântico é muito parecida com a evolução de
Schroedinger, mas com uma diferença central: os operadores de evolução para processos
estatísticos quânticos formam um semigrupo dinâmico em vez de um grupo dinâmico. A
diferença essencial entre um grupo e um semigrupo é que o semigrupo carece de inversos e
pode, assim, dar origem a movimentos irreversíveis. Por exemplo, o átomo radiante decairá
irreversivelmente em vez de oscilar para sempre para frente e para trás, como faria no flop de
Rabi. Correlativamente, a equação estatística quântica para evolução parece abstratamente
uma equação de Schroedinger, exceto que a operação que a governa não precisa ser
representada por um operador unitário. Um operador unitário é aquele cujo adjunto é igual ao
seu inverso. O efeito disso é preservar os comprimentos dos vetores e os ângulos entre eles.
Existem outras características matemáticas associadas à unitaridade também, mas no
Machine Translated by Google

final todos eles servem para bloquear a redução do pacote de ondas. Portanto, não é
surpreendente que a estrutura estatística quântica mais geral não exija um operador unitário
para a evolução.
Deste novo ponto de vista não há dois tipos de evolução descritos por dois tipos de equação.
O novo formalismo escreve apenas uma equação que governa todo sistema. Esta é uma
solução muito rápida para o problema de caracterização? Talvez haja apenas uma equação,
mas não existem na realidade dois tipos de evolução? Podemos concordar que a equação de
Schroedinger e a redução do pacote de ondas são casos especiais da lei estatística quântica:
uma equação do tipo Schroedinger aparece quando um operador unitário é empregado; uma
redução do pacote de ondas quando há um operador não unitário. Isso não mostra imediatamente
como reconstruir o problema de caracterização? Algumas situações são descritas por um
operador unitário e outras por um operador não unitário. Que diferença física corresponde a
isso? fim p.199

Há uma resposta simples e imediata, e acho que é a resposta certa, embora não possamos
aceitá-la sem considerar algumas questões sobre o determinismo. A resposta é que nenhuma
diferença física precisa explicar por que um operador unitário é usado em uma situação e por
que um não unitário é necessário em outra. A unitaridade é uma característica útil, talvez
fundamental, dos operadores. Isso não significa que represente uma característica física
encontrada no mundo real. Estamos enganados se levarmos toda a matemática muito a sério.
Nem toda distinção matemática significativa marca uma distinção física nas coisas representadas.
A unitaridade é um exemplo disso.
'Como', podemos ainda perguntar, 'a natureza sabe em uma dada situação se deve evoluir
o sistema de forma unitária ou não-unitária?' Essa é a pergunta errada. A pergunta certa, mas
banal, é apenas: 'Como a natureza sabe como evoluir o sistema?' Bem, a natureza evoluirá o
sistema como dita a equação estatística quântica. Ele examinará as forças e configurações e as
energias que elas originam, e fará o que a equação requer quando essas energias forem obtidas.
Imagine que a natureza usa nossos métodos de representação. Ele analisa as energias, escreve
o operador que representa essas energias, resolve a equação estatística quântica e, finalmente,
produz o novo estado que a equação exige. Às vezes um operador unitário será escrito, às vezes

não.
Rejeito a pergunta: 'Como a natureza sabe em uma dada situação se deve usar um operador
unitário ou não unitário?' Essa questão pressupõe que a natureza primeiro olhe para as energias
para ver se o operador será unitário ou não, e então procure ver qual operador particular do tipo
designado deve ser escrito. Mas não há necessidade do passo do meio. As regras que atribuem
operadores a energias não precisam primeiro escolher o tipo de operador antes de escolher o
operador. Eles apenas escolhem o operador.
Escrevo como se a unidade não tivesse nenhum significado físico. Tem apenas interesse matemático.
É assim? Não, porque a unitaridade é apenas a característica que impede a redução do pacote
de ondas; e, como vimos, a redução do pacote de ondas é indeterminística, enquanto a
evolução de Schroedinger é determinística. Isso, de acordo com a teoria quântica, é uma
diferença física genuína. (Movimentos determinísticos são contínuos; indeterminísticos são
descontínuos.) Não quero negar que existe essa diferença física; mas sim
Machine Translated by Google

negar que deve haver algum fato geral sobre as energias que explica isso. Não precisa haver nenhuma
característica geral verdadeira de situações em que a evolução é determinista, e falsa quando a evolução
é indeterminista. As energias obtidas em uma dada situação determinam como o sistema evoluirá. Uma
vez que as energias são fixas, isso corrige se a evolução é determinista ou indeterminista. Não são
necessários mais fatos físicos.

Se esta interpretação for adotada, o determinismo torna-se para a mecânica quântica uma característica
física genuína, mas fortuita . Eu o chamo de fortuito por analogia com o encontro de Aristóteles no
mercado. Na Física, Livro II, Capítulo 5, Aristóteles imagina um encontro casual entre dois homens. Cada
homem vai ao mercado por motivos próprios. Eles se encontram lá por acaso. O encontro é fortuito
porque o esquema de motivos e capacidades explica a presença de cada homem separadamente, mas
não explica seu encontro. Isso não significa que a reunião não tenha sido uma ocorrência física genuína;
nem que acontecesse algo no mercado que não pudesse ser previsto pelos fatores explicativos
disponíveis — neste caso, os movimentos e capacidades dos indivíduos. Significa apenas que as
reuniões como reuniões não têm uma causa característica no esquema de explicação em questão. Isso
não mostra que haja algum erro no esquema, ou que esteja incompleto. Podemos estar muito
interessados em reuniões, ou nesse caso, determinismo, ou o ciclo do dinheiro; mas isso não garante
que esses recursos tenham causas características. Uma teoria não é inadequada apenas porque não
encontra causas para todas as coisas que atendemos. Ele só pode ser criticado se não descrever as
causas que a natureza fornece.

A professora Florence Leibowitz sugere outra maneira de entender o lugar do determinismo


na interpretação que proponho. Ela diz, 'Sua afirmação sobre a unitaridade é, na verdade, uma
afirmação de que evoluções indeterminísticas devem ser vistas como 'primitivas' para a mecânica
quântica, no sentido de que final p.201

comportar-se de acordo com a lei da inércia é um primitivo para a mecânica pós-escolástica.'35


A visão convencional da evolução baseada em von Neumann vê a evolução determinista como a situação
natural, sugere Leibowitz. A evolução indeterminista é vista como um desvio do que ocorreria
naturalmente e, portanto, requer uma causa - uma interação com um reservatório, talvez, ou com um
observador consciente. Mas no meu entendimento do formalismo estatístico quântico, movimentos
indeterminísticos também são naturais. Eles não são perturbações e, portanto, não requerem causas.
Isso é exatamente análogo ao que acontece com o movimento inercial na mudança da mecânica escolástica
para a newtoniana. Para o Escolástico, o movimento contínuo em linha reta era uma perturbação e uma
causa era necessária para isso. No esquema newtoniano, o movimento contínuo é natural ou, como diz
Leibowitz, "primitivo". Da mesma forma, a mecânica quântica não precisa de uma propriedade física à
qual a unitaridade corresponda: mesmo que existisse tal propriedade, observa Leibowitz, “ela não teria
nenhum trabalho explicativo a fazer”.

Ao longo desses ensaios, insisti que a causalidade é uma pista para quais propriedades são reais.
Nem todos os predicados que desempenham um papel significativo em uma teoria escolhem
propriedades que são reais para essa teoria. Muitos, por exemplo, representam apenas propriedades
em modelos, características que permitem a derivação de leis fenomenológicas sonoras, mas que por si não desempenham nenh
Machine Translated by Google

papel nos processos causais descritos por essas leis. Unitaridade é um tipo diferente
de exemplo.
Para entender o papel que a unitaridade desempenha na teoria, primeiro observe outra
propriedade que os operadores de evolução podem ter: invariância sob algum grupo de
transformações. Na teoria de Schroedinger, o Hamiltoniano descreve as energias na
situação e, assim, determina o operador de evolução. Sempre que o Hamiltoniano for
invariante sob um grupo de transformações, haverá alguma constante do movimento que
exibe degenerescências; isto é, estados diferentes e incompatíveis terão o mesmo valor
para aquela quantidade. A invariância rotacional é um exemplo simples. A invariância
rotacional em um hamiltoniano corresponde à simetria esférica nas energias e forças
representadas por esse hamiltoniano. O fim p.202

a simetria esférica produz degenerações nos níveis de energia, e perturbar a simetria


elimina as degenerações. Se um pequeno campo não simétrico for adicionado, várias linhas
próximas aparecerão no espectroscópio onde antes havia apenas uma.
A invariância rotacional do Hamiltoniano é um sinal de uma característica física genuína da
situação.
A unidade é diferente. Muitas vezes estamos interessados em saber se o movimento em
um determinado tipo de situação será determinístico ou indeterminístico. Há um longo
caminho para descobrir isso: considere as energias da situação; anote o operador que os
representa; resolver a equação estatística quântica; e veja se a mudança conseqüente é contínua.
Isso é complicado. Gostaríamos de alguma forma de ler do próprio operador se as
soluções serão contínuas ou não. Unitaridade é uma marca que podemos usar, e é um dos
pontos fortes da estrutura matemática particular que temos que nos dá tal marca.
Unitaridade e invariância rotacional são características significativas do operador de
evolução, características que destacamos para atenção. Mas eles desempenham papéis
muito diferentes. A invariância rotacional marca uma característica genuína da energia,
uma característica que é postulada como a fonte de uma variedade de consequências
físicas; a unitaridade fornece uma importante conveniência matemática. Exigir um correlato
físico de unitaridade é não entender quais funções ele serve na teoria quântica.
Não quero insistir que a unitaridade não representa uma propriedade genuína, mas sim
que o fracasso em encontrar tal propriedade não é um problema conceitual para a teoria.
A descrição de Larry Laudan de um problema conceitual se encaixa aqui. Laudan diz: 'Tais
problemas surgem para. .umaquando T faz
teoria, T, .suposições sobre
. . . suposições o mundo que
metafísicas vão contra
predominantes'.36 Sob
a proposta de von Neumann de que os sistemas quânticos evoluem sob duas leis distintas,
alguma característica era necessária para sinalizar qual lei deveria operar onde. Nenhuma
característica física poderia ser encontrada para servir, e a teoria parecia levada a um fim
metafísico.

características suspeitas — propriedades fictícias como infinitos graus de liberdade ou


zero tempos de correlação, ou, ainda pior, interação com observadores conscientes. Mas
se o formalismo estatístico quântico pode funcionar, tal propriedade não é necessária e o
Machine Translated by Google

a teoria não vai contra as "suposições metafísicas predominantes" de que nem o tamanho nem
a consciência devem importar para a física.
O if aqui apresenta uma condição importante. Os comentários de Jeremy Butterfield sobre
minha proposta me parecem corretos. Butterfield diz que a mecânica estatística quântica
forneceu uma teoria geral da evolução dos estados quânticos (puros e mistos) que engloba
os dois tipos de evolução [de von Neumann], e muitos outros, como casos especiais. Nem
isso é apenas um guarda-chuva matemático. Ela nos permite estabelecer modelos detalhados
de fenômenos que não podem ser tratados facilmente, se é que podem ser tratados com os
dois tipos de evolução do formalismo tradicional.'37
A óptica quântica é um lugar onde esses modelos detalhados foram desenvolvidos,
especialmente no estudo de lasers. Mas vimos que uma ampla gama de casos causa problemas
para a abordagem tradicional de Schroedinger – dispersão, por exemplo, ou qualquer situação
em que estados puros são preparados e, finalmente, a questão que nos deu início – medição.
Muito mais tarde, Butterfield continua: Não quero jogar água fria nesse programa [de Cartwright];
Acho muito atraente. Mas quero enfatizar que é um programa, não um fato consumado. Para ter
sucesso com isso, precisamos fornecer análises detalhadas das situações de medição,
mostrando que as misturas certas estão chegando. É claro que não precisamos cobrir todas as
situações de medição, mas precisamos tornar plausível que as misturas corretas sejam
geralmente obtidas. (E aqui 'geralmente' não precisa significar 'universalmente'; é a difusão, não
necessariamente a universalidade, de valores definidos que precisa ser explicada.) Somente
quando tivermos análises tão detalhadas é que o problema da medição será resolvido.38

Butterfield dá boas indicações sobre o que fazer a seguir.


Eu recomendei o livro de EB Davies como uma boa fonte para descobrir mais sobre a
abordagem estatística quântica. final p.204

Devo mencionar que o próprio Davies não usa o formalismo da maneira que exorto; pois ele
se esforça para incorporar as evoluções não-unitárias que estuda em uma evolução de
Schroedinger em um sistema maior. Isso vai junto com sua sugestão de que a não-unitaridade
é uma marca de um sistema aberto , que está em interação com outro. Os sistemas abertos
são presumivelmente partes de sistemas fechados maiores, e estes, na descrição de Davies,
sempre sofrem mudanças unitárias. Acho que essa visão está equivocada, pelas razões que
venho sugerindo ao longo deste ensaio. Se o pacote de ondas não for reduzido no sistema
maior, também não será reduzido no sistema menor. O comportamento do sistema menor, na
melhor das hipóteses , parece que ocorreu uma redução, e isso não é bom o suficiente para
levar em conta as medições ou preparações.
Tenho insistido que, se o programa estatístico quântico puder funcionar, o problema da medição
se tornará um pseudoproblema. Mas outros problemas relacionados permanecem. Estes são os
problemas de como escolher os operadores certos, unitários ou não, para representar uma
dada situação física. Este é o trabalho pedaço por pedaço da física cotidiana, e é bom ter nossas
atenções filosóficas focadas nele novamente. É disso que trata a física em andamento, e ela não
conhece nenhum procedimento geral. Na mecânica quântica, o princípio da correspondência
nos diz para trabalhar por analogia com a mecânica clássica, mas a utilidade dessa sugestão
logo se esgota. Continuamos usando nossas intuições físicas, analogias que vemos com outros casos,
Machine Translated by Google

especializações de considerações mais gerais, e assim por diante. Às vezes até escolhemos
os modelos que fazemos porque as funções que anotamos são aquelas que podemos resolver.
Como observa Merzbacher sobre a equação de Schroedinger: A dinâmica quântica não contém
nenhuma prescrição geral para a construção do operador H cuja existência ela afirma. O
operador hamiltoniano deve ser encontrado com base na experiência, usando as pistas
fornecidas pela descrição clássica, se disponível.
A percepção física é necessária para fazer uma escolha criteriosa dos operadores a serem
. . e construir
usados na descrição do sistema. o hamiltoniano em termos desses
variáveis.39

Como argumentei nos Ensaios 7 e 8, não são necessários princípios de ponte, mas insights
físicos para escolher os operadores certos. Mas pelo menos o programa estatístico quântico
oferece esperança de que esse trabalho mundano, embora difícil, da física seja tudo o que existe
para o problema da medição.
Apêndice; Um experimento para testar a redução do pacote de ondas
Em 1972, PH Eberhard considerou teorias não-unitárias do tipo que endosso aqui e propôs
quatro tipos de testes para elas. Discutirei em detalhes seus testes envolvendo o teorema
óptico da teoria do espalhamento, já que este é o caso que melhor entendo, e é um caso que
se encaixa perfeitamente com a discussão anterior neste ensaio. Eberhard nos diz, sobre a
teoria que discute, 'Nossa teoria não unitária se assemelha à descrição de sistemas quânticos
em interação com um aparelho de medição, mas nenhum aparelho está envolvido nos processos
físicos aos quais nossa teoria é aplicada'.40 Eberhard chama de teorias que respeitam as teorias
unitárias classe A. Ele estará preocupado com uma classe particular de teorias não-unitárias –
teorias classe-B . Essas são teorias que modelam mudanças em sistemas quânticos sobre
o que acontece em uma medição completa. Especificamente, para um observável M = ÿm|ÿ m ÿ
m |, uma interação do tipo B leva o estado D para Dÿ:

As teorias do tipo B são, portanto, exatamente o tipo de teoria que defendi, na qual as
transições ocorrem genuinamente em autoestados {ÿm } , e o estado final para o conjunto é
uma mistura clássica na qual os ÿm não interferem.
Eberhard testa teorias do tipo B com o teorema óptico. Ele nos diz: O
teorema óptico é derivado do princípio de que a onda espalhada na direção direta interfere na
onda incidente de forma a conservar as probabilidades. Se o espalhamento direto contiver
uma mistura, ou seja, componentes não interferentes, o teste da extremidade p.206

teorema óptico falharia. Esse teste envolve medições da seção transversal diferencial na
direção direta, incluindo a região de interferência entre Coulomb e espalhamentos de interação
forte. Os resultados podem então ser comparados com as medições da seção transversal
total.41
Machine Translated by Google

Eberhard analisa o espalhamento elástico em ump ÿinteração em 1,015, 1,527 e 2,004 GeV.
Os resultados concordam com a previsão do teorema óptico 'dentro de ±3%, quando a média dos três
momentos'.42 Esta concordância é boa o suficiente. Se a análise de Eberhard estiver correta, as
teorias de classe B são descartadas para interações de espalhamento, e se elas não valem para
espalhamento, elas não são muito plausíveis em nenhum lugar.

Figura 9.6. Dispersão de um alvo estacionário

O teorema óptico é um lugar óbvio para procurar um teste de evolução não unitária.
Considere uma apresentação típica de um livro da teoria formal do espalhamento. Eu uso a Mecânica
Quântica de Eugen Merzbacher . Merzbacher nos diz que 'A matriz de espalhamento deve sua
43
importância central ao fato de ser unitária' e mais tarde 'Da propriedade unitária de
a matriz de espalhamento, podemos derivar um importante teorema
final p.207

para as amplitudes de espalhamento'44 — o teorema óptico. No entanto, o teorema óptico não exclui
teorias de classe B. O teorema óptico, argumentarei, é válido exatamente no tipo de teoria classe B
que descrevi para espalhamento.
No caso de espalhamento elástico, onde a partícula bombardeadora não perde nem ganha energia,
o estado assintótico para r grande para uma partícula de saída cujo momento inicial é k é dado por

• (1)

Este estado é uma superposição do autoestado de momento original exp(ik·r) e uma onda
esférica de saída 1/r exp(ikr) como na Figura 9.6. A quantidade f k (r) é chamada de amplitude de
espalhamento. É a parte imaginária da amplitude de espalhamento na direção direta - Imf k (0) - que
entra no teorema óptico. Como podemos ver na Figura 9.6, na direção direta a onda não espalhada
original e a onda esférica de saída interferem. A interferência subtrai da probabilidade da onda de
entrada na direção direta. Isso é como seria de esperar, uma vez que o feixe na direção direta será
esgotado pelas partículas que atingem o alvo e são espalhadas.

É mais fácil calcular a interferência se mudarmos para a teoria formal do espalhamento.


A equação (1) é a versão da função de onda, para r grande, da equação de Lippman-Schwinger:
Machine Translated by Google

Aqui os estados de momento {ÿ n } são autoestados do Hamiltoniano não 0,


perturbado, H e entende-se que o limite ÿ ÿ 0 deve ser tomado no final do cálculo. A
matriz de transição T interessados
nk é proporcional à amplitude
em qual proporçãodedo
espalhamento. Estamosna
feixe estará viajando
direção direta após o espalhamento, então devemos calcular a probabilidade final p.208
. Substituindo

e usando o fato de que

e essa

Nós temos

• (2)

Agora podemos repetir o tipo de argumento clássico que consideramos para o


experimento de duas fendas. Uma partícula viajando na direção direta depois de
passar pelo alvo foi espalhada do alvo ou passou pelo alvo sem espalhamento:

Como S e 7S são eventos disjuntos

• (3)

Mas a equação (2) mostra que esse raciocínio clássico não serve. Os dois primeiros
termos das equações (2) e (3) são idênticos, mas, assim como no experimento das
duas fendas, o cálculo da mecânica quântica difere do clássico pelos termos de
interferência, que são responsáveis no caso das duas fendas por os vales no padrão de difração e na disper
Machine Translated by Google

para a sombra projetada pelo alvo. Vemos que a quantidade de interferência depende da
parte imaginária da amplitude de espalhamento direto.
O teorema óptico relaciona a seção transversal total, ÿ, a Imf k (0):

A seção transversal, ÿ, mede a probabilidade total para


o final p.209

espalhando em qualquer ângulo. Lembre-se de que Eberhard relatou: 'O teorema óptico
é derivado do princípio de que a onda espalhada na direção direta interfere na onda
incidente de forma a conservar as probabilidades'. Agora podemos ver por que isso é assim.
O teorema óptico diz que a perda no feixe na direção direta, que vimos, vem do termo
de interferência, Im f k (0), é igual ao número total de partículas espalhadas. A
interferência é, portanto, uma parte essencial do teorema óptico. Como então posso
manter que a redução do pacote de onda após a dispersão é consistente com o teorema
óptico?
A chave para a resposta é que deve-se ter cuidado com os estados finais em que o
sistema deve entrar quando ocorre a redução. Sugeri, seguindo Bohm, que após a
dispersão, cada partícula estará viajando em uma direção específica e com uma
energia específica. A redução ocorre nos autoestados de momento. O teorema óptico
exclui apenas uma redução no par espalhado-não espalhado. Mas as probabilidades de
momento já contêm a interferência entre a onda plana incidente e a onda esférica
espalhada.
Podemos ver isso olhando para a equação de Lippman-Schwinger. Segue-se dessa
equação (tomando o limite como ÿ ÿ 0) que a amplitude para um sistema com momento
inicial k em t = ÿÿ para ter momento kÿ em t = +ÿ, é dada por

Aqui eu identifiquei essa amplitude com o k, kÿth elemento da matriz de espalhamento,


S, como aprendemos que podemos fazer com a teoria formal de espalhamento. A
amplitude total é, portanto, uma superposição da amplitude da onda espalhada mais a
amplitude da onda não espalhada, de modo que a interferência entre as duas está
presente nas amplitudes do momento. Quando o conjugado complexo é obtido, a
equação (2) resultará conforme necessário. Não é surpresa, então, que o teorema óptico ainda seja válido par
Formalmente, imagino que após a redução o estado das partículas no feixe é dado por Dÿ:


Machine Translated by Google

onde U(t, t') é o operador de evolução unitária normal fornecido pela teoria de Schroedinger.
(É convencional tomar os limites como tÿ±ÿ, pois os tempos envolvidos antes da detecção
são muito longos na escala microscópica.) Como D ÿ Dÿ é uma interação do tipo medição nos
autoestados de momento, as probabilidades de momento após a redução serão ser o mesmo
que antes da redução. Mas o teorema óptico é uma consequência trivial da conservação da
probabilidade total entre os estados de momento. Aqui é onde a unidade da matriz de
espalhamento, que Merzbacher enfatiza, desempenha seu papel. Como S é unitário, as
probabilidades de estar em um ou outro dos autoestados de momento somam um

não apenas no estado não reduzido, mas também no estado reduzido. Isso é suficiente
para garantir que o teorema óptico seja válido. A prova é simples, e vou omiti-la aqui. (Está
definido como exercício 19.5 em Merzbacher: 'Deduza o teorema óptico da conservação da
probabilidade e (19.12)',45 onde a equação (19.12) dá a amplitude para o kÿth estado de
momento em t.) Assim, o óptico O teorema é consistente com uma interação classe B na qual o
pacote de onda é reduzido em autoestados de momento após a partícula ter sido espalhada.

O que dizer então das alegações de Eberhard? Para ver como conciliar o que Eberhard
diz com os fatos que acabei de observar, precisamos examinar mais de perto o tipo de
teoria classe B que Eberhard considera. Eberhard observa que uma evolução não unitária
como D ÿ Dÿ sempre pode ser escrita como uma soma de evoluções unitárias. Isso dá
origem a algo como um fim oculto p.211

teoria variável: onde vemos um único processo físico que parece seguir uma regra não
unitária, há de fato uma mistura de diferentes processos, cada um manifestando uma evolução
unitária de Schroedinger. Ou, alternativamente: pegue os estados puros finais produzidos
pelo conjunto de evoluções unitárias 'componentes' de Eberhard e enrole-os para trás usando
o inverso da matriz de dispersão unitária original. Então, a teoria da variável oculta do estilo
Eberhard diz que, ao contrário da suposição normal, o estado de entrada não é puro, mas sim
uma mistura desses estados de retorno. Cada estado se comporta exatamente como a equação
de Schroedinger prevê. Terminamos com uma mistura, mas só porque começamos com
1.

Embora ele não o diga explicitamente, os cálculos de Eberhard levam muito a sério essa
teoria das variáveis ocultas. O teste de Eberhard usa dois teoremas da teoria de espalhamento.
A primeira relaciona a seção transversal diferencial na direção direta com a amplitude de
dispersão nessa direção:

Usando R e J como Eberhard faz para se referir às partes real e imaginária de f k (0),
obtemos a equação de Eberhard (4.2).46

• E (4.2):

Machine Translated by Google

O segundo teorema é o teorema óptico, que Eberhard escreve como

• E (4.3):

Como observa Eberhard, R pode ser calculado a partir de J, ou pode ser determinado a
partir da interferência com o espalhamento de Coulomb. Como ÿ e dÿ(0)/dÿ podem ser
medidos em experimentos independentes, um teste do teorema óptico está disponível.
Vejamos agora como Eberhard transforma isso em um teste de evoluções de classe B usando
seu teorema anterior de que qualquer evolução não unitária do tipo B é equivalente a uma
média ponderada de mudanças unitárias. Eberhard afirma: Em uma teoria de classe B ,
existem pseudo-estados j que correspondem a pesos w j e matrizes
unitárias S Cadaj (E)matriz
e paraunitária
a J j (E)S j corresponde a uma teoria classe A , portanto a a ÿ j , j . para
a dÿ j / dÿ, para uma

extremidade R p.212

satisfazendo a eq. (4.1) a (4.5). As distribuições de probabilidade efetivas são as médias


ponderadas dessas previsões de classe A e as seções de choque efetivas ÿ e dÿ/dÿ são as
médias ponderadas de ÿ j s e do dÿ j /dÿ respectivamente.47
Então, diz Eberhard,

• E (4.7):

• E (4.8) para:

• E(4.8)b:


2 2
Usando E(4.8), R + J = ( Jwj Rj
_ ) 2 + (ÿw j d d )2 . Mas em geral

• NÃO:

Assim, se E(4.7) estiver correto, E(4.2) será violado.


Machine Translated by Google

Resta comprovar que as equações E(4.7) e E(4.8) são verdadeiras para teorias classe-B.
E(4.7) é simples. Deixando W representar a taxa de transição total em um ângulo sólido dÿ, de B

fim p.213

Do teorema anterior de Eberhard de que evoluções de classe B são equivalentes a médias


ponderadas de evolução unitária U j ,


Mas

onde é a probabilidade de que uma partícula incida em uma unidade de área perpendicular ao feixe
por unidade de tempo. Portanto,

Portanto, a equação E(4.7) é válida.


Machine Translated by Google

Mas e quanto a E(4.8)? E(4.8) só se justifica se insistirmos em uma teoria de variáveis


ocultas no estilo de Eberhard. Eberhard mostra que a evolução não unitária B pode
sempre ser decomposta matematicamente como uma média sobre evoluções unitárias. A
versão de variável oculta da teoria classe-B supõe que essa decomposição matemática
corresponde a uma realidade física: o espalhamento é realmente uma mistura de processos
que compõem
físicos, cada processo governado por um dosj ,operadores a matemática
unitários, U
decomposição. Neste caso, temos uma variedade de diferentes processos de espalhamento, cada um com
, própria extremidade p.214
sua própria amplitude de espalhamento e sua

seções transversais,ÿ j , e E(4.8) é uma restrição razoável nas partes real e imaginária das
amplitudes de espalhamento.
Mas essa versão de variável oculta fisicamente robusta de uma teoria classe B é razoável
do nosso ponto de vista? Não não é. Pois não resolve o problema de preparação que
motivou nossa teoria de classe B para começar. As interações de espalhamento preparam
os feixes em autoestados de momento: espera-se que partículas que aparecem em um
determinado ângulo sólido dÿ de uma só vez - essas mesmas partículas - estejam viajando
exatamente no mesmo ângulo sólido mais tarde, a menos que sofram interferência. Assim,
procuramos processos físicos cujos estados finais são autoestados de momento.
estados Mas
finais dososprocessos U j não são n
A partir da prova de decomposição de Eberhard, existem tantos processos 'ocultos'
quantas são as dimensões do espaço necessário para tratar o sistema. No caso de
dispersão, é necessário um 'quase continuum' de estados. Cada 'processo oculto' acaba
sendo uma interação do tipo espalhamento. O estado final do primeiro processo oculto é
apenas a onda esférica normal de saída da teoria de espalhamento convencional. Este
estado convencional terá o peso 1/ n, quando n for a dimensão do espaço. Assim, também,
cada um dos estados restantes. O estado final do segundo processo será muito parecido
com o primeiro, exceto que a amplitude do segundo autoestado do momento será girada
em 180°. Da mesma forma, o terceiro processo gira a amplitude do terceiro autoestado do
momento em 180°; a quarta gira a quarta amplitude; e assim por diante. Em média, o efeito
dessas rotações é cancelar a interferência entre os estados de momento e produzir uma
mistura final cujas previsões estatísticas são exatamente como as de uma mistura de
estados de momento. Mas, na verdade, quando a variável oculta é levada a sério, o estado
final é uma mistura de ondas quase esféricas, cada uma delas uma superposição de
autoestados de momento; e não é, de fato, uma mistura de autoestados de impulso como
esperávamos. Mas se não levarmos a sério a teoria da variável oculta e dermos uma
interpretação física para a decomposição em processos unitários, não há fundamento para
as equações E(4.8)a e E(4.8)b, e o teorema óptico não é um teste de B -tipo evoluções.

A desigualdade de Eberhard EI é baseada nas equações E(4.8)a e E(4.8)b, que eu afirmo


serem plausíveis para uma teoria de variáveis ocultas no estilo de Eberhard, mas que não
são válidas para uma teoria de classe B que leva cada partícula recebida em um autoestado
de momento. Devemos agora confirmar esta última afirmação. O processo que produz uma
mistura de autoestados de momento é composto por uma mistura de processos, cada um
dos quais produz um ou outro dos autoestados de momento como seu produto final. (Nota: cada um destes
Machine Translated by Google

processos é não unitário, porque reduz o vetor. Tampouco podemos reconstruí-la como
uma evolução unitária tomando o fator de encolhimento, como faz Eberhard, como um peso
com o qual uma mudança unitária em um autoestado de momento pode ocorrer, porque os
"pesos" para os vários processos não dependeriam da natureza do momento. a interação, mas
na estrutura do estado de entrada.) Precisamos ter certeza de que EI não segue igualmente na
minha conta como na conta de dispersão oculta. Mas isso é fácil. Os 'pesos' aqui são cada um
1. Cada interação se espalha inteiramente em uma única direção e é inteiramente responsável

por toda a dispersão que ocorre nessa direção. assim e, portanto

Portanto, EI não prejudica a visão que combina reduções em diferentes autoestados de


momento para obter a mistura D', embora afete a composição de processos de
espalhamento ocultos, como mostra Eberhard. Mas esta última visão não é a que eu me
inclinaria, uma vez que não permite a preparação de autoestados de momento em interações
de espalhamento.

FIM
Machine Translated by Google

Você também pode gostar