Você está na página 1de 26

Pag 138

A Teoria da Explicação Estatística de Hempel


ILKKA NINILUOTO

Explicação Dedutiva-Nomológica
Os artigos seminais de Carl G. Hempel “The Function of General Laws in History” (1942) e
“Studies in the Logic of Explanation” (1948, com Paul Oppenheim) abriram uma nova área de
pesquisa na filosofia da ciência. Os empiristas lógicos em Berlim e Viena iniciaram na década
de 1920 a aplicação de ferramentas conceituais exatas da lógica para a análise da linguagem
da ciência e a estrutura das teorias científicas, e esse programa foi continuado após a guerra
na filosofia analítica de língua inglesa da Ciência. Um dos principais itens da nova agenda
filosófica resultou da proposta de Hempel de precisar, ou “explicar” no sentido de Rudolf
Carnap, a noção de explicação científica. O relato mais extenso de Hempel sobre sua própria
visão, com respostas aos críticos, foi dado no ensaio “Aspects of Scientific Explanation” (1965).

De acordo com o modelo dedutivo-nomológico (D-N) de Hempel, as explicações científicas são


argumentos que respondem a perguntas de porquê sobre eventos particulares ou
regularidades gerais, “subsumindo-os” sob leis gerais e condições antecedentes particulares. O
explanandum é uma afirmação E sobre um fato, um evento ou uma regularidade que já é
conhecida (ou acreditada) como verdadeira. Portanto, Hempel distinguiu “perguntas de
porquê que buscam explicação” de “perguntas de porquê que dão razão” que buscam
fundamentos epistêmicos ou justificativa para acreditar ou afirmar que E é o caso (Hempel
1965, p. 334). Ainda assim, ele exigiu que respostas racionalmente aceitáveis para a pergunta
"Por que E ocorreu?" devem oferecer informações que mostrem que E era esperado (p. 367).
Assim, de acordo com a tese de simetria de Hempel, toda explicação adequada é uma predição
potencial, e toda predição é uma explicação potencial.

A “teoria da subsunção” da explicação também tem sido chamada de modelo da lei de


cobertura, uma vez que requer que o explanans contenha pelo menos uma lei. O modelo D-N
pode ser resumido como segue.

Pag 139

L1,L2,...,Lr Leis gerais

C1,C2,..., Ck Declarações de Explanans

condições antecedentes

Dedução _____________________________________

Lógica E Descrição do

evento ou regularidade Explanandum.

a ser explicada

Uma explicação D-N é verdadeira, se sua explanans for verdadeira. Esta foi inicialmente uma
das condições de adequação de Hempel-Oppenheim, mas depois Hempel achou apropriado
relaxar este requisito e introduzir as noções de explicação bem confirmada e potencial (1965,
pp. 249, 338). Mesmo que o valor de verdade das premissas de uma explicação potencial D-N
possa ser desconhecido, as explanans devem, em qualquer caso, incluir premissas nômicas ou
legais.

De acordo com a visão de “regularidade” de Hume, as leis da natureza são simplesmente


“conjunções constantes” extensionais entre propriedades ou tipos de eventos. Assim, a forma
lógica da lei universal ou determinística 'Todos os Fs são G' é simplesmente (x)(Fx → Gx).1
Hempel complementou essa visão com a exigência de que uma generalização legal tem que
ser “essencialmente generalizada”, isto é , não logicamente equivalente a uma conjunção de
sentenças singulares (1965, p. 340). Em outras palavras, os predicados ‘F’ e ‘G’ devem ser
“nômicos” no sentido de que eles não estão restritos a um número finito de instâncias por
motivos puramente lógicos (Hempel 1968). Richard Braithwaite (1953) e Ernest Nagel (1961)
defenderam formas sofisticadas da visão de regularidade ao vincular a legalidade com as
funções metodológicas das generalizações universais, especialmente suas conexões
sistemáticas com outras leis em teorias científicas. Outro critério metodológico, defendido por
Nelson Goodman (1955), é a capacidade de as leis receberem suporte indutivo ou confirmação
de suas instâncias (ver Hempel 1965, p. 342).

No entanto, a tarefa de distinguir leis genuínas de leis meramente generalizações verdadeiras


se tornaram um problema difícil. Como a marca registrada da semelhança da lei é a
capacidade de sustentar condicionais contrafactuais e subjuntivos (ver Hempel 1965, p. 339),
análises não-humianas ou “realistas” consideram que as leis envolvem necessidades
“nômicas”, “físicas” ou “causais” (ver Lewis 1973; Fetzer 1981) ou relações de segunda ordem
entre universais aristotélicas (ver Armstrong 1983; Tooley 1987).

Se a forma lógica de declarações semelhantes a leis é expressa por (ou pelo menos implica)
generalizações universais, exemplos simples paradigmáticos de explicações D-N são
representados por

(1) (x)(Fx → Gx)

Fa

__________

Ga

Pag 140

(2) (x)(Fx → Gx)

(x)(Hx → Fx)

__________

(x)(Hx → Gx).

Mas a tarefa geral de fornecer condições suficientes e necessárias para explicações científicas
dedutivas adequadas provou ser surpreendentemente difícil, e várias tentativas não levaram a
conclusões definitivas (veja as pesquisas em Tuomela 1977; Stegmüller 1983; compare Schurz
1995-96).
No final da década de 1950, o modelo D-N de Hempel foi criticado por sua restrição a uma
abordagem sintático-semântica que exclui aspectos pragmáticos da explicação (por exemplo, o
estado epistêmico e os interesses da pessoa que levanta a questão explicativa). No entanto,
parece mais correto dizer que Hempel sempre se preocupou com a compreensão fornecida
pelas explicações científicas (ver Hempel 1965, p. 333), de modo que seu tratamento da
explicação pressupõe como dado um contexto pragmático particular, a saber, a investigação
dentro da comunidade científica. Abordagens interrogativas recentes à explicação sugerem
que o tratamento de Hempel não é de forma alguma incompatível com a pragmática da
explicação (ver Sintonen 1989), e o modelo D-N, em certo sentido, até recebe apoio da lógica
das perguntas do porquê (ver Hintikka e Halonen 1995).

Observações Históricas sobre a Teoria da Subsunção


Os artigos de Hempel sobre explicação tiveram um impacto decisivo na filosofia analítica
posterior da ciência. Mas para entender e apreciar sua conquista, é importante considerar
também seus precursores. Este é um tópico que é amplamente negligenciado em Wesley
Salmon, de muitas outras maneiras, iluminando o levantamento histórico (1989) das “quatro
décadas de explicação científica”. Segundo Salmon, “o artigo de Hempel-Oppenheim de 1948
marca a divisão entre a pré-história e a história das discussões modernas da explicação
científica” (p. 10). Seu relato histórico salta diretamente de Aristóteles para Hempel,
mencionando apenas John Stuart Mill e Karl Popper em uma nota de rodapé (p. 187).

Após o artigo de Hempel (1942) sobre o padrão dedutivo-nomológico da explicação histórica,


Karl Popper reclamou que Hempel havia apenas reproduzido sua teoria da explicação causal,
originalmente apresentada em Logik der Forschung (1935; ver Popper 1945, cap. 25, n. 7;
Popper 1957, p. 144). Com sua polidez encantadora, Hempel apontou que seu relato da
explicação D-N é “de modo algum novo”, mas “apenas resume e afirma explicitamente alguns
pontos fundamentais que foram reconhecidos por muitos cientistas e metodologistas”.
Hempel passou a citar definições de explicação como subsunção sob leis da edição de 1858 de
A System of Logic de John Stuart Mill (primeira edição de 1843), de Principles of Science de
Stanley Jevons (primeira edição de 1873) e dos livros de Ducasse (em 1925), Cohen e Nagel
(em 1934) e Popper (em 1935) (ver Hempel 1965, p. 251). Mais tarde, ele acrescentou N. R.
Campbell (em 1920) a esta lista (Hempel 1965, p. 337).

Pag 141

No mesmo espírito, com sarcasmo dirigido a Popper, von Wright observou que “na verdade, a
teoria da explicação 'Popper-Hempel' tinha sido uma espécie de lugar-comum filosófico desde
os dias de Mill e Jevons” (von Wright 1971 , pág. 175).

Em uma passagem frequentemente citada, Mill diz que “diz-se que um fato individual é
explicado apontando sua causa, isto é, declarando a lei ou leis de causação das quais sua
produção é um exemplo” e “de maneira semelhante, diz-se que uma lei de uniformidade na
natureza é explicada quando outra lei ou leis são apontadas, das quais essa lei em si é apenas
um caso, e da qual pode ser deduzida” (1906, p. 305). Esta é uma elaboração da afirmação de
Auguste Comte em 1830 de que a ciência se esforça para descobrir as “leis reais dos
fenômenos”, ou “suas relações invariáveis de sucessão e semelhança”, de modo que “a
explicação dos fatos . . . consiste doravante apenas na conexão estabelecida entre diferentes
fenômenos particulares e alguns fatos gerais” (Comte 1970, p. 2).
Comte e Mill defenderam a teoria da subsunção da explicação em uma forma estritamente
empirista, onde as leis expressam conexões gerais verificáveis entre fenômenos observáveis.
Muitos positivistas e instrumentalistas posteriores excluíram as explicações da ciência, uma
vez que pensavam que a ciência deveria abandonar as questões do porquê em favor das
questões descritivas do como. Pierre Duhem, em 1907, expressou explicitamente o medo de
que o objetivo da explicação “subordinasse” a ciência à metafísica (Duhem 1954, p. 10).
Carnap deu o testemunho de que Ernst Mach no final do século XIX, assim como o Círculo de
Viena de sua própria juventude na década de 1920, reagiram contra “o clima filosófico do
idealismo alemão”, mas nos Estados Unidos do pós-guerra tal cautela não é mais necessário –
e a ideia de explicação por leis pode ser defendida (Carnap 1966, p. 12).

A teoria da subsunção da explicação é uma aliada natural do método hipotético-dedutivo,


desenvolvido por René Descartes, Robert Boyle e Isaac Newton no século XVII, e John Herschel
e William Whewell no século XIX. Eles exigiam que uma boa hipótese ou teoria deveria
“explicar”, “esclarecer”, “provar”, “demonstrar” ou “explicar” fatos conhecidos. Nessa visão,
uma hipótese teórica, mesmo que não seja diretamente verificável, recebe suporte indutivo ou
confirmação daqueles fatos observados que ela explica com sucesso. O método hipotético-
dedutivo também foi defendido por Hempel contra a “visão estreitamente indutivista” que
afirma que as hipóteses podem ser inferidas indutivamente a partir de evidências (ver Hempel
1965, p. 75). O indutivismo nesse sentido tende a restringir a função metodológica das teorias
à previsão de novos fenômenos observáveis.

A origem da teoria da explicação dedutiva remonta ainda mais ao início da história – ao ideal
aristotélico da ciência demonstrativa. Aristóteles distinguiu quatro tipos de “causas” ou
“fatores explicativos” (do grego aitia) e argumentou que a investigação procede de saber isso
para saber porquê. “Não podemos afirmar que conhecemos um assunto até que tenhamos
compreendido o ‘porquê’ dele, isto é, sua explicação fundamental”. (Aristóteles 1961, p. 28.)
Primeiro sabemos pela observação que existe um fato; então a resposta a uma pergunta por
que é fornecida por um silogismo científico que demonstra o fato como um efeito de sua
causa. Este estágio

Pag 142

explicativo da ciência foi chamado compositio (síntese) pelos aristotélicos medievais e


renascentistas. Os exemplos paradigmáticos (1) e (2) das explicações Hempelianas D-N são
argumentos que podem ser formulados no modo do silogismo de Bárbara de Aristóteles. Os
Analíticos Posteriores de Aristóteles podem, assim, serem vistos como a primeira tentativa
sistemática de revelar a estrutura dedutiva da explicação científica.

A posição histórica de Aristóteles na teoria lógica da explicação dedutiva não diminui nossa
apreciação da realização de Hempel. Enquanto a concepção aristotélica da ciência
superenfatizou o papel das demonstrações explicativas, enquanto a visão indutivista
superenfatizou as previsões, Hempel manteve um equilíbrio saudável entre explicação e
previsão como os dois principais tipos de “sistematização científica”. Hempel não se baseou no
essencialismo aristotélico - e, assim, ativou debates filosóficos sobre legalidade. Como não
restringiu o modelo D-N às formas simples dos silogismos de Aristóteles, reabriu o estudo da
estrutura lógica geral dos argumentos explicativos. Um dos resultados desse tratamento
liberalizado foi o trabalho pioneiro de Hempel na explicação estatística.

Explicação estatística-indutiva
Já em 1942, Hempel insinuou que alguns argumentos explicativos podem substituir as leis
universais ou “determinísticas” do modelo D-N por “hipóteses de probabilidade” que
(juntamente com as condições antecedentes) tornam o evento explanandum “altamente
provável” (1965, p. 237). Seu exemplo é Tommy tendo sarampo duas semanas depois de seu
irmão; aqui a lei afirma que o contágio ocorre “apenas com alta probabilidade”. Hempel se
referiu a um artigo de 1941 de Edgar Zilsel, onde Zilsel sugeriu que as leis históricas são de
caráter estatístico como algumas macroleis da física. Hempel também considerou a explicação
de por que os agricultores de Dust Bowl migraram para a Califórnia e observou que seria difícil
afirmar com precisão na forma de uma lei geral a hipótese de que “as populações tenderão a
migrar para regiões que oferecem melhores condições de vida”.

Em 1948, Hempel mencionou exemplos da economia (oferta e demanda) e linguística


(decaimento fonológico) e acrescentou - novamente com referência a Zilsel - que as leis
envolvidas podem ser estatísticas (1965, pp. 252-3). Ele observou que a subsunção sob “leis
estatísticas” tem “uma estrutura lógica peculiar” que “envolve problemas especiais difíceis” (p.
251).

Uma das “dificuldades” neste contexto é o problema de dar uma formulação adequada das leis
estatísticas. As contrapartes estatísticas mais simples das generalizações universais de Hume
são obviamente afirmações sobre a frequência relativa rf(G/F) de um atributo G em uma classe
F; essa frequência relativa é uma se todos os Fs forem G. Como aluno do famoso frequentista
Hans Reichenbach em Berlim, Hempel já no início da década de 1930 escreveu sobre a forma
lógica das declarações de probabilidade. Em Hempel (1935), ele tentou defender uma versão
“finitista” da interpretação de frequência onde as declarações de probabilidade são aplicadas

Pag 143

apenas a classes de referência finitas, mas Reichenbach imediatamente rejeitou essa


explicação em seu comentário em Erkenntnis.2 Em Hempel (1937-38), o ponto de vista
finitístico não foi mais mencionado, e as declarações de probabilidade foram definidas como
limites de frequências relativas de propriedades em sequências infinitas. Hempel enfatizou a
relatividade de declarações de probabilidade para tais sequências infinitas, criticando a
notação incompleta de Reichenbach por suas implicações de probabilidade, e sugeriu que
declarações de probabilidade “absolutas” poderiam ser obtidas apenas quantificando sobre
tipos de sequências. A interpretação de frequência de longo prazo é novamente brevemente
mencionada no artigo de Hempel-Oppenheim (Hempel 1965, p. 250).

Em Hempel (1962), as leis estatísticas foram caracterizadas como declarações de probabilidade


da forma P(G/F) = r, onde ‘r’ assume valores entre zero e um. A essa altura, Hempel já havia
lutado com a distinção entre generalizações universais nômicas e acidentalmente verdadeiras,
e desejava fazer uma distinção semelhante entre leis estatísticas genuínas e declarações de
frequências relativas em algum conjunto finito. No primeiro caso, a classe de referência F não
é assumida como finita, mas a probabilidade r “refere-se” à classe de todas as instâncias
potenciais de F (1962, p. 123). Uma maneira de entender esse requisito é tratar a
probabilidade estatística como uma disposição, como na interpretação da propensão de
Popper. A interpretação disposicional foi mencionada novamente em 1965 (ver Hempel 1965,
p. 178). Em Hempel (1968), a probabilidade é novamente uma frequência de longo prazo, mas
os predicados relevantes em uma declaração de probabilidade semelhante a lei devem ser
“nômicos”.
Outra linha que leva Hempel a explicações não dedutivas parte do conceito de “poder
explicativo”. Hempel e Oppenheim (1948) definiram uma medida do poder sistemático de uma
teoria. A ideia subjacente é dedutivista: conte quantas sentenças uma teoria é capaz de
implicar em uma determinada classe finita de dados. Mas os germes dessa ideia estão
relacionados ao trabalho anterior de Hempel com o método Reichenbachiano de definir a
“probabilidade de uma teoria” (como a frequência relativa com que a teoria acarreta
consequências verdadeiras de condições iniciais verdadeiras) (ver Nagel 1939, p. 63). Além
disso, uma versão probabilística da medida obtida pode ser dada por

(3) syst(T,S) = P(∼T/∼S),

isto é, o poder sistemático da teoria T em relação aos dados S é igual à probabilidade indutiva
de ∼T dado ∼S (Hempel 1965, p. 287). Esta medida tem seu valor máximo um, se T implica S,
mas pode receber valores altos também nos casos em que apenas uma relação não dedutiva
ou indutiva se obtém entre T e S. Hempel e Oppenheim sugeriram que a teoria da explicação
científica deveria ser estendida para cobrir tais casos também (p. 278).

Pode parecer surpreendente que, após as observações sugestivas em 1948, a formulação do


modelo de explicação estatística de Hempel tenha sido adiada por quatorze anos – e ninguém
mais pegou o tópico para estudo nesse meio tempo. A única exceção parece ser Ernest Nagel,
que argumentou por meio de exemplos que a explicação de ações individuais na história é
probabilística (ver Nagel 1961, pp. 550-63). Finalmente, em 1962, Hempel publicou seu artigo

Pag 144

“Dedutivo-Nomológico vs. Explicação Estatística”, e logo no mesmo ano apareceu o artigo de


Nicholas Rescher (1962) sobre a possibilidade de explicação estatística em sistemas de estados
discretos.

Qual foi a verdadeira causa desse atraso? Mais tarde, Hempel relatou ter descoberto já em
1945 o problema da “ambiguidade dos silogismos estatísticos” (Hempel 1962, p. 138). Este
problema não foi observado por D. C. Williams (1947) em seu extenso tratamento de
silogismos estatísticos preditivos, mas foi discutido em detalhes por Stephen Barker (1957). O
problema surge porque a probabilidade estatística P(G/F) do resultado G na classe F depende
da classe de referência F.

Então dois argumentos da forma

(4) P(G/F) é quase 1

Fa

Então, é quase certo que a é G

(5) P(∼G/H) é quase 1

Ha

Então, é quase certo que a não é G

ambos podem ter premissas verdadeiras, mesmo que suas conclusões sejam inconsistentes
entre si.

Rudolf Carnap, que começou a desenvolver sua teoria lógica da indução na década de 1940
(ver Carnap 1950/1962), assegurou a Hempel que essa ambiguidade é “mas um dos vários
aparentes paradoxos da lógica indutiva que resultam de violações da exigência de evidência
total” (Hempel 1962, p. 138; 1965, p. 397). Em “Inconsistências Indutivas” (1960), Hempel
ofereceu a solução de que, em um silogismo estatístico, a probabilidade não deveria ser
entendida como um qualificador modal da conclusão, mas sim como uma relação entre as
premissas e a conclusão. Essa relação envolve probabilidade lógica ou indutiva, ou um grau de
confirmação no sentido de Keynes e Carnap. Assim, em vez de (4), devemos dizer que 'Ga' é
altamente provável em relação às declarações 'P(G/F) ≈1' e 'Fa' (Hempel 1965, p. 60). O
esquema (4) agora pode ser escrito na forma

(6) P(G/F) é quase 1

Fa

═══════════ [tem quase certeza]

Ga

onde a linha dupla indica que (6) é um argumento indutivo e não dedutivo. Não é
inconsistente com (6) que ‘Ga’ possa ser muito improvável em relação a algumas outras
premissas.

Com esse raciocínio, Hempel estava finalmente pronto para formular seu modelo de
explicação estatística indutiva (I-S) em 1962. Esse modelo pode ser expresso pelo esquema

(7) P(G/F) = r

Fa

══════ [r]

Ga

Pag 145

onde 'r' na premissa legal 'P(G/F) = r' é uma probabilidade estatística, e 'r' entre colchetes
indica a probabilidade indutiva do explanandum 'Ga' dado o explanans. Além disso, Hempel
exigia que r fosse próximo de um.

O modelo I-S de Hempel ainda permite que possa haver argumentos indutivos da forma (7)
com premissas verdadeiras, mas com conclusões incompatíveis ‘Ga’ e ‘∼Ga’. Para fins de
previsão, isso é claramente um problema, pois ainda não se sabe se ‘Ga’ é verdadeiro ou não.
Mas no contexto da explicação a escolha da explicação correta entre tais alternativas já é
determinada pela suposição de que a sentença explanandum é conhecida como verdadeira
(ver Coffa 1974; Salmon 1989, p. 69). Hempel sabia disso, mas insistiu que não é natural
admitir que, ao dar uma explicação I-S de um fato, poderíamos ter explicado “com a mesma
prontidão” seu oposto a partir de premissas verdadeiras (ver Hempel 1968, p. 119).

Para lidar com esse problema de ambiguidade, Hempel (1962, p. 146), formulou um “critério
aproximado de adequação evidencial para sistematizações estatísticas simples”: a regra (7)
deveria ser “baseada na probabilidade estatística de G dentro da classe mais estreita, se
houver uma, para a qual a evidência total disponível fornece a probabilidade estatística
necessária”. Esta é uma contrapartida para a explicação do conselho de Hans Reichenbach
(1938) no contexto de previsão: use a declaração de probabilidade estatística com a classe de
referência disponível mais estreita para determinar os “pesos” de casos únicos. Mas, como
Hempel teve o cuidado de observar, é preciso distinguir o conteúdo de uma afirmação e a
evidência para ela: enquanto sua própria condição exige que a probabilidade estatística de G
na classe F mais estreita seja conhecida, para Reichenbach a evidência total fornece um
relatório estatístico em uma amostra finita da classe F.

Uma formulação precisa do Requisito de Especificidade Máxima (RMS) foi dada por Hempel
(1965, pp. 397-400). A evidência total agora é representada pelo conjunto K de “todas as
declarações aceitas no momento determinado”. K é assumido como sendo dedutivamente
fechado e contendo os axiomas da teoria da probabilidade. Se K contivesse o explanandum
'Ga', então trivialmente a probabilidade lógica dessa afirmação em relação a K seria igual a um.
Portanto, assume-se que K não contém o explanandum (mas veja Hempel 1968). Em uma
situação em que as premissas do argumento (7) são conhecidas, a situação de conhecimento
relevante K deve satisfazer o seguinte.

(RMS) Para qualquer classe F1 para a qual K implica que F1 é uma subclasse de F e
que F1a, K também contém uma lei no sentido de que P(G/F1) = r1, onde r1 = r, a menos que
essa lei seja um teorema da teoria da probabilidade.

A cláusula a menos que exclui o uso de classes como F ∩ G e F ∩ −G para a escolha de F1. O
RMS, portanto, tenta especificar quais informações de nossa situação de conhecimento K são
de relevância explicativa potencial para o explanandum.

Em Hempel (1968), o princípio RMS relativo à explicação foi nitidamente distinguido do


princípio da evidência total que é válido na previsão ou na argumentação que dá razão. A
probabilidade indutiva r associada à explicação (7) é a probabilidade de 'Ga' em relação às suas
duas premissas,

Pag 146

não em relação ao K inteiro. (Portanto, o explanandum pode ser assumido como pertencente a
K). Quando RMS é satisfeito, esta probabilidade r expressa a expectativa nômica de Ga na base
dos explicativos. Hempel (1968) reformulou o RMS para que se aplique a predicados em vez de
classes, e é menos exigente quanto à existência de leis estatísticas conhecidas.

(RMS*) Se K contém declarações ‘F1a’ e ‘(x)(F1x → Fx)’ e a declaração legal ‘P(G/F1) =


r1’, então r1 = r, a menos que r1 seja um ou zero.

Suponha que a situação de conhecimento K nos permita colocar o indivíduo a em duas classes
de referência diferentes F1 e F2 com diferentes probabilidades para G. Se K não contém
informação sobre a probabilidade de G em F1 ∩ F2, então o RMS original não é satisfeito. O
RMS* modificado se mantém, mas nesta situação tanto F1 quanto F2 são maximamente
específicos para G em K, e o modelo não dá nenhuma recomendação para a escolha entre eles.
Hempel (1968) adicionou ao RMS* um requisito adicional de que K deveria conter 'P(G/M) = r'
para todos os predicados maximamente específicos 'M' relacionados a 'Ga' em K; em relação a
esta condição forte, não há explicação indutiva aceitável na situação dada (ver também Tan
1997).3

Tanto RMS quanto RMS* são relativizados a K. Hempel afirmou que isso é inevitável, de modo
que a noção de explicação potencial I-S (ao contrário da explicação D-N) só faz sentido se
relativizada a uma situação de conhecimento. Esta é a tese de Hempel da relatividade
epistêmica da explicação estatística (1965, p. 402).
Mais tarde, em seu “Nachwort 1976” para a edição alemã de seu Aspects of Scientific
Explanation, Hempel (1977) reformulou o RMS* retirando a condição ‘F1a’ de seu
antecedente. Nesta forma, requer que não conheçamos nenhuma subclasse F1 de F tal que a
probabilidade de G em F1 seja diferente da probabilidade de G em F. Em outras palavras, a
classe de referência F deve ser epistemicamente homogênea para G no sentido de Salmon
(1971, 1984). Ao mesmo tempo, Hempel abandonou a exigência de que a probabilidade r fosse
alta. Além disso, ele afirmou que seria “muito desejável” encontrar uma formulação objetiva,
não epistemicamente relativizada da especificidade máxima, mas deixou em aberto se tal
definição pode ser encontrada (1977, p. 123). Essas modificações foram respostas a debates
animados sobre o modelo I-S de Hempel.

Discussão do modelo I-S de Hempel


Nos debates que se seguiram ao surgimento do modelo I-S de Hempel na década de 1960,
alguns filósofos ainda negavam completamente a ideia de que argumentos probabilísticos
pudessem servir como explicações. Em particular, G. H. von Wright (1971) e Wolfgang
Stegmüller (1973, 1983) argumentaram que o modelo I-S de Hempel não responde a
perguntas explicativas do porquê, mas é válido apenas para previsões indutivas e outros
argumentos que dão razão.

Outro tipo de crítica foi apresentado por Isaac Levi (1969, 1977): a explicação I-S não é uma
explicação de lei de cobertura, uma vez que não há enunciados extensionais que possam servir

Pag 147

como premissas verdadeiras e legais em “inferência direta” do tipo (7). Levi também rejeita a
possibilidade de que as leis probabilísticas teriam valores de verdade e sugerem que elas
sejam substituídas por regras de inferência.4 Trabalho relacionado sobre inferência direta,
com declarações de frequência como substitutos para leis probabilísticas, foi feito por Henry
Kyburg (ver Bogdan 1982).

Uma das primeiras objeções ao modelo I-S de Hempel é que alta probabilidade não é
necessária para explicação estatística. Esta questão foi levantada por Rescher (1962) e Salmon
(1965). Também Carnap (1966, p. 8), ao endossar o modelo da lei de cobertura, apontou que
uma lei médica estatística pode afirmar que 5% das pessoas que comem um determinado
alimento desenvolverão um determinado sintoma, mas “mesmo quando uma lei estatística
fornece apenas uma explicação extremamente fraca, ainda é uma explicação”. Uma
declaração contundente contra o requisito de alta probabilidade - e, mais geralmente, contra a
visão de que a explicação estatística são argumentos - foi apresentada por Richard Jeffrey
(1969; ver também Salmon 1970). Alguns filósofos ainda exigiam que a probabilidade do
explanadum fosse de pelo menos 1/2; isso foi chamado de “condição de Leibniz” por
Stegmüller (1973) (ver Tuomela 1977). A resposta de Hempel (1977) foi que eventualmente ele
abandonou o requisito de alta probabilidade.

Outra questão é que a ideia de suporte indutivo ou confirmação poderia ser explicada, em vez
de alta probabilidade condicional, pelo critério de relevância positiva (ver Carnap 1950/1962;
Hempel 1965, p. 50). Assim, podemos exigir que o explanans aumente a probabilidade do
explanandum. Essa proposta foi feita por Wesley Salmon (1965), que desenvolveu seu modelo
de explicação de relevância estatística (S-R) como rival do modelo I-S de Hempel (Salmon 1970,
1984). A relevância positiva é também a chave da teoria da causalidade probabilística de
Patrick Suppes (1970).
Com Jeffrey (1969), Salmon rejeita o requisito de alta probabilidade de Hempel. Ele também
substitui o princípio epistêmico RMS pela exigência de que a classe de referência F seja
objetivamente homogênea para o atributo G, ou seja, nenhuma propriedade H (independente
de G) divide F de forma “estatisticamente relevante” para uma subclasse F ∩ H tal que P(G/F) ≠
P(G/F ∩ H). De acordo com o modelo S-R de Salmon, uma resposta a uma pergunta “Por que
este membro a de B tem a propriedade G?” é obtida dividindo B em subclasses B ∩ Fi, i = 1, . . .
,n, tal que cada B ∩ Fi é objetivamente homogêneo para G, e P(G/B ∩ Fi) ≠ P(G/B ∩ Fj) se i ≠ j.
A resposta a ∈ B ∩ Fk localiza assim o lugar do indivíduo a nesta classificação e o atribui a uma
classe de referência homogênea máxima.

Uma diferença entre os modelos S-R e I-S é a exigência de Salmon de que a classe de
referência seja máxima. Essa condição de relevância leva a resultados não intuitivos já no caso
dedutivo, pois em alguns casos podemos não estar dispostos a combinar duas causas
separadas em uma classe mais ampla (por exemplo, para explicar por que um pedaço de
substância branca derreteu em água pelo fato disjuntivo de que era sal ou açúcar) – e o
mesmo vale para causas probabilísticas que produzem o mesmo efeito com a mesma
probabilidade estatística (ver Hempel 1977, p. 109; Fetzer 1981, p. 91; Niiniluoto 1982). O
próprio Hempel (1968) argumentou

Pag 148

que geralmente não se deve exigir a escolha de uma classe de referência mínima
maximamente específica, de modo que seu RMS deixa alguma liberdade na escolha da classe
de referência. Fetzer (1981, p. 99), em vez disso, sugere que o RMS deve ser fortalecido para
que produza “uma solução de descrição única, bem como uma solução de valor único”.

No modelo de Salmon, em contraste com sua proposta original de 1965, pode acontecer que
P(G/B ∩ Fk) seja maior, menor ou igual à probabilidade inicial P(G/B) (relevância positiva,
relevância negativa, irrelevância, respectivamente). É uma questão interessante se esse
movimento poderia ser justificado por uma concepção “global” adequada de poder explicativo
(ver Salmon et al. 1971; Niiniluoto e Tuomela 1973; Tuomela 1977; Niiniluoto 1981, 1982).
Stegmüller (1973) argumentou que o modelo S-R de Salmon não é uma explicação da
explicação estatística, mas sim uma “análise de profundidade estatística”. Salmon (1984)
defende seu modelo como exemplificando a concepção ôntica de explicação: o evento
explanandum deve ser encaixado no nexo de regularidades causais ou lei, e a ideia epistêmica
de expectativa é irrelevante para o objetivo da explicação (ver também Salmon 1989, pp. .
117–22).5

A questão crucial sobre a concepção ôntica é a possibilidade de dar uma explicação razoável
da noção de classe de referência “objetivamente homogênea”. Uma dificuldade óbvia é que,
tomada extensionalmente, uma classe F sempre conterá subclasses F1 tais que a frequência
relativa do atributo G em F difere do valor correspondente em F1 até ser igual a zero ou um.
Esta é a razão pela qual Fetzer alega contra Salmon que uma solução ôntica adequada do
problema da explicação probabilística não pode ser dada dentro da teoria frequentista da
probabilidade estatística (ver Fetzer 1981, p. 101; 1993, p. 71). Para encontrar tal solução,
pode-se tentar encontrar alguma restrição quanto à escolha das subclasses permitidas. Richard
von Mises empregou a ideia de “regras de seleção de lugares” na definição de sequências
aleatórias (ver von Plato 1994). Hempel fez isso restringindo seu RMS a uma situação de
conhecimento K. J. Alberto Coffa (1974) propôs transformar o RSM epistêmico de Hempel em
uma versão ôntica substituindo K pela classe T de todas as sentenças verdadeiras, mas isso não
é suficiente sem algumas suposições ontológicas e semânticas sobre a linguagem científica
ideal relevante onde T é exprimível. Por exemplo, pode-se apelar para “predicados nômicos”
que definem propriedades físicas e negar que todas as subclasses matematicamente existentes
correspondam a propriedades ontologicamente existentes. (Isso equivale à ideia de que se
adota uma interpretação não padronizada da quantificação de segunda ordem; veja Niiniluoto
[1976].)

As dúvidas de Hempel sobre formulações objetivas ou não epistêmicas do RMS o levaram a


anunciar a relatividade epistêmica da explicação I-S, mas – como ele reconheceu mais tarde
(Hempel 1977) – esse argumento não foi conclusivo. Por outro lado, a afirmação de Coffa
(1974) e Salmon de que a tese da relatividade epistêmica compromete Hempel com o
determinismo também não foi conclusiva: é concebível que para toda lei probabilística P(G/F)
= r existam predicados nômicos definindo subclasses F1 , F2, . . . de F tal que as probabilidades
P(G/Fi) = ri diferem umas das outras, de modo que uma formulação objetiva de RMS é violada,
mas mesmo assim essas probabilidades ri não reduzem (ou convergem) para um ou zero (ver
Niiniluoto 1976) .

Pag 149

A estratégia de Salmon no desenvolvimento da concepção ôntica tem sido confiar em uma


interpretação de frequência de probabilidade estatística de longo prazo, juntamente com uma
teoria de processos causais.6 Outra abordagem é basear a análise de leis estatísticas na
interpretação de probabilidade de caso único, defendido no início dos anos 1970 por Hugh
Mellor, Ron Giere e James Fetzer. Em vez de ver as probabilidades físicas como disposições
infalíveis para produzir frequências de longo prazo, como Peirce e Popper sugeriram, a
interpretação de caso único considera as propensões como graus de possibilidade que são
exibidos por uma configuração aleatória em cada tentativa única de um determinado tipo.
Probabilidades são, portanto, tendências que geram, por meio de leis de grandes números,
frequências relativas dentro de sequências de tentativas. De acordo com essa visão, uma
declaração de probabilidade semelhante à lei (x)[Hx → Px(G/F) = r] afirma que cada
configuração de chance x do tipo H tem uma tendência disposicional de força r para produzir
um resultado do tipo G em cada tentativa do tipo F. (Uma notação mais completa atribuiria
tais disposições a pares (x, u), onde x é um sistema e u é uma tentativa em x, e quantificar
também sobre tentativas.) No caso especial r = 1 esta análise se reduz a uma análise
intencional não-Humeana que iguala a semelhança da lei com a “necessidade física” (ou seja, a
verdade em todos os mundos fisicamente possíveis) ou com a condicionalidade contrafactual.
Probabilidade nas leis físicas P(G/F) = r (onde r < 1) é então um operador modal que é mais
fraco que a necessidade física. Se 0 < r < 1, tal lei implica que configurações do tipo H são
sistemas indeterminísticos.7

Uma formulação clara de um modelo de propensão de explicação probabilística foi dada por
James H. Fetzer (1974). Uma explicação típica com tais leis de propensão de caso único é a
seguinte:

(8) (x)[Hx → Px(G/F) = r]

Ha & Fa

════════════ [r]

Ga
onde r entre colchetes é novamente o grau de expectativa nômica do resultado G na tentativa
relevante com configuração aleatória a. Alternativamente, r é o grau de “responsabilidade
nômica” das condições causalmente relevantes para produzir Ga na situação dada (ver Fetzer
1992, p. 258). Aqui é natural que os dois valores de ‘r’ sejam iguais, pois a lei é uma
generalização sobre casos únicos, e não há passo de características de longo prazo para casos
únicos. Uma condição RMS separada para este modelo é desnecessária (em relação a H e F),
pois já a lei em (8) pressupõe que cada arranjo do tipo H em cada tentativa do tipo F tem a
mesma propensão a produzir G, ou seja, H e F juntos são objetivamente homogêneos para G.8
No entanto, ao contrastar seu modelo de relevância causal com o modelo de relevância
estatística de Salmon, Fetzer (1993, pp. 76-7), fornece um requisito de “especificidade máxima
estrita” no sentido de que o predicado 'F' em (8) deve fazer diferença para a propensão de
caso único, ou seja, Px(G/F) ≠ Px(G/∼F). Um problema com esta formulação é que a última
probabilidade nem sempre faz sentido estritamente falando na interpretação de caso único,
uma vez que a tendência de x para produzir G pode ter diferentes forças dentro de tentativas
na classe definida por ∼F.9

Pag 150

Joseph Hanna (1981) argumenta contra o modelo de propensão propondo um princípio de


continuidade: a probabilidade condicional de um estado de uma configuração casual pode ser
arbitrariamente próxima de um considerando estados intermediários próximos ao estado final.
No entanto, não parece haver nenhuma razão para acreditar que este princípio seja válido
para sistemas genuinamente indeterminísticos, como o decaimento radioativo (ver Fetzer
1983).

É característico do modelo (8) permitir explicações probabilísticas genuínas apenas no caso de


sistemas indeterminísticos. Por exemplo, se o lançamento da moeda pode ser descrito por um
modelo determinístico, como sugerem as teorias dos sistemas ergódicos e caóticos (ver Ford
1983; von Plato 1994), então os lançamentos únicos não envolvem propensões, e as
explicações probabilísticas de seus resultados não são objetivamente homogêneas. Ainda
assim, o modelo I-P de Hempel com uma condição epistêmica RMS pode ser aplicável a tais
exemplos (ver Niiniluoto 1981).

Paul Humphreys (1989) argumenta que o modelo de propensão é muito estrito, quando exige
que todos e apenas os fatores nomicamente relevantes sejam incluídos nos explanans. Ele
argumenta que este é “um ideal irrealista irremediavelmente” (p. 111), pois “mesmo fatores
probabilisticamente relevantes absurdamente pequenos” não podem ser omitidos. Em vez
disso, Humphreys propõe um modelo de “explicações aleatórias” da forma ‘A porque Q,
apesar de S’, onde Q é um conjunto de causas contribuintes e S um conjunto (possivelmente
vazio) de causas contrárias. Neste modelo, o valor explicativo das probabilidades é rejeitado
(p. 114).

No entanto, uma maneira alternativa de construir explicações parciais, dando uma


generalização mais flexível do modelo Hempeliano I-S do que (8), usa declarações verdadeiras
do tipo lei da forma (x)[Hx → Px(G/F) ≥ r] para substituir a lei estrita em (8); então o grau de
expectativa nómica é igualmente substituído por “≥ r” (ver Niiniluoto 1982, p. 177). Aqui 'H' e
'F' não precisam ser maximamente específicos para 'G', mas ainda assim as probabilidades
relevantes nas subclasses de sistemas e tentativas variam tão pouco que um limite inferior
para os valores de propensão é garantido. Também pode ser o caso de todas as propensões
serem aproximadamente (ou na média) iguais a um valor definido r. Essa ideia pode ser vista
como uma contrapartida ôntica ou objetiva da condição epistêmica de resiliência (invariância)
introduzida por Brian Skyrms (1980). Pode ser aplicável a explicações envolvendo riscos e
tendências tanto nas ciências naturais quanto nas sociais, onde a lei estrita de (8) não é
verdadeira (ver Niiniluoto 1976).

Em seu trabalho posterior, Hempel (1988) discutiu o papel das “provisões” que são
“pressuposições essenciais, mas geralmente não declaradas, de inferências teóricas”, mas ele
não declarou explicitamente nenhuma conclusão para sua explicação da explicação dedutiva
ou probabilística. Interessante trabalho relacionado foi feito na década de 1980 no estudo de
inferências com informações incompletas dentro da inteligência artificial (IA). As contrapartes
do raciocínio estatístico, sem valores numéricos de probabilidade, são investigadas dentro de
lógicas não monotônicas. Na lógica padrão, declarações como “Normalmente, os pássaros
voam” são formuladas por meio de “regras padrão”. Yao-Hua Tan (1997) argumenta em
detalhes que os princípios de extensão das teorias de default são análogos ao modelo I-S de
Hempel. Em particular, a lógica padrão precisa de regras de “especificidade” para resolver

Pag 151

formas conflitantes de fazer tais extensões, da mesma maneira que a regra de máxima
especificidade RMS é necessária para inferências I-S. Embora o principal problema nos
contextos de IA pareça ser a previsão e não a explicação, é interessante ver como a pesquisa
em IA foi conduzida de forma independente a construções semelhantes ao modelo de Hempel
duas décadas antes.

Explicação dos fatos estatísticos


A maioria dos filósofos concentrou seus esforços na análise de explicações de fatos e eventos
singulares. No entanto, como observou Hempel, o modelo D-N pode ser aplicado também à
explicação de leis determinísticas.10 Da mesma forma, o explanandum pode ser considerado
uma lei probabilística (Hempel 1962, p. 147). Assim, enquanto o esquema (7) é uma
contrapartida estatística para a inferência D-N singular (1), o conceito de Hempel de explicação
estatística dedutiva (D-S) corresponde ao silogismo universal (2). Uma explicação D-S é um
argumento em que uma declaração de probabilidade estatística é derivada de outras
declarações semelhantes por meio da teoria da probabilidade (Hempel 1965, pp. 380-1).

As explicações D-S receberam muito pouca atenção na literatura filosófica. Nagel (1961, pp.
509-20), sugeriu que a estrutura formal das explicações das generalizações estatísticas nas
ciências sociais é sempre dedutiva. Como ele tinha em mente leis probabilísticas, seus
exemplos podem ser tomados como instâncias da explicação D-S de Hempel. O próprio
Hempel afirmou que “em última análise, porém, as leis estatísticas devem ser aplicadas a
ocorrências particulares e estabelecer conexões explicativas e preditivas entre elas” (1965, p.
381).

Hempel (1962, p. 166), concluiu seu principal ensaio sobre explicação estatística enfatizando a
necessidade de um “conceito estatístico-probabilístico de ‘porque’”. Seu exemplo de tal
causalidade probabilística cita Richard von Mises: “é porque o dado foi carregado que o ‘seis’
aparece com mais frequência”. No início do artigo, ele deu exemplos da genética mendeliana,
onde o argumento explica “as porcentagens aproximadas de plantas de flores vermelhas e
brancas na amostra” (p. 142) e a teoria da radioatividade, onde a lei estatística sobre a meia-
vida do radônio explica o comportamento de uma grande amostra de tais átomos (p. 142).
Nestes exemplos, fica claro que o explanandum não é uma lei estatística ou probabilística, mas
sim uma generalização estatística ou fato sobre uma determinada classe finita. A explicação de
tais generalizações estatísticas não segue a estrutura dos modelos I-S e D-S (ver Niiniluoto
1976, pp. 357-8); ainda assim, pode ser a mais típica das aplicações de ideias estatísticas na
ciência.

Três modelos diferentes para a explicação de fatos estatísticos são distinguidos em Niiniluoto
(1981, pp. 440-2). Primeiro, uma lei universal pode ser combinada com um fato estatístico para
dar uma explicação dedutiva de outro fato estatístico. Por exemplo, suponha que uma doença
G seja deterministicamente causada por um gene F e que a frequência relativa dos genes F em
uma dada população H seja r. Então a frequência relativa da doença G em H é pelo menos r; se
F também é uma condição necessária para G, a última frequência relativa é igual a r.11 Esta
inferência segue o padrão

Pag 152

(9) (x)(Fx → Gx)

rf(F/H) = r

__________

rf(G/H) ≥ r.

Em segundo lugar, os fatos estatísticos também podem ser explicados indutivamente por leis
probabilísticas e generalizações universais. Por exemplo, se um átomo de radônio decai dentro
de 3,82 dias com probabilidade 1⁄2, se não é submetido à radiação ambiental, e os decaimentos
são probabilisticamente independentes, então pelo teorema de Bernoulli é altamente provável
que em uma grande amostra de átomos de radônio o número de decaimentos dentro de 3,82
dias é aproximadamente 1⁄2. Essa inferência, que é uma generalização direta do modelo I-S de
Hempel para explicação singular, tem a forma

(10) P(G/F) = r

Hn é uma grande amostra finita de Fs

═════════════════════ [pn]

rf(G/Hn) ≥ r.

O grau de expectativa nômica pn, que depende de r e n, pode ser calculado pela teoria da
probabilidade. Terceiro, como uma generalização de (9) e (10), uma lei probabilística pode ser
combinada com um fato estatístico para dar uma explicação indutiva de outro fato estatístico:

(11) P(G/F) = r

rf(F/H) = s

═══════ [p]

rf(G/H) ≥ rs.

Por exemplo, se o gene F produz a doença G com probabilidade r, então é altamente provável
que a frequência relativa de G em uma grande subclasse F ∩ H de uma dada população finita H
seja aproximadamente r. Se agora a frequência relativa do gene F na população H é s, então a
frequência relativa de G em H é pelo menos rs.

Peirce na explicação probabilística


Tendo pesquisado discussões recentes sobre explicação estatística, volto agora à “pré-história”
da explicação científica que discuti na segunda seção. Aspects of Scientific Explanation de
Hempel (1965) não menciona de forma alguma o nome do pragmatista americano Charles S.
Peirce. Outros que listaram os defensores da explicação D-N do século XIX também falharam
em se referir à contribuição de Peirce. Embora a reputação de Peirce tenha crescido
lentamente em nosso século, e algumas das evidências adicionais importantes venham de seus
primeiros Escritos publicados na década de 1980, esse silêncio é bastante surpreendente,
tendo em vista o fato de que o artigo de Peirce “Deduction, Induction, and Hypothesis” (1878),
que dá exemplos muito claros de explicações dedutivas, estava disponível na coleção Chance,
Love, and Logic em 1923. Além disso, Peirce's Collected Papers (1931-35) contém uma
reimpressão do artigo “A Theory of Probable Inference” (1883), que formula uma teoria de
explicação probabilística, com

Pag 153

a explicação dedutiva como um caso especial.

Os escritos de Peirce sobre probabilidade e indução eram obviamente bem conhecidos por
muitos filósofos antes de 1950: eles foram discutidos, entre outros, por Keynes, Ramsey,
Braithwaite, Nagel, von Wright, Carnap e Williams. tanto na inferência indutiva de uma
amostra para uma população quanto na “dedução provável” de uma população para uma
amostra ou para casos únicos, quase sempre se pensou que o último tipo de inferência –
variadamente chamado de “o uso de probabilidades a priori para a predição de frequência
estatística” (Keynes 1921), “o problema do caso único” (Reichenbach 1938), “silogismo
estatístico” (Williams 1947), ou “inferência direta” (Carnap 1950/1962) – estava preocupado
com a explicação.13 O próprio Peirce nunca fez tal restrição, no entanto.

Apontei (Niiniluoto 1982, p. 160) que “estranhamente, parece que a literatura moderna sobre
explicação estatística não contém sequer uma única referência à teoria dos silogismos
estatísticos explicativos de Peirce”. Em outro artigo, ousei sugerir que “Peirce deve ser
considerado o verdadeiro fundador da teoria da explicação indutiva-probabilística” (Niiniluoto
1981, p. 444).

Salmon, que considera 1962 como “o ano em que a teoria filosófica da explicação científica
[estatística] entrou pela primeira vez no século XX” (1983, p. 179), expressou desacordo com
meu julgamento, pois “uma declaração isolada e não elaborada” sobre silogismos estatísticos
explicativos “dificilmente podem ser considerados os primórdios de qualquer teoria genuína”
(Salmon 1984, p. 24). No artigo de pesquisa de Salmon alguns anos depois (1989), Peirce não é
mencionado, nem é listado na bibliografia.

No entanto, pode-se argumentar contra Salmon que Peirce tinha uma preocupação séria e
sistemática com a explicação científica desde 1865, e que seu relato de 1883 sobre “provável”
e “dedução estatística” fornece um modelo rico e detalhado para a estrutura da explicação
estatística. De fato, parece-me que a relação da obra de Peirce com o modelo I-S é paralela à
relação de Aristóteles com o modelo D-N (ver Niiniluoto 1993).
O interesse de Peirce pela estrutura da explicação científica surgiu de seus primeiros estudos
sobre a lógica de Aristóteles. Em suas Harvard Lectures durante a primavera de 1865, o jovem
Peirce observou que existe um tipo de raciocínio que não é nem dedutivo nem indutivo (W
1:180).14 Esse raciocínio, que Peirce chamou de hipótese (e depois abdução), pode ser
representado como a inferência da premissa menor de um silogismo, ou inferência de uma
causa de seu efeito. A classificação das inferências em dedução, indução e hipótese foi
elaborada nas Lowell Lectures de Peirce no outono de 1866 e publicada no ano seguinte. Dez
anos depois, essa distinção foi apresentada no artigo “Dedução, indução e hipótese”.

Já nas Harvard Lectures de 1865, Peirce deixou perfeitamente claro que a hipótese é uma
inferência para uma explicação (W 1:267). Nas Lowell Lectures de 1866, Peirce disse que essa
hipótese – que por si só “nos permite ver o porquê das coisas” – é a inversão do silogismo

Pag 154

explicativo correspondente. Por exemplo, do fato de que a luz é polarizável, podemos inferir
abdutivamente que a luz é ondas de éter, já que o seguinte silogismo é explicativo:

As ondas de éter são polarizáveis.

A luz são ondas de éter.

∴ A luz é polarizável.

No espírito de Mill, Peirce afirma geralmente que “explicar um fato é apresentar outro do qual
ele segue silogisticamente”, isto é, “dizemos que um fato é explicado quando uma proposição
– possivelmente verdadeira – é apresentada, de que esse fato segue silogisticamente” (W
1:428, 425, 440, 452).

Outra influência importante veio do fascínio de Peirce pela teoria das probabilidades. Em sua
revisão de 1867 de The Logic of Chance de John Venn (1866), o primeiro tratamento
sistemático da interpretação de probabilidade de frequência, Peirce discutiu inferências da
forma:

(12) A é escolhido aleatoriamente entre os Bs.

Dois terços dos Bs são C.

∴ A é C.

A justificativa de Peirce para o esquema (12) é em termos de frequências de verdade: a longo


prazo, um argumento de forma (12) produziria uma conclusão verdadeira de premissas
verdadeiras em dois terços das vezes (CP 8.2).

Peirce formulou a indução, a hipótese e a analogia como argumentos prováveis em 1867, onde
a probabilidade é medida pela proporção de casos em que um argumento “carrega a verdade
consigo”. Em 1878, ele formulou versões probabilísticas do silogismo de Bárbara e suas
inversões substituindo a lei universal por uma generalização estatística da forma “A maioria
dos grãos neste saco são brancos” (CP 2.508-16, 2.627).

O artigo “A Theory of Probable Inference” (1883) apresenta vários modelos de inferência


provável, onde o termo “dedução” é usado para raciocinar a partir de uma premissa estatística
sobre uma população para uma amostra dessa população. Dedução Provável Simples é uma
versão estatística do silogismo singular em Barbara (compare [1]):
(13) A proporção r dos Fs são Gs;

a é um F;

segue, com probabilidade r, que a é um G.

Como Peirce observou, a conclusão aqui pode ser tomada como 'a é um G', e a probabilidade
indica (ver CP. 2.695.) "a modalidade com a qual esta conclusão é tirada e tida como
verdadeira". Aqui Peirce antecipou a discussão de Hempel sobre “inconsistências indutivas”,
isto é, os padrões (4)–(6). Além disso, é exigido como “uma máxima de conduta” que a
instância a “deve ser uma instância sorteada entre os F’s”.

A volição do raciocinador (usando o maquinário que puder) tem que escolher a para que
seja um F; mas ele deve se abster de qualquer preferência adicional e não permitir que sua
vontade aja de qualquer maneira que possa tender a determinar qual F particular é tomado,

Pag 155

mas deve deixar isso para a operação do acaso. . . . [O] ato de escolha deveria ser tal que, se
fosse repetido muitas vezes com a mesma intenção, o resultado seria que, entre a totalidade
das seleções, os diferentes tipos de F's ocorreriam com as mesmas frequências relativas das
experiências nas quais a volição não interfere em nada. Nos casos em que é difícil restringir a
vontade por um esforço direto, o aparato dos jogos de azar - uma roleta, uma roleta, cartas ou
dados - pode ser chamado em nosso auxílio. (CP 2.696)

Peirce observou que, nesse tipo de amostragem aleatória (com reposição) de uma população
finita, “o que realmente é amostrado não é a coleção finita de coisas, mas o número ilimitado
de desenhos possíveis” (CP 2.731). Sua condição de aleatoriedade garante assim que o
resultado G seja obtido com a frequência de longo prazo dentro da população ilimitada de
desenhos possíveis da classe de Fs. Assim, o esquema de inferência (13), ou seja,

(14) rf(G/F) = r;

a é um membro aleatório de F;

∴ a é um G,

com uma declaração de frequência relativa como premissa, pode ser formulado como um
argumento probabilístico com uma premissa estatística legal

(15) P(G/F) = r

Fa

═════ [r]

Ga,

onde r entre parênteses é uma frequência de verdade de longo prazo.

A ideia de explicação probabilística de Nagel, que ele aplica à explicação histórica da ação
humana, é baseada no esquema peirceano (8), onde a lei estatística é tratada como uma regra
de inferência com uma frequência de verdade característica (ver Nagel 1961, p. 563). Salmon
(1989, p. 34), menciona os exemplos de Nagel em sua história, mas afirma que Nagel não
fornece “uma análise” da explicação probabilística.
O esquema (15) corresponde ao modelo de Hempel (7) de explicação I-S – com a diferença de
que [r] indica uma probabilidade objetiva ou frequência de verdade em vez de uma
probabilidade epistêmica ou indutiva. A diferença com Hempel não é muito grande aqui, pois
Peirce acrescentou – apelando para a lei de Fechner – que existe uma relação entre
probabilidades objetivas e graus de crença: de fato, temos “um sentimento mais forte de
confiança sobre uma espécie de inferência que mais frequentemente nos levará à verdade do
que sobre uma inferência que menos frequentemente se mostrará correta” (CP 2.697).

Se a probabilidade é entendida como uma propensão de longo prazo, como Peirce sugeriu em
1910 (CP 2.664), o padrão (15) se aproxima do modelo de propensão (8) de explicação
probabilística. No entanto, Peirce não propôs propensões de caso único.

Pag 156

Além da simples dedução provável (13), Peirce formulou um esquema para dedução estatística
que procede de uma população para uma amostra finita:

(16) A proporção r dos Fs são Gs,

a',a'',a''', etc., são um conjunto numeroso, tomado ao acaso entre os F;

Portanto, provavelmente e aproximadamente a proporção r dos como são Gs.

(Ver CP 2.700.) Essa inferência pode ser formalizada da seguinte forma:

(17) rf(G/F) = r;

{a',a'',a''', . . .} é uma amostra aleatória de Fs

∴ rf(G/{a',a'',a''', . . .} ) ≈ r,

onde, como Peirce mostrou pela fórmula binomial, r é o valor mais provável da frequência
relativa na conclusão. Além disso, pelo teorema de Bernoulli, a probabilidade da conclusão
dadas as premissas se aproxima de um quando o tamanho da amostra a',a'',a''', . . . aumenta
sem limite (CP 2.698-700). Novamente a condição para aleatoriedade nos permite reformular
(17) por

(18) P(G/F) = r

Fa' & Fa'' & Fa''' & . . .

═══════════════

rf(G/{a',a',a''', . . .} ) ≈ r.

Este esquema é o mesmo que o padrão (10) de explicação estatística muitas vezes
negligenciado (veja a seção anterior, “Explicação de Fatos Estatísticos”).

É filosoficamente interessante notar como a discussão de Peirce sobre o raciocínio provável foi
antecipada por Mill e Venn. O System of Logic de Mill continha uma breve discussão sobre a
aplicação de uma generalização aproximada (como 'A maioria dos A são B' ou 'Nove de dez A
são B') para suas instâncias individuais. Mill exigia que não deveríamos saber nada sobre tais
casos “exceto que eles se enquadram na classe A” (Mill 1906, p. 391; Niiniluoto 1981, p. 444).
Em uma forma grosseira, isso garante que o RMS de Hempel seja satisfeito em relação à
instância dada – sem – ainda implicando a condição mais forte de que a própria classe A seja
objetiva ou epistemicamente homogênea.
Da mesma forma, a Lógica do Acaso de Venn formulou a regra de que inferências estatísticas
sobre um caso individual devem encaminhá-lo para a série ou classe mais estreita que ainda
assegura “o grau necessário de estabilidade e uniformidade” (Venn 1888, p.220; ver
Reichenbach 1938).

No entanto, Mill e Venn nunca disseram que tal inferência estatística poderia ser aplicável para
fins de explicação. Para Mill, as generalizações aproximadas eram importantes principalmente
“na prática da vida”, mas na ciência são valiosas como “passos em direção a verdades
universais”. Além disso, Venn explicitamente restringiu sua atenção às tentativas de “fazer
inferências reais sobre coisas ainda desconhecidas”, isto é, à previsão (Venn 1888, p. 213).
Peirce, por outro lado, reafirmou sua visão anterior de que “Induções e Hipóteses são
inferências da conclusão e uma premissa de um silogismo estatístico para a outra premissa. No

Pag 157

caso de hipótese, esse silogismo é chamado de explicação”. De fato, repetiu Peirce,


“comumente dizemos que a hipótese é adotada por causa da explicação”. Um silogismo
estatístico “pode ser convenientemente chamado de silogismo explicativo” (CP 2.716-7).

O tratamento de Peirce ilustra vividamente uma razão para a dificuldade de aceitar a ideia de
explicação probabilística. Ele estava ciente de que, na explicação, geralmente é impossível
escolher o indivíduo sob consideração por uma seleção aleatória. Portanto, pode-se
argumentar que o esquema (14) não é aplicável à explicação, pois ao explicar por que a é um G
já conhecemos o indivíduo a e, portanto, não podemos extraí-lo aleatoriamente da classe F.
Aqui está a resposta de Peirce.

Geralmente, porém, ao fazer uma simples dedução provável, tomamos aquele exemplo
em que por acaso estamos interessados no momento. Nesse caso, é nosso interesse que
cumpre a função de um aparato de seleção aleatória; e não há necessidade de desejar algo
melhor, desde que tenhamos motivos para considerar a premissa “a proporção r dos Fs são
Gs” igualmente verdadeira em relação à parte dos Fs que é a única que provavelmente
despertará nosso interesse. (CP 2.696)

A intuição parece ser que as subclasses “interessantes” de F devem preservar a probabilidade


de G, ou seja, o esquema (14) pode ser usado para explicação desde que a classe de referência
F seja epistemicamente homogênea para G em relação ao nosso conhecimento típico da
situação.

Podemos concluir que Peirce deu uma explicação clara da estrutura da explicação estatística-
indutiva e de algumas de suas generalizações. Ele tinha uma ideia intuitiva sobre a necessidade
de uma condição de aleatoriedade ou homogeneidade, mas nunca propôs qualquer explicação
dessa condição que fosse comparável em precisão ao RMS de Hempel.

As visões de Peirce sobre a natureza da probabilidade e do papel do “acaso real” na natureza


passaram por mudanças que aprofundaram sua visão sobre a indispensabilidade da explicação
estatística. Evidências da ciência sugeriram que algumas das melhores teorias têm um caráter
estatístico: em “The Fixation of Belief” (1877), Peirce se referiu à teoria dos gases de 1851 de
Clausius e Maxwell e à teoria da evolução de 1859 de Darwin (CP 5.364, 1.104, 6.47, 6.613).
Em seus artigos de 1892 para o Monist, Peirce formulou sua metafísica evolucionária, com
seus princípios de acaso absoluto (ticismo) e continuidade (sinequismo) na natureza (CP 6.13).
Seu argumento é dirigido contra os “necessitaristas” ou deterministas: variedade e diversidade
não podem ser explicadas por uniformidades mecânicas, mas por leis probabilísticas
evolutivas, isto é, por “acaso na forma de espontaneidade que é até certo ponto regular” (CP
6.62).

Nos primeiros anos do século XX, Peirce radicalizou sua crítica às visões “ockhamistas” de
Hume sobre as leis da natureza, adotou uma visão realista das concepções disposicionais e
modais e propôs uma interpretação de probabilidade de longo prazo como um ser” de uma
configuração de chance física (ver Niiniluoto 1988).15

Depois de ler meu artigo para o Congresso Peirce de 1989 (Niiniluoto 1993), Hempel me disse
“com um forte sentimento de constrangimento” que ele não tinha “conhecimento dos escritos

Pag 158

de Peirce sobre teorização probabilística e explicação estatística”. O grupo de Berlim e o


Círculo de Viena eram “basicamente a-históricos”. Hempel reconheceu que as ideias de Peirce
sobre explicação estatística “constituem importantes contribuições pioneiras para o campo”,
embora “não sejam tão precisamente formuladas e teoricamente integradas e abrangentes
quanto os relatos mais recentes, dos quais a teoria de Salmon é um bom exemplo”.

Após sua conclusão na carta, Hempel acrescentou uma observação: “Nunca me considerei o
fundador da teoria da explicação estatística, mas apenas o proponente de uma abordagem
explicativa para esse importante complexo de problemas”. Com todo o respeito, esta é uma
declaração notavelmente modesta. Ao menos deveríamos dar a Hempel a grande glória de ser
o primeiro filósofo capaz de dar definições e argumentos que convencessem seus
contemporâneos da existência de explicações estatísticas.

NOTAS

1. Esta análise é mais diretamente aplicável a leis qualitativas de coexistência (como


'Todos os corvos são pretos'), mas abrange também leis quantitativas: por exemplo, a
lei da gravitação de Newton diz que, para todo x e y, se x e y são corpos físicos, eles se
atraem com uma força F(x,y) que é proporcional às massas de x e y e inversamente
proporcional ao quadrado de sua distância. Além disso, quando aplicado a eventos ou
sistemas com estados transitórios, abrange também leis de sucessão (como leis
causais e leis dinâmicas). Para Hempel, a explicação causal é um caso especial de
explicação D-N, mas nem todas as leis e explicações são causais (ver Hempel 1965, p.
352).
2. A teoria finita de Hempel foi parcialmente baseada na teoria da coerência da verdade
que ele (seguindo Otto Neurath) ainda defendia em 1934. Depois de aprender sobre a
teoria da verdade de Alfred Tarski em 1935, Hempel aceitou com Carnap uma
distinção nítida entre verdade (como uma noção) e confirmação (como uma noção
epistêmica) (ver Hempel 1937-38; 1965, p. 42). No entanto, traços do fascínio anterior
de Hempel pela teoria da coerência podem ser encontrados em seu trabalho posterior,
especialmente em seu tratamento da confirmação como uma relação entre sentenças
(1965, p. 21). Em um artigo tardio, ele parece se aproximar de seus pontos de vista
juvenis ao argumentar que “o desiderato empirista de suporte probatório para
afirmações científicas não tem nenhuma relação com a questão de sua verdade”
(1992, p. 49).
3. Esta exigência foi motivada por um exemplo de Richard Grandy, mas mais tarde foi
observado que o exemplo poderia ser descartado sem tal condição extra (ver
Stegmüller 1973, pp. 320-1; Niiniluoto 1982, p. 165).
4. Ver também Fetzer (1974). Compare Niiniluoto (1981), onde as leis probabilísticas não
são usadas como premissas, mas sim como regras para calcular graus de expectativa
nômica. Hempel discutiu, no contexto da explicação dedutiva, a concepção de leis
como regras de inferência (ver Hempel 1965, pp. 354-8). Ele atribuiu essa visão a
Moritz Schlick, Gilbert Ryle e Wilfrid Sellars.
5. Em monografia, pouco conhecida, von Wright (1945, pp. 35-6), defendia o princípio de
que a previsão científica deveria basear-se em uma classe de referência mínima
epistemicamente homogênea.

Pag 159

6. Para uma revisão crítica recente, ver Hitchcock (1995). Salmon (1988) aceita as
propensões como causas das frequências. A crítica à interpretação da propensão de
Salmon (e Paul Humphreys) é discutida por Niiniluoto (1988): o ponto é que a
probabilidade inversa de uma causa potencial dado um efeito é uma probabilidade
epistêmica, de modo que não precisa ser assumida como uma propensão. Uma defesa
mais geral da interpretação da propensão é dada por McCurdy (1996).
7. Ver Fetzer (1974, 1981, 1993), Niiniluoto (1976, 1981, 1988), Tuomela (1977). Como
Fetzer aponta, em um espaço de probabilidade contínuo existem resultados possíveis
com a medida zero, de modo que pode ser apropriado distinguir a propensão um da
necessidade. Para uma tentativa de fornecer uma semântica precisa para condicionais
probabilísticas, veja Fetzer e Nute (1979) e Fetzer (1981).
8. Fetzer (1992) protestou que a história de Salmon (1989) fornece uma imagem
imprecisa da história inicial do modelo de propensão, especialmente no que diz
respeito à dissertação de doutorado de Coffa em 1973. Fetzer argumenta que Coffa
tinha uma concepção de propensões de curto prazo (em vez de caso único), e que seu
relato de explicações não é uma generalização ôntica do esquema D-N de Hempel
(como [8] é). O modelo de Peter Railton (1978) deriva de uma lei de propensão geral a
consequência singular “a tem probabilidade r de ser G no momento t0” e acrescenta
que a se tornou G em t0. Mas seria enganoso considerar o explanandum relevante
como 'P(Ga) = r' em vez de 'Ga'.
9. O tratamento recente de leis como relações de segunda ordem entre universais
também foi estendido a leis probabilísticas, mas não surgiu nenhuma nova explicação
estatística. Armstrong, que assume um forte princípio de instanciação para universais,
é forçado a concluir que afirmações probabilísticas satisfazem uma espécie de
princípio de plenitude (ver Niiniluoto, 1988): se uma lei afirma que com uma
probabilidade Fs são Gs, então deve haver pelo menos algum tempo existe um F que é
um G instanciando a lei (Armstrong 1983, p. 129). Tooley (1987) evita essa dificuldade
ao permitir universais não instanciados, mas seu relato de leis probabilísticas apela
para probabilidades lógicas (p. 153). Tooley considera uma vantagem que sua conta
seja “livre de qualquer referência a mundos possíveis”. Para um teórico da propensão,
por outro lado, que considera as probabilidades como graus de possibilidade física, tal
referência a noções modais não pode ser evitada (ver Niiniluoto 1988).
10. Explicações indutivas-determinísticas são discutidas em Niiniluoto e Tuomela (1973,
pp. 88-117).
11. Pode-se provar que, para alguns sistemas dinâmicos determinísticos, as frequências
dos resultados são amplamente independentes do mecanismo que escolhe as
condições iniciais. Mais precisamente, qualquer distribuição contínua de condições
iniciais fornece as mesmas frequências de resultados de longo prazo. Essa abordagem,
que foi chamada de método das funções arbitrárias por Henri Poincaré, foi aplicada
aos dispositivos clássicos do acaso, como moedas e roletas, já na virada do século XIX
(ver von Plato, 1994, p. 170).
12. Reichenbach mencionou Peirce em seu trabalho no final da década de 1930, mas G. H.
von Wright (1941/1957, p. 243), observou que Reichenbach “não parece estar ciente
da íntima relação entre sua solução do problema indutivo e as ideias de Peirce”,
embora “na verdade quase tudo o que é verdadeiro e essencial nas visões de
Reichenbach sobre a justificação da indução já tenha sido explicitamente declarado
por Peirce”.
13. Williams (1947, p. 57), que se baseou fortemente em Peirce, mencionou que o
silogismo

Pag 160

estatístico poderia ser usado para explicação, mas não desenvolveu mais essa ideia.
Nagel não menciona as ideias de Peirce sobre explicação estatística, mas seu próprio
esboço de explicação probabilística da ação humana se refere à concepção de
probabilidade de Peirce como uma frequência de verdade (ver Nagel 1961, pp. 563-4).
14. Usando a notação padrão, W refere-se à Edição Cronológica dos Escritos de Peirce, e
CP aos seus Collected Papers.
15. Para um relato da “erosão do determinismo” e da introdução de ideias probabilísticas
na última parte do século XIX, ver Hacking (1990). Ver também von Platão (1994).
16. Uma carta particular datada de 20 de dezembro de 1989. Citada com permissão do
Professor Hempel.

REFERÊNCIAS

Aristotle 1961. Physics. Lincoln: University of Nebraska Press.

Armstrong, D.M. 1983. What Is a Law of Nature? Cambridge, England: Cambridge University
Press.

Barker, S. 1957. Science and Hypothesis. Ithaca, N.Y.: Cornell University Press.

Bogdan, R. ed. 1982. Henry E. Kyburg Jr. and Isaac Levi. Dordrecht: Reidel.

Braithwaite, R. B. 1953. Scientific Explanation. Cambridge, England: Cambridge University


Press.

Carnap, R. 1950/1962. The Logical Foundations of Probability. Chicago: University of Chicago


Press. 2nd ed. 1962.

———. 1966. The Philosophy of Science. Edited by M. Gardner. New York: Basic Books. Coffa,
J. A. 1974. “Hempel’s Ambiguity.” Synthese 28:141–63.

Comte, A. 1970. Introduction to Positive Philosophy. Indianapolis: Bobbs-Merrill.

Duhem, P. 1954. The Aim and Structure of Physical Theory. Princeton: Princeton University
Press.
Fetzer, J. H. 1974. “A Single Case Propensity Theory of Explanation.” Synthese 28:171–98.

———. 1981. Scientific Knowledge. Dordrecht: Reidel.

———. 1983. “Probabilistic Explanations.” In PSA 1982, edited by P. Asquith and T. Nickles.
Vol. 2. East Lansing, Mich.: Philosophy of Science Association.

Fetzer, J. H., ed. 1988. Probability and Causality. Dordrecht: Reidel.

———. 1992. “What’s Wrong with Salmon’s History: The Third Decade.” Philosophy of Science
59:246–62.

———. 1993. Philosophy of Science. New York: Paragon House.

Fetzer, J. H., and D. E. Nute. 1979. “Syntax, Semantics, and Ontology: A Probabilistic Causal
Calculus.” Synthese 40:453–95.

Ford, J. 1983. “How Random Is a Coin Toss?” Physics Today 36:40–7.

Gärdenfors, P. 1980. “A Pragmatic Theory of Explanation.” Philosophy of Science 47:404-23.

Goodman, N. 1955. Fact, Fiction, and Forecast. Cambridge: Harvard University Press.

Hacking, I. 1990. The Taming of Chance. Cambridge, England: Cambridge University Press.

Hanna, J. F. 1981. “Single Case Propensities and the Explanation of Particular Events.” Synthese
48:409–36.

Hempel, C. G. 1935. “Über den Gehalt von Wahrschenlichkeitsaussagen.” Erkenntnis 5:228–60.

Pag 161

———. 1937–38. “On the Logical Form of Probability-Statements.” Erkenntnis 7:154–60.

———. 1942. “The Function of General Laws in History.” Journal of Philosophy 39:35–48.
Reprinted in Hempel (1965).

———. 1960. “Inductive Inconsistencies.” Synthese 12:439–69. Reprinted in Hempel (1965).

———. 1962. “Deductive-Nomological vs. Statistical Explanation.” In Minnesota Studies in the


Philosophy of Science, edited by H. Feigl and G. Maxwell. Vol. 3. Minneapolis: University of
Minnesota Press.

———. 1965. Aspects of Scientific Explanation and Other Essays in the Philosophy of Science.
New York: Free Press.

———. 1968. “Maximal Specificity and Lawlikeness in Probabilistic Explanation.” Philosophy of


Science 35:116–33.

———. 1977. “Nachwort 1976.” In Aspekte wissenschaftlicher Erklärung. Berlin: de Gruyter.

———. 1988. “Provisos: A Problem Concerning the Inferential Function of Scientific Theories.”
Erkenntnis 28:147–64.

———. 1992. “Eino Kaila and Logical Empiricism.” In Eino Kaila and Logical Empiricism, edited
by I. Niiniluoto, M. Sintonen, and G. H. von Wright. Helsinki: Societas Philosophica Fennica.
Hempel, C.G., and P. Oppenheim. 1948. “Studies in the Logic of Explanation.” Philosophy of
Science 15:135-75. Reprinted in Hempel (1965).

Hintikka, J., and I. Halonen. 1995. “Semantics and Pragmatics for Why-questions.” Journal of
Philosophy 92:636–57.

Hitchcock, C. R. 1995. “Salmon on Explanatory Relevance.” Philosophy of Science 62:304–20.

Humphreys, P. 1989. The Chances of Explanation: Causal Explanation in the Social, Medical,
and Physical Sciences. Princeton: Princeton University Press.

Jeffrey, R. C. 1969. “Statistical Explanation vs. Statistical Inference.” In Essays in Honor of Carl
G. Hempel, edited by N. Rescher. Dordrecht: Reidel. Reprinted in Salmon et al. (1971).

Keynes, J. M. 1921. A Treatise on Probability. London: Macmillan.

Kitcher, P., and W. C. Salmon, eds. 1989. Scientific Explanation. Minneapolis: University of
Minnesota Press.

Levi, I. 1969. “Are Statistical Hypotheses Covering Laws?” Synthese 20:297–307.

———. 1977. “Subjunctives, Dispositions and Chances.” Synthese 34:423–55.

Lewis, D. 1973. Counterfactuals. Oxford: Blackwell.

McCurdy, C. S. I. 1996. “Humphreys’s Paradox and the Interpretation of Inverse Conditional


Propensities.” Synthese 108:105–25.

Mill, J. S. 1906. A System of Logic. London: Longmans, Green.

Nagel, E. 1939. Principles of the Theory of Probability. Chicago: University of Chicago Press.

Nagel, E. 1961. The Structure of Science. London: Routledge and Kegan Paul.

Niiniluoto, I. 1976. “Inductive Explanation, Propensity, and Action.” In Essays on Explanation


and Understanding, edited by J. Manninen and R. Tuomela. Dordrecht: Reidel.

———. 1981. “Statistical Explanation Reconsidered.” Synthese 48:437–72.

———. 1982. “Statistical Explanation.” In Contemporary Philosophy: A New Survey, edited by


G. Fløistad. Vol. 2. The Hague: Nijhoff.

Pag 162

———. 1988. “Probability, Possibility, and Plenitude.” In Fetzer (1988).

———. 1993. “Peirce’s Theory of Statistical Explanation.” In Charles S. Peirce and the
Philosophy of Science, edited by E. C. Moore. Tuscaloosa: University of Alabama Press.

Niiniluoto, I., and R. Tuomela. 1973. Theoretical Concepts and Hypothetico-Inductiven


Inference. Dordrecht: Reidel.

Peirce, C. S. 1931–35. Collected Papers. Vols. 1–6. Edited by C. Hartshorne and P. Weiss.
Cambridge: Harvard University Press.

———. 1982–. Writings of Charles S. Peirce: A Chronological Edition. Vols. 1–4. Edited by M. H.
Fisch et al. Bloomington: Indiana University Press.
Popper, K. R. 1945. The Open Society and Its Enemies. London: Routledge and Kegan Paul.

———. 1957. The Poverty of Historicism. London: Routledge and Kegan Paul.

Railton, P. 1978. “A Deductive-Nomological Model of Probabilistic Explanation.” Philosophy of


Science 45:206–26.

Reichenbach, H. 1938. Experience and Prediction. Chicago: University of Chicago Press.

Rescher, N. 1962. “The Stochastic Revolution and the Nature of Scientific Explanation.”
Synthese 14:200–15.

Salmon, W. C. 1965. “The Status of Prior Probabilities in Statistical Explanation.” Philosophy of


Science 32:137–46.

———. 1970. “Statistical Explanation.” In Nature and Function of Scientific Theories, edited by
R. G. Colodny. Pittsburgh: University of Pittsburgh Press. Reprinted in Salmon et al. (1971).

———. 1983. “Probabilistic Explanation: Introduction.” In PSA 1982, edited by P. D. Asquith


and T. Nickles. Vol. 2. East Lansing, Mich.: Philosophy of Science Association.

———. 1984. Scientific Explanation and the Causal Structure of the World. Princeton:
Princeton University Press.

———. 1988. “Dynamic Rationality: Propensity, Probability, and Credence.” In Fetzer (1988).

———. 1989. “Four Decades of Scientific Explanation.” In Kitcher and Salmon (1989). Published
also as a monograph. Minneapolis: University of Minnesota Press, 1990.

Salmon, W. C., et al. 1971. Statistical Explanation and Statistical Relevance. Pittsburgh:
University of Pittsburgh Press.

Schurz, G. 1995–96. “Scientific Explanation: A Critical Survey.” Foundations of Science 3:429–


65.

Sintonen, M. 1989. “Explanation: In Search of the Rationale.” In Kitcher and Salmon (1989).

Skyrms, B. 1980. Causal Necessity: A Pragmatic Investigation of the Necessity of Laws. New
Haven: Yale University Press.

Stegmüller, W. 1973. Personelle und statistische Wahrscheinlichkeit. Berlin: Springer-Verlag.

———. 1983. Erklärung, Begründung, Kausalität. 2nd ed. Berlin: Springer Verlag.

Suppes, P. 1970. A Probabilistic Theory of Causality. Amsterdam: North-Holland.

Tan, Y.-H. 1997. “Is Default Logic a Reinvention of Inductive-Statistical Reasoning?” Synthese
110:357–79.

Tooley, M. 1987. Causation: A Realist Approach. Oxford: Oxford Universisty Press.

Tuomela, R. 1977. Human Action and Its Explanation. Dordrecht: Reidel.

Venn, J. 1888. The Logic of Chance. 3rd ed. London: Macmillan.

Pag 163
von Plato, J. 1994. Creating Modern Probability. Cambridge, England: Cambridge University
Press.

von Wright, G. H. 1941/1957. The Logical Problem of Induction. Helsingfors: Acta Philosophica
Fennica 3. 2nd ed. Oxford: Blackwell, 1957.

———. 1945. Über Wahrscheinlichkeit. Helsingfors: Acta Societatis Scientiarum Fennicae


A.3.11.

———. 1971. Explanation and Understanding. Ithaca, N.Y.: Cornell University Press.

Williams, D. C. 1947. The Ground of Induction. Cambridge: Harvard University Press.

Você também pode gostar