Escolar Documentos
Profissional Documentos
Cultura Documentos
Explicação Dedutiva-Nomológica
Os artigos seminais de Carl G. Hempel “The Function of General Laws in History” (1942) e
“Studies in the Logic of Explanation” (1948, com Paul Oppenheim) abriram uma nova área de
pesquisa na filosofia da ciência. Os empiristas lógicos em Berlim e Viena iniciaram na década
de 1920 a aplicação de ferramentas conceituais exatas da lógica para a análise da linguagem
da ciência e a estrutura das teorias científicas, e esse programa foi continuado após a guerra
na filosofia analítica de língua inglesa da Ciência. Um dos principais itens da nova agenda
filosófica resultou da proposta de Hempel de precisar, ou “explicar” no sentido de Rudolf
Carnap, a noção de explicação científica. O relato mais extenso de Hempel sobre sua própria
visão, com respostas aos críticos, foi dado no ensaio “Aspects of Scientific Explanation” (1965).
Pag 139
condições antecedentes
Dedução _____________________________________
Lógica E Descrição do
a ser explicada
Uma explicação D-N é verdadeira, se sua explanans for verdadeira. Esta foi inicialmente uma
das condições de adequação de Hempel-Oppenheim, mas depois Hempel achou apropriado
relaxar este requisito e introduzir as noções de explicação bem confirmada e potencial (1965,
pp. 249, 338). Mesmo que o valor de verdade das premissas de uma explicação potencial D-N
possa ser desconhecido, as explanans devem, em qualquer caso, incluir premissas nômicas ou
legais.
Se a forma lógica de declarações semelhantes a leis é expressa por (ou pelo menos implica)
generalizações universais, exemplos simples paradigmáticos de explicações D-N são
representados por
Fa
__________
Ga
Pag 140
(x)(Hx → Fx)
__________
(x)(Hx → Gx).
Mas a tarefa geral de fornecer condições suficientes e necessárias para explicações científicas
dedutivas adequadas provou ser surpreendentemente difícil, e várias tentativas não levaram a
conclusões definitivas (veja as pesquisas em Tuomela 1977; Stegmüller 1983; compare Schurz
1995-96).
No final da década de 1950, o modelo D-N de Hempel foi criticado por sua restrição a uma
abordagem sintático-semântica que exclui aspectos pragmáticos da explicação (por exemplo, o
estado epistêmico e os interesses da pessoa que levanta a questão explicativa). No entanto,
parece mais correto dizer que Hempel sempre se preocupou com a compreensão fornecida
pelas explicações científicas (ver Hempel 1965, p. 333), de modo que seu tratamento da
explicação pressupõe como dado um contexto pragmático particular, a saber, a investigação
dentro da comunidade científica. Abordagens interrogativas recentes à explicação sugerem
que o tratamento de Hempel não é de forma alguma incompatível com a pragmática da
explicação (ver Sintonen 1989), e o modelo D-N, em certo sentido, até recebe apoio da lógica
das perguntas do porquê (ver Hintikka e Halonen 1995).
Pag 141
No mesmo espírito, com sarcasmo dirigido a Popper, von Wright observou que “na verdade, a
teoria da explicação 'Popper-Hempel' tinha sido uma espécie de lugar-comum filosófico desde
os dias de Mill e Jevons” (von Wright 1971 , pág. 175).
Em uma passagem frequentemente citada, Mill diz que “diz-se que um fato individual é
explicado apontando sua causa, isto é, declarando a lei ou leis de causação das quais sua
produção é um exemplo” e “de maneira semelhante, diz-se que uma lei de uniformidade na
natureza é explicada quando outra lei ou leis são apontadas, das quais essa lei em si é apenas
um caso, e da qual pode ser deduzida” (1906, p. 305). Esta é uma elaboração da afirmação de
Auguste Comte em 1830 de que a ciência se esforça para descobrir as “leis reais dos
fenômenos”, ou “suas relações invariáveis de sucessão e semelhança”, de modo que “a
explicação dos fatos . . . consiste doravante apenas na conexão estabelecida entre diferentes
fenômenos particulares e alguns fatos gerais” (Comte 1970, p. 2).
Comte e Mill defenderam a teoria da subsunção da explicação em uma forma estritamente
empirista, onde as leis expressam conexões gerais verificáveis entre fenômenos observáveis.
Muitos positivistas e instrumentalistas posteriores excluíram as explicações da ciência, uma
vez que pensavam que a ciência deveria abandonar as questões do porquê em favor das
questões descritivas do como. Pierre Duhem, em 1907, expressou explicitamente o medo de
que o objetivo da explicação “subordinasse” a ciência à metafísica (Duhem 1954, p. 10).
Carnap deu o testemunho de que Ernst Mach no final do século XIX, assim como o Círculo de
Viena de sua própria juventude na década de 1920, reagiram contra “o clima filosófico do
idealismo alemão”, mas nos Estados Unidos do pós-guerra tal cautela não é mais necessário –
e a ideia de explicação por leis pode ser defendida (Carnap 1966, p. 12).
A origem da teoria da explicação dedutiva remonta ainda mais ao início da história – ao ideal
aristotélico da ciência demonstrativa. Aristóteles distinguiu quatro tipos de “causas” ou
“fatores explicativos” (do grego aitia) e argumentou que a investigação procede de saber isso
para saber porquê. “Não podemos afirmar que conhecemos um assunto até que tenhamos
compreendido o ‘porquê’ dele, isto é, sua explicação fundamental”. (Aristóteles 1961, p. 28.)
Primeiro sabemos pela observação que existe um fato; então a resposta a uma pergunta por
que é fornecida por um silogismo científico que demonstra o fato como um efeito de sua
causa. Este estágio
Pag 142
A posição histórica de Aristóteles na teoria lógica da explicação dedutiva não diminui nossa
apreciação da realização de Hempel. Enquanto a concepção aristotélica da ciência
superenfatizou o papel das demonstrações explicativas, enquanto a visão indutivista
superenfatizou as previsões, Hempel manteve um equilíbrio saudável entre explicação e
previsão como os dois principais tipos de “sistematização científica”. Hempel não se baseou no
essencialismo aristotélico - e, assim, ativou debates filosóficos sobre legalidade. Como não
restringiu o modelo D-N às formas simples dos silogismos de Aristóteles, reabriu o estudo da
estrutura lógica geral dos argumentos explicativos. Um dos resultados desse tratamento
liberalizado foi o trabalho pioneiro de Hempel na explicação estatística.
Explicação estatística-indutiva
Já em 1942, Hempel insinuou que alguns argumentos explicativos podem substituir as leis
universais ou “determinísticas” do modelo D-N por “hipóteses de probabilidade” que
(juntamente com as condições antecedentes) tornam o evento explanandum “altamente
provável” (1965, p. 237). Seu exemplo é Tommy tendo sarampo duas semanas depois de seu
irmão; aqui a lei afirma que o contágio ocorre “apenas com alta probabilidade”. Hempel se
referiu a um artigo de 1941 de Edgar Zilsel, onde Zilsel sugeriu que as leis históricas são de
caráter estatístico como algumas macroleis da física. Hempel também considerou a explicação
de por que os agricultores de Dust Bowl migraram para a Califórnia e observou que seria difícil
afirmar com precisão na forma de uma lei geral a hipótese de que “as populações tenderão a
migrar para regiões que oferecem melhores condições de vida”.
Uma das “dificuldades” neste contexto é o problema de dar uma formulação adequada das leis
estatísticas. As contrapartes estatísticas mais simples das generalizações universais de Hume
são obviamente afirmações sobre a frequência relativa rf(G/F) de um atributo G em uma classe
F; essa frequência relativa é uma se todos os Fs forem G. Como aluno do famoso frequentista
Hans Reichenbach em Berlim, Hempel já no início da década de 1930 escreveu sobre a forma
lógica das declarações de probabilidade. Em Hempel (1935), ele tentou defender uma versão
“finitista” da interpretação de frequência onde as declarações de probabilidade são aplicadas
Pag 143
isto é, o poder sistemático da teoria T em relação aos dados S é igual à probabilidade indutiva
de ∼T dado ∼S (Hempel 1965, p. 287). Esta medida tem seu valor máximo um, se T implica S,
mas pode receber valores altos também nos casos em que apenas uma relação não dedutiva
ou indutiva se obtém entre T e S. Hempel e Oppenheim sugeriram que a teoria da explicação
científica deveria ser estendida para cobrir tais casos também (p. 278).
Pag 144
Qual foi a verdadeira causa desse atraso? Mais tarde, Hempel relatou ter descoberto já em
1945 o problema da “ambiguidade dos silogismos estatísticos” (Hempel 1962, p. 138). Este
problema não foi observado por D. C. Williams (1947) em seu extenso tratamento de
silogismos estatísticos preditivos, mas foi discutido em detalhes por Stephen Barker (1957). O
problema surge porque a probabilidade estatística P(G/F) do resultado G na classe F depende
da classe de referência F.
Fa
Ha
ambos podem ter premissas verdadeiras, mesmo que suas conclusões sejam inconsistentes
entre si.
Rudolf Carnap, que começou a desenvolver sua teoria lógica da indução na década de 1940
(ver Carnap 1950/1962), assegurou a Hempel que essa ambiguidade é “mas um dos vários
aparentes paradoxos da lógica indutiva que resultam de violações da exigência de evidência
total” (Hempel 1962, p. 138; 1965, p. 397). Em “Inconsistências Indutivas” (1960), Hempel
ofereceu a solução de que, em um silogismo estatístico, a probabilidade não deveria ser
entendida como um qualificador modal da conclusão, mas sim como uma relação entre as
premissas e a conclusão. Essa relação envolve probabilidade lógica ou indutiva, ou um grau de
confirmação no sentido de Keynes e Carnap. Assim, em vez de (4), devemos dizer que 'Ga' é
altamente provável em relação às declarações 'P(G/F) ≈1' e 'Fa' (Hempel 1965, p. 60). O
esquema (4) agora pode ser escrito na forma
Fa
Ga
onde a linha dupla indica que (6) é um argumento indutivo e não dedutivo. Não é
inconsistente com (6) que ‘Ga’ possa ser muito improvável em relação a algumas outras
premissas.
Com esse raciocínio, Hempel estava finalmente pronto para formular seu modelo de
explicação estatística indutiva (I-S) em 1962. Esse modelo pode ser expresso pelo esquema
(7) P(G/F) = r
Fa
══════ [r]
Ga
Pag 145
onde 'r' na premissa legal 'P(G/F) = r' é uma probabilidade estatística, e 'r' entre colchetes
indica a probabilidade indutiva do explanandum 'Ga' dado o explanans. Além disso, Hempel
exigia que r fosse próximo de um.
O modelo I-S de Hempel ainda permite que possa haver argumentos indutivos da forma (7)
com premissas verdadeiras, mas com conclusões incompatíveis ‘Ga’ e ‘∼Ga’. Para fins de
previsão, isso é claramente um problema, pois ainda não se sabe se ‘Ga’ é verdadeiro ou não.
Mas no contexto da explicação a escolha da explicação correta entre tais alternativas já é
determinada pela suposição de que a sentença explanandum é conhecida como verdadeira
(ver Coffa 1974; Salmon 1989, p. 69). Hempel sabia disso, mas insistiu que não é natural
admitir que, ao dar uma explicação I-S de um fato, poderíamos ter explicado “com a mesma
prontidão” seu oposto a partir de premissas verdadeiras (ver Hempel 1968, p. 119).
Para lidar com esse problema de ambiguidade, Hempel (1962, p. 146), formulou um “critério
aproximado de adequação evidencial para sistematizações estatísticas simples”: a regra (7)
deveria ser “baseada na probabilidade estatística de G dentro da classe mais estreita, se
houver uma, para a qual a evidência total disponível fornece a probabilidade estatística
necessária”. Esta é uma contrapartida para a explicação do conselho de Hans Reichenbach
(1938) no contexto de previsão: use a declaração de probabilidade estatística com a classe de
referência disponível mais estreita para determinar os “pesos” de casos únicos. Mas, como
Hempel teve o cuidado de observar, é preciso distinguir o conteúdo de uma afirmação e a
evidência para ela: enquanto sua própria condição exige que a probabilidade estatística de G
na classe F mais estreita seja conhecida, para Reichenbach a evidência total fornece um
relatório estatístico em uma amostra finita da classe F.
Uma formulação precisa do Requisito de Especificidade Máxima (RMS) foi dada por Hempel
(1965, pp. 397-400). A evidência total agora é representada pelo conjunto K de “todas as
declarações aceitas no momento determinado”. K é assumido como sendo dedutivamente
fechado e contendo os axiomas da teoria da probabilidade. Se K contivesse o explanandum
'Ga', então trivialmente a probabilidade lógica dessa afirmação em relação a K seria igual a um.
Portanto, assume-se que K não contém o explanandum (mas veja Hempel 1968). Em uma
situação em que as premissas do argumento (7) são conhecidas, a situação de conhecimento
relevante K deve satisfazer o seguinte.
(RMS) Para qualquer classe F1 para a qual K implica que F1 é uma subclasse de F e
que F1a, K também contém uma lei no sentido de que P(G/F1) = r1, onde r1 = r, a menos que
essa lei seja um teorema da teoria da probabilidade.
A cláusula a menos que exclui o uso de classes como F ∩ G e F ∩ −G para a escolha de F1. O
RMS, portanto, tenta especificar quais informações de nossa situação de conhecimento K são
de relevância explicativa potencial para o explanandum.
Pag 146
não em relação ao K inteiro. (Portanto, o explanandum pode ser assumido como pertencente a
K). Quando RMS é satisfeito, esta probabilidade r expressa a expectativa nômica de Ga na base
dos explicativos. Hempel (1968) reformulou o RMS para que se aplique a predicados em vez de
classes, e é menos exigente quanto à existência de leis estatísticas conhecidas.
Suponha que a situação de conhecimento K nos permita colocar o indivíduo a em duas classes
de referência diferentes F1 e F2 com diferentes probabilidades para G. Se K não contém
informação sobre a probabilidade de G em F1 ∩ F2, então o RMS original não é satisfeito. O
RMS* modificado se mantém, mas nesta situação tanto F1 quanto F2 são maximamente
específicos para G em K, e o modelo não dá nenhuma recomendação para a escolha entre eles.
Hempel (1968) adicionou ao RMS* um requisito adicional de que K deveria conter 'P(G/M) = r'
para todos os predicados maximamente específicos 'M' relacionados a 'Ga' em K; em relação a
esta condição forte, não há explicação indutiva aceitável na situação dada (ver também Tan
1997).3
Tanto RMS quanto RMS* são relativizados a K. Hempel afirmou que isso é inevitável, de modo
que a noção de explicação potencial I-S (ao contrário da explicação D-N) só faz sentido se
relativizada a uma situação de conhecimento. Esta é a tese de Hempel da relatividade
epistêmica da explicação estatística (1965, p. 402).
Mais tarde, em seu “Nachwort 1976” para a edição alemã de seu Aspects of Scientific
Explanation, Hempel (1977) reformulou o RMS* retirando a condição ‘F1a’ de seu
antecedente. Nesta forma, requer que não conheçamos nenhuma subclasse F1 de F tal que a
probabilidade de G em F1 seja diferente da probabilidade de G em F. Em outras palavras, a
classe de referência F deve ser epistemicamente homogênea para G no sentido de Salmon
(1971, 1984). Ao mesmo tempo, Hempel abandonou a exigência de que a probabilidade r fosse
alta. Além disso, ele afirmou que seria “muito desejável” encontrar uma formulação objetiva,
não epistemicamente relativizada da especificidade máxima, mas deixou em aberto se tal
definição pode ser encontrada (1977, p. 123). Essas modificações foram respostas a debates
animados sobre o modelo I-S de Hempel.
Outro tipo de crítica foi apresentado por Isaac Levi (1969, 1977): a explicação I-S não é uma
explicação de lei de cobertura, uma vez que não há enunciados extensionais que possam servir
Pag 147
como premissas verdadeiras e legais em “inferência direta” do tipo (7). Levi também rejeita a
possibilidade de que as leis probabilísticas teriam valores de verdade e sugerem que elas
sejam substituídas por regras de inferência.4 Trabalho relacionado sobre inferência direta,
com declarações de frequência como substitutos para leis probabilísticas, foi feito por Henry
Kyburg (ver Bogdan 1982).
Uma das primeiras objeções ao modelo I-S de Hempel é que alta probabilidade não é
necessária para explicação estatística. Esta questão foi levantada por Rescher (1962) e Salmon
(1965). Também Carnap (1966, p. 8), ao endossar o modelo da lei de cobertura, apontou que
uma lei médica estatística pode afirmar que 5% das pessoas que comem um determinado
alimento desenvolverão um determinado sintoma, mas “mesmo quando uma lei estatística
fornece apenas uma explicação extremamente fraca, ainda é uma explicação”. Uma
declaração contundente contra o requisito de alta probabilidade - e, mais geralmente, contra a
visão de que a explicação estatística são argumentos - foi apresentada por Richard Jeffrey
(1969; ver também Salmon 1970). Alguns filósofos ainda exigiam que a probabilidade do
explanadum fosse de pelo menos 1/2; isso foi chamado de “condição de Leibniz” por
Stegmüller (1973) (ver Tuomela 1977). A resposta de Hempel (1977) foi que eventualmente ele
abandonou o requisito de alta probabilidade.
Outra questão é que a ideia de suporte indutivo ou confirmação poderia ser explicada, em vez
de alta probabilidade condicional, pelo critério de relevância positiva (ver Carnap 1950/1962;
Hempel 1965, p. 50). Assim, podemos exigir que o explanans aumente a probabilidade do
explanandum. Essa proposta foi feita por Wesley Salmon (1965), que desenvolveu seu modelo
de explicação de relevância estatística (S-R) como rival do modelo I-S de Hempel (Salmon 1970,
1984). A relevância positiva é também a chave da teoria da causalidade probabilística de
Patrick Suppes (1970).
Com Jeffrey (1969), Salmon rejeita o requisito de alta probabilidade de Hempel. Ele também
substitui o princípio epistêmico RMS pela exigência de que a classe de referência F seja
objetivamente homogênea para o atributo G, ou seja, nenhuma propriedade H (independente
de G) divide F de forma “estatisticamente relevante” para uma subclasse F ∩ H tal que P(G/F) ≠
P(G/F ∩ H). De acordo com o modelo S-R de Salmon, uma resposta a uma pergunta “Por que
este membro a de B tem a propriedade G?” é obtida dividindo B em subclasses B ∩ Fi, i = 1, . . .
,n, tal que cada B ∩ Fi é objetivamente homogêneo para G, e P(G/B ∩ Fi) ≠ P(G/B ∩ Fj) se i ≠ j.
A resposta a ∈ B ∩ Fk localiza assim o lugar do indivíduo a nesta classificação e o atribui a uma
classe de referência homogênea máxima.
Uma diferença entre os modelos S-R e I-S é a exigência de Salmon de que a classe de
referência seja máxima. Essa condição de relevância leva a resultados não intuitivos já no caso
dedutivo, pois em alguns casos podemos não estar dispostos a combinar duas causas
separadas em uma classe mais ampla (por exemplo, para explicar por que um pedaço de
substância branca derreteu em água pelo fato disjuntivo de que era sal ou açúcar) – e o
mesmo vale para causas probabilísticas que produzem o mesmo efeito com a mesma
probabilidade estatística (ver Hempel 1977, p. 109; Fetzer 1981, p. 91; Niiniluoto 1982). O
próprio Hempel (1968) argumentou
Pag 148
que geralmente não se deve exigir a escolha de uma classe de referência mínima
maximamente específica, de modo que seu RMS deixa alguma liberdade na escolha da classe
de referência. Fetzer (1981, p. 99), em vez disso, sugere que o RMS deve ser fortalecido para
que produza “uma solução de descrição única, bem como uma solução de valor único”.
No modelo de Salmon, em contraste com sua proposta original de 1965, pode acontecer que
P(G/B ∩ Fk) seja maior, menor ou igual à probabilidade inicial P(G/B) (relevância positiva,
relevância negativa, irrelevância, respectivamente). É uma questão interessante se esse
movimento poderia ser justificado por uma concepção “global” adequada de poder explicativo
(ver Salmon et al. 1971; Niiniluoto e Tuomela 1973; Tuomela 1977; Niiniluoto 1981, 1982).
Stegmüller (1973) argumentou que o modelo S-R de Salmon não é uma explicação da
explicação estatística, mas sim uma “análise de profundidade estatística”. Salmon (1984)
defende seu modelo como exemplificando a concepção ôntica de explicação: o evento
explanandum deve ser encaixado no nexo de regularidades causais ou lei, e a ideia epistêmica
de expectativa é irrelevante para o objetivo da explicação (ver também Salmon 1989, pp. .
117–22).5
A questão crucial sobre a concepção ôntica é a possibilidade de dar uma explicação razoável
da noção de classe de referência “objetivamente homogênea”. Uma dificuldade óbvia é que,
tomada extensionalmente, uma classe F sempre conterá subclasses F1 tais que a frequência
relativa do atributo G em F difere do valor correspondente em F1 até ser igual a zero ou um.
Esta é a razão pela qual Fetzer alega contra Salmon que uma solução ôntica adequada do
problema da explicação probabilística não pode ser dada dentro da teoria frequentista da
probabilidade estatística (ver Fetzer 1981, p. 101; 1993, p. 71). Para encontrar tal solução,
pode-se tentar encontrar alguma restrição quanto à escolha das subclasses permitidas. Richard
von Mises empregou a ideia de “regras de seleção de lugares” na definição de sequências
aleatórias (ver von Plato 1994). Hempel fez isso restringindo seu RMS a uma situação de
conhecimento K. J. Alberto Coffa (1974) propôs transformar o RSM epistêmico de Hempel em
uma versão ôntica substituindo K pela classe T de todas as sentenças verdadeiras, mas isso não
é suficiente sem algumas suposições ontológicas e semânticas sobre a linguagem científica
ideal relevante onde T é exprimível. Por exemplo, pode-se apelar para “predicados nômicos”
que definem propriedades físicas e negar que todas as subclasses matematicamente existentes
correspondam a propriedades ontologicamente existentes. (Isso equivale à ideia de que se
adota uma interpretação não padronizada da quantificação de segunda ordem; veja Niiniluoto
[1976].)
Pag 149
Uma formulação clara de um modelo de propensão de explicação probabilística foi dada por
James H. Fetzer (1974). Uma explicação típica com tais leis de propensão de caso único é a
seguinte:
Ha & Fa
════════════ [r]
Ga
onde r entre colchetes é novamente o grau de expectativa nômica do resultado G na tentativa
relevante com configuração aleatória a. Alternativamente, r é o grau de “responsabilidade
nômica” das condições causalmente relevantes para produzir Ga na situação dada (ver Fetzer
1992, p. 258). Aqui é natural que os dois valores de ‘r’ sejam iguais, pois a lei é uma
generalização sobre casos únicos, e não há passo de características de longo prazo para casos
únicos. Uma condição RMS separada para este modelo é desnecessária (em relação a H e F),
pois já a lei em (8) pressupõe que cada arranjo do tipo H em cada tentativa do tipo F tem a
mesma propensão a produzir G, ou seja, H e F juntos são objetivamente homogêneos para G.8
No entanto, ao contrastar seu modelo de relevância causal com o modelo de relevância
estatística de Salmon, Fetzer (1993, pp. 76-7), fornece um requisito de “especificidade máxima
estrita” no sentido de que o predicado 'F' em (8) deve fazer diferença para a propensão de
caso único, ou seja, Px(G/F) ≠ Px(G/∼F). Um problema com esta formulação é que a última
probabilidade nem sempre faz sentido estritamente falando na interpretação de caso único,
uma vez que a tendência de x para produzir G pode ter diferentes forças dentro de tentativas
na classe definida por ∼F.9
Pag 150
Paul Humphreys (1989) argumenta que o modelo de propensão é muito estrito, quando exige
que todos e apenas os fatores nomicamente relevantes sejam incluídos nos explanans. Ele
argumenta que este é “um ideal irrealista irremediavelmente” (p. 111), pois “mesmo fatores
probabilisticamente relevantes absurdamente pequenos” não podem ser omitidos. Em vez
disso, Humphreys propõe um modelo de “explicações aleatórias” da forma ‘A porque Q,
apesar de S’, onde Q é um conjunto de causas contribuintes e S um conjunto (possivelmente
vazio) de causas contrárias. Neste modelo, o valor explicativo das probabilidades é rejeitado
(p. 114).
Em seu trabalho posterior, Hempel (1988) discutiu o papel das “provisões” que são
“pressuposições essenciais, mas geralmente não declaradas, de inferências teóricas”, mas ele
não declarou explicitamente nenhuma conclusão para sua explicação da explicação dedutiva
ou probabilística. Interessante trabalho relacionado foi feito na década de 1980 no estudo de
inferências com informações incompletas dentro da inteligência artificial (IA). As contrapartes
do raciocínio estatístico, sem valores numéricos de probabilidade, são investigadas dentro de
lógicas não monotônicas. Na lógica padrão, declarações como “Normalmente, os pássaros
voam” são formuladas por meio de “regras padrão”. Yao-Hua Tan (1997) argumenta em
detalhes que os princípios de extensão das teorias de default são análogos ao modelo I-S de
Hempel. Em particular, a lógica padrão precisa de regras de “especificidade” para resolver
Pag 151
formas conflitantes de fazer tais extensões, da mesma maneira que a regra de máxima
especificidade RMS é necessária para inferências I-S. Embora o principal problema nos
contextos de IA pareça ser a previsão e não a explicação, é interessante ver como a pesquisa
em IA foi conduzida de forma independente a construções semelhantes ao modelo de Hempel
duas décadas antes.
As explicações D-S receberam muito pouca atenção na literatura filosófica. Nagel (1961, pp.
509-20), sugeriu que a estrutura formal das explicações das generalizações estatísticas nas
ciências sociais é sempre dedutiva. Como ele tinha em mente leis probabilísticas, seus
exemplos podem ser tomados como instâncias da explicação D-S de Hempel. O próprio
Hempel afirmou que “em última análise, porém, as leis estatísticas devem ser aplicadas a
ocorrências particulares e estabelecer conexões explicativas e preditivas entre elas” (1965, p.
381).
Hempel (1962, p. 166), concluiu seu principal ensaio sobre explicação estatística enfatizando a
necessidade de um “conceito estatístico-probabilístico de ‘porque’”. Seu exemplo de tal
causalidade probabilística cita Richard von Mises: “é porque o dado foi carregado que o ‘seis’
aparece com mais frequência”. No início do artigo, ele deu exemplos da genética mendeliana,
onde o argumento explica “as porcentagens aproximadas de plantas de flores vermelhas e
brancas na amostra” (p. 142) e a teoria da radioatividade, onde a lei estatística sobre a meia-
vida do radônio explica o comportamento de uma grande amostra de tais átomos (p. 142).
Nestes exemplos, fica claro que o explanandum não é uma lei estatística ou probabilística, mas
sim uma generalização estatística ou fato sobre uma determinada classe finita. A explicação de
tais generalizações estatísticas não segue a estrutura dos modelos I-S e D-S (ver Niiniluoto
1976, pp. 357-8); ainda assim, pode ser a mais típica das aplicações de ideias estatísticas na
ciência.
Três modelos diferentes para a explicação de fatos estatísticos são distinguidos em Niiniluoto
(1981, pp. 440-2). Primeiro, uma lei universal pode ser combinada com um fato estatístico para
dar uma explicação dedutiva de outro fato estatístico. Por exemplo, suponha que uma doença
G seja deterministicamente causada por um gene F e que a frequência relativa dos genes F em
uma dada população H seja r. Então a frequência relativa da doença G em H é pelo menos r; se
F também é uma condição necessária para G, a última frequência relativa é igual a r.11 Esta
inferência segue o padrão
Pag 152
rf(F/H) = r
__________
rf(G/H) ≥ r.
Em segundo lugar, os fatos estatísticos também podem ser explicados indutivamente por leis
probabilísticas e generalizações universais. Por exemplo, se um átomo de radônio decai dentro
de 3,82 dias com probabilidade 1⁄2, se não é submetido à radiação ambiental, e os decaimentos
são probabilisticamente independentes, então pelo teorema de Bernoulli é altamente provável
que em uma grande amostra de átomos de radônio o número de decaimentos dentro de 3,82
dias é aproximadamente 1⁄2. Essa inferência, que é uma generalização direta do modelo I-S de
Hempel para explicação singular, tem a forma
(10) P(G/F) = r
═════════════════════ [pn]
rf(G/Hn) ≥ r.
O grau de expectativa nômica pn, que depende de r e n, pode ser calculado pela teoria da
probabilidade. Terceiro, como uma generalização de (9) e (10), uma lei probabilística pode ser
combinada com um fato estatístico para dar uma explicação indutiva de outro fato estatístico:
(11) P(G/F) = r
rf(F/H) = s
═══════ [p]
rf(G/H) ≥ rs.
Por exemplo, se o gene F produz a doença G com probabilidade r, então é altamente provável
que a frequência relativa de G em uma grande subclasse F ∩ H de uma dada população finita H
seja aproximadamente r. Se agora a frequência relativa do gene F na população H é s, então a
frequência relativa de G em H é pelo menos rs.
Pag 153
Os escritos de Peirce sobre probabilidade e indução eram obviamente bem conhecidos por
muitos filósofos antes de 1950: eles foram discutidos, entre outros, por Keynes, Ramsey,
Braithwaite, Nagel, von Wright, Carnap e Williams. tanto na inferência indutiva de uma
amostra para uma população quanto na “dedução provável” de uma população para uma
amostra ou para casos únicos, quase sempre se pensou que o último tipo de inferência –
variadamente chamado de “o uso de probabilidades a priori para a predição de frequência
estatística” (Keynes 1921), “o problema do caso único” (Reichenbach 1938), “silogismo
estatístico” (Williams 1947), ou “inferência direta” (Carnap 1950/1962) – estava preocupado
com a explicação.13 O próprio Peirce nunca fez tal restrição, no entanto.
Apontei (Niiniluoto 1982, p. 160) que “estranhamente, parece que a literatura moderna sobre
explicação estatística não contém sequer uma única referência à teoria dos silogismos
estatísticos explicativos de Peirce”. Em outro artigo, ousei sugerir que “Peirce deve ser
considerado o verdadeiro fundador da teoria da explicação indutiva-probabilística” (Niiniluoto
1981, p. 444).
Salmon, que considera 1962 como “o ano em que a teoria filosófica da explicação científica
[estatística] entrou pela primeira vez no século XX” (1983, p. 179), expressou desacordo com
meu julgamento, pois “uma declaração isolada e não elaborada” sobre silogismos estatísticos
explicativos “dificilmente podem ser considerados os primórdios de qualquer teoria genuína”
(Salmon 1984, p. 24). No artigo de pesquisa de Salmon alguns anos depois (1989), Peirce não é
mencionado, nem é listado na bibliografia.
No entanto, pode-se argumentar contra Salmon que Peirce tinha uma preocupação séria e
sistemática com a explicação científica desde 1865, e que seu relato de 1883 sobre “provável”
e “dedução estatística” fornece um modelo rico e detalhado para a estrutura da explicação
estatística. De fato, parece-me que a relação da obra de Peirce com o modelo I-S é paralela à
relação de Aristóteles com o modelo D-N (ver Niiniluoto 1993).
O interesse de Peirce pela estrutura da explicação científica surgiu de seus primeiros estudos
sobre a lógica de Aristóteles. Em suas Harvard Lectures durante a primavera de 1865, o jovem
Peirce observou que existe um tipo de raciocínio que não é nem dedutivo nem indutivo (W
1:180).14 Esse raciocínio, que Peirce chamou de hipótese (e depois abdução), pode ser
representado como a inferência da premissa menor de um silogismo, ou inferência de uma
causa de seu efeito. A classificação das inferências em dedução, indução e hipótese foi
elaborada nas Lowell Lectures de Peirce no outono de 1866 e publicada no ano seguinte. Dez
anos depois, essa distinção foi apresentada no artigo “Dedução, indução e hipótese”.
Já nas Harvard Lectures de 1865, Peirce deixou perfeitamente claro que a hipótese é uma
inferência para uma explicação (W 1:267). Nas Lowell Lectures de 1866, Peirce disse que essa
hipótese – que por si só “nos permite ver o porquê das coisas” – é a inversão do silogismo
Pag 154
explicativo correspondente. Por exemplo, do fato de que a luz é polarizável, podemos inferir
abdutivamente que a luz é ondas de éter, já que o seguinte silogismo é explicativo:
∴ A luz é polarizável.
No espírito de Mill, Peirce afirma geralmente que “explicar um fato é apresentar outro do qual
ele segue silogisticamente”, isto é, “dizemos que um fato é explicado quando uma proposição
– possivelmente verdadeira – é apresentada, de que esse fato segue silogisticamente” (W
1:428, 425, 440, 452).
Outra influência importante veio do fascínio de Peirce pela teoria das probabilidades. Em sua
revisão de 1867 de The Logic of Chance de John Venn (1866), o primeiro tratamento
sistemático da interpretação de probabilidade de frequência, Peirce discutiu inferências da
forma:
∴ A é C.
Peirce formulou a indução, a hipótese e a analogia como argumentos prováveis em 1867, onde
a probabilidade é medida pela proporção de casos em que um argumento “carrega a verdade
consigo”. Em 1878, ele formulou versões probabilísticas do silogismo de Bárbara e suas
inversões substituindo a lei universal por uma generalização estatística da forma “A maioria
dos grãos neste saco são brancos” (CP 2.508-16, 2.627).
a é um F;
Como Peirce observou, a conclusão aqui pode ser tomada como 'a é um G', e a probabilidade
indica (ver CP. 2.695.) "a modalidade com a qual esta conclusão é tirada e tida como
verdadeira". Aqui Peirce antecipou a discussão de Hempel sobre “inconsistências indutivas”,
isto é, os padrões (4)–(6). Além disso, é exigido como “uma máxima de conduta” que a
instância a “deve ser uma instância sorteada entre os F’s”.
A volição do raciocinador (usando o maquinário que puder) tem que escolher a para que
seja um F; mas ele deve se abster de qualquer preferência adicional e não permitir que sua
vontade aja de qualquer maneira que possa tender a determinar qual F particular é tomado,
Pag 155
mas deve deixar isso para a operação do acaso. . . . [O] ato de escolha deveria ser tal que, se
fosse repetido muitas vezes com a mesma intenção, o resultado seria que, entre a totalidade
das seleções, os diferentes tipos de F's ocorreriam com as mesmas frequências relativas das
experiências nas quais a volição não interfere em nada. Nos casos em que é difícil restringir a
vontade por um esforço direto, o aparato dos jogos de azar - uma roleta, uma roleta, cartas ou
dados - pode ser chamado em nosso auxílio. (CP 2.696)
Peirce observou que, nesse tipo de amostragem aleatória (com reposição) de uma população
finita, “o que realmente é amostrado não é a coleção finita de coisas, mas o número ilimitado
de desenhos possíveis” (CP 2.731). Sua condição de aleatoriedade garante assim que o
resultado G seja obtido com a frequência de longo prazo dentro da população ilimitada de
desenhos possíveis da classe de Fs. Assim, o esquema de inferência (13), ou seja,
(14) rf(G/F) = r;
a é um membro aleatório de F;
∴ a é um G,
com uma declaração de frequência relativa como premissa, pode ser formulado como um
argumento probabilístico com uma premissa estatística legal
(15) P(G/F) = r
Fa
═════ [r]
Ga,
A ideia de explicação probabilística de Nagel, que ele aplica à explicação histórica da ação
humana, é baseada no esquema peirceano (8), onde a lei estatística é tratada como uma regra
de inferência com uma frequência de verdade característica (ver Nagel 1961, p. 563). Salmon
(1989, p. 34), menciona os exemplos de Nagel em sua história, mas afirma que Nagel não
fornece “uma análise” da explicação probabilística.
O esquema (15) corresponde ao modelo de Hempel (7) de explicação I-S – com a diferença de
que [r] indica uma probabilidade objetiva ou frequência de verdade em vez de uma
probabilidade epistêmica ou indutiva. A diferença com Hempel não é muito grande aqui, pois
Peirce acrescentou – apelando para a lei de Fechner – que existe uma relação entre
probabilidades objetivas e graus de crença: de fato, temos “um sentimento mais forte de
confiança sobre uma espécie de inferência que mais frequentemente nos levará à verdade do
que sobre uma inferência que menos frequentemente se mostrará correta” (CP 2.697).
Se a probabilidade é entendida como uma propensão de longo prazo, como Peirce sugeriu em
1910 (CP 2.664), o padrão (15) se aproxima do modelo de propensão (8) de explicação
probabilística. No entanto, Peirce não propôs propensões de caso único.
Pag 156
Além da simples dedução provável (13), Peirce formulou um esquema para dedução estatística
que procede de uma população para uma amostra finita:
(17) rf(G/F) = r;
∴ rf(G/{a',a'',a''', . . .} ) ≈ r,
onde, como Peirce mostrou pela fórmula binomial, r é o valor mais provável da frequência
relativa na conclusão. Além disso, pelo teorema de Bernoulli, a probabilidade da conclusão
dadas as premissas se aproxima de um quando o tamanho da amostra a',a'',a''', . . . aumenta
sem limite (CP 2.698-700). Novamente a condição para aleatoriedade nos permite reformular
(17) por
(18) P(G/F) = r
═══════════════
rf(G/{a',a',a''', . . .} ) ≈ r.
Este esquema é o mesmo que o padrão (10) de explicação estatística muitas vezes
negligenciado (veja a seção anterior, “Explicação de Fatos Estatísticos”).
É filosoficamente interessante notar como a discussão de Peirce sobre o raciocínio provável foi
antecipada por Mill e Venn. O System of Logic de Mill continha uma breve discussão sobre a
aplicação de uma generalização aproximada (como 'A maioria dos A são B' ou 'Nove de dez A
são B') para suas instâncias individuais. Mill exigia que não deveríamos saber nada sobre tais
casos “exceto que eles se enquadram na classe A” (Mill 1906, p. 391; Niiniluoto 1981, p. 444).
Em uma forma grosseira, isso garante que o RMS de Hempel seja satisfeito em relação à
instância dada – sem – ainda implicando a condição mais forte de que a própria classe A seja
objetiva ou epistemicamente homogênea.
Da mesma forma, a Lógica do Acaso de Venn formulou a regra de que inferências estatísticas
sobre um caso individual devem encaminhá-lo para a série ou classe mais estreita que ainda
assegura “o grau necessário de estabilidade e uniformidade” (Venn 1888, p.220; ver
Reichenbach 1938).
No entanto, Mill e Venn nunca disseram que tal inferência estatística poderia ser aplicável para
fins de explicação. Para Mill, as generalizações aproximadas eram importantes principalmente
“na prática da vida”, mas na ciência são valiosas como “passos em direção a verdades
universais”. Além disso, Venn explicitamente restringiu sua atenção às tentativas de “fazer
inferências reais sobre coisas ainda desconhecidas”, isto é, à previsão (Venn 1888, p. 213).
Peirce, por outro lado, reafirmou sua visão anterior de que “Induções e Hipóteses são
inferências da conclusão e uma premissa de um silogismo estatístico para a outra premissa. No
Pag 157
O tratamento de Peirce ilustra vividamente uma razão para a dificuldade de aceitar a ideia de
explicação probabilística. Ele estava ciente de que, na explicação, geralmente é impossível
escolher o indivíduo sob consideração por uma seleção aleatória. Portanto, pode-se
argumentar que o esquema (14) não é aplicável à explicação, pois ao explicar por que a é um G
já conhecemos o indivíduo a e, portanto, não podemos extraí-lo aleatoriamente da classe F.
Aqui está a resposta de Peirce.
Geralmente, porém, ao fazer uma simples dedução provável, tomamos aquele exemplo
em que por acaso estamos interessados no momento. Nesse caso, é nosso interesse que
cumpre a função de um aparato de seleção aleatória; e não há necessidade de desejar algo
melhor, desde que tenhamos motivos para considerar a premissa “a proporção r dos Fs são
Gs” igualmente verdadeira em relação à parte dos Fs que é a única que provavelmente
despertará nosso interesse. (CP 2.696)
Podemos concluir que Peirce deu uma explicação clara da estrutura da explicação estatística-
indutiva e de algumas de suas generalizações. Ele tinha uma ideia intuitiva sobre a necessidade
de uma condição de aleatoriedade ou homogeneidade, mas nunca propôs qualquer explicação
dessa condição que fosse comparável em precisão ao RMS de Hempel.
Nos primeiros anos do século XX, Peirce radicalizou sua crítica às visões “ockhamistas” de
Hume sobre as leis da natureza, adotou uma visão realista das concepções disposicionais e
modais e propôs uma interpretação de probabilidade de longo prazo como um ser” de uma
configuração de chance física (ver Niiniluoto 1988).15
Depois de ler meu artigo para o Congresso Peirce de 1989 (Niiniluoto 1993), Hempel me disse
“com um forte sentimento de constrangimento” que ele não tinha “conhecimento dos escritos
Pag 158
Após sua conclusão na carta, Hempel acrescentou uma observação: “Nunca me considerei o
fundador da teoria da explicação estatística, mas apenas o proponente de uma abordagem
explicativa para esse importante complexo de problemas”. Com todo o respeito, esta é uma
declaração notavelmente modesta. Ao menos deveríamos dar a Hempel a grande glória de ser
o primeiro filósofo capaz de dar definições e argumentos que convencessem seus
contemporâneos da existência de explicações estatísticas.
NOTAS
Pag 159
6. Para uma revisão crítica recente, ver Hitchcock (1995). Salmon (1988) aceita as
propensões como causas das frequências. A crítica à interpretação da propensão de
Salmon (e Paul Humphreys) é discutida por Niiniluoto (1988): o ponto é que a
probabilidade inversa de uma causa potencial dado um efeito é uma probabilidade
epistêmica, de modo que não precisa ser assumida como uma propensão. Uma defesa
mais geral da interpretação da propensão é dada por McCurdy (1996).
7. Ver Fetzer (1974, 1981, 1993), Niiniluoto (1976, 1981, 1988), Tuomela (1977). Como
Fetzer aponta, em um espaço de probabilidade contínuo existem resultados possíveis
com a medida zero, de modo que pode ser apropriado distinguir a propensão um da
necessidade. Para uma tentativa de fornecer uma semântica precisa para condicionais
probabilísticas, veja Fetzer e Nute (1979) e Fetzer (1981).
8. Fetzer (1992) protestou que a história de Salmon (1989) fornece uma imagem
imprecisa da história inicial do modelo de propensão, especialmente no que diz
respeito à dissertação de doutorado de Coffa em 1973. Fetzer argumenta que Coffa
tinha uma concepção de propensões de curto prazo (em vez de caso único), e que seu
relato de explicações não é uma generalização ôntica do esquema D-N de Hempel
(como [8] é). O modelo de Peter Railton (1978) deriva de uma lei de propensão geral a
consequência singular “a tem probabilidade r de ser G no momento t0” e acrescenta
que a se tornou G em t0. Mas seria enganoso considerar o explanandum relevante
como 'P(Ga) = r' em vez de 'Ga'.
9. O tratamento recente de leis como relações de segunda ordem entre universais
também foi estendido a leis probabilísticas, mas não surgiu nenhuma nova explicação
estatística. Armstrong, que assume um forte princípio de instanciação para universais,
é forçado a concluir que afirmações probabilísticas satisfazem uma espécie de
princípio de plenitude (ver Niiniluoto, 1988): se uma lei afirma que com uma
probabilidade Fs são Gs, então deve haver pelo menos algum tempo existe um F que é
um G instanciando a lei (Armstrong 1983, p. 129). Tooley (1987) evita essa dificuldade
ao permitir universais não instanciados, mas seu relato de leis probabilísticas apela
para probabilidades lógicas (p. 153). Tooley considera uma vantagem que sua conta
seja “livre de qualquer referência a mundos possíveis”. Para um teórico da propensão,
por outro lado, que considera as probabilidades como graus de possibilidade física, tal
referência a noções modais não pode ser evitada (ver Niiniluoto 1988).
10. Explicações indutivas-determinísticas são discutidas em Niiniluoto e Tuomela (1973,
pp. 88-117).
11. Pode-se provar que, para alguns sistemas dinâmicos determinísticos, as frequências
dos resultados são amplamente independentes do mecanismo que escolhe as
condições iniciais. Mais precisamente, qualquer distribuição contínua de condições
iniciais fornece as mesmas frequências de resultados de longo prazo. Essa abordagem,
que foi chamada de método das funções arbitrárias por Henri Poincaré, foi aplicada
aos dispositivos clássicos do acaso, como moedas e roletas, já na virada do século XIX
(ver von Plato, 1994, p. 170).
12. Reichenbach mencionou Peirce em seu trabalho no final da década de 1930, mas G. H.
von Wright (1941/1957, p. 243), observou que Reichenbach “não parece estar ciente
da íntima relação entre sua solução do problema indutivo e as ideias de Peirce”,
embora “na verdade quase tudo o que é verdadeiro e essencial nas visões de
Reichenbach sobre a justificação da indução já tenha sido explicitamente declarado
por Peirce”.
13. Williams (1947, p. 57), que se baseou fortemente em Peirce, mencionou que o
silogismo
Pag 160
estatístico poderia ser usado para explicação, mas não desenvolveu mais essa ideia.
Nagel não menciona as ideias de Peirce sobre explicação estatística, mas seu próprio
esboço de explicação probabilística da ação humana se refere à concepção de
probabilidade de Peirce como uma frequência de verdade (ver Nagel 1961, pp. 563-4).
14. Usando a notação padrão, W refere-se à Edição Cronológica dos Escritos de Peirce, e
CP aos seus Collected Papers.
15. Para um relato da “erosão do determinismo” e da introdução de ideias probabilísticas
na última parte do século XIX, ver Hacking (1990). Ver também von Platão (1994).
16. Uma carta particular datada de 20 de dezembro de 1989. Citada com permissão do
Professor Hempel.
REFERÊNCIAS
Armstrong, D.M. 1983. What Is a Law of Nature? Cambridge, England: Cambridge University
Press.
Barker, S. 1957. Science and Hypothesis. Ithaca, N.Y.: Cornell University Press.
Bogdan, R. ed. 1982. Henry E. Kyburg Jr. and Isaac Levi. Dordrecht: Reidel.
———. 1966. The Philosophy of Science. Edited by M. Gardner. New York: Basic Books. Coffa,
J. A. 1974. “Hempel’s Ambiguity.” Synthese 28:141–63.
Duhem, P. 1954. The Aim and Structure of Physical Theory. Princeton: Princeton University
Press.
Fetzer, J. H. 1974. “A Single Case Propensity Theory of Explanation.” Synthese 28:171–98.
———. 1983. “Probabilistic Explanations.” In PSA 1982, edited by P. Asquith and T. Nickles.
Vol. 2. East Lansing, Mich.: Philosophy of Science Association.
———. 1992. “What’s Wrong with Salmon’s History: The Third Decade.” Philosophy of Science
59:246–62.
Fetzer, J. H., and D. E. Nute. 1979. “Syntax, Semantics, and Ontology: A Probabilistic Causal
Calculus.” Synthese 40:453–95.
Goodman, N. 1955. Fact, Fiction, and Forecast. Cambridge: Harvard University Press.
Hacking, I. 1990. The Taming of Chance. Cambridge, England: Cambridge University Press.
Hanna, J. F. 1981. “Single Case Propensities and the Explanation of Particular Events.” Synthese
48:409–36.
Pag 161
———. 1942. “The Function of General Laws in History.” Journal of Philosophy 39:35–48.
Reprinted in Hempel (1965).
———. 1965. Aspects of Scientific Explanation and Other Essays in the Philosophy of Science.
New York: Free Press.
———. 1988. “Provisos: A Problem Concerning the Inferential Function of Scientific Theories.”
Erkenntnis 28:147–64.
———. 1992. “Eino Kaila and Logical Empiricism.” In Eino Kaila and Logical Empiricism, edited
by I. Niiniluoto, M. Sintonen, and G. H. von Wright. Helsinki: Societas Philosophica Fennica.
Hempel, C.G., and P. Oppenheim. 1948. “Studies in the Logic of Explanation.” Philosophy of
Science 15:135-75. Reprinted in Hempel (1965).
Hintikka, J., and I. Halonen. 1995. “Semantics and Pragmatics for Why-questions.” Journal of
Philosophy 92:636–57.
Humphreys, P. 1989. The Chances of Explanation: Causal Explanation in the Social, Medical,
and Physical Sciences. Princeton: Princeton University Press.
Jeffrey, R. C. 1969. “Statistical Explanation vs. Statistical Inference.” In Essays in Honor of Carl
G. Hempel, edited by N. Rescher. Dordrecht: Reidel. Reprinted in Salmon et al. (1971).
Kitcher, P., and W. C. Salmon, eds. 1989. Scientific Explanation. Minneapolis: University of
Minnesota Press.
Nagel, E. 1939. Principles of the Theory of Probability. Chicago: University of Chicago Press.
Nagel, E. 1961. The Structure of Science. London: Routledge and Kegan Paul.
Pag 162
———. 1993. “Peirce’s Theory of Statistical Explanation.” In Charles S. Peirce and the
Philosophy of Science, edited by E. C. Moore. Tuscaloosa: University of Alabama Press.
Peirce, C. S. 1931–35. Collected Papers. Vols. 1–6. Edited by C. Hartshorne and P. Weiss.
Cambridge: Harvard University Press.
———. 1982–. Writings of Charles S. Peirce: A Chronological Edition. Vols. 1–4. Edited by M. H.
Fisch et al. Bloomington: Indiana University Press.
Popper, K. R. 1945. The Open Society and Its Enemies. London: Routledge and Kegan Paul.
———. 1957. The Poverty of Historicism. London: Routledge and Kegan Paul.
Rescher, N. 1962. “The Stochastic Revolution and the Nature of Scientific Explanation.”
Synthese 14:200–15.
———. 1970. “Statistical Explanation.” In Nature and Function of Scientific Theories, edited by
R. G. Colodny. Pittsburgh: University of Pittsburgh Press. Reprinted in Salmon et al. (1971).
———. 1984. Scientific Explanation and the Causal Structure of the World. Princeton:
Princeton University Press.
———. 1988. “Dynamic Rationality: Propensity, Probability, and Credence.” In Fetzer (1988).
———. 1989. “Four Decades of Scientific Explanation.” In Kitcher and Salmon (1989). Published
also as a monograph. Minneapolis: University of Minnesota Press, 1990.
Salmon, W. C., et al. 1971. Statistical Explanation and Statistical Relevance. Pittsburgh:
University of Pittsburgh Press.
Sintonen, M. 1989. “Explanation: In Search of the Rationale.” In Kitcher and Salmon (1989).
Skyrms, B. 1980. Causal Necessity: A Pragmatic Investigation of the Necessity of Laws. New
Haven: Yale University Press.
———. 1983. Erklärung, Begründung, Kausalität. 2nd ed. Berlin: Springer Verlag.
Tan, Y.-H. 1997. “Is Default Logic a Reinvention of Inductive-Statistical Reasoning?” Synthese
110:357–79.
Pag 163
von Plato, J. 1994. Creating Modern Probability. Cambridge, England: Cambridge University
Press.
von Wright, G. H. 1941/1957. The Logical Problem of Induction. Helsingfors: Acta Philosophica
Fennica 3. 2nd ed. Oxford: Blackwell, 1957.
———. 1971. Explanation and Understanding. Ithaca, N.Y.: Cornell University Press.