Você está na página 1de 94

Teoria da decisão

Uma breve introdução

1994/08/19
pequenas revisões 2005-08-23 Sven
Ove Hansson
Departamento de Filosofia e História da Tecnologia Instituto Real de
Tecnologia (KTH) Estocolmo

1
Conteúdo

Prefácio ................................................. .................................................. ....... 4


1. O que é a teoria da decisão? .................................................. ........................ 5
1.1 questões teóricas sobre decisões ......................................... 5
1.2 Um sujeito verdadeiramente interdisciplinar ............................................. ...... 6

1,3 teorias normativas e descritivas ............................................. .6


1.4 Descrição geral das seguintes capítulos ............................................ ..... 8

2. Processos de Decisão .............................................. ...................................... 9


2.1 Condorcet ................................................ ..................................... 9
2.2 modelos sequenciais modernos .............................................. ............. 9
2.3 Modelos não sequenciais ............................................. .................... 10
2.4 As fases de decisões práticas - e da teoria da decisão ......... 12
3. Decidir e valorizando ............................................. ................................... 13
3.1 Relações e números .............................................. ................... 13
3.2 Os termos de valores comparativos ............................................. .......... 14
3,3 Integridade ................................................ ............................... 16
3,4 Transitividade ................................................ ................................... 17
3.5 Usando as preferências na tomada de decisões ......................................... 19

3,6 representação numérica ............................................... .............. 20


3.7 Utilização de utilitários na tomada de decisão ........................................... .... 21

4. A representação padrão de decisões individuais ................................ 23


4.1 Alternativas ................................................ .................................. 23
4.2 Resultados e estados da natureza ............................................ ......... 24
4.3 matrizes de decisão ............................................... .......................... 25
4.4 informações sobre os estados de natureza ............................................ ... 26

5. utilidade esperada .............................................. ........................................... 29


5.1 O que se espera de utilidade? ............................................ .................. 29
5.2 utilidade objetiva e subjetiva ............................................. ....... 30
5.3 Avaliação da UE .............................................. .............................. 31
5.4 estimativas de probabilidade ............................................... ..................... 34

6. bayesianismo ............................................... ............................................... 37


6.1 O que é bayesianismo? .................................................. ................ 37
6.2 Avaliação de bayesianismo .............................................. .............. 40
7. Variações de utilidade esperada ............................................ ....................... 45
7.1 Processo de utilidades e teoria pesar ............................................ .... 45

2
7.2 teoria Prospect ............................................... .............................. 47
8. Tomada de decisão sob incerteza ........................................... .............. 50
8.1 Paradoxes de incerteza .............................................. ................ 50
8.2 Medidas de probabilidades incompletamente conhecidos ........................... 52

8.3 Critérios de decisão para a incerteza ............................................. ..... 55


9. Tomada de decisão sob ignorância ........................................... ................. 59
9.1 As regras de decisão para "ignorância clássica" ...................................... 59

9.2 possibilidades desconhecidas ............................................... ................... 63

10. A demarcação de decisões ............................................ ..................... 68


10.1 lista inacabado de alternativas ............................................. ....... 68
10,2 horizontes de decisão indeterminados .............................................. ..69
11. instabilidade decisão .............................................. ................................... 73
11,1 Conditionalized UE ............................................... ..................... 73
11,2 paradoxo de Newcomb ............................................... .................... 74
11,3 Instabilidade ................................................ .................................... 76
12. teoria da decisão social ............................................. ................................ 79
12.1 A percepção básica .............................................. .......................... 79
12.2 teorema de Seta ............................................... .......................... 81
Referências ................................................. .................................................. .82

3
Prefácio

Este texto é uma síntese não técnica da moderna teoria da decisão. Ele é destinado a estudantes

universitários com nenhum conhecimento anterior com o assunto, e foi escrito principalmente para os

participantes de um curso sobre análise de risco da Universidade de Uppsala, em 1994.

Alguns dos capítulos são revisadas versões de um relatório escrito em 1990 pelo
Conselho Nacional Sueco para o combustível nuclear.

Uppsala, agosto 1994 Sven


Ove Hansson

4
1. O que é a teoria da decisão?

A teoria da decisão é a teoria sobre as decisões. O assunto não é muito unificada. Ao contrário, há
muitas maneiras diferentes para teorizar sobre as decisões e, portanto, também muitas tradições de
pesquisa diferentes. Este texto tenta refletir um pouco da diversidade do assunto. Sua ênfase recai
sobre os menos (matematicamente) aspectos técnicos da teoria da decisão.

1.1 questões teóricas sobre decisões

Os seguintes são exemplos de decisões e de problemas teóricos que dão origem a.

Devo levar o guarda-chuva hoje? - A decisão depende de algo que eu não sei,
ou seja, se vai chover ou não.

Eu estou procurando uma casa para comprar. Devo comprar um presente? - Esta casa parece

bem, mas talvez eu vou encontrar uma casa ainda melhor para o mesmo preço, se eu vou em busca.

Quando devo parar o procedimento de busca?

Eu vou fumar o próximo cigarro? - Um cigarro único não é problema, mas se eu


tomar a mesma decisão suficientemente muitas vezes pode me matar.

O tribunal tem de decidir se o defendent é culpado ou não. - Há dois erros que


o tribunal pode fazer, ou seja, para condenar uma pessoa inocente e absolver um
culpado. Que princípios deve o tribunal se se considera o primeiro desta erros a ser
mais grave do que o segundo?

Um comitê tem que tomar uma decisão, mas seus membros têm opiniões diferentes. - Quais as

regras que eles devem usar para garantir que eles podem chegar a uma conclusão, mesmo se eles

estão em desacordo?

Quase tudo o que um ser humano faz envolve decisões. Portanto, para teorizar sobre
decisões é quase o mesmo que a teorizar sobre o ser humano

5
activitities. No entanto, a teoria da decisão não é tão abrangente quanto isso. Ele se concentra em apenas

alguns aspectos da atividade humana. Em particular, ele se concentra em como usamos nossa liberdade.

Nas situações tratadas pelos teóricos de decisão, há opções para escolher entre, e nós escolhemos de

forma não aleatória. Nossas escolhas, nestas situações, são atividades dirigidas a objetivos. Assim, a

teoria da decisão está preocupado com meta-dirigida comportamento na presença de opções.

Nós não decidimos continuamente. Na história de quase qualquer atividade, há


períodos em que a maior parte da tomada de decisão é feita, e outros períodos em que a
maioria da implementação ocorre. Decisão-teoria tenta jogar luz, de várias maneiras, no
primeiro tipo de período.

1.2 Um sujeito verdadeiramente interdisciplinar

teoria da decisão moderna desenvolveu a partir de meados do século 20 através de contribuições de


várias disciplinas acadêmicas. Embora seja agora claramente um assunto acadêmico de seu próprio
direito, teoria da decisão é tipicamente perseguido por pesquisadores que se identificam como
economistas, estatísticos, psicólogos, cientistas ou filósofos políticos e sociais. Há alguma divisão de
trabalho entre estas disciplinas. Um cientista político é provável que estudar regras de votação e
outros aspectos da tomada de decisão coletiva. Um psicólogo é provável para estudar o
comportamento dos indivíduos nas decisões, e um filósofo os requisitos para a racionalidade nas
decisões. No entanto, há uma grande sobreposição, eo assunto ganhou a partir da variedade de
métodos que os pesquisadores com diferentes formações têm aplicado às mesmas ou semelhantes
problemas.

1,3 teorias normativas e descritivas

A distinção entre normativo e descritivo teorias de decisão é, em princípio, muito simples. A teoria
da decisão normativa é uma teoria sobre como as decisões devem ser feitas, e uma teoria
descritiva é uma teoria sobre como as decisões são realmente feitas.

O "deve" na frase anterior pode ser interpretada de muitas maneiras. Há, no entanto,
acordo quase total entre os cientistas de decisão que se refere aos pré-requisitos de tomada
de decisão racional. Em outras palavras, a teoria da decisão normativa é uma teoria sobre
como as decisões devem ser feitas, a fim de ser racional.

6
Este é um sentido muito limitado da palavra "normativa". Normas de racionalidade são de
nenhuma maneira a única - ou mesmo o mais importante - normas que se pode desejar para aplicar na
tomada de decisões. No entanto, é praticar a considerar diferentes normas racionalidade como externo à
teoria da decisão normas. A teoria da decisão não, de acordo com a opinião recebida, entram em cena
até que as normas éticas ou políticas já estão corrigidos. Ela cuida dessas questões normativas que
permanecem mesmo depois que os objetivos foram corrigidos. Este restante de questões normativas
consiste em grande parte de perguntas sobre como agir em quando há incerteza e falta de informação.
Ele também contém questões sobre a forma como um indivíduo pode coordenar suas decisões ao longo
do tempo e de como vários indivíduos podem coordenar suas decisões em processos de decisão social.

Se o general quer ganhar a guerra, o teórico decisão tenta dizer-lhe como alcançar esse
objetivo. A questão se devia a todos tentar ganhar a guerra não é normalmente considerada como
uma questão teórica-decisão. Da mesma forma, a teoria da decisão fornece métodos para um
executivo de negócios para maximizar os lucros e para uma agência ambiental para minimizar a
exposição tóxica, mas a questão básica se eles devem tentar fazer essas coisas não é tratado na
teoria de decisão.

Embora o alcance da "normativa" é muito limitado em teoria da decisão, a distinção


entre normativos (ou seja racionalidade-normativa) e descritivos interpretações de teorias de
decisão é muitas vezes turva. Não é incomum, quando você lê literatura teórica-decisão, para
encontrar exemplos de ambiguidades perturbadores e até confusões entre interpretações
normativas e descritivas de uma única e mesma teoria.

Provavelmente, muitas dessas ambiguidades poderia ter sido evitado. É preciso reconhecer,
porém, que é mais difícil em ciência da decisão do que em muitas outras disciplinas para desenhar
uma linha nítida entre interpretações normativas e descritivas. Isso pode ser visto claramente da
consideração do que constitui uma falsificação de uma teoria da decisão.

É bastante óbvio que o critério deve ser para a falsificação de uma teoria da
decisão descritivo.

(F1) A teoria da decisão é falsificados como uma teoria descritiva se uma decisão

problema pode ser encontrada em que a maioria dos seres humanos realizar em contradição

com a teoria.

7
Uma vez que uma teoria da decisão normativa diz-nos como um agente racional deve agir,
falsificação deve referir-se aos ditames da racionalidade. Não é evidente, porém, o quão forte o
conflito deve estar entre a teoria ea tomada de decisão racional para a teoria de ser falsificado.
Proponho, portanto, as seguintes duas definições para diferentes pontos fortes de que o conflito.

(F2) A teoria da decisão é fracamente falsificados como uma teoria normativa se um

problema de decisão pode ser encontrada em que um agente pode executar em


contradição com a teoria sem ser irracional.

(F3) A teoria da decisão é estritamente falsificados como uma teoria normativa se um

problema de decisão pode ser encontrada em que um agente que executa de acordo com a
teoria não pode ser um agente racional.

Agora, suponha que uma determinada teoria T tem (como é frequentemente o caso) foi proclamado pelo seu

inventor para ser válido tanto como um normativo e como uma teoria descritiva. Além disso supor (como

também é frequentemente o caso) que sabemos a partir de experimentos que no problema de decisão P, a

maioria dos indivíduos não cumpram T. Em outras palavras, suponha que (F1) é satisfeita para T.

As crenças e comportamentos dos teóricos de decisão não são conhecidos por serem
radicalmente diferentes das de outros seres humanos. Por isso, é altamente provável que pelo menos
alguns deles têm as mesmas convicções como a maioria dos sujeitos experimentais. Em seguida, eles
vão alegar que (F2), e talvez até mesmo (F3), está satisfeito. Podemos, portanto, esperar falsificações
descritivos de uma teoria da decisão a ser acompanhado por alegações de que a teoria é inválida, de
um ponto de vista normativo. Na verdade, isso é o que sempre tem acontecido.

1.4 Descrição geral das seguintes capítulos

No capítulo 2, é discutida a estrutura de processos de decisão. Nos próximos dois capítulos, é


introduzida a representação padrão de decisões. Com este pano de fundo, vário-regras de decisão
para a tomada de decisão individual são introduzidos nos capítulos 5-10. Uma breve introdução à
teoria da tomada de decisão coletiva segue no capítulo 11.

8
2. Processos de decisão

A maioria das decisões não são momentâneas. Eles levam tempo, e por conseguinte, é natural a
dividi-los em fases ou etapas.

2.1 Condorcet

A primeira teoria geral das etapas de um processo de decisão que estou ciente de foi apresentada
pelo grande filósofo iluminação Condorcet (1743-1794), como parte de sua motivação para a
constituição francesa de 1793. Ele dividiu o processo de decisão em três etapas . Na primeira
etapa, um “discute os princípios que servirão de base para a decisão em uma questão geral; se
examina os vários aspectos desta questão e as consequências das diferentes maneiras de tomar a
decisão.”Nesta fase, as opiniões são pessoais e não são feitas tentativas para formar uma maioria.
Após esta segue uma segunda discussão em que “a questão é esclarecida, as opiniões se
aproximam e se combinam uns com os outros para um pequeno número de opiniões mais gerais.”
Desta forma, a decisão é reduzido a uma escolha entre um conjunto razoável de alternativas. A
terceira fase consiste na escolha real entre essas alternativas. (Condorcet, [1793] 1847, pp.
342-343)

Esta é uma teoria perspicaz. Em particular, a distinção de Condorcet entre a primeira ea


segunda discussão parece ser muito útil. No entanto, sua teoria das etapas de um processo
de decisão foi praticamente esquecido, e não parece ter sido referido na moderna teoria da
decisão.

2.2 modelos sequenciais modernos

Em vez disso, o ponto de partida da discussão moderna é geralmente considerado como sendo
([1910] 1978, pp. 234-241) exposição das etapas de resolução de problemas de John Dewey. De
acordo com Dewey, a resolução de problemas consiste em cinco etapas consecutivas: dificuldade (1)
um feltro, (2) a definição do carácter de que dificuldade, (3) sugestão de soluções possíveis, (4)
avaliação da sugestão, e ( 5) posterior observação e experiência que conduz à aceitação ou rejeição
da sugestão.

Herbert Simon (1960) modificado lista de cinco estágios de Dewey para torná-lo adequado para o

contexto das decisões nas organizações. De acordo com Simon,

9
A tomada de decisão consiste em três fases principais: "encontrar ocasiões para tomar uma
decisão, encontrar possíveis cursos de ação, e escolher entre cursos de ação" (p. 1) A primeira
dessas fases ele chamou inteligência,
"Pedindo o significado militar de inteligência" (p. 2), o segundo desenhar
e o terceiro escolha.
Outra subdivisão influente do processo de decisão foi proposto pela borda et al.
(1962, p. 9). Eles dividiram o processo de decisão nas seguintes cinco passos:

1. Identificação do problema
2. Obtenção de informações necessárias

3. Produção de possíveis soluções


4. A avaliação de tais soluções
5. Seleção de uma estratégia para o desempenho

(Eles também incluiu uma sexta etapa, a execução da decisão.)


As propostas de Dewey, Simon, e Borda et ai são todos sequencial no sentido de que eles
dividem os processos de decisão em partes que vêm sempre na mesma ordem ou seqüência.
Vários autores, nomeadamente Witte (1972) criticaram a ideia de que o processo de decisão pode,
de uma forma geral, ser dividido em etapas consecutivas. Sua material empírico indica que as
"fases" foram executadas em paralelo em vez de em sequência.

"Nós acreditamos que os seres humanos não podem reunir informações sem, de alguma
forma desenvolver simultaneamente alternativas. Eles não podem evitar avaliar essas
alternativas imediatamente, e ao fazer isso, eles são forçados a uma decisão. Este é um
pacote de operações ea sucessão destes pacotes ao longo do tempo constitui o processo
total de tomada de decisão." (Witte 1972, p. 180.)

Um modelo mais realista deve permitir que as várias partes do processo de decisão de vir
de forma diferente em diferentes decisões.

2.3 Modelos não sequenciais

Um dos modelos mais influentes que satisfazem este critério foi proposto por Mintzberg,
Raisinghani e Theoret (1976). Na vista de estes autores, o processo de decisão consiste em
fases distintas, mas estas fases

10
não têm uma relação seqüencial simples. Eles usaram as mesmas três fases principais
como Simon, mas deu-lhes novos nomes: identificação, desenvolvimento e seleção.

A fase de identificação ( "inteligência" de Simon) consiste em duas rotinas. A primeira


delas é reconhecimento de decisões, em que "os problemas e oportunidades" são identificados
"nos fluxos de dados ambígua, em grande parte verbal que os decisores recebem" (p. 253). A
segunda rotina nesta fase é diagnóstico, ou "a batida de canais de informação existentes ea
abertura de novos para esclarecer e definir as questões" (p. 254).

A fase de desenvolvimento ( "design" de Simon) serve para definir e esclarecer as


opções. Nesta fase, também, consiste em duas rotinas. o procurar
objetivos de rotina em encontrar soluções prontas, ea desenhar rotina no desenvolvimento de
novas soluções ou modificar os ready-made.
A última fase, a fase de selecção ( "escolha" de Simon) consiste em três rotinas. A
primeira delas, a tela rotina, só é evocado "quando se espera que a pesquisa para gerar
alternativas mais prontos do que pode ser intensamente avaliado" (p. 257). Na rotina tela,
alternativas, obviamente, com qualidade inferior são eliminados. A segunda rotina, o avaliação
da escolha de rotina, é a escolha real entre as alternativas. Pode incluir o uso de um ou mais
dos três "modos", ou seja, (intuitiva) julgamento, negociação e análise. Na terceira e última
rotina, autorização, aprovação para a solução escolhida é adquirida mais acima na hierarquia.

A relação entre estas fases e rotinas é circular em vez de linear. O tomador de decisão "pode ​ciclo

dentro de identificação para reconhecer a questão durante o projeto, ele pode percorrer um labirinto de

atividades de projeto e de busca aninhados para desenvolver uma solução durante a avaliação, ele pode

alternar entre desenvolvimento e investigação para compreender o problema que ele está resolvendo .. . ele

pode alternar entre a seleção e desenvolvimento de conciliar os objectivos com alternativas, termina com

meios". (P. 265) Em geral, se não for encontrada uma solução para ser aceitável, ele dará um ciclo de volta

para a fase de desenvolvimento. (P.

266)
As relações entre estes três fases e sete rotinas são descritos em Diagrama 1.

Exercício: Considere os dois exemplos de processos de decisão seguintes:

uma. A família precisa de uma nova mesa de cozinha, e decide o que comprar.

11
b. O país precisa de um novo sistema nacional de pensões, e decide qual a
introduzir.
Mostrar como várias partes dessas decisões atender nas fases e rotinas propostas por
Mintzberg et al. você, nestes casos, pode encontrar exemplos de comportamento decisão
não-seqüencial que os modelos mencionados nas seções 2.1-2.2 são incapazes de lidar
com isso?

As estruturas de decisão propostos por Condorcet, por Simon, por MINTZBERG et ai, e por Borda et ai são

comparados em Diagrama 2. Note-se que o diagrama mostra todos os modelos como sequencial, para que a

justiça plena não pode ser feita com o modelo de Mintzberg.

2.4 As fases de decisões práticas - e da teoria da decisão

De acordo com Simon (1960, p. 2), os executivos gastam uma grande parte do seu tempo em
atividades de inteligência, uma fração ainda maior na atividade de design e uma pequena fração da
atividade escolha. Este foi corroborado pelos resultados empíricos de MINTZBERG et al. Em 21 dos 25
processos de decisão estudadas por eles e seus alunos, a fase de desenvolvimento dominado as
outras duas fases.

Em contraste com isso, de longe a maior parte da literatura sobre a tomada de decisão tem
incidido sobre a rotina de avaliação-escolha. Embora muitos estudos empíricos decisão ter tomado
todo o processo de decisão em conta, a decisão teoria tem se preocupado exclusivamente com a rotina
de avaliação-escolha. Este é "bastante curioso" de acordo com Mintzberg e co-autores, uma vez que
"esta rotina parece ser muito menos significativa em muitos dos processos de decisão que estudamos
de diagnóstico ou de design" (p. 257).

Esta é uma acusação séria da teoria da decisão. Em sua defesa, no entanto, pode-se
dizer que a rotina de avaliação-escolha é o foco do processo de decisão. É essa rotina que
torna o processo em um decisão
processo e o caráter das outras rotinas é em grande parte determinado por ela. Tudo isso é um bom
motivo para prestar muita atenção à rotina evaluationchoice. Não é, no entanto, uma razão para
quase completamente negligenciar as outras rotinas - e é isso que a teoria da decisão normativa é na
maioria dos casos culpados.

12
3. Decidir e valorizando

Quando tomamos decisões, ou escolher entre opções, tentamos obter tão bom um resultado
possível, de acordo com algum padrão do que é bom ou ruim.

A escolha de um valor-padrão para a tomada de decisões (e para a vida) é o assunto da


filosofia moral. A teoria da decisão assume que um tal padrão está à mão, e prossegue para
expressar este padrão de um modo preciso e útil.

3.1 Relações e números

Para ver como isso pode ser feito, vamos considerar um exemplo simples: Você tem que escolher entre várias

latas de sopa de tomate no supermercado. Seu padrão de valor pode estar relacionado a preço, gosto, ou

qualquer combinação destes. Suponha que você gosta de sopa A melhor do que sopa B ou sopa C, e sopa B

melhor do que sopa C. Em seguida, você deve tomar claramente sopa A. Não há realmente nenhuma

necessidade neste exemplo simples para um modelo mais formal.

No entanto, podemos usar este exemplo simples para introduzir dois modelos formais úteis, a

necessidade de que será visto mais tarde, em exemplos mais complexos.

Uma maneira de expressar o padrão de valor é como um relação entre os três sopas: a
relação "melhor do que". Nós temos:

A é melhor do que BB é

melhor do que a CA é

melhor do que C

Claramente, uma vez que A é melhor do que todas as outras alternativas, A deve ser escolhido.

Outra maneira de expressar esse padrão valor é atribuir valores numéricos para cada
uma das três alternativas. Neste caso, pode-se por exemplo para atribuir um valor de 15, a B,
o valor 13 e o valor C 7. Este é um
numérico representação, ou representação, em termos de número, o padrão de valor. Uma vez que
A tem um valor maior do que quer B ou C, A deve ser escolhido.

13
o relacional e numérico representações são as duas formas mais comuns para
expressar o padrão de valor, segundo a qual as decisões são tomadas.

3.2 Os termos de valores comparativos

representação relacional de padrões de valor é muito comum na linguagem cotidiana, e é muitas vezes

referido nas discussões que preparam para as decisões. A fim de comparar alternativas, usamos frases

como "melhor do que", "pior do que", "igualmente bom", "pelo menos tão bom", etc. Estes são todas as

relações binárias, ou seja, eles se relacionam duas entidades ( "argumentos ") um com o outro.

Para simplificar, vamos muitas vezes usam a notação matemática "A> B" em vez da
frase-linguagem comum "A é melhor que B".
No uso diário, betterness e worseness não são completamente simétrico. Dizer que um é
melhor que B não é exatamente o mesmo que dizer que B é pior do que A. Considere o exemplo de
um maestro que discute as habilidades dos dois flautistas da orquestra que ele está realizando. Se
ele diz que "o segundo flautista é melhor do que o primeiro flautista", ele ainda pode ser muito
satisfeito com os dois (mas talvez quer que eles mudam de lugar). No entanto, se ele diz "o segundo
flautista é pior do que o primeiro flautista", então ele provavelmente indica que ele preferiria ter os
dois substituídos.

Exercício: Encontrar mais exemplos das diferenças entre "A é melhor que B" e
"B é pior do que uma".

Na linguagem comum, tendem a usar o "melhor do que" somente quando pelo menos uma das
alternativas é tolerável e "pior do que" quando este não é o caso. (Halldén 1957, p. 13. von Wright,
1963, p. 10. Chisholm e Sosa 1966, p.
244.) Também pode haver outras assimetrias psicológicas entre betterness e worseness.
(Tyson 1986. Houston et al 1989) No entanto, as diferenças entre betterness e worseness
inverso não parecem ter importância suficiente para valer a pena a estrutura matemática muito
mais complicado do que seria necessário, a fim de fazer essa distinção. Portanto, em teoria da
decisão (e disciplinas afins), a distinção é ignorada (ou captada a partir, para colocá-lo mais
agradável). Conseqüentemente,

14
A> B é tomada para representar "B é pior do que um", bem como "A é melhor que B". 1

Outro termo importante valor comparativo é "um valor igual ao" ou "de igual valor".
Podemos usar o símbolo! para indicar que, por conseguinte, A! B significa que A e B têm o
mesmo valor (de acordo com o padrão que escolhemos).

No entanto, outro termo que é frequentemente usado em comparações de valor é "pelo menos tão bom

quanto". Nós podemos denotar que "A! B".

As três noções comparativas "melhor do que" (>), "iguais em valor para" (!) E "pelo menos
tão bom quanto" (!) São partes essenciais da linguagem formal de preferência lógica. > é dito para
representar preferência ou forte preferência,
! preferência fraca, e! indiferença.
Estas três noções são geralmente considerados para ser interligados de acordo com as
duas regras seguintes:

(1) A é melhor que B se e somente se A é pelo menos tão bom quanto B, mas B não é pelo menos tão

bom quanto A. (A> B se e somente se A! B e não B! A) (2 ) a é igualmente boa como B se e somente

se a é pelo menos tão boa como B e B também pelo menos tão boa como A. (a! B se e somente se a!

B e B! a)

A plausibilidade destas regras pode talvez ser melhor visto a partir de exemplos. Como exemplo da
primeira regra, considere as duas frases seguintes:

"Meu carro é melhor do que o seu carro."

"Meu carro é pelo menos tão bom quanto o seu carro, mas o seu não é pelo menos tão bom quanto o

meu."

A segunda frase é muito mais rotunda do que o primeiro, mas o significado parece ser o
mesmo.

Exercício: Construir um exemplo análogo para a segunda regra.

As duas regras são matematicamente útil, pois eles fazem duas das três noções (> e!)
Desnecessários. Para defini-los em termos de! simplifica

1" Pior é o inverso do melhor, e quaisquer idiossincrasias verbais devem ser desconsideradas."(Brogan 1919, p. 97)

15
tratamentos matemáticos de preferência. Para os nossos propósitos mais intuitivos, embora, muitas vezes

é conveniente usar todas as três noções.

Existe uma vasta literatura sobre as propriedades matemáticas de!,> E


!. Aqui será suficiente para definir e discutir duas propriedades que são muito referidos em
contextos de decisão, ou seja, integralidade e transitividade.

3,3 Integridade

Qualquer relação de preferência deve se referir a um conjunto de entidades, sobre a qual ele está definido. Para

dar um exemplo, eu tenho um padrão de preferência pela música, "é (em meu gosto) música melhor do que". Ela

se aplica a peças musicais, e não para outras coisas. Por exemplo, é significativo a dizer que quinta sinfonia de

Beethoven é melhor música do que sua primeira sinfonia. Não é significativo para dizer que minha mesa da

cozinha é melhor música do que meu carro. Esta preferência relação particular tem peças musicais como a sua domínio.

A propriedade formal de completude (também chamado de conexão) é definida por uma


relação e seu domínio.

A relação ! é completa se, e somente se para qualquer elementos A e B de seu domínio,


ou A! B ou B! A.

Assim, para a relação acima mencionada para ser completa, eu devo ser capaz de comparar quaisquer

duas peças musicais. Por exemplo, eu deve ou considerar as variações Goldberg de ser pelo menos tão

boa como a Nona de Beethoven, ou nona de Beethoven para ser pelo menos tão bom quanto as Variações

Goldberg.

Na verdade, esta relação de preferência particular meu não está completa, eo exemplo
dado ilustra sua incompletude. Eu simplesmente não sei se eu considerar as variações
Goldberg ser melhor do que a nona sinfonia, ou o contrário, ou se eu considerar que eles
sejam igualmente boas. Talvez eu vou mais tarde vir a ter uma opinião sobre isso, mas para o
presente eu não. Por isso, a minha preferência relação é incompleto.

Muitas vezes pode viver feliz com as preferências incompletos, mesmo quando as nossas
preferências são necessários para guiar nossas ações. Como exemplo, na escolha entre três marcas
de sopa, A, B, e C, prefiro claramente A para B e C. Enquanto um está disponível eu não preciso
fazer a minha mente se eu prefiro B para C, preferem C para B ou considerá-los a ser de igual

16
valor. Da mesma forma, um eleitor em uma eleição multipartidária pode fazer sem o ranking dos
partidos ou candidatos que ela não votar.

Exercício: Você pode encontrar mais exemplos de preferências incompletos?

De um modo geral, não nascemos com um conjunto completo de preferências, suficiente para as
vicissitudes da vida. Ao contrário, a maioria das nossas preferências foram adquiridos, bem como a
aquisição de preferências pode custar tempo e esforço. é, portanto, de se esperar que as
preferências que orientam as decisões são, em muitos casos incapaz de ser representado por uma
relação de preferência completa. No entanto, na decisão preferência teoria integralidade
normalmente aceite como uma hipótese simplificadora. Esta é também uma suposição padrão em
aplicações de preferência lógica para a economia e teoria da decisão social. Na economia pode
refletir uma presunção de que tudo pode ser "medido com a régua de medição de dinheiro".
(Broome

1978, p. 332)
Seguindo a tradição no assunto, a preferência integridade vai ser maioritariamente assumida no

que se segue, mas o leitor deve estar ciente de que muitas vezes é uma suposição altamente

problemática.

3,4 Transitividade

Para introduzir a propriedade de transitividade, vamos considerar o seguinte exemplo de


preferências musicais:

Bob: " Eu acho que Mozart era um compositor muito melhor do que Haydn ".

Cynthia: " O que você acha sobre Beethoven?"


Bob: " Bem, na minha opinião, Haydn era melhor do que Beethoven."
Cynthia: " Que é contrário a minha opinião. Eu taxa Beethoven maior do que Mozart ".

Bob: " Bem, nós concordo muito. Eu também acho que Beethoven era melhor do que Mozart."

Cynthia: " Eu entendi corretamente? Você não disse que Mozart era melhor do que
Haydn e Haydn melhor do que Beethoven?"
Bob: " Sim."
Cynthia: " Mas não se segue daí que Mozart era melhor do que Beethoven?"

Bob: " Não, por que deveria?"

17
A posição de Bob parece estranho. O que é estranho é que suas preferências não satisfazem a propriedade

de transitividade.

Um (rigoroso) relação de preferência> é transitória, se e apenas se prende por todos os

elementos A, B, e C do seu domínio que se A> B e B> C, então A> C.

Embora Bob provavelmente pode viver feliz com sua intransitivo (= não transitivo) preferências, há uma

boa razão para que nós consideramos essas preferências para ser estranho. Esta razão é que as

preferências intransitivas são muitas vezes inadequadas para orientar as ações.

Para ver isso, só temos que transferir o exemplo de um caso em que uma decisão tem
que ser feita. Suponha que Bob foi prometido um registro CD. Ele pode ter um registro com
música de Beethoven, um com Mozart ou um com Haydn. Além disso supor que ele gosta o
registro Mozart melhor do que o recorde Haydn, o registro Haydn melhor do que o recorde
Beethoven eo registro Beethoven melhor que o recorde Mozart.

Parece impossível para Bob para fazer neste caso uma decisão com a qual ele pode
ser satisfeita. Se ele escolhe o registro Mozart, então ele sabe que teria sido mais satisfeitos
com o registro de Beethoven. Se ele escolhe Beethoven, então ele sabe que Haydn teria
satisfeito melhor. No entanto, a escolha de Haydn não resolveria o problema, já que ele gosta
Mozart melhor do que Haydn.

Parece como se Bob tem a reconsiderar suas preferências para torná-los úteis para orientar
sua decisão.
Em teoria da decisão, que geralmente se supõe que não apenas preferência estrita (>),
mas também preferência fraca (!) E indiferença (!) São transitivos. Assim, as duas propriedades
seguintes são assumidos para segurar:

A relação de preferência fraco! é transitivo se e somente se ele é válido para todos os


elementos A, B e C do seu domínio que se A! B e B! C, então A! C.

Uma relação de indiferença! é transitivo se e somente se ele é válido para todos os elementos
A, B e C do seu domínio que se A!" e B! C, então A! C.

18
Estas propriedades são geralmente considerados como sendo mais do que controverso o transitivity
de preferência rígida. Para ver por que, vamos considerar o exemplo de 1000 xícaras de café,
contados C0, C1, C2, ... até C999. Copa C0 não contém açúcar, cup C1 um grão de açúcar, cup C2
dois grãos etc. Já que não posso provar a diferença entre C0 e C1, eles são igualmente boas no meu
gosto, C0! C1. Pela mesma razão, temos C1! C2, C2! C3, etc todo o caminho até C998! C999.

Se a indiferença é transitivo, então segue-se a partir de C0! C1 e C1! C2 que C0! C2.
Além disso, resulta do C0! C2 e C2! C3 que C0! C3. Continuando o processo obtemos C0!
C999. No entanto, isso é um absurdo desde que eu posso provar claramente a diferença
entre C0 e C999, e como o ex muito melhor. Assim, em casos como este (com a
discriminação insuficiente), não parece plausível para a relação indiferença ser transitivo.

Exercício: Mostrar como o mesmo exemplo pode ser usado contra a indiferença de
preferência fraca.

Transitividade, assim como completude, é uma suposição comum, mas problemático na


teoria da decisão.

3.5 Usando as preferências na tomada de decisões

Na tomada de decisões, relações de preferência são utilizados para encontrar o melhor

alternativa. A seguinte regra simples pode ser usado para essa finalidade:

(1) Uma alternativa é ( exclusivamente) melhor se e somente se é melhor do que todos

outras alternativas. Se há uma forma única melhor alternativa, escolhê-lo.

Há casos em que nenhuma alternativa é exclusivamente melhor, uma vez que a posição mais alta é

"compartilhada" por duas ou mais alternativas. O seguinte é um exemplo disso, referindo-se a sopa de

tomate:

Sopa A e sopa B são igualmente boas (A! B) Soup A é


melhor do que sopa C (A> C) Soup B é melhor do que sopa
C (B> C)

19
Neste caso, a solução óbvia é a de escolher um de entre A e B (não importa qual). De modo mais
geral, a regra a seguir podem ser usados:

(2) Uma alternativa é (entre a) melhor se e somente se é pelo menos tão bom
como todas as outras alternativas. Se existem alternativas que são melhores, escolher um deles.

No entanto, existem casos em que nem mesmo essa regra modificada podem ser usados ​para orientar a

tomada de decisão. As preferências cíclicas (Mozart, Haydn, Beethoven) referidos no ponto 3.4

exemplificam isso. Como já foi indicado, as preferências que violem critérios de racionalidade, como

transitividade são muitas vezes não é útil para orientar as decisões.

3,6 representação numérica

Podemos também usar números para representar os valores das alternativas que decidir entre.
Por exemplo, a minha avaliação das obras completas de alguns filósofos modernos pode ser dada
como segue:

Bertrand Russell 50 Karl


Popper 35 WV Quine 35
Jean Paul Sartre 20
Martin Heidegger 1

Daqui resulta que eu gosto Russell melhor do que qualquer um dos outros, etc. É um exercício
fácil para derivar de preferência e indiferença relações dos números atribuídos às cinco filósofos.
Em geral, a informação fornecida por uma atribuição de valor numérico é suficiente para se obter
uma representação relacional. Além disso, a relação de preferência fraco assim obtida é sempre
completo, e todas as três relações (de preferência e indiferença fraco e rigoroso) são transitórias.

Um problema com esta abordagem é que é, em muitos casos altamente claro o que os
números representam. Não há nenhuma medida de "bondade como um filósofo", e qualquer cessão
de números aparecerá para ser arbitrária.
Naturalmente, existem outros exemplos em que o uso da representação numérica é mais

adequada. Na teoria econômica, por exemplo, a disposição a pagar é frequentemente utilizado como uma

medida de valor. (Esta é outra maneira

20
de dizer que todos os valores são "traduzidos" em valor monetário.) Se eu estou preparado para pagar, digamos, US $

500 para um determinado carro usado e US $ 250 para o outro, então essas somas pode ser usado para expressar a

minha avaliação (econômico) dos dois veículos .

De acordo com alguns teóricos morais, todos os valores podem ser reduzidos a uma única entidade,

utilidade. Esta entidade pode ou não pode ser identificado com unidades de felicidade humana. Segundo a
teoria moral utilitária, todas as decisões morais deve, pelo menos em princípio, consistem em tentativas de

maximizar a quantidade total de utilidade. Por isso, assim como o utilitarismo teoria econômica dá origem a

uma teoria da decisão com base na representação numérica de valor (embora as unidades usadas têm

diferentes interpretações).

Exercício: Considere novamente preferências musicais de Bob, de acordo com o exemplo


da seção anterior. eles podem ser uma dada representação numérica?

3.7 Utilização de utilitários na tomada de decisão

Os valores representados numericamente (utilidades) são fáceis de utilizar no processo de


decisão. A regra decisão básica é simples e óbvia:

(1) Escolha a alternativa com a maior utilidade.

No entanto, esta regra não pode ser aplicada diretamente se há mais de duas alternativas com
valor máximo, como no exemplo dos valores atribuídos por um eleitor a três candidatos políticos o
seguinte:

Ms. Anderson 15 Mr.


Brown 15 o Sr.
Carpenter 5

Para esses casos, a regra tem de ser completada:

(2) a alternativa com a maior utilidade. Se mais de um


alternativa tem a maior utilidade, escolher um deles (não importa qual).

21
Esta é uma regra de maximização. A maior parte da teoria econômica é baseada na idéia de que os
indivíduos maximizar suas participações, conforme medido em dinheiro. teoria moral utilitária postula
que os indivíduos devem mazimize o utilitário resultante de suas ações. Alguns críticos do utilitarismo
afirmam que este é exigir demais. Somente santos sempre fazer o melhor. Para o resto de nós, é
mais razoável apenas exigir que façamos bom o suficiente. De acordo com este argumento, em
muitos problemas de decisão existem níveis de utilidade que são inferiores utilidade máxima, mas
ainda aceitável. Como exemplo, suponha que John hesita entre quatro maneiras de passar a tarde,
com utilitários como indicado:

Voluntários da Cruz Vermelha 50 Voluntário para a


Anistia Internacional tia 50 Visita Mary 30

Voluntários para uma campanha anti-aborto -50

De acordo com o utilitarismo clássico, ele deve escolher uma das duas alternativas máximas. De
acordo com satisficing teoria, ele pode escolher qualquer alternativa que tem utilidade suficiente. Se (só
para dar um exemplo) o limite é de 25 unidades, três das opções estão abertas para ele e ele pode
escolher qualquer um deles que ele gosta.

Um problema com satisficing utilitarismo é que ele introduz uma nova variável (o limite
para satisfatoriedade) que parece difícil determinar de forma não-arbitrária. Em teoria da decisão,
a abordagem de maximização é quase universalmente empregada.

22
4. A representação padrão de decisões individuais

O propósito deste capítulo é a introdução de matrizes de decisão, a representação padrão de um


problema de decisão que é usado na teoria mainstream da tomada de decisões individuais. A fim de
fazer isso, precisamos de alguns conceitos básicos da teoria da decisão, como alternativa, resultados
e estado de natureza.

4.1 Alternativas

Em uma decisão que escolher entre diferentes alternativas ( opções). Alternativas são
tipicamente cursos de ação que estão abertos ao decisor no momento da decisão (ou que
ela pelo menos acredita ser assim). 2

O conjunto de alternativas pode ser mais ou menos bem definida. Em alguns problemas
de decisão, é abrir no sentido de que novas alternativas pode ser inventado ou descoberto pelo
tomador de decisão. Um exemplo típico é a minha decisão como gastar esta noite.

Em outros problemas de decisão, o conjunto de alternativas é fechadas, ou seja, nenhuma

novas alternativas podem ser adicionados. Um exemplo típico é a minha decisão como votar nas
próximas eleições. Há um número limitado de alternativas (candidatos ou partidos), entre os quais
eu tenho que escolher.
Um tomador de decisão pode restringir seu próprio escopo de escolha. Quando deliberar
sobre como gastar esta noite, posso começar por decidir que apenas duas alternativas são vale a
pena considerar, ficar em casa ou ir ao cinema. Desta forma, eu fechar meu conjunto de
alternativas, eo que resta é uma decisão entre os dois elementos desse conjunto.

Podemos dividir as decisões com conjuntos alternativos fechados em duas categorias:


aqueles com voluntários e aqueles com fechamento involuntário. Em casos de encerramento
voluntário, o decisor tem-se decidido encerrar

2 Weirich (1983 e 1985) argumentou que as opções devem ser tomadas, em vez de ser decisões que é possível para o

tomador de decisão a fazer, neste caso: a decisão de trazer / não trazer o guarda-chuva. Um de seus argumentos é que

somos muito mais certeza sobre o que podemos decidir do que sobre o que podemos fazer. Ele pode ser racional para

decidir para executar uma ação que não é de todo certo de ser capaz de executar. Um bom exemplo disso é a decisão

de parar de fumar. (A decisão meramente para tentar parar pode ser menos eficiente).

23
o conjunto (como um primeiro passo na decisão). Em casos de fechamento involuntário, o

fechamento foi imposta por outros ou pelas circunstâncias impessoais.

Exercício: Dê outros exemplos de decisões com conjuntos alternativos que são: (a) aberta (b)

fechou, voluntariamente, e (c) involuntariamente fechado.

Na vida real, conjuntos alternativos abertos são muito comuns. Em teoria da decisão, no entanto,
conjuntos alternativos são comumente assumido a ser fechado. A razão para isso é que o fechamento faz
problemas de decisão muito mais acessível para tratamento teórico. Se o conjunto alternativo é aberto,
uma solução definitiva para um problema de decisão não disponível geral.

Por outro lado, as alternativas são consideradas geralmente ser Mutualmente exclusivo, isto é, de

tal modo que dois deles não podem ambos ser realizado. A razão para isso pode ser visto a partir do

seguinte diálogo:

Bob: " Eu não sei o que fazer amanhã. Na verdade, eu escolher entre duas alternativas.
Um deles é para ir para a palestra do professor Schleier em Kant na parte da manhã. O
outro é para ir ao concerto no salão de concertos à noite."

Cynthia: " Mas você não pensou em fazer as duas coisas?"


Bob: " Sim, eu posso muito bem fazer isso."

Cynthia: " Mas então você tem três alternativas: Apenas a palestra, apenas o concerto, ou
ambos ".
Bob: " Sim, isso é uma outra maneira de colocá-lo."

Os três alternativas mencionadas por Cynthia são mutuamente exclusivas, uma vez que nenhuma
delas pode ser realizado. Sua forma de representar a situação é mais elaborado e mais clara, e é
preferido em teoria da decisão.
Por isso, em teoria da decisão é comumente assumido que o conjunto de alternativas está

fechada e que seus elementos são mutuamente exclusivas.

4.2 Resultados e estados da natureza

O efeito de uma decisão não depende apenas da nossa escolha de uma alternativa e como
realizá-lo. Também depende de fatores fora do controle do decisor. Alguns destes fatores
externos são conhecidos, eles são o informação de fundo que o decisor tem. outros são

24
desconhecido. Eles dependem de que as outras pessoas vão fazer e sobre características da natureza que são

desconhecidos para o tomador de decisão

Como exemplo, considere a minha decisão se deve ou não ir a um concerto ao ar


livre. O resultado (se vou ser satisfeitas ou não) depende tanto de fatores naturais (o clima)
e sobre o comportamento de outros seres humanos (como a banda vai tocar).

Em teoria da decisão, é comum para resumir os vários fatores externos desconhecidos em


um número de casos, chamado estados da natureza. 3 Um exemplo simples pode ser usado para
ilustrar como a noção de um estado de natureza é usado. Considere a minha decisão se deve ou
não levar um guarda-chuva quando eu sair amanhã. O efeito dessa decisão depende se ele irá ou
não chover amanhã. Os dois casos "chove" e "não chove" pode ser tomado como os estados da
natureza em um tratamento desta decisão teórico-decisão.

O possível resultados de uma decisão são definidos como o efeito combinado de uma alternativa
escolhida e da natureza do estado que se obtém. Por isso, se eu não tomar o meu guarda-chuva e chove,
então o resultado é que eu tenho uma mala leve e se molhar. Se eu levar meu guarda-chuva e chove,
então o resultado é que eu tenho uma mala mais pesada e não se molhar, etc.

4.3 matrizes de decisão


O formato padrão para a rotina de avaliação-escolha em (individual) teoria da decisão é a de um matriz
de decisão. Em uma matriz de decisão, as alternativas abertas para o tomador de decisão são
tabulados contra os possíveis estados da natureza. As alternativas são representadas pelas linhas
da matriz, e os estados da natureza pelas colunas. Vamos usar uma decisão de trazer um
guarda-chuva ou não como um exemplo. A matriz de decisão é a seguinte:

Chove Não chove


guarda-chuva roupas secas, roupas secas,
mala pesada mala pesada
não guarda-sol roupas encharcadas, roupas secas,
mala luz mala luz

3 O termo é inadequado, uma vez que também inclui possíveis decisões por outras pessoas. Talvez o "cenário" teria

sido uma palavra melhor, mas desde que "estado de natureza" é quase universalmente usado, ele será retido aqui.

25
Para cada alternativa e cada estado de natureza, a matriz de decisão atribui um resultado (como
"roupas secas, mala pesada" no nosso exemplo).

Exercício: Desenhe uma matriz de decisão que ilustra a decisão se deve ou não

comprar um bilhete em uma loteria.

Para utilizar uma matriz para analisar uma decisão, precisamos, além da própria matriz, (1)
informações sobre como os resultados são avaliados, e (2) informações relativas a qual dos
estados da natureza serão realizados.
A forma mais comum para representar os valores de resultados é atribuir utilitários para

eles. descrições verbais de resultados podem em seguida ser substituídos por valores de utilidade na

matriz:

Chove Não chove


guarda-chuva 15 15
não guarda-sol 0 18

teoria da decisão Mainstream é quase exclusivamente dedicado aos problemas que podem ser
expressas em matrizes deste tipo, matrizes de utilidade. Como será visto nos capítulos a seguir, a
maioria dos modernos métodos teórico-de decisões exigem informações numéricas. Em muitos
problemas de decisão práticos temos informações valor muito menos precisa (talvez melhor expressa
por uma relação de preferência incompleto). No entanto, é muito mais difícil construir métodos que
podem lidar eficazmente com informações não-numéricas.

4.4 informações sobre os estados da natureza

Em teoria da decisão, matrizes de utilidade são combinados com vários tipos de informações sobre os
estados da natureza. Como um caso limite, o decisor pode saber que estado de natureza irá obter. Se,
no exemplo acima, eu sei que vai chover, então isso torna a minha decisão muito simples. Casos como
este, quando apenas um estado de natureza precisa ser levado em conta, são chamados "sob certeza
tomada de decisão". Se você sabe, para cada alternativa, qual será o resultado se você escolher essa
alternativa, então você age sob certeza. Se não, então você age em condições não-certeza.

Não certeza é normalmente dividido em outras categorias, como o risco, incerteza e


ignorância. o locus classicus para essa subdivisão é Knight ([1921] 1935), que assinalou que
"[o] termo 'risco', como vagamente

26
usado na fala cotidiana e na discussão econômica, realmente abrange duas coisas que,
funcionalmente, pelo menos, nas suas relações causais com os fenômenos da organização
econômica, são categoricamente diferente". Em alguns casos, 'Risco', 'uma quantidade
suscetíveis de medida' , em outros casos "algo distintamente não desse personagem". Ele propôs
reservar o termo "incerteza" para casos do tipo não-quantificável, e o termo "risco" para os casos
quantificáveis. (Knight [1921] 1935, pp . 19-20)

Em um dos livros mais influentes na teoria da decisão, os termos são definidos da seguinte
forma:

"Vamos dizer que estamos no reino da tomada de decisões em: (a) Certeza Se cada acção é

conhecido por levar a um resultado invariavelmente específica (da perspectiva palavras, estímulo,

alternativa, etc, também são utilizados). (B) Risco Se cada acção conduz a um de um conjunto de

possíveis resultados específicos, cada resultado ocorrendo com uma probabilidade conhecida. As

probabilidades são assumidos a ser conhecido para o tomador de decisão. Por exemplo, uma ação

pode levar a esse resultado arriscada: uma recompensa de US $ 10 se uma moeda 'justa' surge

cabeças, e uma perda de US $ 5 se der coroa. Claro, a segurança é um caso degenerado do risco

onde as probabilidades são 0 e 1. (c) Incerteza se qualquer ação ou ambos tem como conseqüência

um conjunto de possíveis resultados específicos, mas onde as probabilidades de estes resultados

são completamente desconhecidos ou não são ainda significativas."(Luce e Raiffa 1957, p. 13)

Estas três alternativas não são exaustivas. Muitos - talvez a maioria - problemas de decisão
cair entre as categorias de risco e incerteza, como definido por Luce e Raiffa. Tomemos, por
exemplo, a minha decisão esta manhã para não trazer um guarda-chuva. Eu não sabia que
a probabilidade de chuva, por isso não foi uma decisão sob risco. Por outro lado, a
probabilidade de chuva não era completamente desconhecido para mim. Eu sabia, por
exemplo, que a probabilidade era mais do que 5 por cento e inferior a 99 por cento. É
comum usar o termo "incerteza" para cobrir, assim, tais situações com conhecimento parcial
das probabilidades. Esta prática será seguido aqui. A incerteza mais estrita referido por Luce
e Raiffa vai, como também é comum, ser chamado de "ignorância". (Cf. Alexander 1975, p.

27
certeza conhecimento determinista
risco conhecimento probabilístico completo
incerteza conhecimento probabilístico parcial

ignorância nenhum conhecimento probabilístico

Ela nos comum dividir decisões nessas categorias, decisões "sob risco", "sob incerteza",
etc. Essas categorias serão utilizados nos capítulos seguintes.

Em resumo, o padrão representação de uma decisão consiste de (1) uma matriz de utilidade,
e (2) alguma informação sobre em que medida os vários estados da natureza na matriz que é
suposto obter. Por isso, no caso do processo de tomada de decisão sob risco, a representação
padrão inclui uma atribuição de probabilidade para cada um dos estados da natureza (isto é, para
cada coluna da matriz).

28
5. utilidade esperada

utilidade a abordagem dominante para, probabilidades ou seja, conhecidos sob risco de tomada de

decisão, é esperado (UE). Este é, sem dúvida, "o principal paradigma na tomada de decisões desde a

Segunda Guerra Mundial" (Schoemaker

1982, p. 529), tanto em aplicações descritivos e normativas.

5.1 O que se espera de utilidade?

utilidade esperada poderia, mais precisamente, ser chamado de "teoria da utilidade ponderada probabilidade".

Em teoria utilidade esperada, para cada alternativa é atribuído uma média ponderada dos respectivos valores de

utilidade em diferentes estados da natureza, e as probabilidades de estes estados são usados ​como pesos.

Vamos usar novamente o exemplo guarda-chuva que tem sido referido nas seções anteriores.

Os utilitários são como se segue:

Chove Não chove


guarda-chuva 15 15
não guarda-sol 0 18

Suponha que a probabilidade de chuva é 0,1. Em seguida, o (probabilityweighted) utilidade


esperada de trazer o guarda-chuva é 0,1 # 15 + 0,9 # 1 5 = 15, e que de não levar o guarda-chuva é
0,1 # 0 + 0,9 # 18 = 16,2. De acordo com a máxima de maximização da utilidade esperada ( MEU)
não devemos, neste caso, levar o guarda-chuva. Se, por outro lado, a probabilidade de chuva é 0,5,
então a utilidade esperada (peso probabilidade) de trazer o guarda-chuva é 0,5

# 15 + .5 # 15 = 15 e que de não trazer o guarda-chuva é .5 # 0 + .5 # 18 = 9. Neste caso, se


queremos maximizar a utilidade esperada, então devemos trazer o guarda-chuva.

Isso também pode ser dito de uma forma mais geral: Haja n
os resultados, para cada um dos quais está associado um utilitário e uma probabilidade. Os resultados são

numeradas, de modo a que o primeiro resultado tem utilidade você 1 ea probabilidade p 1, o segundo tem utilidade você

2 ea probabilidade p 2, etc. Em seguida, a utilidade esperada é definida como se segue:

p 1 # você 1 + p 2 # você 2 + ... + p n # você n

29
teoria da utilidade esperada é tão antiga quanto a teoria da probabilidade matemática (embora a frase
"utilidade esperada" é de origem mais tarde). Ambos foram desenvolvidos no século 17 em estudos de
salão-jogos. De acordo com
Port-Royal Logic ( 1662), "para julgar o que se deve fazer para obter um bem ou evitar um mal,
não se deve considerar apenas o bem eo mal em si, mas também a probabilidade de que ele
vai ou não vai acontecer e ver geometricamente a proporção que todas estas coisas têm
juntos." (Arnauld e Nicole [1662] 1965, p 353 [IV: 16]).

5.2 utilidade objetiva e subjetiva

Em suas primeiras versões, a teoria da utilidade esperada não se referia a serviços públicos, no sentido

moderno da palavra, mas a resultados monetários. A recomendação era para jogar um jogo, se ele

aumentou sua riqueza esperada, caso contrário não. As probabilidades foram referidas frequências

objectivos, tal como pode ser observado em dados e outros dispositivos mecânicos.

Em 1713, Nicolas Bernoulli (1687-1759) representava um problema difícil para a teoria da

probabilidade, agora conhecido como o paradoxo de São Petersburgo. (Foi publicado no processo de uma

academia na cidade.) Somos convidados a considerar o seguinte jogo: A moeda honesta é jogado até que

ocorra o primeiro cabeça. Se a primeira cabeça surge no primeiro lance, em seguida, você receberá uma

moeda de ouro. Se a primeira cabeça surge no segundo lance, você recebe 2 moedas de ouro. Se ele vem

para cima no terceiro lance, você recebe 4 moedas de ouro. Em geral, se ele vem para cima no n' th sorteio,

você receberá 2 n moedas de ouro.

A probabilidade de que o primeiro chefe ocorrerá no n' th lance é 1/2 n.


Sua riqueza esperada depois de ter jogado o jogo é

1/2 # 1 + 1/4 # 2 + ..... 1/2 n # 2 n- 1 + ...

Esta soma é igual ao infinito. Assim, de acordo com a máxima de maximizar a riqueza esperado um

agente racional deve estar preparado para pagar qualquer quantidade finita de dinheiro para a

oportunidade de jogar este jogo. Em particular, ele deve estar preparado para colocar toda a sua fortuna

em jogo para uma única corrida do jogo St. Petersburg.

Em 1738 Daniel Bernoulli (1700-1782, um primo de Nicholas') propôs o que ainda é a


solução convencional para o quebra-cabeça St. Petersburg. Sua idéia básica era para substituir a
máxima de maximizar a riqueza esperada por que de maximizar a utilidade esperada (subjetiva).
A utilidade

30
não ligado por uma pessoa a riqueza não aumentar de forma linear com a quantidade de dinheiro, mas
sim aumenta a uma taxa decrescente. O seu primeiro US $ 1000 é mais valor para você do que é de US
$ 1000 se você já é um milionário. (Mais precisamente, Daniel Bernoulli propôs que a utilidade do
próximo incremento da riqueza é inversamente proporcional à quantidade que você já tem, de modo que
a utilidade da riqueza é uma função logarítmica da quantidade de riqueza.) Como pode diretamente ser
verificada, uma pessoa com uma tal função de utilidade pode muito bem estar dispostos a colocar suas
economias em jogo no jogo São Petersburgo.

Em aplicações da teoria da decisão aos problemas econômicos, utilidades subjetivas são


comumente usados. Na economia de bem-estar, presume-se que a utilidade de cada indivíduo é uma
função crescente da sua riqueza, mas esta função pode ser diferente para diferentes pessoas.

Na análise de risco, por outro lado, a utilidade objetivo é a abordagem dominante. A forma
mais comum para medir o risco é multiplicar "a probabilidade de um risco com sua gravidade, para
chamar que o valor esperado, e usar esse valor esperado para comparar riscos." (Bondi 1985, p. 9)

"O pior acidente reactor de fusão normalmente considerado, o que faz com que 50 000
mortes e tem uma probabilidade de 10- 8 / reator anos, contribui apenas cerca de dois por
cento dos efeitos médios de saúde de acidentes ractor."(Cohen 1985, p. 1)

Esta forma de utilidade esperada tem a vantagem de validade intersubjetiva. Uma vez utilitários esperados do

tipo usado em análise de risco foram correctamente determinados para uma pessoa, eles foram

correctamente determinados para todas as pessoas. Em contraste, se os utilitários são levados para ser

subjetiva, então validade intersubjetiva é perdido (e, como consequência disto, o papel dos conselhos de

especialistas é muito reduzida).

5.3 Avaliação da UE

O argumento mais comumente invocada em favor de maximizar objetivista utilidade esperada é que este
é um método bastante seguro para maximizar o resultado a longo prazo. Suponha, por exemplo, que o
número esperado de mortes em acidentes de trânsito em uma região será de 300 por ano, se os cintos de
segurança são compulsary e 400 por ano, se eles são opcionais. Então, se esses cálculos estiverem
corretos, cerca de 100 a mais pessoas por ano vai ser realmente

31
mortos no último caso do que no primeiro. Sabemos que, ao escolher uma destas opções, se vai levar
a menos ou mais mortes do que a outra opção. Se por objectivo reduzir o número de vítimas de
trânsito, então isso pode, devido à lei dos grandes números, com segurança ser alcançado através da
maximização da utilidade esperada (ou seja, minimizando o número esperado de óbitos).

A validade deste argumento depende do grande número de acidentes rodoviários, que os


níveis de fora efeitos aleatórios no longo prazo. Portanto, o argumento não é válido para as decisões
caso a caso sobre eventos únicos ou muito raras. Suponha, por exemplo, que temos uma escolha
entre uma probabilidade de 001 de um evento que vai matar 50 pessoas e a probabilidade de 0,1 de
um evento que vai matar uma pessoa. Aqui, efeitos aleatórios não será nivelado como no caso cinto
de tráfego. Em outras palavras, não sabemos, ao escolher uma das opções, se ele irá ou não levar a
menos mortes do que a outra opção. Num caso tal, tomado em isolamento, não há nenhuma razão
para maximizar a utilidade esperada.

No entanto, uma decisão neste caso a preferir a primeira das duas opções (com o
menor número de óbitos esperados) pode muito bem ser
baseado em uma aplicação razoável de teoria da utilidade esperada, ou seja, se a decisão for incluído em
um grupo suficientemente grande de decisões para as quais um metadecision foi feito para maximizar a

utilidade esperada. Como um exemplo, um caso forte pode ser feita de que um critério para a regulação

de substâncias químicas deve ser um dos maximização da utilidade esperada (minimizando os danos

esperado). A aplicação consistente deste critério em todas as diferentes decisões regulamentares

específicas devem minimizar os danos devido à exposição a substâncias químicas.

Quanto maior o grupo de decisões que são cobertos por essa regra, o mais eficiente é o efeito
de nivelamento-out. Em outras palavras, quanto maior o grupo de decisões, as consequências
catastróficas maiores podem ser nivelado. No entanto, não é tanto uma prática e um limite absoluto
para este efeito. o prático limite é de que as decisões têm de ser feitas em partes gerenciáveis. Se
muitas questões são agrupados, então os problemas de processamento de informação pode levar a
perdas que superam os ganhos que poderiam ter sido esperava. Obviamente, as decisões podem ser
divididas em pacotes gerenciáveis ​em muitas maneiras diferentes, e como isso é feito pode ter um
forte influcence na resultados da decisão. Como exemplo, a protecção dos trabalhadores contra a
radiação pode ser dada uma prioridade mais elevada se for agrupados com outras questões de
radiação do que se for incluído entre outras questões de ambiente de trabalho.

32
o absoluto limite para o efeito de nivelamento-out é que alguns efeitos extremos, como uma
guerra nuclear ou uma grande ameaça ecológica para a vida humana, não pode ser nivelado para fora,
mesmo no caso limite hipotética em que toda a tomada de decisão humana visa a maximização da
utilidade esperada. Talvez o melhor exemplo disso é o uso do Pentágono de atribuições de serviço
público secretos para acidentais ataque nuclear e falta de resposta a um ataque nuclear, como base
para a construção de dispositivos de comando e controle. (Patê-Cornell e Neu 1985)

Mesmo nos casos em que o argumento nivelamento-out para a maximização da utilidade


esperada é válido, o cumprimento deste princípio não é exigida por racionalidade. Em particular, é
bem possível que um agente racional abster-se de minimizar o dano total, a fim de evitar riscos alta
probabilidade imponentes sobre os indivíduos.

Para ver isto, vamos supor que temos de escolher, em uma situação aguda, entre duas
maneiras de reparar um vazamento de gás grave na casa das máquinas de uma fábrica química.
Uma das opções é enviar o reparador imediatamente. (Há apenas uma pessoa de cada lado que é
competente para fazer o trabalho.) Ele, então, corre o risco de 0,9 a morrer devido a uma explosão
do gás imediatamente depois de ter realizado as operações técnicas necessárias. A outra opção é
deixar imediatamente o gás no ambiente. Nesse caso, o técnico irá executar nenhum risco particular,
mas cada um de 10 000 pessoas na vizinhança imediata da planta corre um risco de 0,001 a serem
mortos pelos efeitos tóxicos do gás. A máxima de maximizar a utilidade esperada exige que enviar o
reparador de morrer. Esta é também uma forma bastante segura para minimizar o número de mortes
reais. Contudo, não é claro que é a única resposta possível que é racional. Um tomador de decisão
racional pode abster-se de maximizar a utilidade esperada (minimizando os danos esperado), a fim
de evitar o que seria injusto para um único indivíduo e viola os seus direitos.

É essencial observar que espera maximização da utilidade só é significativa na comparação


entre opções em uma única e mesma decisão. Algumas das mais claras violações deste requisito
básico pode ser encontrado em análise riks. cálculos utilidade esperada têm sido muitas vezes utilizado
para comparações entre os fatores de risco que não são opções em uma única e mesma decisão. Na
verdade, a maioria dos riscos que estão sujeitos a regulação tem defensores - tipicamente produtores
ou proprietários - que pode contratar um analista de risco para fazer comparações, tais como: "Você vai
ter que aceitar que este risco é menor do que a de ser atingido por um raio" ou: "Você deve aceitar este

33
tecnologia, uma vez que o risco é menor do que a de um meteorito cair na sua cabeça." Tais comparações quase

sempre pode ser feita, pois a maioria dos riscos são 'menor' do que outros riscos que são mais ou menos aceito.

Os resíduos de pesticidas são desprezíveis se comparados a agentes cancerígenos naturais em alimentos.

acidentes de trabalho graves são, na maioria dos casos menos provável do que os acidentes rodoviários, etc.

Não há nenhum mecanismo pelo qual agentes cancerígenos alimentos naturais será
reduzida se aceitarmos resíduos de pesticidas. Portanto, não é irracional rejeitar o último ao aceitar
que temos de viver com o primeiro. Em geral, não é irracional rejeitar uma continuando a viver com B
que é muito pior do que A, se A e B não são opções a serem escolhidas entre em um mesmo
decision.To pelo contrário: Na medida em que um comportamento auto-destrutivo é irracional , seria
altamente irracional deixar-se convencido por todos comparações deste tipo. Temos que viver com
algumas bastante grandes riscos naturais, e também optaram por viver com algumas bastante
grandes riscos artificiais. Se tivéssemos de aceitar, além disso, todas as propostas de novos riscos
que são pequenos em comparação com algum risco de que já aceita, então estaríamos todos
mortos.

Em resumo, o estatuto normativo da maximização da UE depende da medida em que um


efeito de nivelamento-out é de se esperar. O mais forte argumento em favor de objetivista UE pode
ser feita nos casos em que um grande número de decisões semelhantes devem ser feitos de acordo
com uma ea mesma regra de decisão.

5.4 estimativas de probabilidade

Para calcular valores esperados, é preciso ter acesso a estimativas razoavelmente precisas de probabilidades

objetivas. Em algumas aplicações da teoria da decisão, estas estimativas podem ser baseadas em frequências

empiricamente conhecidos. Como um exemplo, as taxas de mortalidade em altas exposições ao amianto são

conhecidas a partir de estudos epidemiológicos. Na maioria dos casos, no entanto, a base para estimativas de

probabilidade é muito menos seguro. Na maioria das avaliações de risco de produtos químicos, a evidência

empírica é apenas indirecta, uma vez que foi obtido a partir da espécie errada, na dose errada e muitas vezes

com o caminho errado de exposição. Da mesma forma, as taxas de insucesso de muitos componentes

tecnológicos têm que ser estimados com muito pouco apoio empírico.

A confiabilidade das estimativas de probabilidade depende da presença ou ausência de


diferenças sistemáticas entre probabilidades objetivas e

34
estimativas subjetivas de estas probabilidades. Tais diferenças são bem conhecidos da psicologia
experimental, onde elas são descritas como de falta
calibração. estimativas de probabilidade são (bem) calibrado se "a longo prazo, para todas as
proposições atribuída uma dada probabilidade, a proporção que é verdade é igual a probabilidade
atribuída." (Lichtenstein et al., 1982, pp. 306-
307.) Assim, metade das afirmações de que um sujeito bem calibrado atribui probabilidade 0,5 são

verdadeiras, assim como 90 por cento das pessoas que ela atribui 0,9 probabilidade, etc.

A maioria dos estudos de calibração têm se preocupado com as respostas dos sujeitos

a-conhecimentos gerais perguntas (questionário). Em um grande número de tais estudos, um elevado grau de

excesso de confiança foi demonstrada. Num estudo recente, no entanto, Gigerenzer et al. forneceram

evidências sugestivas de que o efeito do excesso de confiança em experimentos de conhecimentos gerais

pode depender de preconceitos na seleção de tais questões. (Gigerenzer et al 1991)

Estudos experimentais indicam que há apenas alguns tipos de previsões que os especialistas
realizam de forma bem-calibrado. Assim, os meteorologistas profissionais e casas de apostas de cavalos
de corrida fazem wellcalibrated estimativas de probabilidade em suas respectivas áreas de
especialização. (Murphy e Winkler 1984. Hoerl e Caindo 1974) Em contraste, a maioria dos outros tipos
de predição que tenham sido estudadas estão sujeitas a substancial excesso de confiança. Médicos
atribuir valores muito altos de probabilidade para a correção de seus próprios diagnósticos.
(Christensen-Szalanski e Bushyhead

1981) engenheiros Geotechnical foram excesso de confiança nas suas estimativas do teor de
uma base de argila. (Hynes e Vanmarcke 1976) previsões probabilísticas de eventos públicos,
tais como eventos políticos e esportivos, também foram mostrados para ser excesso de
confiança. Em um dos estudos mais cuidadosos de previsões geral de eventos, Fischhoff e
MacGregor descobriu que como a confiança dos assuntos subiu 0,5-1,0, a proporção de
previsões corretas só aumentou 0,5-0,75. (Fischhoff e MacGregor1982 Cf:. Fischhoff e Beyth
1975. Ronis e Yates 1987.)

Tal como foi apontado por Lichtenstein et al., Os efeitos do excesso de confiança em estimativas de

probabilidade por especialistas pode ser muito grave.

"Por exemplo, no Estudo de Segurança Nuclear (Nuclear Regulatory Commission dos Estados
Unidos, 1975) 'em cada nível da análise uma distribuição log-normal de dados taxa de falha foi
assumida com 5 e 95 limites percentuais definidos' ... A pesquisa comentado aqui sugere que
as distribuições construído a partir de avaliações das .05 e .95 fractis pode

35
ser grosseiramente tendenciosa. Se tais avaliações são feitas em vários níveis de uma
análise, com cada distribuição avaliada ser demasiado estreito, os erros não se cancelam
um ao outro, mas será composto. E porque os custos do fracasso-power-usina nuclear são
grandes, a perda esperada de tais erros poderiam ser enormes."(Lichtenstein et al. 1982, p.

331)

Talvez surpreendentemente, os efeitos do excesso de confiança pode ser menos grave quando as estimativas

de probabilidades individuais dos peritos são diretamente comunicadas ao público do que quando eles são

primeiro processados ​por analistas de decisão. A razão para isso é que nós normalmente sobrepeso pequenas

probabilidades. (Tversky e Kahneman 1986) Em outras palavras, podemos fazer "muito pouco" de diferença

(em comparação com o modelo de utilidade esperada) entre uma situação com, digamos, um 0,1% e um risco

de 2% do desastre. Este tem sido muitas vezes visto como um exemplo da irracionalidade humana. No

entanto, também pode ser visto como um mecanismo compensatório que, em certa medida faz bom para os

efeitos do excesso de confiança. Se um perito confiante demais estima a probabilidade de falha em um sistema

tecnológico em 0,01%, então ele pode ser mais razoável para se comportar como se fosse maior do que. 01% -

como o público "sofisticado" faz - do que se comportar como se fosse exatamente 0,01% - como especialistas

tendem a recomendar. Deve ser enfatizado que este mecanismo compensatório está longe de ser confiável.

Em particular, ele irá distorcer probabilidades bem calibrados, como probabilidades que são calculados a partir

de frequências objetivas.

Em resumo, as estimativas subjetivas de probabilidades (objetiva) são pouco confiáveis.

Portanto, nenhum argumento muito convincente pode ser feito em favor de maximizar a UE se apenas

estimativas subjetivas dos valores de probabilidade estão disponíveis.

36
6. bayesianismo

No capítulo 5, as probabilidades foram levados para ser frequências ou frequências potenciais no mundo físico.

Alternativamente, as probabilidades podem ser tomadas para ser fenômenos puramente mentais.

Subjetiva probabilidade (personalista) é uma noção de idade. Tão cedo quanto na Ars
Conjectandi ( 1713) de Jacques Bernoulli (1654-1705, um tio de Nicolas e Daniel probabilidade) foi
definido como um grau de confiança que pode ser diferente com pessoas diferentes. O uso de
probabilidades subjetivas em teoria da utilidade esperada, foi, no entanto, primeiro desenvolvido por
Frank Ramsey em 1930. teoria da utilidade esperada com ambas as utilidades subjetivas e
probabilidades subjetivas é comumente chamado teoria da decisão Bayesian, ou bayesianismo. (O
nome deriva do Thomas Bayes, 1702-1761, que forneceu a maior parte dos fundamentos
matemáticos para inferência probabilística moderna.)

6.1 O que é bayesianismo?

Os quatro princípios a seguir resumem as idéias de bayesianismo. Os três primeiros deles se referem ao

sujeito como portador de um conjunto de crenças probabilísticos, enquanto que a quarta refere-se ao

assunto como um tomador de decisões.

1. O assunto Bayesian tem um conjunto coerente de crenças probabilísticos.

Por coerência se entende aqui a coerência formal, ou a conformidade com as leis matemáticas de
probabilidade. Estas leis são as mesmas que as de probabilidade objetiva, que são conhecidos a
partir das frequências de eventos envolvendo dispositivos mecânicos, como dados e moedas.

Como um simples exemplo de em coerência, um assunto Bayesian não pode ter ambos uma
probabilidade subjetiva de 0,5 que vai chover amanhã e uma probabilidade subjetiva de 0,6 que ele
quer chuva ou neve amanhã.
Em algumas teorias de decisão não-Bayesian, nomeadamente teoria do prospecto (ver secção
7.2), as medidas de grau de crença são usados ​que não obedecem as leis da probabilidade. Estas
medidas não são probabilidades (subjetivas ou não). (Schoemaker, 1982, p. 537, chama de "pesos de
decisão".)
2. O assunto Bayesian tem um conjunto completo de crenças probabilísticos. Em outras
palavras, a cada proposição (s) que atribui uma probabilidade subjetiva. Um assunto Bayesian tem
um (grau de) crença sobre tudo. Portanto, Bayesian tomada de decisão é sempre tomada de
decisões sob certeza ou

37
risco, nunca, sob incerteza ou ignorância. (De um ponto estritamente Bayesian de vista, a
distinção entre risco e incerteza não é ainda significativa.)

3. Quando exposto a novas evidências, o assunto Bayesian muda sua (seu) crenças, de
acordo com seus (suas) probabilidades condicionais.
probabilidades condicionais são denotados p (| ), e p (A | B) é a probabilidade de que UMA, dado que B é verdade.

( p (A) indica, como de costume, a probabilidade de que UMA,

dado tudo o que você sabe.)


Como exemplo, vamos UMA denotam que chove em Estocolmo, depois de amanhã, e deixar B denotam

que chove em Estocolmo amanhã. Então bayesianismo requer que uma vez que você começa a saber

que B É verdade, você revisar sua estimativa anterior de p (A) para que coincida com a sua estimativa

anterior de p (A | B). Ele também exige que todos os seus probabilidades condicionais devem estar em

conformidade com a definição:

P (a | B) = p (A & B) / p (B)

De acordo com alguns Bayesians (nomeadamente Savage e de Finetti) não há outros


critérios de racionalidade para a sua escolha de probabilidades subjetivas. Contanto que
você mudar sua mente na forma prescrita quando você recebe novas evidências, sua
escolha de probabilidades subjetivas iniciais é apenas uma questão de gosto pessoal.
Outros Bayesians (tais como Jeffreys e Jaynes) argumentaram que não existe, dada a
totalidade das informações que você tem acesso a uma atribuição probabilidade admissível
único. (O princípio da razão suficiente é usado para eliminar os efeitos da falta de
informação.) O antigo ponto de vista é chamado subjetivo (personalista) bayesianismo. Este
último ponto de vista é chamado de objetivo (ou racionalista) bayesianismo uma vez que
postula uma função de probabilidade-sujeito independente. No entanto, em ambos os casos,

4. Finalmente, bayesianismo afirma que o agente racional escolhe a opção com a


maior utilidade esperada.
A afirmação descritiva de bayesianismo é que os decisores reais satisfazem estes
critérios. A alegação normativa da bayesianismo é que os decisores racionais satisfazê-los. Na
análise Bayesiana decisão normativo ", o objectivo é reduzir uma D [ECISÃO] incoerência M
[aker] 's, e para fazer o DM aproximar o comportamento do agente racional hipotético, de modo
que

38
Depois de ajudar ele deve satisfazer M [aximizing] E [xpected] U [lidade]."(Freeling
1984, p. 180)
não subjetiva bayesianismo não prescreve qualquer relação particular entre probabilidades
subjetivas e frequências objetivas ou entre serviços públicos subjetivos e valores mensuráveis
​monetários ou outros. O personagem de um sujeito Bayesian tem sido extraordinariamente bem
expressa por Harsanyi:

"[H] e simplesmente não pode deixar de agir Até parece ele atribuído numérica Serviços de utilidade pública,

pelo menos implicitamente, para resultados possíveis alternativas de seu comportamento e numérico

atribuído probabilidades, pelo menos implicitamente, a contingências alternativas que possam surgir,

e Até parece Ele então tentou maximizar sua utilidade esperada em termos de estes utilitários e

probabilidades escolhidos por ele ...

Claro, ... nós pode muito bem decidir escolher esses utilitários e probabilidades de forma

totalmente consciente e explícito maneira, de modo que nós podemos fazer maior uso possível de

nossos recursos intelectuais conscientes, e da melhor informação que temos sobre nós mesmos e

sobre o mundo. Mas o ponto é que a reivindicação básica da teoria Bayesiana não reside na

sugestão de que nós devemos fazer um esforço consciente para maximizar a nossa utilidade

esperada em vez disso, encontra-se no teorema matemático nos dizendo que E se agimos de

acordo com alguns racionalidade muito importante axiomas então nós deve inevitavelmente

maximizar a nossa utilidade esperada."(Harsanyi 1977, pp. 381-382)

Bayesianismo é mais popular entre os estatísticos e filósofos do que entre os mais cientistas de decisão
orientados para a prática. Uma importante razão para isso é que ele é muito menos operativa que a
maioria das outras formas de utilidade esperada. Teorias baseadas em utilitários objetivas e / ou
probabilidades mais frequentemente dão origem a previsões que podem ser testadas. É muito mais
difícil determinar se ou não bayesianismo é violada.

"Em virtude destas interpretações técnicas [de utilidade e probabilidade], um verdadeiro


contra-exemplo tem de apresentar preferências racionais que violam os axiomas de
preferência, ou equivalentemente, são tais que existem não atribuições de probabilidades e
utilitários de acordo com os quais as preferências maximizar a utilidade esperada. Um
verdadeiro contra-exemplo não pode apenas fornecer algumas atribuições de probabilidade e
utilitário plausíveis e mostrar que por causa de

39
atitudes em relação ao risco não é irracional para formar preferências, ou fazer escolhas, ao
contrário das utilidades esperadas obtidos com estas atribuições."(Weirich 1986, p. 422)

Como veremos a seguir, bastante plausíveis contra-exemplos para bayesianismo pode ser concebido.
No entanto, para problemas de decisão mais práticas, que não foram concebidas para ser casos de
teste para bayesianismo, não pode ser determinado se bayesianismo é violada ou não.

6.2 Avaliação de bayesianismo

Bayesianismo deriva a plausibilidade de que tem de muito outras fontes que não a teoria da UE
objetivista. A sua mais importante fonte de plausibilidade é teorema de representação de Savage.

Na prova deste teorema, Savage não use probabilidades subjetivas ou utilitários subjetivas
como noções primitivas. Em vez disso, ele introduziu uma fraca relação de preferência binário! entre
pares de alternativas ( "é pelo menos tão bom quanto"). O indivíduo racional é assumido para ordenar
as alternativas de acordo com esta relação. Savage propôs um conjunto de axiomas para! que
representa o que ele considerava ser pedidos razoáveis ​sobre tomada de decisão racional. De acordo
com seu teorema, existe, por qualquer preferência ordenação satisfazer esses axiomas: (1) uma
medida de probabilidade p

durante os estados do mundo, e (2) uma medida de utilidade você sobre o conjunto dos resultados, de

modo que o indivíduo prefere sempre a opção que tem a maior utilidade esperada (tal como calculados

com estas medidas de probabilidade e de utilidade). (Savage 1954)

O mais importante desses axiomas é a princípio do certo-coisa. Deixei


UMA 1 e UMA 2 ser duas alternativas, e deixar S ser um estado de natureza tal que o resultado da UMA 1 em
S é o mesmo que o resultado UMA 2 em S. Em outras palavras, o resultado em caso de S é uma "coisa
certa", não dependendo se um escolhe UMA 1 ou UMA 2. O princípio do certo-coisa diz que se a "coisa
certa" (ou seja, o resultado comum em caso de S) é alterado, mas nada mais é alterado, então a
escolha entre UMA 1 e UMA 2 não é afetado.

Como exemplo, suponha que uma série extravagante quer escolher uma sobremesa por jogar uma

moeda. Você está convidado a escolher entre alternativas UMA

e B. em alternativa UMA, você vai ter frutas em caso de cabeças e nada em caso de caudas. em
alternativa B você terá a torta em caso de cabeças e nada em caso de caudas. A matriz de decisão é
a seguinte:

40
Chefes Tails
UMA fruta nada
B torta nada

Quando você tiver feito a sua mente e anunciou qual das duas alternativas que você preferir, o
anfitrião caprichosa de repente se lembra que ele tem algum sorvete, e altera as opções de modo
que a matriz de decisão é agora como segue:

Chefes Tails
UMA fruta sorvete
B torta sorvete

Uma vez que apenas uma "coisa certa" (um resultado que é comum às duas alternativas) mudou
entre os dois problemas de decisão, os certeza demandas principais coisa que você não mudar a
sua escolha entre UMA e
B quando o problema de decisão é revista desta forma. Se, por exemplo, você escolheu alternativa UMA no
primeiro problema de decisão, então você é obrigado a fazê-lo no segundo problema também.

O ponto de partida da crítica moderna de bayesianismo foi fornecida por Allais (1953). Ele
propôs o seguinte par de problemas de decisão, agora conhecido como o paradoxo Allais:

"(1) Préférez-vous la situation A à la situação B?

SITUAÇÃO A: Certeza de recevoir 100 milhões.


SITUAÇÃO B: 10 possibilidades sur 100 de gagner 500 milhões.
89 possibilidades sur 100 de gagner 100 milhões.
Uma oportunidade sur 100 de ne rien gagner.

(2) Préférez-vous situação C la à la situação D?

SITUAÇÃO C: 11 possibilidades sur 100 de gagner 100 milhões.


89 possibilidades sur 100 de ne rien gagner.
SITUAÇÃO D: 10 possibilidades sur 100 de gagner 500 milhões.
90 possibilidades sur 100 gagner rien de ne ".

(Allais 1953, p. 527)

41
Os dois problemas podem ser resumidos nas duas seguintes matrizes de decisão, onde
as probabilidades dos estados da natureza foram dadas entre colchetes:

S 1 [. 10] S 2 [. 89] S 3 [. 01]


UMA 100 000 000 100 000 000 100 000 000
B 500 000 000 100 000 000 0

S 1 [. 10] S 2 [. 89] S 3 [. 01]


C 100 000 000 0 100 000 000
D 500 000 000 0 0

Allais relata que a maioria das pessoas preferem UMA para B e D para C. Isto também foi confirmado em vários

experimentos. Este padrão de resposta é notável, uma vez que é incompatível com bayesianismo. Em outras

palavras, não existe uma combinação de uma atribuição de probabilidade subjectiva e um assigment utilidade

subjectivo tal que eles se obter uma maior utilidade esperada para UMA do que para B e também uma maior

utilidade esperada para D do que para C. A resposta também viola claramente o princípio da certeza-coisa

desde os dois problemas de decisão só diferem em S 2, que tem o mesmo resultado para ambas as alternativas

em cada problema de decisão.

Resultados contraditórios bayesianismo também foram obtidos com o exemplo


seguinte:

Imagine que os EUA estão se preparando para o surto de uma doença asiática incomum, que
é esperado para matar 600 pessoas. Dois programas alternativos para combater a doença
têm sido propostas.
Primeiro problema de decisão: Escolha entre programas UMA e B.
Se Programa UMA é adotado, 200 pessoas serão salvas. Se Programa B é adotado, há uma

probabilidade de 1/3 de que 600 pessoas serão salvas, e uma probabilidade de 2/3 de que há

pessoas serão salvas.

Segundo problema de decisão: Escolha entre programas C e D.


Se Programa C é adotado, 400 pessoas vão morrer. Se Programa D é adotado, há um 1/3

probabilidade de que ninguém vai morrer, e um 2/3 probabilidade de que 600 pessoas

morrerão. (TVERSKY e KAHNEMAN 1981, p. 453)

42
A grande maioria dos pacientes (72%) preferido programa UMA programar B,
e a grande maioria (78%) preferido programa D programar C. No entanto, alternativas UMA e C foram
construídos de modo a ser idênticos, e por isso têm B
e D. Uma e B são enquadradas em termos do número de vidas salvas, enquanto
C e D são enquadradas em termos do número de vidas perdidas.

"Em várias ocasiões, nós apresentamos duas versões para os mesmos entrevistados e discutiu

com eles as preferências inconsistentes evocados pelos dois frames. Muitos entrevistados

manifestaram o desejo de permanecer avessos ao risco nas 'vidas salvas' versão eo risco que

procuram nas 'vidas perdidas' versão, embora eles também expressa um desejo para as suas

respostas para ser consistente. na persistência do seu recurso, efeitos de enquadramento

assemelham ilusões visuais mais do que erros de cálculo ". (TVERSKY e KAHNEMAN 1986, p.

260)

Que conclusões normativa podem ser extraídas dessas e de outras contradições experimentais
de bayesianismo? Esta é uma das questões mais contestadas em teoria da decisão. De acordo
com Savage (1954, pp 101-.
103), tais resultados não provam que algo está errado com bayesianismo. Em vez disso, eles são a prova de

que as habilidades da maioria dos seres humanos de tomada de decisão está na necessidade de melhoria.

O outro extremo é representado por Cohen (1982), que propõe "o método de extração norma"
na avaliação de experimentos psicológicos. Este método assume que "a menos que seu julgamento é
obscurecido na época por wishful thinking, esquecimento, desatenção, baixa inteligência, imaturidade,
senilidade, ou algum outro fator de inibição de competência, todos os assuntos razão corretamente
sobre probabilidade: nenhum deles está programado para cometer falácias" (p. 251). Ele não acredita
que há "nenhuma boa razão para a hipótese de que assuntos usar um intrinsecamente falacioso
heurística" (p. 270). Se assuntos intelectualmente bom funcionamento tendem a decidir de uma certa
maneira, então deve haver alguma razão racional para eles a fazê-lo.

Essencialmente o mesmo ponto de vista foi feita pelo Berkeley e Humphreys (1982),
que propôs a seguinte explicação engenhosa de por que a reação comum ao problema de
doença asiática pode muito bem ser racional.

43
"Aqui programa UMA parece relativamente atraente, pois permite a possibilidade de
encontrar uma maneira de salvar mais de 200 pessoas: os estados futuros do mundo
não estão descritos no caminho cumulativamente exaustivo que é o caso de
consequências de programa B.
Programa C não permite a possibilidade de agência humana na economia de mais de 200 vidas

(de fato, a possibilidade é deixada em aberto que pode-se mesmo perder um pouco mais), e

dada a estrutura do problema ... esta pode muito bem explicar a preferência de UMA sobre B, e D sobre

C."
(Berkeley e Humphreys, 1982, p. 222).

Bayesians encontraram maneiras engenhosas de defender seu programa contra qualquer


forma de crítica. No entanto, parte dessa defesa pode ser contraproducente no sentido de
separar bayesianismo da ciência decisão prática.

44
7. Variações de utilidade esperada

Um grande número de modelos para a tomada de decisões sob risco têm sido desenvolvidos, a maioria
dos quais são variações ou generalizações da teoria da UE. Dois dos principais variações da teoria da
UE são discutidos neste capítulo. 4

7.1 Processo de utilidades e teoria pesar

Na UE, uma opção é avaliada de acordo com a utilidade que cada resultado tem, independentemente do
que os outros resultados possíveis são. No entanto, estes não são os únicos valores que podem
influenciar os tomadores de decisão. Um tomador de decisão também pode ser influenciado por um
desejo de evitar a incerteza, por um desejo de jogar ou por outros desejos que estão relacionados com
as expectativas ou às relações entre o resultado real e outros resultados possíveis, em vez dos
resultados reais, como tal, . Tais valores podem ser representados por valores numéricos, "utilitários
processo" Sowden (1984). Embora utilitários de processos não são permitidos na teoria da UE ",
podemos dizer que há uma presunção a favor da opinião de que não é irracional a valorizar certeza como
tal (porque este está de acordo com a intuição comum) e que nenhum argumento foi apresentado

- e parece haver pouca perspectiva de tal argumento a ser apresentado -. que nos obrigaria
a abandonar essa presunção"(. Sowden 1984, p 311)
A teoria da UE generalizada (GEU) que leva utilitários processo em consideração permite
a influência de atitudes em relação ao risco e certeza. Nas palavras de um dos seus proponentes
mais persistentes ", ele resolve paradoxos de Ellsberg de Allais e. Ao fazer conseqüências
incluem riscos, faz utilidades esperadas sensíveis aos riscos que são a fonte de problemas nestes
paradoxos, e assim traz M [aximization de ] E [xpected] U [lidade] em acordo com as preferências
avançadas neles ". (Weirich 1986, p. 436. Cf. TVERSKY 1975, p. 171.)

Tem sido afirmado frequentemente que o GEU envolve dupla contagem das attidudes ao
risco. (Harsanyi 1977, p. 385, ver também Luce e Raiffa 1957, p.
32.) Weirich (1986, pp. 437-438) mostrou que este não é necessariamente assim. Outro
argumento contra GEU foi apresentada com força por Tversky:

4 Para uma visão geral da variedade quase desconcertante de modelos para a tomada de decisões sob risco do leitor

é remetido para Fishburn (1989).

45
"De acordo com a interpretação restritiva da Allais e Savage que identifica as consequências com

os pagamentos monetários, a teoria da utilidade é violada [em paradoxo de Allais]. De acordo

com a interpretação mais ampla das consequências, que incorpora considerações não

monetários tais como a teoria da utilidade pesar permanece intacta. ..

Na ausência de quaisquer restrições, as consequências podem ser sempre


interpretados de forma a satisfazer os axiomas. Neste caso, no entanto, torna-se a teoria
vazio a partir de ambos os pontos de vista descritiva e normativas. A fim de maximizar a
potência e o conteúdo da teoria, um é tentado a adoptar uma interpretação restrita, tais como
a identificação dos resultados com pagamentos monetários."(TVERSKY 1975,

p. 171)

Esta linha de crítica pode ser válida contra GEU na sua forma mais geral, com não há limites para o
número e tipos de utilitários de processo. No entanto, esses limites pode ser imposta de uma forma
que seja suficientemente rigorosa para fazer a teoria falsificável sem perder suas principais
vantagens. De fato, tal teoria foi desenvolvida sob o nome de lamento teoria.

teoria pesar (Loomes e Sugden 1982, de Bell 1982, Sugden, 1986) faz uso de uma função de
utilidade de duas atributo que incorpora duas medidas de satisfação, nomeadamente (1) utilidade dos
resultados, como no UE clássica, e (2) a quantidade de pesar . Ao pesar se entende "a sensação
dolorosa de reconhecer que 'o que é' compara desfavoravelmente com 'o que poderia ter sido'." A
experiência inverso de uma comparação favorável entre os dois tem sido chamado de "alegrar-se".
(Sugden 1986, p. 67)

Na forma mais simples da teoria pesar, arrependimento é medido como "a diferença de valor
entre os ativos efetivamente recebidos e o nível mais elevado dos bens produzidos pelas de outros alternativas."(de
Bell 1982, p. 963) A função de utilidade tem a forma u (x, y), Onde X representa os ativos efetivamente
recebidos e y a diferença referida apenas. Esta função pode ser razoavelmente esperado para ser uma
função crescente de ambos X e y. ( Para outras condições matemáticas sobre a função, consulte Sino
1982.)

teoria pesar fornece uma explicação simples do paradoxo de Allais. Uma pessoa que

escolheu a opção B ( cf. secção 6.2) tem, se o estado da natureza S 3


materializa, fortes razões para lamentar a sua escolha. Um sujeito que escolheu a opção D teria razões
muito mais fracos a lamentar a sua escolha no caso de S 3. Quando arrependimento é levado em
consideração, parece bastante razoável preferir UMA para B e D para C.

46
teoria arrepender também pode explicar como uma ea mesma pessoa pode tanto jogar (risco
comportamento propenso) e seguro de compra (risco comportamento avesso). Ambos os
comportamentos podem ser explicados em termos de pesar-evasão. "[I] f você acha de apostar em um
cavalo especial para a próxima corrida e depois não decidir, seria terrível para vê-lo ganhar no longo
chances." (Desde que jogo no cavalo é algo que você poderia ter feito, ou seja, algo que era uma
opção real para você. Cf. Sugden 1986, pp. 72-73.) Da mesma forma, vendo a sua casa queimar
depois de ter decidido não para garantir que seria uma ocasião para pesar fortemente sentida.

7.2 teoria Prospect

teoria perspectiva foi desenvolvido por KAHNEMAN e TVERSKY ([1979] 1988,


1981) para explicar os resultados de experimentos com problemas de decisão que foram declarados em

termos de resultados monetários e probabilidades objetivas. No entanto, suas principais características são

relevantes para a tomada de decisão em geral. A teoria prospectiva difere da maioria dos outros teories de

tomada de decisão por ser "descaradamente descritiva" e fazer "nenhuma reivindicação normativos".

(TVERSKY e KAHNEMAN 1986, p. 272) Uma outra característica original de que ele faz a distinção entre

duas fases no processo de decisão.

A primeira fase, o fase de edição serve "para organizar e reformular as opções, de modo a
simplificar a avaliação e escolha posterior." (KAHNEMAN e TVERSKY [1979] 1988, p. 196) Na fase
de montagem, os ganhos e perdas nas diferentes opções são identificados, e que são definidos em
relação a algum ponto de referência neutro. Normalmente, este ponto de referência corresponde à
posição ativa atual, mas pode ser "afetado pela formulação das perspectivas oferecidas, e pelas
expectativas do tomador de decisão".

Na segunda fase, o fase de avaliação as opções - como editadas na fase anterior -


são avaliados. Segundo a teoria perspectiva, a avaliação se passa como se o decisor
usadas duas escalas. Uma delas substitui os resultados monetários dadas no problema,
enquanto o outro substitui as probabilidades objetivas dadas no problema.

resultados monetários (ganhos e perdas) são substituídos por um função de valor v. Esta
função atribui a cada resultado X um número v (x), o que reflete o valor subjetiva de esse
resultado. Em outras palavras, a função de valor é uma função de ganhos monetários e perdas
para uma medida de utilidade subjetiva. A principal diferença entre este valor e função

47
utilidade subjetiva convencional é que ela é aplicada às mudanças - que é ganhos e perdas - em vez
de estados finais. Uma função de valor típico é mostrado na
Diagrama 3. Como será visto, é côncava para ganhos e convexa para perdas, e é mais acentuada para
perdas do que ganhos.
Uma vez que a função de valor é diferente para diferentes pontos de referência (valores de
riqueza presente), deve em princípio ser tratado como uma função de dois argumentos, v (w, x), Onde W é
o estado actual da riqueza. (Para uma proposta semelhante, ver Bengt Hansson 1975.) No entanto, esta
complicação da teoria pode, por muitas situações práticas, ser dispensada, uma vez que "a ordem de
preferência de perspectivas não é muito alterada por variações pequenas ou mesmo moderadas na
posição ativa ". (KAHNEMAN e TVERSKY [1979]

1988, p. 200) Como um exemplo, a maioria das pessoas são indiferentes entre uma possibilidade de 50 por

cento de receber 1000 dólares e a certeza de receber uma certa quantidade entre 300 e 400 dólares, em

uma ampla gama de posições activas. (Por outras palavras, o "equivalente de certeza" de uma possibilidade

de 50 por cento de receber 1000 dólares é entre 300 ou 400 dólares).

probabilidades objetivas são transformados em teoria perspectiva por uma função ", que é
chamado de peso decisão. " é uma função crescente de e para o conjunto dos números reais entre 0 e
1. Ele toma o lugar que as probabilidades têm em teoria da utilidade esperada, mas não satisfaz as leis
da probabilidade. Ele não deve ser interpretada como uma medida do grau de crença. (KAHNEMAN e
TVERSKY [1979] 1988, p. 202) (Como um exemplo de como que viola as leis da probabilidade, deixar UMA
ser um evento e deixe!" ser a ausência desse evento. Então, se q é uma medida de probabilidade, q (A) +
Q (! ") = 1. Este não é titular para "Em vez disso," ( p (A)) + "(P (!")) tipicamente menos do que 1.)

diagrama 4 mostra o peso decisão em função de probabilidades objetivas.


Duas características importantes da função peso decisão deve ser salientado.

Primeiro: as diferenças de probabilidade próximo certeza são "sobrepeso". Nós consideramos a


diferença entre a chance cento 95 por de receber US $ 1 000 000 e certeza de receber US $ 1 000 000,
em certo sentido maior do que a diferença entre um 50 por cento de chance e um 55 por cento de
chance para a mesma quantidade de dinheiro . Da mesma forma, a redução da probabilidade de
vazamento de um depósito de resíduos 0,01-0 é concebido como mais importante - e talvez mais vale a
pena pagar para - do que uma redução da probabilidade de, digamos, 0,11-0,10. A sobreponderação de
pequenas probabilidades pode ser usado para explicar por que as pessoas tanto comprar o seguro e
comprar bilhetes de loteria.

48
Em segundo lugar: A função de ponderação é indefinido nas áreas que são muito próximas de zero e

unidades de probabilidades.

"[T] ele simplificação das perspectivas na fase de edição pode levar o indivíduo a descartar
eventos de probabilidade extremamente baixa e para tratar eventos de probabilidade
extremamente alta como se eles estavam certos. Porque as pessoas estão limitados na sua
capacidade de compreender e avaliar as probabilidades extremas , eventos altamente
improváveis ​são ignorados ou sobrepeso ea diferença entre alta probabilidade e certeza é
negligenciado ou exagerados." (KAHNEMAN e TVERSKY [1979] 1988, pp. 205-206)

Embora os criadores da teoria do prospecto "não têm reivindicações normativas", sua teoria nos dá
pelo menos duas lições importantes para a teoria normativa.
A primeira dessas lições é a importância da fase de edição ou o enquadramento de um problema de

decisão. exigências de racionalidade sobre o enquadramento de um problema de decisão deve ser atendido

com muito mais cuidado do que o que tem, em geral, sido feito. Em segundo lugar, a nossa tendência para o

"Ignorar" ou "overweight" pequenas probabilidades tem aspectos normativos importantes.

Seria um erro considerar sobrepondo de pequenas probabilidades como um sinal de

irracionalidade. Não é a priori razoável considerar o simples facto de um determinado tipo de evento é

possível como um fator relevante, independentemente da probabilidade de que um evento como esse

venham a ocorrer. Uma das razões para tal um ponto de vista que pode ser meras possibilidades dar

origem a processar utilitários. Você pode, por exemplo, preferem não vivemos em uma sociedade em que

são possíveis eventos de um tipo particular. Em seguida, qualquer opção em que as probabilidades de um

tal evento é acima de zero vai ser associado com um utilitário negativo (processo) que terão de ser aken

em conta ainda que nenhum evento desse tipo ocorre realmente.

49
De tomada de decisão 8. sob incerteza

8.1 Paradoxes de incerteza

A discussão sobre a distinção entre incerteza e probabilidade centrou-se em dois


paradoxos. Um deles é o paradoxo da evidência ideal. Foi descoberto por Peirce ([1878]
1932), mas a formulação mais comumente referidos é que por Popper:

"Deixei z ser um certo centavo, e deixar uma ser a declaração do n th (como ainda não
observado) de atirar z produzirá cabeças. Dentro da teoria subjetiva, pode-se supor que a
probabilidade absoluta (ou antes) da declaração uma é igual a 1/2, isto é,

(1) P ( a) = 1/2

Agora deixe e haver algum evidência estatística; ou seja, um relatório estatístico, baseada na
observação de milhares ou talvez milhões de lançamentos de z; e deixar esta evidência e estar
idealmente favorável para a hipótese de que z é estritamente simétrica - que é um 'bom'
centavo, com equidistribuição ... Nós, então, não tem outra opção a respeito P ( A, E) [ a
probabilidade de uma, dado e] do que assumir que

(2) P ( um, e) = 1/2

Isto significa que a probabilidade de cabeças jogando permanece inalterada, à luz da


evidência e, para agora temos

(3) P ( a) = P ( um, e).

Mas de acordo com a teoria subjetiva, ( 3) significa que e é, em geral, (absolutamente)


irrelevante informações a respeito de uma.
Agora isso é um pouco surpreendente; pois significa, mais explicitamente, que o
nosso chamado " grau de crença racional' na hipótese, um, deveria ser completamente
afetada pelo conhecimento probatório acumulada, e; que a ausência de qualquer evidência
estatística relativa z justifica precisamente a mesma 'grau de crença racional' como a
evidência de peso

50
de milhões de observações que, prima facie, confirmar ou fortalecer a nossa
crença."(Popper [1959] 1980, pp. 407-408)

O paradoxo empresta um forte apoio à proposta de Peirce de que "para expressar o bom estado de
crença, não 1 número, mas dois são necessários, o primeiro de acordo com a probabilidade inferido, o
segundo sobre o montante do conhecimento em que essa probabilidade é baseado."(Peirce [1878]
1932, p.
421)
O outro paradoxo é Paradoxo de Ellsberg. Trata-se do seguinte problema de decisão.

"Imagine uma urna conhecido por conter 30 bolas vermelhas e 60 bolas pretas e amarelas, o último

em proporção desconhecida ... Uma bola deve ser constituída aleatoriamente a partir da urna; as

seguintes ações são consideradas:

Eu $ 100 $0 $0

II $ 0 $ 100 $0

Acção I é 'uma aposta no vermelho,' II é 'uma aposta no preto.' Qual você prefere?

Agora, considere as duas acções seguintes, nas mesmas circunstâncias:

30 60
Vermelho Preto amarelo
III $ 100 $ 0 $ 100
IV $ 0 $ 100 $ 100

Acção III é uma 'aposta no vermelho ou amarelo'; IV é uma "aposta no preto ou amarelo. Qual

desses você prefere? Não tenha pressa!

Um padrão muito frequente de resposta é: ação preferi II, III e IV. Menos
frequente é: II preferidos para I, III e IV preferidos para "(Ellberg [1961] 1988, p 255.).

As pessoas que respondem de acordo com qualquer um desses padrões violar bayesianismo.

Eles "simplesmente não estão agindo 'como se' eles atribuído

51
probabilidades numéricas ou mesmo qualitativos para os eventos em questão". (ibid,

p. 257) Eles também violam o princípio do certo-coisa. 5


Ellsberg concluiu que o grau de incerteza, ou, inversamente, a confiabilidade das estimativas
de probabilidade, deve ser levado em conta na análise de decisão. Esta ideia foi retomada não só
por teóricos, mas também por alguns praticantes de análise de decisão aplicada e apoio à
decisão. analistas de risco, tais como Wilson e Crouch manter que "é a tarefa do avaliador do
risco de usar qualquer informação que está disponível para obter um número entre zero e um
para uma estimativa de risco, com tanta precisão quanto é possível, juntamente com uma
estimativa do a imprecisão." (Wilson e Crouch, 1987, p. 267)

8.2 Medidas de probabilidades incompletamente conhecidos

As regras que têm sido propostos para a tomada de decisão sob incerteza (informações
parciais probabilidade) todos fazem uso de alguma expressão quantitativa de informações
parciais probabilidade. Nesta seção, tais "medidas de incerteza" será introduzido. Algumas
regras de decisão que fazem uso deles será discutido na seção 8.3.

Existem dois tipos principais de medidas de probabilidades incompletamente conhecidos.

Proponho chamar-lhes medidas de binários e de múltiplos valores.

UMA medida binária divide os valores de probabilidade em dois grupos, possíveis e valores
impossíveis. Em muitos casos, o conjunto de possíveis valores de probabilidade formarão um único
intervalo, tais como: "A probabilidade de um grande terremoto nesta área nos próximos 20 anos é de
entre 5 e 20 por cento."

medidas binárias têm sido utilizados por Ellsberg ([1961] 1988), que se refere a um conjunto Y o de

"razoáveis" juízos de probabilidade. Da mesma forma, Levi (1986) refere-se a um conjunto de

"admissível" de decisões de probabilidade. Kaplan resumiu o apelo intuitivo desta abordagem da

seguinte forma:

5 Nem essas pessoas conformar com qualquer uma das máximas mais comuns para as decisões no âmbito

ignorância. "Eles não são 'minimaxing', nem eles estão aplicando um 'critério Hurwicz', maximizando uma média

ponderada de pay-off mínimo e máximo para cada estratégia. Se eles estavam seguindo tais regras teriam sido

indiferente entre cada par de apostas , uma vez que todos têm mínimos idênticos e maxima. Além disso, eles não são

'minimaxing arrependimento', uma vez que, em termos de 'lamenta' os pares III e III-IV são idênticos." (Ibid, p. 257)

52
"A meu ver, dando provas de sua devida requer que você descarta como muito alto ou muito
baixo, apenas os valores de vigarista [ grau de confiança] que a evidência dá-lhe razão a
considerar muito alta ou muito baixa. Quanto aos valores de vigarista Não, portanto, descartada,
você deve permanecer indeciso quanto a que atribuir."(Kaplan, 1983, p. 570)

multivalorada medidas geralmente assumir a forma de uma função que atribui um valor
numérico a cada valor de probabilidade entre 0 e 1. Este valor representa o grau de fiabilidade
ou plausibilidade de cada valor de probabilidade particular. Várias interpretações da medida têm
sido utilizados na literatura:

probabilidade 1. segunda ordem A medida de fiabilidade pode ser visto como uma medida da

probabilidade de que o (verdadeiro) tem a probabilidade de um determinado valor. Podemos pensar nisso como

a probabilidade subjetiva que a probabilidade objetiva tem um determinado valor. Alternativamente, podemos

pensar nisso como a probabilidade subjetiva, dado o nosso atual estado de conhecimento, que a nossa

probabilidade subjetiva teria tido um certo valor se tivéssemos "o acesso a um determinado conjunto de

informações". (Baron, 1987, p. 27)

Como foi observado por Brian Skyrms, é "quase não põe em causa que as pessoas têm crenças
sobre suas crenças. Assim, se distinguir graus de crença, não devemos encolher de dizer que as pessoas
têm graus de crença sobre seus graus de crença. Seria em seguida, ser inteiramente natural para uma
teoria graus de crença de probabilidade para tratar probabilidades de probabilidades." (1980, Skyrms

p. 109)
Apesar disso, a atitude de filósofos e estatísticos para com probabilidades de segunda ordem tem sido

principalmente negativa, devido ao receio de uma regressão infinita de ordens mais elevadas e mais altos de

probabilidade. David Hume, ([1739] 1888, pp. 182-183) expressa fortes dúvidas contra probabilidades de

segunda ordem. De acordo com uma formulação moderna de dúvidas semelhantes, "meramente uma adição

de probabilidades de segunda ordem para o modelo não é nenhuma solução real, pois como certos estamos

sobre estes probabilidades?"(Bengt Hansson

1975, p. 189)
Este não é o lugar para uma discussão dos argumentos regress vez intrincados contra
probabilidades de segunda ordem. (Para uma revisão favorável à probabilidades de segunda ordem,
ver Skyrms 1980. Cf. também Sahlin
1983.) Note-se, contudo, que argumentos semelhantes também podem ser deviced contra
os outros tipos de medidas de probabilidade incompleta

53
em formação. O problema básico é que a formalização precisa é procurado para a falta de precisão em

uma estimativa de probabilidade.

2. filiação conjunto fuzzy Em teoria dos conjuntos fuzzy, a incerteza é representado por graus de
filiação em um conjunto.

Em teoria conjunto comum ( "batata frita"), um objecto é um membro ou não um membro de um

determinado conjunto. Um conjunto pode ser representada por uma função indicadora (função de adesão, a

função do elemento) μ. Deixei μ Y ser a função de indicador para um conjunto Y. Então para todos x, μ Y (x) é 0 ou 1.

Se for 1, então X é um elemento de Y. Se for 0, em seguida, X não é um elemento de Y.

Em teoria dos conjuntos fuzzy, a função de indicador pode assumir qualquer valor entre 0 e 1. Se μ Y

(x) = . 5, então X é "metade membro" Y. Desta forma, conjuntos fuzzy nos fornecer representações de
noções vagas. Imprecisão é diferente de aleatoriedade.

"Enfatizamos a distinção entre duas formas de incerteza que surgem na análise de


risco e confiabilidade: (1) que, devido à aleatoriedade inerente ao sistema sob
investigação e (2) que, devido à imprecisão inerente a percepção do avaliador e
julgamento do que sistema. propõe-se que, enquanto a abordagem probabilística para
o ex variedade de incerteza é o mais adequado, o mesmo não pode ser verdade deste
último. Através buscando quantificar a imprecisão que caracteriza a nossa descrição
linguística de percepção e compreensão, a teoria dos conjuntos fuzzy fornece um
quadro formal para a representação de imprecisão." (Unwin 1986, p. 27)

Em teoria da decisão difusa, incerteza sobre a probabilidade é considerado como sendo uma forma de
imprecisão (difusa), em vez de uma forma de probabilidade. Seja $ ser um evento sobre o qual o sujeito
tem informações probabilidade parcial (como o evento que vai chover em Oslo amanhã). Então, para
cada valor de probabilidade entre 0 e 1 é atribuído um grau de participação em um conjunto fuzzy UMA. Para
cada valor de probabilidade p, O valor que μ A (p) da função de membro representa o grau em que a
proposição "é possível que p é a probabilidade do evento $ ocorrendo" é verdadeira. Em outras palavras, μ
A (p) é o

possibilidade da proposição de que p é a probabilidade de que um determinado evento vai acontecer. A


imprecisão do julgamento especialista pode ser representado por possibilidade nesse sentido, como

mostrado na diagrama 5. ( Em representações difusos de incerteza, ver também Dubois e Prade 1988.)

54
A diferença entre pertinência fuzzy e probabilidades de segunda ordem não é apenas uma
diferença técnica ou terminológica. Imprecisão é um conceito não estatística, e as leis de
pertinência fuzzy não são as mesmas que as leis da probabilidade.

3. confiabilidade epistêmica Gärdenfors e Sahlin ([1982] 1988, cf. também Sahlin 1983)
atribuir a cada probabilidade um valor real medida% entre 0 e 1, que representa a "fiabilidade
epistêmica" do valor de probabilidade em questão. Os properities matemáticas de% são mantidas
abertas.
Os diferentes tipos de medidas de informação probabilística incompleto est resumidos na Diagrama 6. Como

deve ser óbvio, uma medida de binário pode ser facilmente derivado de uma medida de vários valores.

Deixei M 1 ser a medida de vários valores. Em seguida, uma medida binária M 2 pode ser definida da

seguinte forma, por algum número real r: M 2 ( p) = 1 se e somente se M 1 ( p)! r, de outra forma M 2 ( p) = 0.

Uma tal redução para uma medida binário é empregue por Gärdenfors e Sahlin ([1982] 1988).

Uma medida de valor múltiplo tem mais informação do que uma medida de binário. Esta é uma
vantagem apenas na medida em que tal informação adicional é significativa. Uma outra diferença entre as
duas abordagens é que as medidas são binárias num sentido mais importante operativa. Na maioria dos
casos, é uma tarefa muito mais simples de expressar a estimativa de probabilidade incerta como um
intervalo que como uma função real sobre valores de probabilidade.

8.3 Critérios de decisão para a incerteza

Vários critérios de decisão têm sido propostos para a tomada de decisão sob incerteza. Cinco
deles serão apresentados aqui.
1. Maximin utilidade esperada. De acordo com a regra da UE Maximin, devemos escolher a

alternativa de tal forma que o valor mais baixo possível da UE (ou seja, a mais baixa de acordo com uma

distribuição de probabilidade possível) é tão alta quanto possível (maximizar o UE mínima).

Para cada alternativa sob consideração, um conjunto de valores esperados pode ser calculado
que corresponde ao conjunto de possíveis distribuições de probabilidades são atribuídas pela medida
binário. O nível de utilidade menor que é atribuído a uma alternativa por qualquer uma das distribuições
de probabilidades possíveis é chamado de "utilidade esperada mínima" da opção. A alternativa com a
maior utilidade esperada mínima deve ser escolhido. Esta regra de decisão

55
tem sido chamado maximin utilidade esperada ( MMEU) por Gärdenfors (1979). É um extremamente
prudente - ou pessimista - critério de decisão.
2. Facilidade de ponderação da utilidade esperada. Se uma medida decisão de vários valores está

disponível, é possível calcular a média ponderada das probabilidades, dando a cada probabilidade o peso

atribuído pelo seu grau de confiabilidade. Esta média ponderada pode ser usada para calcular um valor esperado

determinado para cada uma das alternativas. Em outras palavras, a probabilidade ponderadas pelo fiabilidade é

usado da mesma maneira como um valor de probabilidade é usado no processo de tomada de decisão sob risco.

Esta regra de decisão pode ser chamado reliabilityweighted utilidade esperada.

-Fiabilidade ponderada utilidade esperada foi aplicado por Howard (1988) em uma análise da

segurança de reactores nucleares. No entanto, como se pode concluir a partir dos resultados experimentais

sobre o paradoxo de Ellsberg, é provável que a maioria das pessoas consideram que este é uma regra de

decisão indevidamente otimista.

Vários dos critérios de decisão mais discutidos para a incerteza pode ser visto como tentativas
de compromissos entre o pessimismo de utilidade maximin esperado e o optimismo de utilidade
esperada ponderadas pelo fiabilidade.
Índice de 3. Ellsberg. Daniel Ellsberg propôs a utilização de um índice otimismo pessimismo
combinar maximin utilidade esperada com o que é essencialmente ponderada confiabilidade utilidade

esperada. Ele assumiu que há tanto um conjunto Y 0 de possíveis distribuições de probabilidade e uma

única distribuição de probabilidade y 0 que representa a melhor estimativa de probabilidade.

"Assumindo, puramente por simplicidade, que esses fatores para entrar na sua regra de decisão em

combinação linear, podemos denotar por% o seu grau de confiança, em um determinado estado de

informações ou ambiguidade, na distribuição estimada [probabilidade] y o, que por sua vez reflete

todos os seus julgamentos sobre a probabilidade relativa de distribuições, incluindo julgamentos de

igual probabilidade. Deixei min x ser o mínimo esperado pay-off para um ato X como a distribuição de

probabilidade varia ao longo do conjunto

Y o, deixe Husa x ser o pay-off espera-se que o ato X correspondente à distribuição


estimada y o.
O mais simples regra de decisão que reflecte as considerações acima seria: Associado
com cada X o índice:
% # Husa x + (1-%) # min X

Escolha aquele ato com o maior índice."( Ellberg [1961] 1988, p.


265)

56
Aqui, % é um índice entre 0 e 1 que é escolhido de modo a estabelecer-se para o grau de
optimismo ou pessimismo que é preferido pelo decisor.
4. Gärdenfors de e MMEU modificado de Sahlin. Peter Gärdenfors e Nils-Eric Sahlin
propuseram a-regra de decisão que faz uso de uma medida
% confiabilidade epistêmica sobre o conjunto de probabilidades. Um certo nível mínimo% 0 de

confiabilidade epistêmica é escolhido. As distribuições de probabilidade com uma fiabilidade mais baixa

do que 0% são tidos em consideração como "não sendo possibilidades graves". (Gärdenfors e Sahlin

[1982] 1988, pp. 322-323) Depois disso, o critério maximin para utilidades esperados (MMEU) é

aplicada ao conjunto de distribuição de probabilidades que são possibilidades graves.

Há dois casos limites extremos de esta regra. Primeiro, se todas as distribuições de


probabilidade têm igual confiabilidade epistêmica, a regra reduz à regra maximin clássica. Em
segundo lugar, se apenas uma distribuição de probabilidade tem de zero a confiabilidade
epistêmica, a regra colapsa em estrita bayesianismo.

teste lexicographical 5. das Levi. Isaac Levi (1973, 1980, 1986) assume que tem um conjunto
admissível de distribuições de probabilidades e um conjunto de funções de utilidades admissível.
Dadas estas, ele propõe uma série de três testes lexicographically encomendados para a tomada de
decisão sob incerteza. Eles podem ser vistos como três filtros sucessivos. Somente as opções que
passam pelo primeiro teste será submetido ao segundo teste, e somente aqueles que passaram pelo
segundo teste será submetida ao terceiro.

Seu primeiro teste é E-admissibilidade. Uma opção é E-admissível se, e somente se houver
alguma distribuição de probabilidade admissível e alguma função utilidade permitido tal que, em
combinação, fazer esta opção o melhor entre todas as opções disponíveis.

O seu segundo teste é P-admissibilidade. Uma opção é P-admissível se, e somente se for
E-admissível e também melhor é com relação à preservação de opções de E-admissíveis.

"Nos casos em que duas ou mais opções cognitivas são E-admissível, eu afirmo que seria

arbitrário em um sentido desagradável para escolher um sobre o outro, exceto de uma forma que

deixa em aberto a oportunidade para expansões posteriores para resolver a questão, como

resultado de inquérito mais ... Assim, a regra para laços representa uma atitude favorecendo

suspensão do julgamento sobre a escolha arbitrária, quando, em

57
tomada de decisão cognitiva, mais do que uma opção é E-admissível."(Levi 1980, pp.
134-135)

Seu terceiro teste é S-admissibilidade. Para uma opção para ser S-admissível deve ser ambos
P-admissível e "ótimo de segurança" entre as alternativas P-admissível com relação a alguma
função utilidade permissível. optimality Segurança corresponde aproximadamente à regra MMEU.
(Levi 1980)
Levi observa que "muitas vezes é alegado que maximin é um procedimento pessimista. O
agente que usa este critério está procedendo como se a natureza é contra ele." No entanto, uma vez
que ele só se aplica as regras Maximin às opções que já passaram os testes de E-admissibilidade e
P-admissibilidade, isto não se aplica ao seu próprio uso da regra de maximin. (Levi 1980, p. 149)

As várias regras de decisões para a incerteza diferem em suas recomendações


práticas, e essas diferenças têm dado origem a um debate vívido entre os protagonistas das
várias propostas. A proposta de Ellsberg tem sido criticado por Levi (1986, pp. 136-137) e por
Gärdenfors e Sahlin ([1982] 1988 pp. 327-330). A teoria de Levi tem sido criticado por
Gärdenfors e Sahlin ([1982] 1988 pp. 330-333 e 1982b, Sahlin 1985). Levi (1982, 1985 p. 395
n.) Tem em troca criticou a regra de decisão Gärdenfors-Sahlin. Maher (1989) relata algumas
experiências que parecem implicar que a teoria de Levi não é descritiva válida, a que Levi
(1989) responderam.

Ele nos levaria muito longe para tentar aqui uma avaliação destas e de outras
propostas para a tomada de decisão sob incerteza. Basta observar que várias propostas bem
desenvolvidas estão disponíveis e que a escolha entre eles está aberta ao debate. A conclusão
de estudos aplicados deve ser o pluralismo metodológico se justifica. medidas diferentes de
informação probabilística incompleta deve ser usado, incluindo medidas binárias,
probabilidades de segunda ordem e medidas fuzzy. Além disso, várias regras de decisão
diferentes devem ser julgados e comparados.

58
De tomada de decisão 9. sob ignorância

Por sob a ignorância de tomada de decisão é comumente significou a tomada de decisão quando se sabe

o que os possíveis estados de coisas são, mas nenhuma informação sobre suas probabilidades está

disponível. Neste caso, "a ignorância clássica", é tratado na seção 9.1.

As situações não são incomuns em que a informação está faltando não só sobre as
probabilidades dos possíveis estados da natureza, mas também sobre o que estes estados de coisas
são. Esta forma mais grave de ignorância sobre os estados da natureza são tratados na seção 9.2.

9.1 Decisão governa para "ignorância clássica"

O seguinte é uma variante do exemplo guarda-chuva que tem sido utilizado em seções anteriores: Você
participou de um concurso em um programa de TV, e ganhou o grande prêmio: The Secret Journey.
Você será levado de avião para uma semana de férias em um lugar secreto. Você não sabe onde fica
esse lugar, assim, para todos que você conhece a probabilidade de chuva não pode ser qualquer coisa
entre 0 e 1. Portanto, este é um exemplo de tomada de decisões sob ignorância. Como antes, a sua
matriz de decisão é:

Chove Não chove


guarda-chuva roupas secas, mala roupas secas, mala
pesada pesada
não guarda-sol roupas encharcadas, roupas secas,
mala luz mala luz

Vamos primeiro ver o que podemos fazer com apenas uma relação de preferência (ou seja, sem informações

sobre utilitários). Como antes, suas preferências são:

roupas secas, mala luz


é melhor que
roupas secas, mala pesada
é melhor que
roupas encharcadas, mala luz

Talvez o principal entre os critérios de decisão propostas para decisões sob a ignorância é a maximin
regra: Para cada alternativa, definimos sua nível de segurança como o pior resultado possível com
essa alternativa. A regra de maximin

59
incita-nos a escolher a alternativa que tem o nível de segurança máxima. Em outras palavras, maxi mize o
min resultado IMAL. No nosso caso, o nível de "guarda-chuva" de segurança é "roupas secas, mala
pesada", e o nível de "sem guarda-chuva" é "roupas encharcadas, mala luz" de segurança. Assim, a
regra de maximin insta-lo a trazer o seu guarda-chuva.

O princípio maximin foi proposto pela primeira vez por von Neumann como uma estratégia

contra um adversário inteligente. Wald (1950) estendeu seu uso para jogos contra a natureza.

A regra de maximin não faz distinção entre as alternativas com o mesmo nível de segurança.
Uma variante do mesmo, o maximin lexicográfico, ou leximin
regra, faz a distinção entre essas alternativas, por comparação do seu segundo pior resultado. Se
duas alternativas têm o mesmo nível de segurança, então aquele com o maior segundo pior
resultado é escolhido. Se tanto o pior e as segunda-piores resultados estão no mesmo nível, em
seguida, os resultados são comparados thirdworst, etc (Sen 1970, cap. 9)

As regras Maximin e leximin são frequentemente dito para representar extrema prudência
ou pessimismo. O outro extremo é representado pela maximax
regra: escolher a alternativa cuja esperança nível (melhor resultado possível) é o melhor. Neste
caso, o esperamos nível de "guarda-chuva" é "roupas secas, mala pesada", e que de "sem
guarda-chuva" é "roupas secas, mala luz". A maximaxer não vai trazer o seu guarda-chuva.

Em geral, é "difícil de justificar o princípio maximax como princípio racional de


decisão, refletindo, como faz, wishful thinking". (Rapoport
1989, p. 57) No entanto, a vida provavelmente seria maçante se não, pelo menos, alguns de nós foram

maximaxers em pelo menos algumas ocasiões.

Há uma necessidade óbvia de um critério de decisão que não nos força para o extremo
pessimismo da regra de maximin ou leximin ou para o otimismo extremo da regra maximax. Para
tais critérios para ser viável, precisamos de informações de utilidade. Vamos supor que temos tal
informação para o problema do guarda-chuva, com os seguintes valores:

Chove Não chove


guarda-chuva 15 15
não guarda-sol 0 18

Um meio-termo entre pessimismo e otimismo maximin maximax é o


índice optimismo-pessimismo. ( É muitas vezes chamado a Hurwicz índice #, desde que foi proposto
por Hurwicz em um artigo 1951, ver Luce e Raiffa 1957, p.

60
282. No entanto, como foi apontado por Levi 1980, pp. 145-146, GLS Shackle fez
subir a mesma idéia já em 1949.)
De acordo com este critério de decisão, o decisor é obrigado a escolher um índice $ entre 0
e 1, que reflete o seu grau de otimismo ou pessimismo. Para cada alternativa A, deixe min ( A) o seu
nível de segurança, ou seja, o utilitário mais baixa a que pode dar origem, e deixar max ( A) ser o
nível de esperança, ou seja, o mais alto nível de utilidade que pode dar origem a. O $ -Index de A é
calculado de acordo com a fórmula:

$ # min ( A) + (1- $) # max ( A)

Obviamente, se $ = 1, então este procedimento reduz o critério maximin e se $ = 0, então


isso reduz o critério maximax.
Como pode ser facilmente verificado, no nosso exemplo guarda-chuva qualquer pessoa com um índice

acima de 1/6 vai trazer o seu guarda-chuva.

informações Utility também permite outro critério de decisão, ou seja, a minimax pesar critério,
tal como introduzida por Savage (1951, p. 59). (Tem muitos outros nomes, incluindo "risco
minimax", "perda de minimax" e simplesmente "minimax".)

Suponha que, no nosso exemplo, que você não trazer o seu guarda-chuva. Quando você chegar ao

aeroporto de destino, está chovendo gatos e cães. Então você pode sentir pesar, "Eu gostaria de ter trazido o

guarda-chuva". Seu grau de arrependimento correlaciona-se com a diferença entre o nível de utilidade

presente (0) e o nível de utilidade de ter um guarda-chuva quando está chovendo (15). Da mesma forma, se

você chegar ao descobrir que você está em um lugar onde nunca chove naquela época do ano, você pode se

arrepender que você trouxe o guarda-chuva. Seu grau de arrependimento pode igualmente ser

correlacionado com a diferença entre o seu actual nível de utilidade (15) e o nível de utilidade de não ter

nenhum guarda-chuva quando não chove (18). UMA matriz de pesar pode ser derivada a partir da matriz de

utilidade acima:

Chove Não chove


guarda-chuva 0 3
não guarda-sol 15 0

(Para produzir uma matriz de pesar, atribua a cada resultado da diferença entre a utilidade
do resultado mimo na sua coluna e a utilidade do resultado em si).

61
O critério pesar minimax conselhos que você escolha a opção com o menor arrependimento

máxima (para Mini Mize maxi mal arrepender), ou seja, neste caso, para trazer o guarda-chuva.

Tanto o critério maximin e o critério minimax pesar são as regras para o cuidado que não
quer correr riscos. No entanto, os dois critérios nem sempre fazem a mesma recomendação. Isso
pode ser visto a partir exemplo a seguir. Três métodos estão disponíveis para o armazenamento
de resíduos nucleares. Existem apenas três estados relevantes da natureza. Um deles é rocha
estável, o outro é um catástrofe geológica e a terceira é intrusão humana

para o depositário. (. Para simplicidade, os dois últimos estados de casos são tomadas para ser mutuamente

exclusivas) Para cada combinação de depósito e estado de natureza, um nível de utilidade é atribuído,

talvez inversamente correlacionada com a quantidade de exposição humana à radiação que vai seguir

ionizante:

rocha estável Geológico intrusão


catastrophy humana
Método 1 -1 - 100 - 100
método 2 0 - 700 - 900
método 3 - 20 - 50 - 110

Será visto directamente que o critério maximin recomenda um método e o método


critério maximax 2. A matriz lamento é como se segue:

rocha estável Geológico intrusão


catastrophy humana
Método 1 1 50 0
método 2 0 650 800
método 3 20 0 10

Assim, o critério pesar minimax irá recomendar o método 3.


A bem diferente, mas longe de ser incomum, abordagem à tomada de decisões sob a
ignorância é para tentar reduzir a ignorância ao risco. Isso pode (supostamente) ser feito pelo uso do princípio
da razão suficiente, que foi formulado por (1654-1705) Jacques Bernoulli. Este princípio afirma que, se
não há nenhuma razão para acreditar que um evento é mais provável de ocorrer do que o outro, então
os eventos devem ser atribuídas probabilidades iguais. O princípio é destinado ao uso em situações
onde temos uma lista exaustiva de alternativas, os quais são mutuamente exclusivos. No nosso
exemplo, guarda-chuva, ele nos leva a atribuir a probabilidade de 1/2 a chover.

62
Um dos problemas com esta solução é que ele é extremamente dependente do
particionamento das alternativas. No nosso exemplo, guarda-chuva, podemos dividir o estado
"chuva" da natureza em duas ou mais sub-estados, como "chove um pouco" e "chove muito". Esta
reformulação simples reduz a probabilidade de nenhuma chuva de 1/2 a 1/3. Para ser útil, o
princípio da razão suficiente deve ser combinada com regras de simetria para a estrutura dos
estados da natureza. O problema básico com o princípio da razão suficiente, viz., sua
arbitrariedade, não foi resolvido. (Seidenfeld 1979. 1983. Harsanyi)

As regras de decisão discutidas nesta seção são resumidas na tabela a seguir:

regra de decisão informações valor Carácter de regra


necessário

maximin preferências pessimismo

leximin preferências pessimismo

maximax preferências otimismo

índice optimismo-pessimismo Serviços de utilidade pública varia com índice

minimax pesar Serviços de utilidade pública cautiousness

razão insuficiente Serviços de utilidade pública depende de


particionamento

A principal decisão regras para a ignorância.

9.2 possibilidades desconhecidas

O caso que discutimos na seção anterior também pode ser chamado


sob probabilidades diferentes de zero desconhecidos decisório. Neste caso, nós sabemos quais são os
resultados possíveis são das várias opções, mas todos nós sabemos sobre suas probabilidades é que
eles são não-zero. Um nível ainda mais elevado de incerteza é a que resulta da ignorância do que as
possíveis consequências são, ou seja, sob possibilidades desconhecidas de tomada de decisão. Em
linguagem probabilística, este é o caso quando existe alguma consequência para a qual não sabemos
se a sua probabilidade, dada alguma opção, é zero

63
ou diferente de zero. No entanto, esta descrição probabilística não captura a essência da
questão. A principal característica desses casos é que não temos uma lista completa das
consequências que devem ser levadas em conta.
possibilidades desconhecidas são mais preocupante quando eles podem levar a resultados

catastróficos. resultados catastróficos pode ser mais ou menos especificado, como pode ser visto a

partir da seguinte série de possíveis problemas de engenharia genética:

- catastróficas consequências imprevistas


- surgimento de novas formas de vida, com consequências catastróficas imprevistas

- surgimento de novos vírus, com consequências catastróficas imprevistas

- surgimento de novos vírus, que irá causar muitas mortes


- surgimento de vírus mortais que se espalham como vírus da gripe
- surgimento de vírus modificados AIDS que se espalham como vírus da gripe

Mesmo se várias versões específicas de alto nível consequência-incerteza pode ser mostrado a ser
insignificante, a incerteza subjacente mais geral pode permanecer. Por exemplo, mesmo se podemos
estar certos de que a engenharia genética não pode levar ao surgimento de vírus modificados AIDS
que se espalham como a gripe, eles podem levar a algum outro tipo de evento catastrófico que não
somos capazes de prever. Um exemplo histórico pode ser usado para ilustrar isso:

Os construtores da primeira bomba nuclear estavam preocupados com a possibilidade


de que a bomba pode provocar uma reação descontrolada que se propagam ao longo de toda a
atmosfera. Cálculos teóricos convenceu de que esta possibilidade poderia ser negligenciada.
(Oppenheimer
1980, p. 227) O grupo pode igualmente ter-se preocupado com o risco de que a bomba poderia
ter algum outro, não pensou-of, conseqence catastrófica para além da sua (certamente
catastrófico) efeito pretendido. Os cálculos não poderia ter colocado essas apreensões para
descansar (e, possivelmente, nenhum outro argumento científico poderia ter feito isso ou).

As implicações de possibilidades desconhecidas são difíceis de vir a enfrentar, e um


tomador de decisão racional tem de encontrar um equilíbrio delicado na importância relativa que
ela atribui a ele. Um exemplo ilustrativo é oferecido pelo debate sobre a hipótese de Polywater,
segundo a qual

64
água pode existir numa forma polimérica ainda desconhecido. Em 1969, Natureza

publicou uma carta que alertou contra produzindo Polywater. A substância pode "crescer à custa
de água normal, sob quaisquer condições encontradas no meio ambiente", substituindo, assim,
toda a água natural na terra e destruir toda a vida neste planeta. (Donahoe 1969) Logo em
seguida, foi mostrado que Polywater é uma entidade inexistente. Se o aviso tinha sido atendido,
então nenhuma tentativa seria foram feitas para replicar os experimentos Polywater, e nós ainda
pode não ter sabido que Polywater não existe.

Num sentido, qualquer decisão pode ter consequências imprevisíveis catastróficas. Se longo

alcance efeitos indiretos são tidos em conta, em seguida, - dada a natureza caótica de causalidade real - a

decisão de aumentar as pensões dos funcionários do governo pode levar a um holocausto nuclear.

Qualquer ação que seja pode invocar a ira de maus espíritos (que poderia existe), atraindo assim a

desgraça sobre todos nós. Recurso para (selecionados) incertezas de alto nível pode parar de

investigações, superstição adotivo e, portanto, depreciar nossa competência geral, como os tomadores de

decisão.

Por outro lado, há casos em que seria parecem indevidamente arriscado descartar
inteiramente incertezas de alto nível. Suponhamos, por exemplo, alguém que propõe a introdução
de uma espécie geneticamente alterados de minhoca que irá deslocar a minhoca comum e que vai
arejar o solo de forma mais eficiente. Não seria razoável ter em conta o risco que isso pode ter
consequências negativas imprevistas. Por uma questão de argumento, podemos supor que todas
as preocupações concretas podem ser neutralizados. A nova espécie pode ser mostrado não
induzir mais a erosão do solo, para não ser mais suscetíveis a doenças, etc. Ainda assim, não seria
irracional para dizer: "Sim, mas pode haver outros efeitos negativos que não têm sido capazes de
pensar. por isso, não devem ser introduzidas as novas espécies."

Da mesma forma, se alguém proposto para ejetar uma substância química para a estratosfera por

algum bom propósito ou outro, não seria irracional para se opor a esta proposta apenas com o fundamento de

que pode ter consequências imprevisíveis, e isso mesmo se todas as preocupações especificados podem ser

neutralizados .

Um tomador de decisão racional deve levar a questão de possibilidades desconhecidas em


conta, em alguns casos, mas não em outros. Devido à natureza vaga e pouco evasivo deste tipo de
incerteza, não devemos esperar encontrar critérios exatos para decidir quando é insignificante e quando
não é. A seguinte lista de quatro fatores se destina a ser uma lista de verificação básica de aspectos que
devem ser tidos em conta nas deliberações sobre a gravidade de possibilidades desconhecidas.

65
1. Assimetria de incerteza: Possivelmente, um aumento nas pensões leva de alguma forma
desconhecida a uma guerra nuclear. Possivelmente, não levantando as pensões leva de alguma forma

desconhecida a uma guerra nuclear. Nós não temos nenhuma razão para que uma ou outra destas duas

cadeias causais deve ser mais provável, ou de outra forma mais valor a nossa atenção que o outro. Por

outro lado, a introdução de uma nova espécie de minhoca está conectado com muito mais

conseqüência-incerteza do que a opção de não introduzir novas espécies. Tal assimetria é uma condição

necessária, mas não suficiente para a emissão de possibilidades desconhecidas para ser não-desprezível.

2. Novidade: possibilidades desconhecidas vêm principalmente de fenômenos novos e não


testados. A emissão de uma nova substância para a estratosfera constitui uma qualitativa novely,
enquanto que um aumento das pensões do governo não faz.

Um exemplo interessante do factor de novidade pode ser encontrado na física das partículas.
Antes novos e mais poderosos aceleradores de partículas foram construídos, os físicos às vezes
temia que os novos níveis de energia pode gerar uma nova fase da matéria que accretes cada átomo
da terra. A decisão de se considerar estes receios e semelhantes como fundamento tem sido
baseada em observações mostram que a terra já está sob constante bombardeamento do espaço de
partículas com as mesmas ou maiores energias. (Ruthen

1993)
3. limitações espaciais e temporais: Se são conhecidos os efeitos de uma medida proposta para
ser limitada no espaço ou no tempo, em seguida, estas limitações reduzir a incerteza associada com a
medida. A ausência de tais limitações contribui para a relevância das possibilidades desconhecidas em
muitas questões ecológicas, como as emissões globais e a disseminação de pesticidas quimicamente
estáveis.

4. Interferência com sistemas complexos em equilíbrio: sistemas complexos, tais como os


ecossistemas e o sistema atmosférico são conhecidos por terem alcançado algum tipo de equilíbrio, que
pode ser impossível recuperar depois de uma grande perturbação. Devido a essa irreversibilidade,
interferência descontrolada com tais sistemas é conectado com incerteza grave. O mesmo pode ser dito
de interferência descontrolada com sistemas econômicos. Este é um argumento para reformas
econômicas graduais em vez de drásticas.

Como foi mencionado acima, os casos graves de possibilidades desconhecidas são


assimétricos no sentido de que existe pelo menos uma opção em que esta incerteza é evitado.
Portanto, a escolha de um tipo de estratégia para os casos graves é muito menos obscura do que a
selecção destes casos: O

66
solução óbvia é a de evitar as opções que estão ligados com os graus mais elevados de
incerteza.
Esta estratégia irá em muitos casos, assumir a forma de não-interferência
com os ecossistemas e outros sistemas que funcionem bem que não são suficientemente compreendidos.

Tal não-interferência difere do conservadorismo geral em estar limitado a uma categoria muito especial de

questões, que não coincide necessariamente com as preocupações do conservadorismo político.

67
10. A demarcação de decisões

Qualquer análise de uma decisão deve começar com algum tipo de demarcação da decisão.
Deve ficar claro que a decisão é sobre o que as opções são de que devem ser avaliados e
escolhidos entre. Na prática de tomada de decisão, a demarcação é muitas vezes longe de ser
resolvido. Podemos distinguir entre dois graus de incerteza de demarcação.

Na primeira forma, o objetivo geral da decisão é welldetermined, mas não sabemos


que todas as opções disponíveis foram identificados. Podemos chamar isso de tomada de
decisão com um lista inacabada de alternativas. Na segunda forma, mais forte, não é ainda
claro o que a decisão é toda sobre. não é bem-Determinou-se qual é o alcance da decisão,
ou o problema que é suposto resolver. Isso pode ser chamado de tomada de decisão com
um indeterminado horizonte decisão.

10.1 lista inacabado de alternativas

A questão dos resíduos nucleares fornece um bom exemplo de tomada de decisão com um lista
inacabada de alternativas. Talvez a maneira mais segura e econômica de eliminar resíduos nucleares
ainda é desconhecida. Talvez ele vai ser descoberto no ano seguinte os resíduos foram enterrados no
chão.
Há pelo menos três métodos distintos para lidar com uma lista incompleta de opções. A
primeira delas é a contentar-se com a lista de opções disponíveis e escolher um deles. No nosso
exemplo, isto significa que uma das tecnologias conhecidas para a eliminação de resíduos nucleares é
selecionado para ser realizado, apesar do fato de que melhores métodos podem tornar-se disponíveis
mais tarde. Este será chamado fecho do problema de decisão.

Uma segunda maneira de lidar com uma lista incompleta de opções é adiar a
decisão e procurar melhores opções. Este será chamado
adiamento activo ( em contraste com o "adiamento passiva", em que nenhum busca de mais
opções ocorre). No caso dos resíduos nucleares, o adiamento ativo equivale a manter os resíduos
em armazenagem temporária, enquanto busca de melhores métodos de armazenamento
permanente.
Um terceiro caminho é selecionar e realizar uma das opções disponíveis, mas
procurar um novo e melhor opção e plano de reconsideração posterior do assunto. Para que
isso seja significativo, a decisão preliminar tem de ser reversível. Este será chamado semi-fechamento
do

68
decisão. No nosso exemplo, semi-meios de fecho para seleccionar e efectuar algum método para a

eliminação possivelmente final do lixo nuclear, de tal modo que a recuperação e posterior redisposal dos

resíduos é possível.

Os três tipos de estratégia pode ser resumido como se segue:

questão não mantidas abertas questão mantida aberta

fecho semi-fechamento adiamento ativa

algo seja feito agora nada for feito agora

A escolha entre estes estratégia de tipos é uma parte integrante da decisão geral, e não
pode, em geral, ser feita antes da decisão real. A divisão das opções em três estratégia de
tipos é um aspecto da decisão individual. Algumas das maneiras em que este aspecto pode
influenciar o resultado da decisão são resumidos nos seguintes cinco perguntas:

Fazer todas as alternativas disponíveis têm graves inconvenientes? Se assim for, então isso fala contra o

fechamento.

Será que o problema a ser resolvido agravar com o tempo? Se assim for, então isso fala
contra o adiamento ativo.
É o melhor entre as alternativas reversíveis significativamente pior do que o melhor entre
todas as alternativas? Se assim for, então esta fala contra semi-fecho.

É a busca de novas alternativas caro? Se assim for, então esta fala contra
adiamento activo e semi-fecho.
Há um risco substancial de que a decisão de procurar novas alternativas não
será seguido através? Se assim for, então esta fala contra semi-fecho e - em
particular - contra adiamento activo.

10,2 horizontes de decisão indeterminados

Modelos de decisão teórico-pressupõem que Savage chamado de "pequeno mundo", em que todos os
estados terminais (resultados) são levados a ter uma utilidade definida. (Savage 1954) Na prática, isso
é sempre uma idealização. Os estados terminais de quase todas as decisões são começos de possível
futuro

69
problemas de decisão. Ao formular um problema de decisão, deve-se traçar a linha em algum
lugar, e determinar um "horizonte" para a decisão. (Toda
1976) Não há, em geral, um único horizonte que é o "direito". Em questões controversas, é comum que
os grupos de interesse diferentes para desenhar a linha de forma diferente.

Um horizonte de decisão inclui uma perspectiva de tempo. Nós não planejamos


indefinidamente no futuro. é necessário algum tipo de um prazo informal. Infelizmente, a escolha de um
limite tal é muitas vezes bastante arbitrária. Em alguns casos, a escolha de um limite de tempo (embora
a maioria não explícito) tem uma grande influência sobre a decisão. Uma perspectiva muito curto pode
prender o indivíduo em um comportamento que ela não deseja continuar. ( "Eu só vou fumar este último
cigarro".) Por outro lado, muito grandes perspectivas temporais tornar a tomada de decisão complexa
demais.

resíduos nucleares fornece um bom exemplo da importância prática da escolha de um


horizonte de decisão. No debate público sobre os resíduos nucleares há pelo menos quatro
concorrentes horizontes de decisão:

1. A eliminação horizonte resíduos: Dados os reatores nucleares que temos, como devem os

resíduos radioactivos ser eliminados de forma segura?

2. O horizonte produção de energia: Dado o sistema que temos para a distribuição e


consumo de energia, como devemos produzir energia? O que pode a questão dos resíduos
nucleares nos ensinar sobre isso?
3. O sistema horizonte energia: Dado o resto do nosso sistema social, como devemos
produzir, distribuir e consumir energia? O que pode a questão dos resíduos nucleares nos
ensinar sobre isso?
4. O sistema horizonte sociais: Como deve ser a nossa sociedade se organizar? O que pode a questão

dos resíduos nucleares nos ensinar sobre isso?

especialistas de resíduos nucleares tendem a preferir o horizonte eliminação de resíduos. A indústria nuclear

na sua maioria prefere o horizonte a produção de energia, enquanto ambientalistas em geral preferem o

horizonte sistema de energia ou o horizonte do sistema social. Cada um dos quatro horizontes de decisão

para a questão dos resíduos nucleares é compatível com a tomada de decisão racional. Portanto, decisores

racionais diferentes podem ter opiniões diferentes sobre o que esta questão é realmente sobre.

Embora este seja um exemplo invulgarmente claro, não é atípico de questões


ecológicas. É comum que um único e mesmo problema ambiental para ser visto por alguns
partidos como um problema isolado e por outros

70
apenas como parte de um problema mais geral de estilo de vida e desenvolvimento sustentável.

Considerando alguns de nós ver os problemas ambientais do nosso próprio país em isolamento, outros se

recusam a discuti-los em qualquer coisa, mas uma escala global. Esta diferença de perspectiva muitas

vezes leva a uma divergência de conclusões práticas. Algumas soluções propostas para os problemas

ambientais no mundo industrializado tendem a transferir os problemas para os países do terceiro mundo. O

esgotamento dos recursos naturais actualmente causados ​pelos estilos de vida dos países mais ricos seria

desastroso se transferiu em uma base per capita a uma escala mundial, etc.

Os proponentes de grandes mudanças sociais são na sua maioria em favor de horizontes de decisão de

largura. Os defensores do status quo normalmente preferem muito mais estreitos horizontes de decisão que não

deixam espaço para uma mudança radical. analistas de decisão profissionais também têm uma predileção por

horizontes estreitos, mas pelo menos em parte, por um motivo diferente: As ferramentas analíticas, tais como

modelos matemáticos são em geral mais facilmente aplicável a decisões com horizontes estreitos.

Há pelo menos duas grandes estratégia de tipos que podem ser usados ​para vir a enfrentar este
tipo de incerteza. Um é subdivisão da decisão. No nosso exemplo, para conseguir isso, teríamos de
promover a aceitação geral de que existem várias decisões a serem tomadas em relação a resíduos
nucleares, cada um dos quais exige um horizonte diferente. Cada uma das quatro perspectivas sobre
resíduos nucleares é totalmente legítimo. Todo mundo, incluindo ambientalistas, deve aceitar que nós já
temos uma quantidade considerável de resíduos nucleares que devem ser tomados cuidados de alguma
forma. Para declarar que a tarefa é impossível não é muito de uma opção no contexto dessa decisão.
Por outro lado, toda a gente, incluindo a indústria nuclear, deve aceitar que a questão dos resíduos
nucleares também faz parte de várias questões sociais maiores. Problemas ligados aos resíduos
nucleares são argumentos legítimos em debates sobre a escolha de um sistema de energia e até mesmo
em debates sobre a escolha de um sistema social global.

A outra estratégia-tipo é fusão de todos os horizontes propostos, em outras palavras, a


escolha do horizonte estreito que compreende todos os originais. A razão para isso é que, se temos
que se contentar com apenas um horizonte de decisão, então devemos escolher um que inclui todas
as considerações que alguns de nós deseja incluir. Em um discurso racional, argumentos não deve
ser descartada simplesmente porque eles exigem um horizonte decisão alargada.

71
Do ponto de vista da tomada de decisão racional, é muito mais fácil de defender um amplo

horizonte de decisões do que um estreito. Suponha, por exemplo, que o sistema de produção de energia

está em debate. Se a perspectiva é ampliado para o sistema de energia como um todo, em seguida,

podemos descobrir que a melhor solução para alguns problemas do sistema de produção envolve mudanças

em outros setores do sistema de energia. (Por exemplo, a poupança ou o uso mais eficiente da energia pode

ser uma opção melhor do que todos os meios disponíveis de produzir mais energia.)

Por outro lado, as nossas limitações cognitivas fazer horizontes larga de decisão difícil
de lidar. Portanto, se fracções menores do decisionproblem pode ser isolado de uma maneira
não enganosa, então este deve ser feito. Na prática social, o melhor critério para se ou não uma
subdivisão é nonmisleading é se ele pode ou não ser acordado por todos os participantes na
decisão. Por isso, proponho a seguinte regra de ouro para a escolha dos horizontes de decisão:

(1) Se possível, encontrar uma subdivisão da-problema de decisão que todas as partes podem

concordar. ( subdivisão)

(2) Se isso não for possível, para resolver o horizonte estreito que inclui todos os
horizontes originais. ( fusão )

72
instabilidade 11. Decisão

A decisão é instável se o próprio fato de que ela tenha sido feita fornece uma razão suficiente
para alterá-lo. Decisão instabilidade tem sido o foco de alguns dos mais importantes
desenvolvimentos na teoria da decisão nos últimos anos. Depois da base necessária foi dada
em seções 11.1 e
11.2, a instabilidade decisão será introduzido na seção 11.3.

11,1 Conditionalized UE

Vamos considerar um estudante que tem que decidir se quer ou não estudar seu livro antes de ir para
um exame. Ela atribui 10 unidades de utilidade pública para passar no exame e -5 unidades para a
leitura do livro. Sua situação é coberto pela seguinte matriz de decisão:

Passa no exame não passa


o exame
Estuda o livro 5 -5
não estuda o livro de 10 0
texto

Se ela passa no exame ou não, a utilidade do resultado será maior se ela não estudou o livro.
Ele pode ser facilmente mostrado que tudo o que a probabilidade que ela atribui a passar no
exame, o (simples) utilidade esperada da alternativa não para estudar o livro é maior do que a
de estudá-la. Ainda assim, não são (pelo menos alguns de nós não são) satisfeito com esta
conclusão. O problema é que a probabilidade de passar no exame parece ser influenciado por
aquilo decisão que ela faz.

Em teoria da UE este problema é resolvido por conditionalizing das probabilidades que


são utilizados no cálculo da utilidade esperada (Jeffrey
1965). No exemplo acima, vamos " t" estar para a opção de ler o livro e "¬ t" para a opção de
não lê-lo. Além disso, vamos " e" representam o resultado de passar no exame e "¬ e" para o
de não passar no exame. Deixei p ser a função de probabilidade e você a função de utilidade.
Então a teoria incondicional dá as seguintes utilidades esperadas:

Para t: 5 # PE) - 5 # p ( ¬ e)
Para - t: 10 # PE)

73
Esta versão incondicional da teoria da utilidade esperada é geralmente considerado para ser
errônea. O cálculo Bayesian correta faz uso de probabilidades conditionalized, como segue: ( p (e
| t) significa "a probabilidade de e, dado que t é verdade".)

Para t: 5 # p (e | t) - 5 # p ( ¬ e | t)

Para - t: 10 # p (e | ¬ t)

É fácil mostrar que com probabilidades condicionais apropriadas, a utilidade esperada de


estudar o livro pode ser maior do que a de não estudá-la. Usando o relacionamento p ( ¬ e | t) = 1
- p (e | t) segue-se que a utilidade esperada do t é maior do que a de ¬ t se e apenas se p (e | t) -
p (e | ¬ t) >
. 5. Em outras palavras, o nosso aluno, se ela maximiza a utilidade esperada, estudar o livro se e
somente se ela acredita que isso vai aumentar sua chance de aprovação no exame em pelo menos 0,5.

A versão da teoria da utilidade esperada que utiliza probabilidades conditionalized é


chamado de maximização da utilidade esperada condicionais
(MCEU).

11,2 paradoxo de Newcomb

O seguinte paradoxo, descoberto pelo físico Newcomb, foi publicado pela primeira vez por Robert
Nozick (1969): Na frente de vocês são duas caixas. Um deles é transparente, e você pode ver que
ele contém $ 1 000 O outro é coberto, de modo que você não pode ver seu conteúdo. Ele contém
tanto $ 1 000 000 ou nada. Você tem duas opções para escolher entre os dois. Uma delas é tomar
as duas caixas, ea outra é tomar apenas a caixa coberta. Um bom indicador, que tem
conhecimento infalível (ou quase infalível) sobre sua psique, colocou a milhões no caixa coberta se
ele previu que você só terá que a caixa. Caso contrário, ele colocou nada nele.

Vamos aplicar maximizada utilidade esperada (condicional) para o problema. Se você decidir
tomar as duas caixas, em seguida, o preditor tem quase certamente previsto isso e colocar nada na
caixa coberta. Seu ganho é de R $ 1000. Se, por outro lado, você decidir tomar apenas uma caixa, em
seguida, o preditor previu isso e colocar a milhões em caixa, de modo que o seu ganho

74
é de $ 1 000 000. Em outras palavras, a maximização de (conditionalized) utilidade esperada insiste que

você tome apenas a caixa coberta.

Há, no entanto, uma outra abordagem plausível para o problema que leva a uma conclusão
diferente. Se o preditor colocou nada na caixa coberta, então é melhor tomar as duas caixas do que tomar
apenas um, desde que você vai ganhar $ de 1 000 em vez de nada. Se ele colocou a milhões no caixa,
em seguida, também é melhor para levar as duas caixas, uma vez que você vai ganhar $ 1 001 000 em
vez de US $ de 1 000 000. Assim, tendo ambas as caixas é melhor sob todos os estados da natureza. (É
um dominante opção.) Parece seguir que você deve levar as duas caixas, ao contrário da regra de
maximização de (condicional) utilidades esperadas.

A classe relacionada de problemas é referido como "problemas de Newcomb médicos". O


mais conhecido deles é o "sonho de fumante". De acordo com esta história, o fumante sonhos que não
há nenhuma conexão causal entre tabagismo e câncer de pulmão. Em vez disso, a correlação
observada depende de um gene que faz com que tanto o cancro do pulmão e fumo em seus
portadores. O fumante, neste sonho, não sei se ele tem o gene ou não. Suponha que ele gosta de
fumar, mas prefere ser um não-fumante para correr o risco de contrair câncer de pulmão. De acordo
com a teoria da utilidade esperada, ele deve se abster de fumar. No entanto, do ponto de vista causal
ele deveria (neste sonho de sua) continuam a fumar. (Veja Preço de 1986, para uma discussão sobre
problemas Newcomb médicas.)

A estratégia de dois-caixa no problema de Newcomb maximiza o "ganho real" de ter


escolhido uma opção, enquanto que a estratégia de uma caixa maximiza o "valor notícia" de ter
escolhido uma opção. Da mesma forma, o fumante sonhando que pára de fumar é maximizar o valor
da notícia em vez do valor real. O próprio fato de que uma determinada decisão foi tomada em uma
determinada maneira muda as probabilidades que têm de ser tidos em conta nessa decisão.

Em teoria da decisão causal, cálculos de utilidade esperados são modificados de modo a que eles
se referem a um valor real ao invés de valor de notícias. Isto é feito através da substituição de
probabilidades condicionais por alguns meios formais para a avaliação, em termos de probabilidades, das
implicações causais das diferentes opções. Uma vez que existem vários concorrentes visões filosóficas
de causalidade, não é nenhuma surpresa que há várias formulações da teoria da decisão causal. Talvez
a formulação mais influente é que por Gibbard e Harper ([1978] 1988).

75
Segundo esses autores, as probabilidades de que um decisor deve considerar são
probabilidades de proposições contrafactuais da forma "se eu fosse fazer A, então B iria
acontecer". Dois desses contrafactuais são úteis na análise do problema de Newcomb, a
saber:

(N1) Se eu tivesse que tomar apenas a caixa coberta, então não haveria um milhão na
caixa coberta. (N2)
Se eu tivesse que tomar duas caixas, então não haveria um milhão na caixa coberta.

Usando! como um símbolo para o contrafactual "se ... então ...", estas probabilidades pode ser
escrita na forma: p (A! B) . Gibbard e Harper propor que todas as fórmulas p (B | A) na teoria da
decisão condicional deve ser substituído por p (A! B) .

Na maioria dos casos (como o nosso exemplo acima com o exame), p (B | A) = p (A! B) . No
entanto, quando UMA é um sinal de B sem ser uma causa de B, ele pode muito bem ser que p (A! B) não
é igual a p (B | A). O problema de Newcomb exemplifica isso. A análise contrafactual fornece um
bom argumento para levar duas caixas. No momento da decisão, (N1) e (N2) têm o mesmo valor,
uma vez que o conteúdo da caixa coberta não pode ser influenciado pela escolha que se faz.
Segue-se que a utilidade esperada de tomar duas caixas é maior do que a de tomar apenas um.

11,3 Instabilidade

Gibbard e Harper contribuíram um exemplo em que a sua própria solução para o problema de
Newcomb não funciona. O exemplo é comumente referido como "morte em Damasco"

"Considere a história do homem que encontrou a morte em Damasco. Morte pareceu surpreso,
mas depois se recuperou a compostura medonho e disse: 'Eu estou vindo para você amanhã'. O
homem aterrorizado naquela noite comprei um camelo e cavalgou para Aleppo. O próximo dia, a
morte bateu na porta do quarto onde ele estava escondido, e disse: 'Eu vim para você'.

'Mas eu pensei que você estaria olhando para mim em Damasco', disse o homem.

76
'Nem um pouco', disse que a morte 'é por isso que fiquei surpreso ao vê-lo ontem.
Eu sabia que hoje era encontrar você em Aleppo'.
Agora, suponha que o homem sabe o seguinte. Morte funciona a partir de um livro de
nomeação que afirma tempo e lugar; uma pessoa morre, se e somente se o livro afirma
corretamente em que cidade ele vai ser no momento indicado. O livro é composto semanas de
antecedência com base em previsões altamente confiáveis. Um compromisso no dia seguinte,
foi inscrito para ele. Suponha que, nesta base, o homem levaria seu ser em Damasco no dia
seguinte como uma forte evidência de que o seu compromisso com a morte é em Damasco, e
levaria seu ser em Aleppo no dia seguinte como forte evidência de que sua nomeação é em
Aleppo .. .

Se ... ele decide ir para Aleppo, ele então tem fortes razões para esperar que
Aleppo é onde a morte já espera que ele seja, e, portanto, é racional para ele
prefere ficar em Damasco. Da mesma forma, decidir ficar em Damasco lhe daria
fortes razões para pensar que ele deveria ir para Aleppo ... "(Gibbard e Harper
[1978] 1988, pp. 373-374)

Depois de saber que você escolheu Damasco, você também sabe que teria sido melhor para
você escolher Aleppo, e vice-versa. Temos, portanto, um caso de instabilidade decisão: Independentemente
da escolha que se faz, a outra opção teria sido melhor.

Richter (1984) propôs uma ligeira modificação da morte no caso Damasco:

"Suponha que a mãe do homem vive em Damasco, mas o homem leva este fato para
fornecer nenhuma evidência independente para estar de morte ou não ser em Damasco
naquela noite. Suponha também que o homem bastante razoável prefere o resultado de
morrer em Damasco para que de morrer em Aleppo pela simples razão de que morrer em
Damasco iria pagar-lhe alguns últimas horas para visitar sua mãe. É claro que ele ainda
prefere ir para Aleppo e viver para visitar sua mãe e morrer. Agora devemos dizer, neste
caso, uma vez que ele pode' t escapar a certeza da morte, não importa o que ele faz, que a
racionalidade deve exigir indo para Damasco." (Richter 1984, p. 396)

77
teoria da decisão de causalidade (a teoria que nos leva a tomar as duas caixas no exemplo de
Newcomb) não pode explicar adequadamente escolha racional neste exemplo. Embora indo para
Damasco claramente é a coisa mais razoável a fazer, não é uma alternativa estável. Há, neste caso,
simplesmente não há alternativa que satisfaça ambas as condições para ser estável e para maximizar o
valor real.

Na literatura em rápida expansão na instabilidade decisão, várias tentativas de explicações


formais de instabilidade foram propostos e posta à prova. Diferentes maneiras de combinar a
maximização da utilidade esperada com testes de estabilidade têm sido propostas. Além disso, há
um debate em curso sobre o estatuto normativo de estabilidade, ou seja, sobre a questão de haver
ou não uma solução racional a um problema de decisão deve ser uma solução estável. Algumas das
contribuições mais importantes no campo, além dos já referidos, são papéis por Eells (1985),
Horwich (1985, p. 445), Rabinowicz (1989), Richter (1986), Skyrms (1982, 1986), Sobel (1990), e
Weirich (1985).

78
12. teoria da decisão social

regras de decisão que têm sido desenvolvidos para a tomada de decisão individual pode, em muitos casos,

também ser usado para a tomada de decisões por grupos. Como um exemplo, as teorias de tomada de

decisão legal não fazer em make geral a diferença entre as decisões por um único juiz e decisões por

vários juízes que atuam juntos como um tribunal de direito. A presunção é que o grupo atua como se fosse

um único indivíduo. Da mesma forma, a maioria das teorias para a tomada de decisão corporativa tratar a

empresa como se todas as decisões deveriam ser tomadas por um único tomador de decisão individual.

(Cf. Freeling 1984, p 200). Na verdade, "[a] ny decisão maker - um único ser humano ou uma organização -

o que pode ser pensado como tendo um interesse unitária motivando suas decisões pode ser tratada como

um indivíduo na teoria ". (Luce e Raiffa 1957, p. 13)

Por uma teoria de decisão coletiva se entende uma teoria que modela situações em que as
decisões são tomadas por duas ou mais pessoas, que podem ter objetivos conflitantes ou visões
conflitantes sobre como os objetivos devem ser alcançados. Tal teoria trata os indivíduos como "ter
interesses conflitantes que devem ser resolvidos, seja em conflito aberto ou por compromisso". (Luce e
Raiffa 1957, p. 13) A maioria dos estudos em teoria da decisão preocupação voto coletivo, negociação e
outros métodos para a combinação de preferências ou escolhas individuais em decisões coletivas.

A preocupação mais importante da teoria da decisão social é a agregação de preferências


individuais (escolhas) em preferências coletivas (escolhas). O problema central é encontrar, dado um
conjunto de preferências individuais, de forma racional para combiná-los em um conjunto de preferências
sociais ou em uma escolha social.

teoria da decisão social não é um campo menor do conhecimento de teoria da decisão


individual. Portanto, este pequeno capítulo só pode ser uma introdução muito rudimentar.

12.1 A percepção básica

O insight fundamental na teoria de decisão social, foi adquirida por Borda e Condorcet, mas
esquecido por muitos anos. Eles descobriram que, em regra da maioria simples, pode haver
situações em que cada opção é instável no sentido de que uma coalizão majoritária pode ser
formado contra ele. Para ver o que isto significa na prática, vamos considerar o seguinte exemplo.

79
Vamos supor que três alternativas estão disponíveis para o tratamento de resíduos
nucleares. A indústria nuclear tem trabalhado de uma proposta, e forneceu documentação para
mostrar que é seguro o suficiente. Vamos chamar isso de "proposta da indústria". Um grupo de
cientistas independentes, que eram céticos em relação à proposta da indústria, desenvolveu
uma proposta própria. Ele contém vários mais barreiras do que a proposta da indústria e,
portanto, é considerado mais seguro. Por outro lado, é várias vezes mais caro. Vamos chamar
isso de "solução cara". Mas, apesar das barreiras extras, muitos ambientalistas não têm sido
convencidos mesmo pela solução cara. Eles propõem que a questão deve ser adiada até que
foram realizados mais estudos.

No parlamento, existem três facções de aproximadamente o mesmo tamanho. Os


membros da primeira facção (os "economistas") estão mais preocupadas com o desenvolvimento
econômico e tecnológico. Eles colocaram a proposta indústria em primeiro lugar. Na escolha entre
adiamento ea solução cara, a preferir a primeira, por razões econômicas. Assim, suas preferências
são:

economistas:
1. proposta da indústria

2. adiamento
3. solução cara

A segunda facção (os "moralistas") é a maior parte de todos os envolvidos com a nossa

responsabilidade de não entregar o problema para as gerações depois de nós. Eles querem que o

problema a ser resolvido agora, com o melhor método que está disponível. Suas preferências são:

eticistas:
1. solução cara
2. proposta da indústria

3. adiamento

O terceiro grupo (os "ambientalistas") preferem adiar a deposição final dos resíduos,
uma vez que eles não acreditam mesmo na solução cara. Suas preferências são:

ambientalistas:

80
1. adiamento
2. solução cara
3. proposta da indústria

Agora vamos ver o que acontece em votação por maioria. Primeiro supor que a proposta da indústria ganha.

Em seguida, uma coalizão de especialistas em ética e ambientalistas podem ser formadas para mudar a

decisão, uma vez que estes dois grupos ambos preferem a solução cara a proposta indústria.

Em seguida, suponha que a solução cara ganhou. Em seguida, uma coalizão para
mudar a decisão pode ser formado por economistas e ambientalistas, já que ambos preferem
adiamento para a solução caro.
Finalmente, suponha que o adiamento ganhou. Em seguida, a decisão pode ser alterada por uma

coalizão de economistas e especialistas em ética, que ambos preferem a proposta da indústria ao

adiamento.

Começamos com três padrões razoavelmente racionais de preferências individuais.


Nós usamos o que acredita-se ser um método racional para a agregação, e chegou a
preferências sociais cíclicos.

12.2 teorema de Arrow

O ponto de partida da moderna teoria da decisão social era um teorema por Kenneth Arrow (1951). Ele
partiu para investigar se existe alguma outra regra de decisão social do que a regra da maioria, sob o
qual as preferências sociais cíclicos podem ser evitados. A resposta, contida em seu famoso teorema,
é que, se quatro critérios de racionalidade aparentemente razoáveis ​estão satisfeitos com a regra de
decisão, então ciclicidade não pode ser evitado. Para uma prova acessível do teorema, o leitor é
remetido para Sen (1970, cap. 3 *.).

Nas décadas que se seguiram, muitos mais resultados de natureza semelhante ter acumulado.

Quando o leque de alternativas é estendido a partir de uma lista simples, como em nosso exemplo, para o

conjunto de todos os pontos em um espaço euclidiano, impossibilidade resultar ainda mais fortes do que Seta

de pode ser obtida. (McKelvey 1976 de 1979, Schofield 1978) É característico da teoria da decisão social que

quase todos os seus resultados mais importantes são de natureza negativa, mostrando que algumas

exigências de racionalidade em um procedimento de decisão social não são compatíveis.

81
Referências

Alexander, Ernest R (1970), "Os limites de incerteza: Uma nota", Teoria e decisão 6:
363-370.

Allais, M (1953), "Le Comportement de l'homme rationnnel devant le risque: Crítica


des postulats et axiomes de l'Ecole americaine",
Econometrica 21: 503-546.

Alpert, Marc e Howard Raiffa (1982), "Um relatório de progresso sobre a formação dos avaliadores de
probabilidade", pp. 294-305 em Kahneman et al. (1982).

Arnauld, Antoine e Pierre Nicole ([1662] 1965), La logique ou l'art de penser.

Arrow, Kenneth (1951), escolha social e valores individuais.

Baron, Jonathan (1987), "probabilidades de segunda ordem e funções de crença",


Teoria e decisão 23: 25-36.

Bell, David E (1982), "Arrependimento na tomada de decisão sob incerteza",


Pesquisa Operacional 30: 961-981.

Berkeley, Dina e Patrick Humphreys (1982), "problemas de decisão estruturação e a


heurística viés", Acta Psychologica 50: 201-252.

Bondi, Herman (1985), "Risk em perspectiva", pp. 8-17, em MG Cooper (ed.), Risco.

Borda, Orville G et al. (1962) Processos de personalidade e de decisão, Estudos em Psicologia


Social do Pensamento, Stanford 1962,

Brogan, Albert P (1919) "O Fundamental Valor Universal", Revista de Filosofia,


Psicologia, e métodos científicos 16: 96-104.

Broome, John (1978) "Escolha e valor em economia", Papers Oxford Economic 30:
313-333.

82
Chisholm, Roderick M e Ernest Sosa (1966) "na lógica de 'intrinsecamente melhor'",
American Philosophical Quarterly 3: 244-249.

Christensen-Szalanski, JJJ e JB Bushyhead (1981) "Physicians' uso de informação


probabilística em um ambiente clínico real", Journal of Experimental Psychology: Percepção
Humana e Performance 7: 928-935.

Cohen, Bernhard L (1983), "avaliação probabilística do risco de Resíduos enterrado no


chão", Análise de risco 3: 237-243.

Cohen, Bernhard L (1985), "Critérios para Tecnologia aceitabilidade", Análise de risco 5: 1-3.

Cohen, L Jonathan (1982), "as pessoas estão programadas para cometer falácias? Outras
Reflexões sobre a Interpretação dos Dados Experimentais em Juízo Probabilidade", Jornal para a
Teoria do Comportamento Social 12: 251
274.

Condorcet ([1793] 1847), "Plan de Constituição, présenté um la convenção nationale les 15 et


16 Fevereiro 1793", oeuvres, vol. 12, pp. 333-415.

Dewey, John ([1910] 1978), Como pensamos, pp. 177-356 em Oriente Works,
vol 6.

Donahoe, FJ (1969) "anômala" Água, Natureza 224: 198.

Dubois, Didier e Henri Prade (1988), "Métodos de avaliação decisão sob incerteza e
imprecisão", pp. 48-65 em J e M Kacprzyk Fedrizzi (eds.), Combinando Impression
distorcido com Incerteza probabilístico em Tomada de Decisão.

Eells, Ellery (1985), "Weirich sobre a instabilidade de decisão", Australásia Journal of


filosofia 63: 475-478.

Ellberg, Daniel ([1961], 1988), "Risk, ambiguidade, e os axiomas Savage", pp. 245-269 em
Gärdenfors e Sahlin (1988).

83
Fischhoff, Baruch e R Beyth (1975) "'Eu sabia que ia happen' probabilidades lembrava de coisas
uma vez para o futuro", Comportamento Organizacional e Desempenho Humano 13: 1-16.

Fischhoff, Baruch e Don MacGregor (1982) "A confiança subjetiva em previsões", Journal
of Previsão 1: 155-172.

Fischhoff, Peter C, P Slovic e S Lichtenstein (1977), "saber com certeza: A adequação de


extrema confiança", Journal of Experimental Psychology: Percepção Humana e Performance
3: 552-564.

Fishburn, Peter C (1989), "Generalizações de teorias utilidade esperada: uma pesquisa com as
recentes propostas", Anais de Pesquisa Operacional 19: 3-28.

Freeling, Anthony NS (1984), "A base filosófica para apoio à decisão",


Teoria e decisão 16: 179-206.

Gärdenfors, Peter (1979) "Previsões, decisões e probabilidades de incerteza",, Erkenntnis


14: 159-181.

Gärdenfors, Peter e Nils-Eric Sahlin ([1982] 1988), "probabilidades não confiáveis, tomando riscos
e tomada de decisão", pp. 313-334 em Gärdenfors e Sahlin (1988).

Gärdenfors, Peter e Nils-Eric Sahlin (1982b), "Responder a Levi", Synthese


53: 433-438.

Gärdenfors, Peter e Nils-Eric Sahlin, eds. (1988), Decisão, probabilidade e utilidade.

Gibbard, Alan e William L Harper ([1978], 1988), "Contrafactuais e dois tipos de utilidade
esperada", pp. 341-376 em Gärdenfors e Sahlin (1988).

Gigerenzer, Gerd Ulrich Hoffrage, e Heinz Kleinbölting (1991) "modelos mentais


probabilísticos", Psychological Review 98: 506-528.

Halldén, Sören (1957) Na lógica do 'Better'.

84
Hansson, Bengt (1975), "A adequação do modelo de utilidade esperada", Erkenntnis
9: 175-193.

Hansson, Sven Ove (1987), As decisões de risco e dos resíduos nucleares, SKN Relatório 19,

Estocolmo.

Hansson, Sven Ove (1989a) "dimensões do risco",, Análise de risco 9: 107-


112.

Hansson, Sven Ove (1989b), "lógica de preferência como um modelo para comparações de
risco", pp. 355-364 em Proceedings, Gestão de Risco de Substâncias genotóxicos no Meio
Ambiente, Estocolmo.

Hansson, Sven Ove (1989c) "Uma Abordagem Semântica Novo para a lógica da preferência", Erkenntnis
31: 1-42.

Hansson, Sven Ove (1992) "Um Modelo de Processo de votação", Teoria e decisão 32:
269-301.

Hansson, Sven Ove (1993) "Dinheiro-Bombas, Auto-torturadores e os demônios da vida real", Australásia
Jornal de filosofia, na imprensa.

Hansson, Sven Ove (1994a) "Mudanças na preferência", Teoria e decisão, na


imprensa.

Hansson, Sven Ove (1994b) "O que é ceteris paribus preferência?",


Journal of Filosófica Lógica, na imprensa.

Harsanyi, John C (1977), "Sobre a lógica da abordagem bayesiana: Comentários sobre o


artigo do professor Watkin", pp 381-392 em Butts e Hintikka,. (Eds.) Problemas
fundamentais nas ciências especiais.

Harsanyi, John C (1983), "teoria da decisão Bayesian, subjetiva e probabilidades


objetivas, e aceitação de hipóteses empíricas", Synthese
57: 341-365.

85
Hoerl, Arthur E e Herbert K Caindo (1974), "A confiabilidade dos subjetivos Evaluations em uma
situação de alta de Incentivo", Journal of Royal Statistical Society 137, Part 2, 227-230.

Horwich, Paul (1985), "A teoria da decisão à luz do problema de Newcomb",


Filosofia da Ciência 52: 431-450.

Houston, David A et al (1989) "A Influência de características únicas e direcção de


Comparação em Preferências", Journal of Experimental Social Psychology 25: 121-141.

Howard, Ronald A (1988), "A incerteza sobre Probabilidade: A decisão Análise


Perspectiva", Análise de risco 8: 91-98.

Hume, David ([1739] 1888) Um tratado de natureza humana, ed. por LA SelbyBigge.

Hynes, M e E Vanmarcke (1976), "A confiabilidade das previsões de desempenho aterro", Proceedings
da Divisão de Mecânica ASCE Engenharia, Conferência de Especialidade, Waterloo, Ontário,
Canadá, Universidade de Waterloo Press.

Jeffrey, Richard C (1965) A lógica da decisão.

KAHNEMAN, Daniel e Amos TVERSKY ([1979], 1988), "Teoria Prospect: Uma análise de
decisão sob risco", pp 183-214 em Gärdenfors e Sahlin (1988)..

KAHNEMAN, Daniel et al. (1982), Acórdão incerteza, heurísticas e enviesamentos.

Kaplan, Mark (1983), "A teoria da decisão como filosofia", Filosofia da Ciência 50:
549-577.

Knight, FH ([1921] 1935), Risco, Incerteza e Lucro.

Levi, Isaac (1973), Jogo com a verdade.

86
Levi, Isaac (1980), A empresa do conhecimento.

Levi, Isaac (1982), "A ignorância, probabilidade e escolha racional", Synthese


53: 387-417.

Levi, Isaac (1985), "A imprecisão e indeterminação no juízo de probabilidade", Filosofia


da Ciência 52: 390-409.

Levi, Isaac (1986), Escolhas difíceis: Tomada de Decisão sob conflito não resolvido.

Levi, Isaac (1989), "Responder a Maher", Economia e Filosofia 5: 79-90.

Lichtenstein, Sarah et al. (1982), "A calibração de probabilidades: O estado da arte a 1980", pp
306-334 em KAHNEMAN et al.,. (1982).

Loomes, G e R Sugden (1982), "a teoria Regret: uma teoria alternativa da escolha racional
sob incerteza", Economic Journal 92: 805-824.

Luce, R Duncan e Howard Raiffa (1957), Jogos e decisões.

Maher, Patrick (1989), "Levi sobre os paradoxos Allais e Ellsberg",


Economia e Filosofia 5: 69-78.

McKelvey, Richard D (1976), "Intransitivities em modelos de votação multidimensionais e algumas


implicações para o controle Agenda", Journal of Economic Theory 12: 472-482.

McKelvey, Richard D (1979), "Condições Gerais para Intransitivities globais em Modelos


votação formal", Econometrica 47: 1085-1112.

Manski, Charles M (1988), "modelos de utilidade ordinal de tomada de decisão sob


incerteza", Teoria e decisão 25: 79-104.

Mintzberg, Henry, Dury Raisinghani, e André Theoret (1976), "A Estrutura de Processos de
Decisão" não estruturados", Ciências administrativa Quarterly 21: 246-275.

87
Murphy, AH e RL Winkler (1984) "Probabilidade de previsão em meteorologia", Journal of the
American Statistical Association 79: 489-500.

Nozick, Robert (1969), "O problema da Newcomb e dois princípios de escolha", pp. 114-146 em N
Rescher et al. (eds.), Ensaios em honra de Carl G. Hempel.

Oppenheimer, Robert (1980) (Cartas e memórias ed. Alice Kimball Smith e Charles Weiner),
Harvard University Press.

Paté-Cornell, ME e JE Neu (1985) "Sistemas de Alerta e da Política de Defesa: Um modelo de confiabilidade

para o comando e controle das forças nucleares norte-americanos", Análise de risco 5: 121-138.

Peirce, CS ([1878] 1932) "A probabilidade de indução", pp. 415-432 em


Collected Papers, volume de 2.

Peterson, Cameron R (1965), "A consistência interna de probabilidades subjetivas", Journal


of Experimental Psychology 70: 526-533.

Popper, Karl ([1959] 1980), A Lógica da Descoberta Científica.

Rabinowicz, Wlodzimierz (1989), "opções estável e recuperáveis",


Filosofia da Ciência 56: 624-641.

Rapoport, Anatol (1989), Teoria da Decisão e Comportamento decisão.

Richter, Reed (1984), "A racionalidade revisited", Australásia Journal of filosofia 62:
392-403.

Richter, Reed (1986), "Outros comentários sobre a instabilidade de decisão",

Australásia Journal of filosofia 64: 345-349.

Ronis, David L e J Frank Yates (1987) "Componentes de Probabilidade julgamento Precisão:


Consistência individual e Efeitos do Objecto e Método de Avaliação", Comportamento
Organizacional e Processos de Decisão Humanos 40: 193-218.

88
Ruthen, Russell (1993) "Estranho matéria", Americano científico agosto
1993, p. 10.

Sahlin, Nils-Eric (1983), "Em segundo probabilidade ordem e a noção de risco epistêmico",
pp. 95-104 na BP Stigum e F Wenztop (eds.),
Fundamentos da Teoria da Utilidade com Aplicações.

Sahlin, Nils-Eric (1984). "Nível de aspiração e de risco", mimeografado, Departamento de


philsophy, Universidade de Lund. Lund.

Sahlin, Nils-Eric (1985), "Três regras de decisão para a representação de probabilidade generalizada", As

ciências comportamentais e cerebrais 8: 751-753.

Sahlin, Nils-Eric (1988), "A importância da evidência empírica para a evolução dos
fundamentos da teoria da decisão", pp. 103-121 em D Batens e JP van Bendegem
(eds) Teoria e experiência.

Samuelson, William e Richard Zeckhauser (1988), "Status Quo Viés na Tomada de


Decisão", Jornal de risco e incerteza 1: 7-59.

Savage, LJ (1951), "A teoria da decisão estatística", Journal of the American


Statistical Association 46: 55-67.

Savage, LJ (1954), Os Fundamentos de Estatística.

Schoemaker, Paul JH (1982), "A utilidade esperada Modelo: suas variantes, Fins,
Evidence e Limitações", Journal of Economic Literature
20: 529-563.

Schofield, Norman (1978), "Instabilidade do Simples Jogos dinâmicos",


Revisão de Estudos Econômicos 45: 575-594.

Seidenfeld, Teddy (1979), "Por que eu não sou um Bayesian objetiva; Algumas reflexões
provocadas pelo Rosenkrantz", Teoria e decisão 11: 413-440.

Sen, Amartya K (1970), Escolha coletiva e Assistência Social.

Simon, Herbert (1960), The New Science of Decision Management.

89
Skyrms, Brian (1980), "graus de ordem superior de crença", pp. 109-137 em DH Mellor (ed.), Perspectivas
de pragmatismo.

Skyrms, Brian (1982), "teoria da decisão Causal", Journal of filosofia


79: 695-711.

Skyrms, Brian (1986) "Deliberational Equilíbrio",, topoi 5: 59-67.

Sobel, Jordan Howard (1990), "Maximização, estabilidade de decisão e acções em


conformidade com a razão", Filosofia da Ciência 57: 60-77.

Sowden, Lanning (1984), "A inadequação da teoria da decisão Bayesian",


Estudos filosóficos 45: 293-313.

Sugden, Robert (1986), "pesar, recrimination e racionalidade", pp. 67-80 em L Daboni et al.
(eds.), Desenvolvimentos recentes nos fundamentos da Utilidade e Teoria do Risco.

Suppes, Patrick (1961), "A importância filosófica da teoria da decisão",


Journal of filosofia 58: 605-614.

Toda, Masanao (1976) "O Processo de Decisão: Uma Perspectiva",


Jornal Internacional de Sistemas Gerais 3: 79-88.

Tversky, Amos (1975), "A crítica da teoria da utilidade esperada: descritiva e considerações
normativas", Erkenntnis 9: 163-173.

Tversky, Amos e Daniel Kahneman (1981), "os enquadramentos das decisões e da Psicologia
da Choice", Ciência 211: 453-458.

Tversky, Amos e Daniel Kahneman (1986), "Escolha Racional e da formulação das


decisões", Journal of Business 59: 251-278.

Tyson, PD (1986) "Os seus padrões fazer alguma diferença? Assimetria nos julgamentos de
preferência", Perceptivas e motoras 63: 1059-1066. Unwin, Stephen D (1986), "Um conjunto
Fundação distorcido Teórico para Vagueza em análise de incerteza", Análise de risco 6: 27-34.

90
Wald, A (1950), Funções decisão estatística.

Weirich, Paul (1983), "Opções de um tomador de decisão", Estudos filosóficos


44: 175-186.

Weirich, Paul (1985), "Decisão de instabilidade", Australásia Journal of filosofia 63:


465-472.

Weirich, Paul (1986), "utilidade esperada e Risco", Jornal britânico para a Filosofia da
Ciência 37: 419-442.

Wilson, Richard e EAC Crouch (1987), "Avaliação de Risco e comparações:


Uma Introdução", Ciência 236: 267-270.

Witte, Eberhard (1972), "A pesquisa de campo sobre os processos de tomada de decisões complexas
- o teorema de fase", Estudos Internacionais de Gestão e Organização, 156-182.

von Wright, Georg Henrik (1963) A lógica da preferência.

91
Diagrama 1. As relações entre as fases e rotinas de um processo de decisão, de
acordo com MINTZBERG et al (1976).

Diagrama 2. Uma comparação entre as fases do processo de acordo com a decisão Condorcet,
Simon, et al MINTZBERG e Borda et ai.

92
Diagrama 3. A função de valor em teoria perspectiva. (Após KAHNEMAN e TVERSKY [1979]
1988, p. 202.)

Diagrama 4. O peso decisão em função de probabilidades objetivas, de acordo com a teoria do


prospecto. (Após TVERSKY e KAHNEMAN 1986, p. 264.)

93
Diagrama 5. A imprecisão em juízos periciais como representado na teoria da decisão difusa.
(Unwin 1986, p. 30.)

Diagrama 6. Os principais tipos de medidas de informação probabilística incompleta.

94

Você também pode gostar