Você está na página 1de 73

Capítulo 1

Jogos estáticos de
informação completa
Neste capítulo, consideramos os seguintes jogos de forma simples: primeiro, os
jogadores escolhem ações simultaneamente; Então, os jogadores recebem pagamentos
que dependem da combinação das ações escolhidas. Dentro da classe de tais jogos
estáticos (ou movimento simultâneo), limitamos a atenção aos jogos de informação
completa. Ou seja, a função de retorno de cada jogador (a função que determina o
retorno do jogador dada a combinação de ações escolhidas pelos jogadores) é conhecida
entre todos os jogadores. Consideramos jogos dinâmicos (ou movimento sequencial)
nos capítulos 2 e 4 e jogos de informação incompleta (jogos onde um jogador não sabe
a função de retorno do outro jogador — como em um leilão, onde a disposição de cada
licitante para pagar o bem que está sendo vendido é desconhecida dos outros licitantes)
nos capítulos 3 e 4.

Na secção 1.1, damos o primeiro passo para as duas questões básicas na teoria
dos jogos: como descrever e resolver o problema resultante do jogo-teórico.
Desenvolvemos as ferramentas que utilizaremos na análise de jogos estáticos de
informação completa, e usaremos também os fundamentos da teoria para analisar jogos
mais ricos em capítulos posteriores. Definimos a forma normal de representação de um
jogo e a noção de uma estratégia estritamente dominada. Vamos mostrar que alguns
jogos podem ser resolvidos aplicando a ideia de que jogadores racionais não
desempenham estratégias estritamente dominadas, mas também que em outros jogos
esta abordagem produz uma previsão muito imprecisa sobre a peça do jogo (às vezes tão
imprecisa como "tudo pode acontecer"). Em seguida, motivar e definir o equilíbrio de
Nash — um conceito de solução que produz previsões mais precisas em uma classe
mais ampla de jogos.
Na seção 1.2, analisamos quatro aplicações, usando as ferramentas
desenvolvidas na seção anterior: modelo de Cournot (1838) de concorrência imperfeita,
modelo de Bertrand (1883) de concorrência imperfeita, modelo de Farber (1980) da
arbitragem de oferta final e o problema dos comuns (discutido por Hume [1739] e
outros). Em cada aplicação, primeiro daremos uma instrução informal do problema em
uma representação de forma normal do jogo e então resolveremos o equilíbrio de Nash
do jogo. (Cada uma dessas aplicações tem um único equilíbrio de Nash, mas podemos
discutir exemplos em que isto não é verdade).

Na seção 1.3, voltamos à teoria. Primeiro definimos a noção de uma estratégia


mista, que interpretamos em termos de incerteza de um jogador do que outro jogador irá
fazer. Em seguida, do estado e discutir teorema de Nash (1950), que garante que um
equilíbrio de Nash (possivelmente envolvendo estratégias mistas) existe em uma ampla
classe de jogos. Desde que apresentamos a primeira teoria básica na secção 1.1,
aplicações na secção 1.2 e mais teoria no ponto 1.3, deve ser evidente que dominar a
teoria adicional na seção 1.3 não é um pré-requisito para compreender as aplicações na
secção 1.2. Por outro lado, as ideias de uma estratégia mista e a existência do equilíbrio
aparecem (ocasionalmente) em capítulos posteriores.

Cada capítulo conclui com problemas, sugestões de leitura adicional e


referências.

1.1 Teoria Básica: Jogos de Forma Normal e Equilíbrio de Nash

1.1.A Forma Normal de Representação dos Jogos

Na representação da forma normal de um jogo, cada jogador escolhe simultaneamente


uma estratégia, e a combinação de estratégias escolhidas pelos jogadores determina um
pagamento para cada jogador. Podemos ilustrar a forma normal de representação com
um exemplo clássico — O dilema dos prisioneiros. Dois suspeitos são presos e
acusados de um crime. A polícia não tem provas suficientes para condenar os suspeitos,
a menos que pelo menos um confesse. A polícia prende os suspeitos em celas separadas
e explica as consequências que se seguirão a partir das ações que eles tomam. Se
nenhum deles confessar então ambos serão condenados por um delito menor e
Condenados a um mês de prisão. Se ambos confessarem então ambos serão condenados
à prisão por seis meses. Finalmente, se um confessa e o outro não, então o confessor
será liberado, e o outro será condenado a nove meses na cadeia — seis pelo crime e
mais três por obstrução da justiça.

O problema dos prisioneiros pode ser representado na bi-matriz de


acompanhamento. (Como uma matriz, uma bi-matriz pode ter um número arbitrário de
linhas e colunas; "bi" refere-se ao fato de que, em um jogo de dois jogadores, existem
dois números em cada célula — os pagamentos aos dois jogadores.)

O Dilema dos Prisioneiros

Neste jogo, cada jogador tem duas estratégias disponíveis: confessar (ou fink) e não
confessar (ou ser mum). Os pagamentos para os dois jogadores quando é escolhido um
determinado par de estratégias são dados na célula apropriada da bi-matriz. Por
convenção, o pagamento para o jogador de linha chamado (aqui, prisioneiro 1) é a
primeira recompensa dada, seguido do pagamento para o jogador da coluna (aqui,
prisioneiro 2). Assim, se o prisioneiro 1 escolhe mum e o prisioneiro 2 escolhe Fink, por
exemplo, então prisioneiro 1 recebe o pagamento — 9 (representando nove meses na
prisão) e prisioneiro 2 recebe o pagamento 0 (representando a liberação imediata).

Voltamos para o caso geral. A forma normal de representação de um jogo


especifico: (1) os jogadores no jogo, (2) as estratégias disponíveis para cada jogador e
(3) o pagamento recebido por cada jogador para cada combinação de estratégias que
poderiam ser escolhidas pelos jogadores. Muitas vezes discutimos com n-jogadores no
jogo onde os jogadores são numerados de 1 a n, e chama-se um jogador i de jogador
arbitrário. Vamos denotar Si o conjunto de estratégias disponíveis para o jogador i

(chamado i espaço de estratégia) e que si denota um membro arbitrário deste conjunto.

(Escreveremos ocasionalmente si є Si para indicar que a estratégia si pertence ao

conjunto de estratégias Si.) Deixe (s1, ..., sn) denotar uma combinação de estratégias,

uma para cada jogador, e deixe ui denotar a função de pagamento do jogador i: ui (s1, ...,
sn) é o pagamento do jogador i se os jogadores escolhem as estratégias (s1, ..., sn).
Coletando todas essas informações juntas, temos:

Definição A representação da forma normal com n-jogadores de um jogo especifico é


o espaço de estratégia dos jogadores S1, ..., Sn e suas funções de pagamento u1, ..., un.

Denotamos este jogo por G = {S1, ..., Sn; u1, ..., un}.

Embora afirmemos que na forma normal de um jogo os jogadores escolhem suas


estratégias simultaneamente, isso não implica que as partes se comportem
simultaneamente: basta um escolher sua ação sem conhecimento das outras escolhas,
como seria o caso se os prisioneiros tomassem decisões em momentos arbitrários, em
celas separadas. Além disso, embora neste capítulo, use-se jogos de forma normal para
representar apenas jogos estáticos onde todos os jogadores movem-se sem saber as
escolhas dos outros jogadores, veremos no capítulo 2 que representações da forma
normal do jogo podem ser dadas para jogos de movimento sequencial, mas também que
uma alternativa — a representação da forma extensiva do jogo — é muitas vezes um
quadro mais conveniente para a análise de problemas dinâmicos.

1.1.B Eliminação Iterada de Estratégias Estritamente Dominadas

Tendo descrito uma forma de representar um jogo, agora damos o primeiro passo
descrevendo como resolver o problema do jogo-teórico. Começamos com o dilema dos
prisioneiros porque é fácil de resolver, usando apenas a ideia de que um jogador
racional não vai jogar uma estratégia estritamente dominada.

No dilema dos prisioneiros, se um suspeito vai jogar Fink, então o outro


preferiria jogar Fink então serão presos por seis meses ao invés de mum e ser preso por
nove meses. Da mesma forma, se um suspeito vai jogar mum, em seguida, outro prefere
jogar Fink e assim ser liberado imediatamente ao invés de jogar mum e ficar na cadeia
por um mês. Assim, para o prisioneiro i, jogando mum é dominado por quem joga Fink
— para cada estratégia esse prisioneiro j pude escolher, o pagamento ao prisioneiro i
por jogar mum é menor do que o pagamento por i jogar Fink. (O mesmo seria verdade
em qualquer bi-matriz em que os pagamentos 0, –1, – 6, e –9 acima foram substituídos
por pagamentos, T, R, P e S, respectivamente, desde que T > R > P > S a fim de
capturar as ideias de tentação, recompensa, punição e pagamentos palerma.) Mais
geralmente:
Definição no jogo de forma normal G = {S1, ..., Sn; u1, ..., un}, deixe si' e si" ser

estratégias viáveis para o jogador (ou seja, si' e si" são membros da Si). Estratégia si' é

estritamente dominada por estratégia si" se para cada combinação possível de

estratégias dos outros jogadores, i pagamento de jogar si' é estritamente menor que i

pagamento de jogar si":

para cada (s1, ..., si – 1, si + 1, ..., sn) que pode ser construído por espaço de estratégia de

outros jogadores S1, ..., Si – 1, Si + 1, ..., Sn.

Jogadores racionais não joga estratégias estritamente dominadas, porque não há


nenhuma crença que um jogador pode assegurar (sobre as estratégias que os outros
jogadores vão escolher) uma estratégia que seria ideal para jogar.1 Assim, no dilema dos
prisioneiros, um jogador racional escolherá Fink, então (Fink, Fink) será o resultado
alcançado por dois jogadores racionais, embora (Fink, Fink) resulta em pagamentos
piores para ambos os jogadores do que (mum, mum). Porque o dilema dos prisioneiros
tem muitas aplicações (incluindo a corrida armamentista e o problema do parasitismo na
provisão de bens públicos), voltaremos a variantes do jogo nos capítulos 2 e 4. Por
enquanto, focamos na ideia de que jogadores racionais não desempenham estratégias
estritamente dominadas que podem levar à solução de outros jogos.

Considere o jogo abstrato na Figura 1.1.1.2 Jogador 1 tem duas estratégias e


jogador 2 tem três: S1 = {cima, baixo} e S2 = {esquerda, meio, direita}. Para o jogador

1. Uma pergunta complementar também é de interesse: se não há nenhuma crença de que o jogador pode
assegurar (sobre as estratégias que os outros jogadores vão escolher) a estratégia si que seria ideal para
jogar, podemos concluir que deve haver uma outra estratégia que domina estritamente si? A resposta é
"Sim", desde que adotamos apropriadas definições de "crença" e "outra estratégia", das quais ambas
envolvem a ideia de estratégias mistas que será introduzido na secção 1.3.A.

2. A maioria deste livro considera aplicações económicas, ao invés de exemplos abstratos, pois as
aplicações são de interesse por direito próprio e também porque, para muitos leitores, as aplicações são
muitas vezes uma maneira útil para explicar a teoria subjacente. Quanto da introdução de algumas das
ideias teóricas básicas, no entanto, nós às vezes vamos recorrer a exemplos abstratos que não têm
nenhuma interpretação econômica natural.
1, nem acima nem baixo é estritamente dominado: Cima é melhor do que em baixo se 2
joga

Figura 1.1.1

esquerda (porque 1 > 0), mas é melhor do que acima se 2 joga direito (porque 2 > 0).
Para o jogador 2, no entanto, direito é estritamente dominado por meio (porque 2 > 1 e 1
> 0), então o jogador racional 2 não vai jogar direito. Assim, se o jogador 1 sabe que o
jogador 2 é racional o jogador 1 pode eliminar direito do espaço de estratégia do
jogador 2. Ou seja, se o jogador 1 sabe que o jogador 2 é racional então jogador 1 pode
jogar o jogo na Figura 1.1.1 como se fosse o jogo na Figura 1.1.2.

Figura 1.1.2

Na Figura 1.1.2, baixo é agora estritamente dominada para jogador 1, então se


jogador 1 é racional (e jogador 1 sabe que o jogador 2 é racional, para que se aplica o
jogo na Figura 1.1.2) então o jogador 1 não jogará baixo. Assim, se o jogador 2 sabe
que o jogador 1 é racional, e jogador 2 sabe que o jogador 1 sabe que o jogador 2 é
racional (Então esse jogador 2 sabe que se aplica a Figura 1.1.2), então o jogador 2 pode
eliminar baixo do espaço de estratégia do jogador 1, deixando o jogo na Figura 1.1.3.
Mas agora esquerda é estritamente dominada por meio para o jogador 2, deixando
(cima, médio) como o resultado do jogo.

Este processo conhecido como eliminação iterada de estratégias estritamente


dominadas. Embora seja baseado na ideia que jogadores racionais não jogam estratégias
estritamente dominadas, o processo tem duas desvantagens. Em primeiro lugar, cada
etapa requer uma suposição a mais sobre o que o jogador sabe da racionalidade do
outro.
Figura 1.1.3

Se queremos ser capazes de aplicar o processo para um número arbitrário de passos,


precisamos assumir que é de conhecimento comum que os jogadores são racionais. Ou
seja, precisamos assumir não só que todos os jogadores são racionais, mas também que
todos os jogadores sabem que todos os jogadores são racionais, e que todos os jogadores
sabem que todos os jogadores sabem que todos os jogadores são racionais e assim por
diante, ad infinitum (anuncio infinito). (Ver Aumann [1976] para a definição formal de
conhecimento comum).

A segunda desvantagem de eliminação iterada de estratégias estritamente


dominadas é que o processo muitas vezes produz uma previsão muito imprecisa sobre a
peça do jogo. Considere o jogo na Figura 1.1.4, por exemplo. Neste jogo não há
nenhuma estratégia estritamente dominada para ser eliminada. (Desde que não
estejamos um pouco motivados, este jogo pode parecer arbitrário, ou mesmo patológico.
Veja o caso de três ou mais empresas no modelo de Cournot seção 1.2.A para uma
aplicação económica dentro do mesmo espírito.) Uma vez que todas as estratégias do
jogo sobreviverem a eliminação iterada de estratégias estritamente dominadas, o
processo não produz nenhuma previsão sobre a jogada do jogo.

Figura 1.1.4.

Passamos ao equilíbrio de Nash — um conceito de solução que produz previsões


muito mais precisas em uma classe muito ampla de jogos. Vamos mostrar que o
equilíbrio de Nash é um conceito de solução mais forte do que a eliminação iterada de
estratégias estritamente dominadas, no sentido de que as estratégias dos jogadores em
um equilíbrio de Nash sempre sobrevivem a eliminação iterada de estratégias
estritamente dominadas, mas o inverso não é verdadeiro. Nos capítulos subsequentes
vamos argumentar que, em jogos mais ricos mesmo o equilíbrio de Nash produz uma
previsão mais imprecisa sobre a peça do jogo, então vamos definir noções de equilíbrio
ainda mais fortes que são mais adequadas para esses jogos mais ricos.

1.1.C Motivação e Definição de Equilíbrio de Nash

Uma maneira de motivar a definição de equilíbrio de Nash é argumentar que se a teoria


dos jogos é fornecer uma solução original para um problema de jogos teóricos então a
solução deve ser um equilíbrio de Nash, no seguinte sentido. Acho que essa teoria de
jogo faz uma previsão exclusiva sobre a estratégia que cada jogador irá escolher. Assim,
para a estratégia prevista pelo jogador ser à correta, é necessário que cada jogador esteja
disposto a escolher a estratégia prevista pela teoria. Assim, a estratégia prevista de cada
jogador deve ser a melhor resposta do jogador para as estratégias previstas dos outros
jogadores. Tal predição poderia ser chamada estrategicamente estável ou auto
execução, porque nenhum jogador quer desviar sua estratégia prevista. Vamos chamar
tal predição de um equilíbrio de Nash:

Definição no jogo de forma normal o n-jogador G = {S1, ..., Sn; u1, ..., un}, as

estratégias (s1*, ..., sn*) são um equilíbrio de Nash se, para cada jogador i, si* é (pelo
menos empatado) jogada i é a melhor resposta às estratégias especificas para os n - 1
outros jogadores, (𝑠1∗ , … , 𝑠𝑖∗−1 , 𝑠𝑖∗+1 , … , 𝑠𝑛∗ ):

para cada estratégia viável si em Si ou seja, si* resolve

Para relacionar esta definição para sua motivação, suponha que teoria dos jogos
oferece as estratégias (s'1, ..., s'n) como a solução para o jogo de forma normal G = {S1,

..., Sn; u1, ..., un}. Dizendo isso (s'1, ..., s'n) não é um equilíbrio de Nash de G, é

equivalente a dizer que existe algum jogador i tal que s'1 não é a melhor resposta para

(s'1, ..., s'i-1, s'i+1, ..., s'n). Ou seja, existe algum s''i em Si tal que
Assim, a teoria oferece as estratégias (s'1, ..., s'n) como a solução, mas estas estratégias
não são um equilíbrio de Nash, se pelo menos um jogador terá um incentivo para
desviar-se da previsão da teoria, então a teoria pode ser falsificada pela jogada atual do
jogo. Uma motivação intimamente relacionada para equilíbrio de Nash envolve a ideia
de Convenção: se uma convenção é desenvolver sobre como jogar um determinado
jogo, em seguida, as estratégias prescritas pela Convenção devem ser um equilíbrio de
Nash, mais pelo menos um jogador não irá obedecer a Convenção.

Para ser mais concreto, resolvemos agora alguns exemplos. Considere os três
jogos de forma normal já descritos — dilema dos prisioneiros e figuras 1.1.1 e 1.1.4.
Uma abordagem de força bruta para encontrar equilíbrios de Nash de um jogo é
simplesmente verificar se cada combinação possível de estratégias satisfaz a condição
(NE) na definição.3 Em um jogo de dois jogadores, esta abordagem começa da seguinte
forma: para cada jogador e para cada estratégia viável para aquele jogador, determinar a
melhor resposta de outro jogador para essa estratégia. Figura 1.1.5 faz isso para o jogo
na Figura 1.1.4 sublinhando a recompensa ao jogador j pela melhor resposta a cada
estratégia viável do jogador i. Se o jogador da coluna jogar L, por exemplo, então
melhor resposta do jogador seria M, desde 4 excede 3 e 0, então recompensa do jogador
linha é 4 na (M, L) célula da matriz-bi é sublinhada.

Um par de estratégias satisfaz a condição (NE), se a estratégia de cada jogador é


uma resposta melhor para o outro — ou seja, se ambos os pagamentos são sublinhados
na célula correspondente da matriz-bi. Assim, (B, R) é o único par de estratégia que
satisfaça (NE); o mesmo vale para (Fink, Fink) no dilema dos prisioneiros e (cima,
meio)

3. Na seção 1.3.A faremos a distinção entre estratégias puras e mistas. Então vemos que a definição dada
aqui descreve o equilíbrio de Nash de estratégia pura, mas que também pode haver equilíbrio de Nash de
estratégia mista. A menos que explicitamente indicado em contrário, todas as referências aos equilíbrios
de Nash nesta seção são de equilíbrios de Nash de estratégia pura.
Figura 1.1.5

na Figura 1.1.1. Esses pares de estratégia são equilíbrios de Nash exclusivos destes
jogos.4

Em seguida abordamos a relação entre equilíbrio de Nash e eliminação iterada


de estratégias estritamente dominadas. Lembre-se que as estratégias de equilíbrio de
Nash no dilema dos prisioneiros e Figura 1.1.1 — (Fink, Fink) e (cima, médio),
respectivamente — são apenas estratégias que sobrevivem a eliminação iterada de
estratégias estritamente dominadas. Este resultado pode ser generalizado: se eliminação
iterada de estratégias estritamente dominadas elimina todas, mas as estratégias (s*1, ...,

s*n), em seguida, estas estratégias são o único equilíbrio de Nash do jogo. (Veja o
Apêndice 1.1.C para uma prova desta declaração.) Desde eliminação iterada de
estratégias estritamente dominadas frequentemente não elimina todas, mas uma única
combinação de estratégias, no entanto, é mais interessante o equilíbrio de Nash que é
um conceito de solução mais forte do que a eliminação iterada de estratégias
estritamente dominadas, no seguinte sentido. Se as estratégias (s*1, ..., s*n) são um
equilíbrio de Nash se sobrevivem a eliminação iterada de estratégias estritamente
dominadas (novamente, veja o apêndice para uma prova), mas pode haver estratégias
que sobrevivem a eliminação iterada de estratégias estritamente dominadas, mas não
fazem parte do equilíbrio de Nash. Para ver o último, lembre-se que na Figura 1.1.4
equilíbrio Nash dá a previsão original (B, R), Considerando que eliminação iterada de
estratégias estritamente dominadas dá a previsão máxima imprecisa: estratégias não são
eliminadas; Tudo pode acontecer.

Tendo mostrado que equilíbrio de Nash é um conceito de solução mais forte do


que a eliminação iterada de estratégias estritamente dominadas, temos de perguntar se o
equilíbrio de Nash é um conceito muito forte de solução. Ou seja, podemos ter a certeza
que um equilíbrio de Nash existe? Nash (1950) mostrou que em qualquer jogo finito (ou
seja, um jogo em que o número de jogadores n e os conjuntos de estratégia S1, ..., Sn são
todos finitos) existe pelo menos um equilíbrio de Nash. (Este equilíbrio pode envolver
estratégias mistas, que discutiremos na seção 1.3.A; consulte a seção 1.3.B para uma

4. Esta afirmação é correta mesmo se não restringirmos a atenção ao equilíbrio de Nash de estratégia
pura, porque nenhum equilíbrio de Nash de estratégia mista existe nestes três jogos. Ver problema 1.10.
indicação precisa do teorema de Nash). Cournot (1838) propôs a mesma noção de
equilíbrio no contexto de um determinado modelo de duopólio e demonstra (por
construção) que existe um equilíbrio nesse modelo; Ver secção 1.2.A. Em todas as
aplicações analisadas neste livro, seguiremos a pista de Cournot: Vamos demonstrar que
um equilíbrio de Nash (ou mais forte) existe através da construção de um. Em algumas
das seções teóricas, no entanto, vamos confiar no teorema de Nash (ou seu analógico
para conceitos de equilíbrio mais fortes) e simplesmente afirmar que existe um
equilíbrio.

Podemos concluir esta seção com outro exemplo clássico — a batalha dos
sexos. Este exemplo mostra que um jogo pode ter múltiplos equilíbrios de Nash e
também serão úteis nas discussões de estratégias mistas nas seções 1.3.B e 3.2.A. Na
tradicional exposição do jogo (Qual, ficará claro, datas a partir da década de 1950), um
homem e uma mulher estão tentando decidir sobre uma noite; Analisamos uma versão
neutra do jogo. Enquanto nos locais de trabalho separado, Pat e Chris devem escolher
assistir à ópera ou uma luta de boxe. Ambos os jogadores prefere passar a noite juntos
do que separados, para Pat eles ficam juntos no combate enquanto para Chris eles ficam
juntos na ópera, como representado na bi-matriz de acompanhamento.

A batalha dos sexos

Ambos (ópera, ópera) e (luta, briga) são equilíbrios de Nash.

Discutimos acima que se teoria dos jogos fornece uma solução única para um
jogo, em seguida, a solução deve ser um equilíbrio de Nash. Esse argumento ignora a
possibilidade de jogos em que a teoria dos jogos não oferece uma solução única.
Argumentamos que, se uma convenção é desenvolver sobre como jogar um determinado
jogo, em seguida, as estratégias prescritas pela Convenção devem ser um equilíbrio de
Nash, mas esse argumento, da mesma forma, ignora a possibilidade de jogos para os
quais não se desenvolverão uma convenção. Em alguns jogos com múltiplos equilíbrios
de Nash um equilíbrio destaca-se como a solução convincente para o jogo. (Muito da
teoria em capítulos posteriores é um esforço para identificar um equilíbrio tão
convincente em diferentes classes de jogos). Assim, a existência de múltiplos
equilíbrios de Nash não é um problema por si só. Na batalha dos sexos, no entanto,
(ópera, ópera) e (luta, briga) parecem igualmente atraentes, o que sugere que pode haver
jogos para qual teoria dos jogos não oferece uma solução exclusiva e nenhuma
convenção será desenvolvida.5 Em tais jogos, equilíbrio de Nash perde muito do seu
apelo como uma previsão de jogo.

Apêndice 1.1.C

Este apêndice contém as provas das proposições seguintes, declaradas informalmente na


seção l.l.C. Ignorar essas provas não dificultará substancialmente a compreensão do
material mais tarde. Para os leitores não acostumados a manipular as definições formais
e construir as provas, no entanto, dominar estas provas será um exercício valioso.

Proposição A no jogo de forma normal o n-jogador G = {S1, ..., Sn; u1, ..., un}, se
eliminação iterada de estratégias estritamente dominadas elimina todas, mas as
estratégias (s*1, ..., s*n), em seguida estas estratégias são o único equilíbrio de Nash do
jogo.

Proposição B no jogo de forma normal o n-player G = {S1, ..., Sn; u1, ..., un}, se as

estratégias (s*1, ..., s*n) são um equilíbrio de Nash, então elas sobrevivem a eliminação
iterada de estratégias estritamente dominadas.

Desde que a proposição B é mais simples de provar, começamos com ela, para
aquecer. O argumento é por contradição. Ou seja, vamos supor que uma das estratégias
em um equilíbrio de Nash é eliminada pela eliminação iterada de estratégias
estritamente dominadas, e então vamos mostrar que uma contradição resultaria se este
pressuposto fosse verdade, provando assim que a suposição deve ser falsa.

5. Na secção 1.3.B descrevemos um terceiro equilíbrio de Nash da batalha dos sexos (envolvendo
estratégias mistas). Ao contrário de (ópera, ópera) e (lutar, lutar), este terceiro equilíbrio tem pagamentos
simétricos, como se poderia esperar da solução original para um jogo simétrico; por outro lado, o
equilíbrio do terceiro também é ineficiente, o que pode funcionar contra seu desenvolvimento como uma
convenção. Qualquer um dos acordos sobre os equilíbrios de Nash na batalha dos sexos, no entanto,
continua sendo o ponto mais amplo: pode haver jogos em que teoria dos jogos não fornece uma solução
única e nenhuma convenção irá desenvolver.
Suponha que as estratégias (s*1, ..., s*n) são um equilíbrio de Nash do jogo de

forma normal G = {S1, ..., Sn; u1, ..., un}, mas também suponha que (talvez depois de

algumas estratégias (s*1, ..., s*n) serem eliminadas) si* é a primeira das estratégias (s*1,

..., s*n) a ser eliminada por ser estritamente dominada. Então lá deve existir uma

estratégia s"i que ainda não foi eliminada de Si que domina estritamente si*. Adaptando
(DS), temos

para cada um (s1, ..., si-1, si+1, ..., sn) que pode ser construído a partir das estratégias que
ainda não foram eliminadas dos espaços de estratégia dos outros jogadores. Uma vez
que si* é a primeira das estratégias de equilíbrio a ser eliminada, estratégias de
equilíbrio dos outros jogadores não foram ainda eliminadas, então uma das implicações
da (1.1.1) é

Mas (1.1.2) é contrariada pelo (NE): si* deve ser uma resposta melhor para (s*1, ..., s*i-

1, s*i+1, ..., s*n), então não pode existir uma estratégia si" que domina estritamente si*.
Esta contradição completa a prova.

Tendo provado a proposição B, provámos parte da proposição A: precisamos


mostrar que, se eliminação iterada de estratégias dominadas elimina todas, mas as
estratégias (s*1, ..., s*n) estas estratégias são um equilíbrio de Nash; por proposição B,
qualquer outro equilíbrio de Nash também sobreviveria, então este equilíbrio deve ser
exclusivo. Supomos que G é finito.

O argumento é novamente por contradição. Suponha que a eliminação iterada de


estratégias dominadas elimina todas, mas as estratégias (s*1, ..., s*n) não são um

equilíbrio de Nash. Então lá deve existir algum jogador i e uma estratégia viável, si em

Si tal que (NE) falhar, mas si deve têm sido estritamente dominadas por alguma outra
estratégia si' em algum momento do processo. As declarações formais destas duas

observações são: existe si em Si tal que

e existe si' no conjunto de estratégias jogador i restante em algum estágio do processo


de tal forma que

para cada (s1, ..., si-1, si+1, ..., sn) que pode ser construído a partir das estratégias
restantes em espaços de estratégia dos outros jogadores nessa fase do processo. Desde
estratégias dos outros jogadores (s*1, ..., s*i-1, s*i+1, ..., s*n) nunca são eliminadas, uma
das implicações da (1.1.4) é

Se si' = si* (ou seja, se si* é a estratégia que domina estritamente si) e depois (1.1.5)

contradiz (1.1.3), em cujo caso a prova está completa. Se si' ≠ si* algumas outras

estratégias si" devem mais tarde dominar estritamente si', desde que si' não sobreviva ao

processo. Assim, as desigualdades análogas ao (1.1.4) e (1.1.5) Segura com si' e si"

substituindo o si e si', respectivamente. Mais uma vez, se si" = si* em seguida, a prova
está completa; caso contrário, podem ser construídas duas desigualdades mais análogas.
Uma vez que si* é a única estratégia de Si para sobreviver ao processo, repetir este
argumento (em um jogo finito) eventualmente completa a prova.

1.2 Aplicações

1.2.A Modelo de Duopólio de Cournot

Como observado na seção anterior, Cournot (1838) antecipou a definição do equilíbrio


de Nash por mais de um século (mas apenas no contexto de um determinado modelo de
duopólio). Não surpreendentemente, o trabalho de Cournot é um dos clássicos da teoria
dos jogos; também é um dos pilares da teoria da organização industrial. Podemos
considerar uma versão muito simples do modelo de Cournot aqui e retornar às variações
no modelo em cada capítulo subsequente. Nesta seção, usamos o modelo para ilustrar:
(a) a tradução de uma instrução informal de um problema em uma representação de
forma normal de um jogo; (b) os cálculos envolvidos na resolução para o equilíbrio de
Nash do jogo; e (c) eliminação iterada de estratégias estritamente dominadas.

Deixe q1 e q2 denotar as quantidades (de um produto homogêneo) produzidas


pelas firmas 1 e 2, respectivamente. Deixe P(Q) = a – Q ser o preço de compensação de
mercado quando a quantidade total do mercado é Q = q1 + q2 (mais precisamente, P(Q)
= a – Q para Q < a e P(Q) = 0 para Q ≥ a). Suponha que o total de custos para firma
produzir quantidade qi é Ci (qi) = cqi. Ou seja, não há nenhum custo fixo e o custo
marginal é constante em c, onde assumimos c < a. Cournot na sequência, supõe que as
firmas escolhem suas quantidades simultaneamente.6

A fim de encontrar o equilíbrio de Nash do jogo de Cournot, traduzimos


primeiro o problema para um jogo da forma normal. Lembre-se da seção anterior que
especifica a forma normal de representação de um jogo: (1) os jogadores no jogo, (2) as
estratégias disponíveis para cada jogador e (3) o pagamento recebido por cada jogador
para cada combinação de estratégias que poderiam ser escolhidas pelos jogadores. Há,
claro, dois jogadores em qualquer jogo de duopólio — as duas firmas. No modelo de
Cournot, as estratégias disponíveis para cada empresa são as diferentes quantidades que
pode ser produzida. Vamos supor que a saída é continuamente divisível. Naturalmente,
saídas negativas não são viáveis. Assim, o espaço de estratégia de cada empresa pode
ser representado como Si = [0, ∞), os números reais não-negativos, caso em que uma

típica estratégia si é uma quantidade de escolha, qi ≥ 0. Argumenta-se que quantidades


extremamente grandes não são viáveis e portanto não devem ser incluídas no espaço de
estratégia da empresa. Porque P(Q) = 0 para Q ≥ a, no entanto, nenhuma empresa irá

produzir uma quantidade qi > a.

6. Discutimos o modelo de Bertrand (1883), no qual as firmas escolhem preços, ao invés de quantidades,
em secção 1.2.B e o modelo de Stackelberg (1934), onde as firmas escolhem quantidades mas uma
empresa escolhe antes (e é observada) da outra, na seção 2.1.B. Finalmente, discutimos o modelo de
Friedman(1971), em que a interação descrita no modelo de Cournot ocorre repetidamente ao longo do
tempo, na seção 2.3.C.
Continua a se especificar o pagamento para firma em função das estratégias
escolhidas por ela e pela outra, e para definir resolva para o equilíbrio. Supomos que a
recompensa da empresa é simplesmente seu lucro. Assim, o pagamento de ui (si, sj) em
geral um jogo de dois jogadores na forma normal pode ser escrito aqui como7

Lembre-se da seção anterior que em um jogo de dois jogadores na forma normal, o par
de estratégia (s*1, s*2) é um equilíbrio de Nash se, para cada jogador i,

para cada estratégia viável si em Si. Equivalentemente, para cada jogador i, s*i deve
resolver o problema de otimização

No modelo de duopólio de Cournot, a instrução análoga é que o par de quantidade (q*1,

q*2) é um equilíbrio de Nash se, para cada empresa i, qi* resolve

Supondo que qj* < a – c (que vai ser mostrado para ser verdade), a condição de primeira
ordem para o problema de otimização firme i é necessário e suficiente; e produz

Assim, se o par de quantidade (q*1, q*2) para um equilíbrio de Nash, a escolhas das
quantidades das empresas devem satisfazer

7. Observe que mudamos a notação ligeiramente escrevendo ui (si, sj) ao invés de ui (s1, s2). Ambas as
expressões representam a recompensa ao jogador em função das estratégias escolhidas por todos os
jogadores. Usaremos essas expressões (e seus análogos de n – jogadores) alternadamente.
Resolvendo este par de rendimentos de equações

que é de fato inferior a – c, como se presume.

A intuição por trás deste equilíbrio é simples. Cada firma é claro que gostaria de
ser um monopolista neste mercado, caso em que ela escolheria o qi para maximizar πi

(qi, 0) — iria produzir a quantidade de monopólio qm = (a – c) / 2 e o monopólio lucra

πi (qm, 0) = (a — c)2/4. Dado que existem duas empresas, agregar lucros para o duopólio

iria ser maximizado, definindo a quantidade global de q1 + q2 igual à quantidade de

monopólio qm, como ocorreria se qi = qm /2 para cada i, por exemplo. O problema com
este arranjo é que cada empresa tem um incentivo para desviar-se: porque a quantidade
de monopólio é baixa, o preço associado P(qm) é alto, e a esse preço cada empresa
gostaria de aumentar sua quantidade, apesar do fato de que tal aumento na produção
reduz o preço de compensação do mercado. (Para ver isso formalmente, use (1.2.1) para
verificar que qm/2 não é a melhor resposta da firma 2 a escolha de qm qm/2 da firma 1.)
O equilíbrio de Cournot, em contraste, a quantidade global é maior, então o preço
associado é menor, então a tentação de aumentar a produção é reduzida — em que cada
empresa só é desencorajada de aumentar sua saída pela realização que vai cair o preço
de mercado-clareia o suficiente. Ver problema 1.4 para uma análise de como a presença
de n oligopolistas afeta esta compensação de equilíbrio entre a tentação de aumentar a
produção e a relutância para reduzir o preço de compensação do mercado.

Ao invés de resolver o equilíbrio de Nash para o jogo de Cournot


algebricamente, em vez disso poderia proceder graficamente, como segue. Equação
(1.2.1) dá firma i é a melhor resposta a estratégia de equilíbrio da firma, qj*. Raciocínio
análogo leva a melhor resposta da empresa 2 a uma estratégia arbitrária da empresa 1 e
a melhor resposta da firma 1 a uma estratégia arbitrária da empresa 2. Assumindo que a
estratégia da empresa 1 satisfaz q1 < a – c, é a melhor resposta da empresa 2
da mesma forma, se q2 < a – c então é a melhor resposta da firma 1

Figura 1.2.1.

Como mostrado na Figura 1.2.1, essas duas funções de melhor resposta cruzam apenas
uma vez, o par de quantidade de equilíbrio (q1*, q2*).

Uma terceira maneira de resolver este equilíbrio de Nash é aplicar o processo de


eliminação iterada de estratégias estritamente dominadas. Este processo produz uma
solução original — que, pela proposição A apêndice 1.1.C, deve ser o equilíbrio de
Nash (q1*, q2*). O processo completo requer um número infinito de etapas, cada uma
das eliminações é uma fração das quantidades restantes no espaço de estratégia de cada
empresa; Vamos discutir apenas as duas primeiras etapas. Primeiro, a quantidade de
monopólio qm = (a – c) / 2 domina estritamente qualquer quantidade maior. Que é, para

qualquer x > 0, πi (qm, qj) > πi (qm + x, qj) para todos os qj ≥ 0. Para ver isto, note que se

Q = qm + x + qj < a, então

e
e se Q = qm + x + qj ≥ a, então P(Q) = 0, para produzir uma quantidade menor gera

lucro. Segundo, dado que as quantidades que excedam qm sejam eliminadas, a


quantidade (a – c) / 4 domina estritamente qualquer quantidade inferior. Que é, para
qualquer x entre zero e (a – c) / 4, πi [(a – c) / 4, qj] > πi [(a – c) / 4 – x, qj] para todos qj
entre zero e (a – c) /2. Para ver isto, note que

Após esses dois passos, as quantidades restantes no espaço de estratégia de cada


empresa são aqueles no intervalo entre (a – c) / 4 e (a – c) / 2. Repetir estes argumentos
leva a intervalos cada vez menor das quantidades restantes. No limite, estes intervalos
convergem para o único ponto q i* = (a – c) / 3.

Eliminação iterada de estratégias estritamente dominadas também pode ser


descrita graficamente, usando a observação (da nota de rodapé 1; Veja também a
discussão na seção 1.3.A) que uma estratégia é estritamente dominada se e somente se
não há nenhuma crença sobre as escolhas dos outros jogadores para que a estratégia seja
uma resposta melhor. Uma vez que existem apenas duas empresas neste modelo,
reafirmamos esta observação como: uma quantidade qi é estritamente dominada se e

somente se não há nenhuma crença sobre qj tal que qi da firme i é a melhor resposta.
Vamos discutir novamente apenas as duas primeiras etapas do processo iterativo.
Primeiro, nunca é uma resposta melhor para a empresa i produzir mais que a quantidade
de monopólio, qm = (a – c) / 2. Para ver isto, considere a função de melhor resposta da

empresa 2, por exemplo: na Figura 1.2.1, R2(q1) é igual a qm quando q1= 0 e diminui à

medida que q1 aumenta. Assim, para qualquer qj ≥ 0, se firma i acredita que firma j irá
escolher qj, então a melhor resposta da firma i é menor ou igual a qm; Não há nenhum qj

tal que melhor resposta da firma i exceda qm. Em segundo lugar, dado este limite
superior na quantidade firma j, podemos derivar um limite inferior na firma i que seja
melhor resposta: se qj ≤ (a – c) / 2, então, Ri(qj) ≥ (a – c) / 4, como mostrado na figura
1.2.2 a melhor resposta para firma 2.8

Figura 1.2.2

Como antes, repetir estes argumentos conduz a quantidade única q*i = (a – c) /


3. Podemos concluir esta seção, alterando o modelo de Cournot para que
eliminação iterada de estratégias estritamente dominadas não rende uma solução única.
Para fazer isso, basta adicionar uma ou mais empresas para o duopólio existente.
Veremos que a primeira das duas etapas discutidas no caso duopólio continua a deter,
mas que o processo termina aí. Assim, quando há mais de duas empresas, eliminação
iterada de estratégias estritamente dominadas produz apenas a previsão imprecisa, que
quantidade de cada empresa não exceda a quantidade de monopólio (tanto como na
Figura 1.1.4, onde estratégias não foram eliminadas por este processo).

Para concretizar, consideramos o caso de três empresas. Deixe 𝑄− 𝑖 denota a


soma das quantidades escolhidas pelas empresas que não seja i e deixe πi (qi, 𝑄− 𝑖 ) = qi

(a – qi – 𝑄− 𝑖 – c) forneci qi + 𝑄− 𝑖 < a (considerando que πi (qi, 𝑄− 𝑖 ) = –cqi se qi + 𝑄− 𝑖

≥ a). É mais verdade que a quantidade de monopólio qm = (a – c) /2 estritamente

domina qualquer quantidade maior. Ou seja, para qualquer x > 0, πi (qm,𝑄− 𝑖 ) > πi (qm +
x, 𝑄− 𝑖 ) para todos os 𝑄− 𝑖 ≥ 0, assim como a primeira etapa no processo de duopólio.
Desde que existem duas firmas além da firma i, no entanto, tudo o que posso dizer sobre

8. Estes dois argumentos são um pouco incompletos porque não analisamos a melhor resposta da firma i
quando a firma é incerta sobre qj. Suponha que a firma i é incerta sobre qj mas acredita que o valor
esperado de qi é E(qi). Porque πi (qi, qj) é linear em qj, a melhor resposta da firma i quando é incerto desta
forma é igual a sua melhor resposta quando é certo que firme j escolherá E (qj) – a caso coberto no texto.
𝑄− 𝑖 é que está entre zero e a – c, porque qj e qk estão entre zero e (a – c) / 2. Mas isto

implica que nenhuma quantidade qi ≥ 0 é estritamente dominada pela firma i, porque

para cada qi entre zero e (a – c) / 2 existe um valor de 𝑄− 𝑖 entre zero e a – c (ou seja,

𝑄− 𝑖 = a – c – 2qi) tal que qi da firma i é a melhor resposta a 𝑄− 𝑖 . Assim, não há mais


estratégias para ser eliminadas.

1.2.B Modelo de Duopólio de Bertrand

Em seguida, consideramos um modelo diferente de como dois duopolistas podem


interagir, baseado em sugestão de Bertrand (1883), que as empresas realmente escolhem
preços, ao invés de quantidades, como no modelo de Cournot. É importante notar que o
modelo de Bertrand é um jogo diferente do modelo de Cournot: os espaços de estratégia
são diferentes, as funções de pagamento são diferentes, e (como se tornará claro) o
comportamento nos equilíbrios de Nash dos dois modelos é diferente. Alguns autores
resumem essas diferenças, remetendo para o equilíbrio de Cournot e Bertrand. Tal uso
pode ser enganoso: refere-se à diferença entre os jogos de Cournot e Bertrand e a
diferença entre o comportamento de equilíbrio nestes jogos, não para uma diferença no
conceito de equilíbrio, usado nos jogos. Em ambos os jogos, o conceito de equilíbrio
utilizado é o equilíbrio de Nash, definido na seção anterior.

Consideramos o caso de produtos diferenciados. (Veja problema 1.7 para o caso


de produtos homogéneos). Se as firmas 1 e 2 escolhem preços p1 e p2, respectivamente,
a quantidade que os consumidores exigem da empresa i é

onde b > 0 reflete a medida em que o produto da firma i é um substituto para o produto
da firma j. (Essa é uma função de demanda irrealista, porque demanda para o produto da
firma i é positivo mesmo quando a firma i cobra um preço arbitrariamente alto, desde
que firma j também cobra um preço alto o suficiente. Como ficará claro, o problema só
faz sentido se b < 2.) Como em nossa discussão sobre o modelo de Cournot,
presumimos que existem sem custos fixos de produção e que os custos marginais são
constantes em c, onde c < a, e que as empresas agem (ou seja, escolher os seus preços)
simultaneamente.
Como antes, a primeira tarefa no processo de encontrar o equilíbrio de Nash é
traduzir o problema em um jogo da forma normal. Novamente, existem dois jogadores.
Desta vez, no entanto, as estratégias disponíveis para cada empresa são os preços
diferentes que pode cobrar, ao invés das diferentes quantidades que pode produzir.
Vamos supor que preços negativos não são viáveis, mas que qualquer preço não-
negativo pode ser cobrado — não há nenhuma restrição para preços denominados em
moedas, por exemplo. Assim, espaço de estratégia de cada empresa pode ser
representado como Si = [0, ∞), os números reais não negativos e uma típica estratégia si

é agora um preço de escolha, pi ≥ 0.

Mais uma vez supomos que a função de recompensa para cada firma é apenas
seu lucro. É o lucro da firma i quando ela escolhe o preço pi e seu rival escolhe o preço

pj é

Assim, o par de preço (p1*, p2*) é um equilíbrio de Nash se, para cada firma i, pi*
resolve

A solução para firma i o problema de otimização é

Portanto, se o par de preço (p1*, p2*) é um equilíbrio de Nash, opções de preço das
firmas devem satisfazer

Resolvendo este par de rendimentos de equações


1.2.C Oferta de Arbitragem Final

Muitos trabalhadores do setor público são proibidos de greve; em vez disso, disputas
salariais são resolvidas por arbitragem obrigatória. (A Major league de Base – Boll pode
ser um exemplo do alto escalão do setor público, mas é substancialmente menos
importante economicamente). Muitos outros litígios, incluindo casos de negligência
médica e pretensões por acionistas contra seus corretores, também envolvem a
arbitragem. As duas principais formas de arbitragem são convencionais e oferta final.
Na de oferta final, os dois lados fazem ofertas de salário e em seguida o árbitro escolhe
uma das ofertas como o acordo. Na convencional, em contraste, o árbitro é livre para
impor qualquer salário como o acordo. Agora derivamos as ofertas de salário de
equilíbrio de Nash em um modelo de arbitragem de oferta final desenvolvido por Farber
(1980).9

Suponha que as partes em litígio são uma firma e a União e a disputa diz
respeito a salários. Deixe o momento do jogo seguinte. Primeiro, a firma e a União,
simultaneamente, fazem ofertas, denotadas pelo wf e wu, respectivamente. Segundo, o
árbitro escolhe uma das duas ofertas como acordo. (Como em muitos jogos chamados
de estáticos, isto realmente é um jogo dinâmico do tipo a ser discutido no capítulo 2,
mas aqui podemos reduzi-lo a um jogo estático entre a firma e a União por fazer
suposições sobre o comportamento da arbitragem na segunda etapa.) Suponha que o
árbitro tem um acordo ideal que ele gostaria de impor, denotado por x. Suponha ainda
que, depois de observar as ofertas, wf e wu das partes, o árbitro simplesmente escolhe a

oferta que está mais perto de x: desde aquele wf < wu (como é intuitivo e será mostrado

para ser verdadeiro), o árbitro escolhe wf se x < (wf + wu) / 2 e escolhe wu se x > (wf +

wu) / 2; Ver Figura 1.2.3. (Vai ser irrelevante o que acontece se x = (wf + wu) / 2.
Suponha que o árbitro vira uma moeda.)
O árbitro conhece x, mas as partes não. As partes acreditam que x
é distribuído aleatoriamente de acordo com uma distribuição de probabilidade
cumulativa, denotada por F (x), com função de densidade de probabilidade associada,

9. Esta aplicação envolve alguns conceitos básicos de probabilidade: uma distribuição de probabilidade
cumulativa, uma função de densidade de probabilidade e um valor esperado. Concisas definições são
dadas conforme necessário; para obter mais detalhes, consulte qualquer texto introdutório de
probabilidade.
denotada por f (x).10 Dado nossa especificação do comportamento da arbitragem, se as
ofertas forem wf e wu então

Figura 1.2.3

as partes acreditam que as probabilidades Prob {wu escolhido} e Prob {wf escolhido}
podem ser expressas como

Assim, o acordo de salário esperado é

Assumimos que a firma pretende minimizar o acordo salarial esperado imposto pelo
árbitro, e a União quer maximizá-lo.

Se o par de ofertas (wf *, wu*) é um equilíbrio de Nash do jogo entre a firma e a

União, a wf * deve resolver11

10. A probabilidade de que x é menor que um valor arbitrário x* é denotado por F(x*) e a derivada desta
probabilidade em relação a x* é denotado por f(x*). Desde que F(x*) é uma probabilidade, temos 0 ≤
F(x*) ≤ 1 para qualquer x*. Além disso, se x** > x* então F(x**) ≥ F(x*), assim f(x*) ≥ 0 para todo x*.
e wu* deve resolver

Assim, o par do salário-oferta (wf *, wu*) deve resolver as condições de primeira ordem
para estes problemas de otimização,

(Podemos diferir, considerando estas condições de primeira ordem suficientes). Desde


que os lados esquerdos dessas condições de primeira ordem são iguais, os lados direito
também devem ser iguais, o que implica que

ou seja, a média das ofertas deve ser igual a mediana do acordo preferencial da
arbitragem. Substituir (1.2.2) em qualquer uma das condições de primeira ordem então
rendimentos

ou seja, a diferença entre as ofertas deve ser igual a recíproca do valor da função
densidade a mediana do acordo preferencial da arbitragem.
A fim de produzir um resultado comparativo estático intuitivamente atraente,
consideramos um exemplo. Suponha que o acordo preferencial do árbitro é

11. Na formulação de problemas de otimização da firma e da União, partimos do princípio que a oferta da
firma é menor que a da União. É simples mostrar que está desigualdade deve manter-se em equilíbrio.
normalmente distribuído com média m e variância σ2, caso em que a função de
densidade é

(Neste exemplo, pode mostrar que as condições de primeira ordem dadas anteriormente
são suficientes). Porque uma distribuição normal é simétrica em torno de sua média, a
mediana da distribuição é igual a média da distribuição, m. Portanto, (1.2.2) torna-se

e (1.2.3) torna-se

Portanto, o equilíbrio de Nash oferecidos são

Assim, em equilíbrio, ofertas das partes estão centradas em torno da expectativa de


liquidação preferencial da arbitragem (ou seja, m) e a diferença entre os aumentos de
ofertas com a incerteza das partes sobre liquidação preferencial do árbitro (ou seja, σ2).
A intuição por trás deste equilíbrio é simples. Cada parte enfrenta um trade-off.
Uma oferta mais agressiva (isto é, uma oferta mais baixa da firma ou mais elevada da
União) gerando um pagamento melhor se escolhido como o acordo pelo árbitro, mas é
menos provável de ser escolhido. (Veremos no capítulo 3 que uma compensação similar
surge em um leilão de primeiro preço, de oferta selada: uma oferta mais baixa gera um
retorno melhor se é o lance vencedor, mas reduz as chances de ganhar.) Quando não há
mais incerteza sobre acordo preferencial da arbitragem (ou seja, σ2 é maior), as partes
podem ser mais agressivas pois uma oferta agressiva é menos provável está mais em
desacordo com o acordo preferencial da arbitragem. Quando não há quase nenhuma
incerteza, em contraste, nenhuma das partes pode dar ao luxo de fazer uma oferta muito
longe da média porque o árbitro é muito provável preferi um acordo perto de m.

1.2.D O Problema dos Bens Comuns


Desde que pelo menos Hume (1739), filósofos políticos e economistas têm entendido
que, se os cidadãos respondem apenas aos incentivos privados, bens públicos serão
recursos públicos e underprovided superutilizados. Hoje, até mesmo uma inspeção
casual do ambiente da terra revela a força dessa ideia. Hardin é (1968) muito citado
papel trazido à atenção do noneconomists o problema. Aqui nós

Analise um exemplo bucólico.

Considere os agricultores n em uma aldeia. Cada verão, todos os agricultores pastarem


suas cabras no verde da vila. Indicar o número de cabras, o agricultor HII é dono por g,-
e o número total de cabras na aldeia por G = gi + • • • + gn-o custo de comprar e cuidar
de uma cabra é c, independente de quantas cabras é dono de um agricultor. O valor a um
agricultor de pastoreio uma cabra no verde quando um total de cabras G estão pastando
é v(G) por cabra. Desde que uma cabra precisa pelo menos uma certa quantidade de
grama para sobreviver, há um número máximo de cabras que pode ser atingido de
raspão no verde, Gmax: v(G) > 0 para G < Gmax mas v(G) = 0 para G > Gmax.
Também, desde que o primeiras poucas cabras têm muito espaço para pastar,
adicionando mais um faz menor dano àqueles já pastando, mas quando tantas cabras
estão pastando que eles são todos apenas sobrevivendo (isto é, G é logo abaixo Gmax),
em seguida, adicionando um mais dramaticamente prejudica o resto. Formalmente: Para
G < Gmax,z/(G) < 0 e v"(G) < 0, conforme indicado na Figura 1.2.4.

Durante a primavera, os agricultores simultaneamente escolhem quantas cabras ao


próprio. Assumir os bodes são continuamente divisíveis. Uma estratégia para o
agricultor é a escolha de um número de cabras a pastar no green village, g,-. Supondo
que o espaço de estratégia é [0, oo) abrange todas as escolhas que poderiam ser de
interesse do agricultor; [0, GMax) também seria suficiente. A recompensa para o
agricultor eu de pastoreio g, cabras, quando os números de cabras pastavam pelos outros
agricultores são (gi,..., g,-eu, g; + i,..., gn) é

Assim, se (g |,..., g ^) deve ser um equilíbrio de Nash, em seguida, para cada i, g * deve
maximizar (1.2.4) dado que os outros agricultores escolher (gi, • • •, g * anchura, g * +
i, • • • j g «) • a condição de primeira ordem para este problema de otimização é
Figura 1.2.4.

onde g * _ {denota g\ + g h * _a + g * + l - I 1 - g *. Substituindo g * na (1.2.5),


somando-se sobre as condições de primeira ordem dos agricultores n todas e depois
dividindo por n rendimentos

onde G * denota g * • • • + + g *. Em contraste, o ideal social, denotada por G * *,


resolve

a condição de primeira ordem para a qual é

Comparando (1.2.6) para (1.2.7) shows12 esse G * > G * *: muitas cabras pastem no
equilíbrio de Nash, em comparação com o ideal social. A condição de primeira ordem
(1.2.5) reflete os incentivos enfrentados por um agricultor que já está pastando g -
cabras mas é Considerando a adição de mais um (ou, estritamente falando, uma fração
minúscula de mais um). O valor do bode adicional é v (g {+ g * _f) e seu custo é c. O
dano para caprinos existentes do agricultor é u'(gi+gl,-) por cabra, ou giv'(gj + g * _j) no
total. O recurso comum é superutilizado porque cada fazendeiro considera apenas seus
próprios incentivos, não o efeito de suas ações os outros agricultores, daí a presença de
GV(G*)/n em (1.2.6) mas G*V(G**) em (1.2.7).

12. suponha que, ao contrário, esse G * < G * *. Então w(G*) > v(G"*), desde v' 0 <.
Likewise, 0 > v'(G') > i>'(G**), desde v" < 0. Finalmente, G "/n < G". Assim, do lado
esquerdo de (1.2.6) excede estritamente do lado esquerdo de (1.2.7), que é impossível,
já que ambos iguais a zero.

1.3 teoria avançada de: Estratégias mistas e existência de equilíbrio

1.3.A misturada estratégias

Na seção 1.1.C, definimos S, para o conjunto de estratégias disponíveis para o jogador i


e a combinação de estratégias (s |,..., s *) para ser um equilíbrio de Nash se, para cada
jogador i, s * é jogador i ' s melhor resposta às estratégias do n — eu outros jogadores:
para cada estratégia s, s. Por esta definição, não há nenhum equilíbrio de Nash no jogo
seguinte, conhecido como correspondência de moedas de um centavo.

Neste jogo, o espaço de estratégia de cada jogador é {cara, coroa}. Como uma história
para acompanhar os pagamentos na bi-matrix, imaginar que cada jogador tem um
centavo e deve escolher se deseja exibi-lo com a cara ou coroa para cima. Se a partida
de duas moedas (ou seja, ambos são cabeças acima ou ambos são caudas acima), em
seguida, centavo jogador 2 vitórias de 1; Se as moedas não coincidirem em seguida
centavo ganha 1 do 2. Não pode satisfazer nenhum par de estratégias (NE), desde se
coincidir com as estratégias dos jogadores —(Heads, Heads) ou (coroa, coroa) — Então
o jogador 1 prefere trocar estratégias, enquanto se não coincidirem as estratégias —
(Heads, Tails) ou (coroa, cabeças) — então jogador 2 prefere fazê-lo.

A característica distintiva da correspondência de moedas de um centavo é que cada


jogador gostaria de outguess o outro. Versões deste jogo também surgem no pôquer,
beisebol, batalha e outras configurações. No poker, a questão análoga é muitas vezes a
mentir: se o jogador z é conhecido por nunca blefar então adversários ZS irão dobrar
sempre que eu lances agressivamente, assim, tornando-se a pena para eu fazer bluff na
ocasião; por outro lado, muitas vezes a fazer bluff é também uma estratégia perdedora.
No beisebol, suponha que um arremessador pode jogar uma bola ou uma curva e que
um batedor pode bater qualquer arremesso se (mas apenas se) antecipa-se corretamente.
Da mesma forma, em batalha, suponho que os atacantes podem escolher entre dois
locais (ou duas rotas, tais como "por terra ou por mar") e que a defesa pode desviar
qualquer ataque se (mas apenas se) antecipa-se corretamente.

Em qualquer jogo em que cada jogador gostaria outguess a outra (s), não há nenhum
equilíbrio de Nash (pelo menos como este conceito de equilíbrio foi definido na seção
1.1.C) porque a solução para um jogo tão necessariamente envolve a incerteza sobre o
que vão fazer os jogadores. Agora apresentamos a noção de uma estratégia mista, que
nos irá interpretar em termos de incerteza de um jogador do que outro jogador irá fazer.
(Esta interpretação foi promovida por Harsanyi [1973]; nós discuti-lo ainda mais na
seção 3.2.A.) Na próxima seção vamos alargar a definição de equilíbrio de Nash para
incluir estratégias mistas, capturando, assim, a incerteza inerente a solução para jogos
como correspondência de tostões, pôquer, beisebol e batalha.
Formalmente, uma estratégia mista para o jogador acabou uma distribuição de
probabilidade (algumas ou todas) as estratégias em S,-. Daqui em diante nos referiremos
às estratégias em S, como jogador i estratégias puras. Em jogos de movimento
simultâneo de informação completa, analisados neste capítulo, estratégias pura do
jogador são as diversas ações que o jogador pode tomar. Na correspondência de
moedas, por exemplo, S, consiste nas duas estratégias puras, cabeças e caudas, então
uma estratégia mista para o jogador, é a distribuição de probabilidade (q, eu — q), onde
q é a probabilidade de jogar de cabeça, 1 - q é a probabilidade de jogar de caudas e 0 <
q < 1. A estratégia mista (0,1) é simplesmente as caudas de pura estratégia; da mesma
forma, a estratégia mista (1,0) é as cabeças de pura estratégia.

Como um segundo exemplo de uma estratégia mista, lembre-se figura 1.1.1, onde o
jogador 2 tem as estratégias puras esquerda, meio e direita. Aqui uma estratégia mista
para o jogador 2 é a distribuição de probabilidade (q, r, \ - cj - r), onde q é a
probabilidade de jogar de esquerda, r é a probabilidade de jogar o meio e 1 - q — r é a
probabilidade de jogar direito. Como antes, 0 < c\ < 1 e agora também 0 < r < 1 e 0 < c\
+ r < 1. Neste jogo, a estratégia mista (1/3,1/3,1/3) coloca a probabilidade igual na
esquerda, meio e direito, Considerando que (1/2,1/2,0) coloca igual probabilidade na
esquerda e meio mas nenhuma probabilidade à direita. Como sempre, um jogador do
puro estratégias são simplesmente os casos limitantes de estratégias mistas do jogador
— estratégia pura jogador 2 esquerda Eis a estratégia mista (1,0,0), por exemplo.

Mais geralmente, suponha que o jogador i tem K estratégias puras: S, = {s, eu,-..., s, x}.
Em seguida, um misto de estratégia para o jogador é uma distribuição de probabilidade
(p; i,..., p/j <), onde p ^ é o probr-bility aquele jogador que vai jogar estratégia s ^, para
k = 1,..., K. Desde p ^ é uma probabilidade, exigimos 0 < p ^ < 1 para k = 1,..., K e pu-\
\-piK = I. Nós usaremos p, - para denotar uma estratégia mista arbitrária do conjunto de
distribuições de probabilidade mais S, assim como nós usamos s, para denotar uma
estratégia pura arbitrária de S,.

Definição na forma normal de jogo G = {Si,..., Sn; u\,..., un}, suponho que Si = {SH,...,
SJK}. Então um misto de estratégia para o jogador é uma distribuição de probabilidade
p = (p / i,..., p / x), onde Q < p n c < ' [f o r k = l,..., K e Pu + • • • + PiK = 1 -

Podemos concluir esta seção retornando (brevemente) a noção de estratégias


estritamente dominadas, introduzido na secção 1.1. B, a fim de ilustrar as funções
potenciais para estratégias mistas em argumentos feitos lá. Lembre-se que se uma
estratégia s, é estritamente dominada então não há nenhuma crença de que o jogador
poder segurar (sobre as estratégias que os outros jogadores vão escolher) tal que seria
ideal para jogar s,-. O inverso também é verdadeiro, desde que nós permitimos
estratégias mistas: se não há nenhuma crença que o jogador poder segurar (sobre as
estratégias que os outros jogadores vão escolher) tal que seria ideal para jogar a
estratégia s,, então, existe uma outra estratégia que domina estritamente s, 13 jogos nas
figuras 1.3.1 e 1.3.2

13. Pearce (1984) comprova este resultado para o caso de dois jogadores e observa que
ele tem para o «-caso de jogador desde que estratégias mistas dos jogadores podem ser
correlacionados — ou seja, o jogador i ' s crença sobre o jogador / vai fazer a obrigação
pode ser correlacionada com i ' s crença sobre qual jogador k vai fazer. Aumann (1987)

Figura 1.3.1.

Mostre que essa conversa seria falsa se nós restrito atenção às estratégias de puras.

Figura 1.3.1 mostra que uma determinada estratégia pura pode ser estritamente
dominada por uma estratégia mista, mesmo se a estratégia pura não é estritamente
dominada por qualquer outra estratégia pura. Neste jogo, para qualquer crença (q, l —
q) que o jogador 1 poderia segurar a jogar cerca de 2, do 1 melhor resposta é qualquer T
(se q > 1/2) ou M (se c\ < 1/2), mas nunca de B. Ainda B não é estritamente dominada
por T ou M. A chave é que B é estritamente dominada por uma estratégia mista: se o
jogador 1 joga T com probabilidade 1/2 e M com probabilidade 1/2 depois do 1
pagamento esperado é 3/2, não importa qual estratégia (pura ou mista) 2 joga, e 3/2
excede o pagamento de 1 que certamente jogar B produz. Este exemplo ilustra o papel
das estratégias mistas em encontrar a "outra estratégia que domina estritamente s,."

1.3.2 a figura.

sugere que tal correlação em crenças f é totalmente natural, mesmo se j e k fazerem suas
escolhas de forma totalmente independente: por exemplo, /' pode saber que ambos;' e k
foi para a escola de negócios, ou talvez na mesma escola de negócios, mas não pode
saber o que é ensinado lá.
1.3.2 a figura mostra que uma determinada estratégia pura pode ser uma melhor
resposta a uma estratégia mista, mesmo se a estratégia pura não é uma resposta melhor
que qualquer outra estratégia pura. Neste jogo, B não é uma resposta melhor para o
jogador 1 L ou R pelo jogador 2, mas B é a melhor resposta para jogador 1 a estratégia
mista (q,-q) pelo jogador 2, desde que 1/3 < q < 2/3. Este exemplo ilustra o papel das
estratégias mistas na "crença que eu poderia segurar o jogador."

1.3.B existência de equilíbrio de Nash

Nesta seção, discutimos vários temas relacionados com a existência de equilíbrio de


Nash. Primeiro, nós estendemos a definição de equilíbrio de Nash no ponto 1.1.C para
permitir a mistura de estratégias. Em segundo lugar, nós aplicamos esta definição
estendida para moedas de um centavo combinando e a batalha de homens e mulheres.
Em terceiro lugar, usamos um gráfico argumento para mostrar que qualquer jogo de
dois jogadores em que cada jogador tem duas estratégias puras tem um equilíbrio de
Nash (possivelmente envolvendo estratégias mistas). Finalmente, podemos indicar e
discutir teorema de Nash (1950), que garante que qualquer jogo finito (ou seja, qualquer
jogo com um número finito de jogadores, cada um dos quais tem um número finito de
estratégias puras) tem um equilíbrio de Nash (novamente, possivelmente envolvendo
estratégias mistas).

Lembre-se que a definição de equilíbrio de Nash, constantes da secção 1.1.C garante


que a estratégia pura de cada jogador é uma melhor resposta às estratégias pura dos
outros jogadores. Para estender a definição para incluir estratégias mistas, nós
simplesmente exigimos que cada jogador misto estratégia ser uma melhor resposta às
estratégias mistas dos outros jogadores. Desde que qualquer estratégia pura pode ser
representada como a estratégia mista que coloca a probabilidade zero em todos o
jogador a outras estratégias puras, esse estendido definição engloba o anterior um.

Jogador de computação i ' s melhor resposta a uma estratégia mista por jogador j ilustra
a interpretação do jogador j misturada estratégia como representando o jogador amarga
incerteza sobre qual jogador; vai fazer. Começamos com moedas de um centavo
combinando como exemplo. Suponha que o jogador 1 acredita que o jogador 2 vai jogar
cabeças com probabilidade q e caudas com probabilidade eu — q; ou seja, 1 acredita
que 2 vai jogar a estratégia mista (q, l — q). Dada esta crença, jogador do eu retornos
esperados são • q (-1) + (1 - q} • eu = 1 - 2T de jogar cabeças e q• 1 + (1 - q) • (-1) = 2 *
7-1 de jogar caudas. Desde l-2q > 2q-l se e somente se q < 1/2, jogador do eu melhor
resposta de pura estratégia é Cabeças se q < 1/2 e Caudas se q > 1/2 e o jogador 1 é
indiferente entre cabeças e caudas se q = 1/2. Resta para considerar possíveis respostas
de estratégia misturado pelo jogador 1.

Deixe (r, 1 — r) denotar a estratégia mista na qual o jogador 1 joga cabeças com
probabilidade r. Para cada valor de q entre zero e um, podemos agora calcular o valor
(es) de r, denotado por r*(q), tal que (r,-r) é uma resposta melhor para o jogador 1 para
(q, 1 - q) pelo jogador 2. Os resultados estão resumidos na Figura 1.3.3. Retorno
esperado do jogador 1 de jogar (r, eu — r) quando joga o 2 (q, eu — q) é

onde rq é a probabilidade de (cabeças, cabeças), r(l —q) a probabilidade de (cara,


coroa) e on.14 assim desde que o jogador 1 é esperada recompensa está aumentando em
r se 2 - 4T > 0 e decrescente em r se 2 — 4q < 0, resposta melhor jogador do 1 é r — 1
(ou seja, Cabeças) se q < 1/2 e r — 0 (ou seja, Caudas) se q > 1/2, conforme indicado
pelos dois segmentos horizontais de r*(q) na Figura 1.3.3. Esta declaração é mais forte
que a instrução intimamente relacionada no parágrafo anterior: lá temos considerado
apenas estratégias puras e encontrado que se q < 1/2, em seguida, Cabeças é a estratégia
mais pura e que se q > caudas depois de 1/2 é a mais pura estratégia; aqui consideramos
todas as estratégias puras e mistas, mas achar que mais uma vez que se q < 1/2, em
seguida, Cabeças é a melhor de todas as estratégias (puras ou mistas) e que se q >
caudas depois de 1/2 é a melhor de todas as estratégias.

A natureza da resposta de melhor jogador da 1 a (q, eu — q) muda quando q = 1/2.


Como notável mais cedo, quando q = 1/2 jogador 1 é indiferente entre as estratégias
puras cabeças e caudas. Além disso, porque o jogador 1 é esperado retorno em (1.3.1) é
independente de r quando q = 1/2, o jogador 1 também é indiferente entre estratégias
tudo misturadas (r, 1-r). Ou seja, quando q — 1/2 a estratégia mista (r, 1 - r)

14. os eventos A e B são independentes se Prob {A e B} = {A} de Prob-Prob {B}.


Assim, por escrito, rq para a probabilidade de que 1 cabeças e interpreta de 2 cabeças,
estamos supondo que 1 e 2 fazer suas escolhas de forma independente, como convém a
descrição que demos de jogos simultâneos-move. Consulte Aumann (1974) para a
definição do equilíbrio correlacionado, que se aplica em jogos em que as escolhas dos
jogadores podem ser correlacionadas (porque os jogadores observam o resultado de um
evento aleatório, como um cara ou coroa, antes de escolher suas estratégias).

Figura 1.3.3.

é uma melhor resposta a (q, l — q) para qualquer valor de i entre zero e um. Assim,
r*(l/2) é o intervalo inteiro [0,1], conforme indicado pelo segmento vertical do r*(q) na
Figura 1.3.3. Na análise do modelo de Cournot, seção 1.2.A, chamamos Ri(qj) firma i
função de melhor resposta. Aqui, porque existe um valor de q, tal que r*(q) tem mais de
um valor, nós chamamos r*(q) jogador a resposta melhor correspondência.

Para derivar o jogador i ' s melhor resposta ao jogador j misturado a estratégia mais
geral, e para dar uma declaração formal da definição alargada de equilíbrio de Nash,
restringimos agora atenção para o caso de twoplayer, que capta as principais ideias tão
simplesmente quanto possível. Deixe / denotar o número de estratégias puros em Si e K
o número em 82 - vamos escrever Si = {sn,..., s ^} e 82 = {§21,..., S2j <:}, e nós
usaremos siy e s ^ para denotar arbitrárias estratégias puras de Si e 82, respectivamente.

Se o jogador 1 acredita que o jogador 2 vai jogar as estratégias ($21,..., S2x) com as
probabilidades (p2i,---, p2K) Então o jogador que tem esperava recompensa de jogar a
estratégia pura s1; é

e o jogador 1 é esperado retorno de jogar a estratégia mista Pi = (Pn, • • •,? /) é

onde p\j • p2k é a probabilidade de que 1 joga s1;- e 2 joga s ^. Jogador 1 esperado
retorno da estratégia mista p-\, dado em (1.3.3), é a soma ponderada do retorno esperado
para cada uma das estratégias puras {s\\,..., Si /}, dado em (1.3.2), onde os pesos são as
probabilidades (p\\,...., p \ j). Assim, para a estratégia mista (pij, p\\,...) para ser uma
melhor resposta para estratégia mista do jogador do 1 e 2 P2, deve ser aquele py > 0
somente se

para cada s\j > em Si. Ou seja, uma estratégia mista para uma melhor resposta ao p2-
deve colocar probabilidade positiva uma determinada estratégia pura somente se a
estratégia de pura em si é uma melhor resposta a p2. Inversamente, se o jogador 1 tem
várias estratégias puras que são as melhores respostas para p2 e, em seguida, qualquer
estratégia mista que coloca toda a sua probabilidade em algumas ou todas essas
respostas melhores puro-estratégia (e zero probabilidade em todas as outras estratégias
puras) é também uma resposta melhor para o jogador 1 para p2.

Para dar uma declaração formal da definição alargada de equilíbrio de Nash, precisamos
calcular o jogador do 2 retorno esperado, quando os jogadores 1 e 2 jogar o p\ de
estratégias mistas e p2 respectivamente. Se o jogador 2 acredita que jogador 1 vai jogar
as estratégias (s n,..., s\j) com as probabilidades (p\\,..., py), então o jogador 2 é
esperado retorno de jogar as estratégias ($ 2 1,..., S2x) com as probabilidades (P21,---,
P21C) é

Dado v\ (p\, p2] ^2(^1,^2) pode reafirmamos a exigência de equilíbrio de Nash que cada
jogador é misturado a estratégia ser uma resposta melhor ao outro jogador de and
estratégia: para o par de estratégias mistas (pi, pp para ser um equilíbrio de Nash, p\
devem satisfazer

para cada distribuição de probabilidade p\ sobre Si e p ^ deve satisfazer

para cada distribuição de probabilidade p2 mais 82-

Definição de forma normal a dois jogadores jogo G = {Si, $2; MI, Ma} / ffae misturado
estratégias (p\, pp são um equilíbrio de Nash se cada jogador é misturado a estratégia é
uma resposta melhor ao outro jogador é misturado a estratégia: (1.3.4) e (13.5) deve
segurar.

Em seguida aplicamos esta definição para moedas de um centavo combinando e a


batalha de homens e mulheres. Para isso, usamos a representação gráfica do jogador ZS.
melhor resposta ao jogador;' s misturado estratégia introduzida na Figura 1.3.3. Para
complementar a Figura 1.3.3, podemos agora calcular o valor (es) de q, denotado q * (r),
tal que (q, 1-q) é uma melhor resposta para jogador 2 (r, 1 — r) pelo jogador 1. Os
resultados estão resumidos na Figura 1.3.4. Se r < melhor resposta 1/2 depois do 2 é
Coroa, então q*(r) = 0; da mesma forma, se r > melhor resposta 1/2 depois do 2 é
cabeças, então q*(r) = 1. Se r = 1/2, então o jogador 2 é indiferente, não só entre
cabeças e caudas, mas também entre todas as estratégias mistas (q, 1 - q), assim q * (l /
2) é o intervalo inteiro [0,1].

Depois de virar e girar a Figura 1.3.4, temos a Figura 1.3.5. Figura 1.3.5 é menos
conveniente do que figura 1.3.4 como uma representação da resposta de melhor jogador
do 2 a estratégia mista de jogador do 1, mas pode ser combinada com figura 1.3.3 para
produzir Figura 1.3.6.

1.3.6 a figura é análoga à figura 1.2.1 a partir da análise de Cournot na seção 1.2.A.
Assim como a interseção da melhor resposta as funções ^2(^1) e ^1(^2) deu o equilíbrio
de Nash do jogo Cournot, a interseção da melhor resposta as correspondências r*(q) e
q*(r) produz o equilíbrio de Nash (misturado-estratégia) em moedas de um centavo
combinando: se o jogador que joga (1/2,1/2) em seguida (1/2,1/2) é a melhor resposta
para jogador;', conforme necessário para o equilíbrio de Nash.

Vale ressaltar que tal um equilíbrio de Nash misturado-estratégia não depende de


qualquer jogador lançando moedas, dados, ou caso contrário, escolhendo uma estratégia
de forma aleatória. Em vez disso, podemos interpretar o jogador j misturado a estratégia
como uma declaração do jogador i incerteza sobre escolha de jogador j de uma
estratégia (pura). No beisebol, por exemplo, o arremessador pode decidir se deseja
lançar uma bola ou uma curva com base em quão bem cada passo foi lançado durante o
treino antes do jogo. Se a massa entende como o arremessador fará uma escolha, mas
não observaram prática do arremessador, em seguida, a massa pode acreditar que o
arremessador é igualmente provável que jogue uma bola ou uma curva. Nós então
representaria crença do batedor por estratégia mista do arremessador (1/2,1/2), quando
na verdade o arremessador escolhe uma estratégia pura com base nas informações
disponíveis à massa. Declarou, mais geralmente, a ideia é dotar o jogador;' com uma
pequena quantidade de informações privadas tais que, dependendo da realização da
informação privada, jogador / ligeiramente prefere uma das relevantes estratégias puras.
Desde jogador eu não observa j informações particulares, no entanto, continua a ser
incerta sobre escolha de j, e representamos a incerteza de z. por j misturado com
estratégia. Nós fornecemos uma declaração mais formal desta interpretação de uma
estratégia mista na seção 3.2.A.

Como um segundo exemplo de um equilíbrio de Nash da estratégia mista, considerar a


batalha de homens e mulheres da seção 1.1.C. Deixe (q, 1 - q) a estratégia mista em que
Pat joga Opera com probabilidade q, e deixe (r, l-r) ser a estratégia mista na qual Chris
joga Opera com probabilidade r. Se Pat joga (17,1 — q) então Chris é esperado
subornos são 9 • 2 + (1 — q]-0 = 2q de reprodução • Opera e q 0 + (1 – q) • 1 = 1 — q
de jogar luta. Thus, if q > 1/3 then Chris's best response is Opera (i.e., r — 1), if q < 1/3
then Chris's best response is Fight (i.e., r = 0), and if q = 1/3 then any value of r is a best
response. Similarly, if Chris plays (r, I — r) then Pat's expected payoffs are r - l + (l— r
) - 0 = r from playing Opera and r • 0 + (1 - r) • 2 = 2(1 - r) from playing Fight. Thus, if
r > 2/3 the Pat's best response is Opera (i.e., q = 1), if r < 2/3 then Pat's best response is
Fight (i.e., q = 0), and if r = 2/3 then any value of q is a best response. Como mostrado
na Figura 1.3.7, as estratégias mistas (q, l - q) = (1/3,2/3) para Pat e (r, l - r) = (3,1/2/3)
para Chris são, portanto, um equilíbrio de Nash.

Ao contrário na Figura 1.3.6, onde havia apenas um cruzamento de correspondências de


melhor resposta dos jogadores, existem três interseções de r*(q) e q*(r) na Figura 1.3.7:
(q = 0, r = 0) e (q = l, r = 1), bem como (q = 1/3, r = 2/3). Os outros dois cruzamentos
representam o equilíbrio de Nash-estratégia pura (luta)

e (ópera, ópera) descrito na seção 1.1.C.

Em qualquer jogo, um equilíbrio de Nash (envolvendo estratégias puras ou mistas)


aparece como uma interseção de correspondências de melhor resposta dos jogadores,
mesmo quando há mais de dois jogadores, e mesmo quando alguns ou todos os
jogadores têm mais de duas estratégias puras. Infelizmente, os únicos jogos em que as
correspondências de melhor resposta dos jogadores têm representações gráficas simples
são jogos de dois jogadores em que cada jogador tem apenas duas estratégias. Voltamo-
ao lado de um argumento gráfico que qualquer tal jogo tem um equilíbrio de Nash
(possivelmente envolvendo estratégias mistas).

1.3.7 a figura.

Figura 1.3.8.
Considere as recompensas para o jogador 1 dadas na Figura 1.3.8. Existem duas
importantes comparações: x versus z e y contra w. baseado sobre essas comparações,
podemos definir quatro casos principais: (i) x > z e y > w, (ii) x < z e y < w, (iii) x > z e
y < w e (iv) x < z e y > w. Primeiro discutimos esses quatro casos principais, e depois
volta para os restantes casos envolvendo x = z ou y = w.

No caso (i) acima domina estritamente para baixo para o jogador 1 e no caso (ii)
estritamente domina tudo. Lembre-se da seção anterior que s uma estratégia, é
estritamente dominada se e somente se não há nenhuma crença de que o jogador poder
segurar (sobre as estratégias que os outros jogadores vão escolher) tal que seria ideal
para jogar s,. Assim, se (cj, eu — q) é uma estratégia mista para o jogador 2, onde q é a
probabilidade de que 2 vai jogar à esquerda e, em seguida, no caso (i) há nenhum valor
de q tal que Down é ideal para o jogador 1, e no caso (ii) não há nenhum valor de q tal
que é ideal. Deixar (r, 1 — r) denotam uma estratégia mista para o jogador 1, onde são é
a probabilidade de que 1 vai jogar até, podemos representar as correspondências de
melhor resposta para casos (i) e (ii) como na Figura 1.3.9. (Nestes dois casos as melhor
resposta as correspondências são na verdade funções de melhor resposta, desde que não
há nenhum valor de q tal que o jogador 1 tem várias melhores respostas.)

Em casos (iii) e (iv), nem acima nem abaixo é estritamente dominada. Assim, até deve
ser ideal para alguns valores de q e ideal para os outros. Deixa q' = (w-y) / (x - z + w —
y). Em seguida, no caso, (iii) é ideal para q > q' e para baixo para q < q', enquanto que
no caso (iv) o inverso é verdadeiro. Em ambos os casos, qualquer valor de r é ideal
quando q = q'. Estas correspondências de melhor resposta são indicadas na Figura
1.3.10.

Figura 1.3.10.

Desde que ^' = 1 se x = z e q' = 0 se y = w, as correspondências de melhor resposta para


os casos envolvendo qualquer x = z ou y = w são Lshaped (ou seja, dois lados
adjacentes da Praça de unidade), como ocorreria na Figura 1.3.10 se q' = 0 ou 1 em
casos (iii) ou (iv).
Adicionando arbitrárias recompensas para o jogador 2 a Figura 1.3.8 e realizando os
rendimentos de computações análogas a mesma quatro bestresponse correspondências,
exceto que o eixo horizontal mede o r e o q vertical, como na Figura 1.3.4. Inversão e
rotação destes quatro números, como foi feito para produzir Figura 1.3.5, produz figuras
1.3.11 e 1.3.12. (Nas figuras este último, r' é definida de forma análoga a q' na Figura
1.3.10.)

O ponto crucial é que dado qualquer um as quatro correspondências de resposta melhor


para o jogador 1, T*(CJ) de figuras 1.3.9 ou 1.3.10 e qualquer um dos quatro para o
jogador 2, q*(r) de figuras 1.3.11 ou 1.3.12, a par da melhor resposta as
correspondências tem pelo menos um cruzamento, então o jogo tem pelo menos um
equilíbrio de Nash. Verificar todos os dezesseis pares possíveis de melhor resposta
correspondências é deixada como um exercício. Em vez disso, descrevemos as
características qualitativas que podem resultar. Pode haver: (1) um único equilíbrio de
Nash puro-estratégia; (2) um único equilíbrio misturado-estratégia; ou (3) dois
equilíbrios de pura estratégia e um único equilíbrio de estratégia misturado. Lembre-se
de figura 1.3.6 que correspondência de moedas é um exemplo de caso (2) e da Figura
1.3.7 que a batalha de homens e mulheres é um exemplo de

Figura 1.3.11.

1.3.12 a figura.

Figura 1.3.13.

caso (3). O dilema dos prisioneiros é um exemplo de caso (1); resulta da combinação de
caso (i) ou (ii) de r*(q) com o caso (i) ou (ii) ou ^ (r),15

Podemos concluir esta seção com uma discussão sobre a existência de um equilíbrio de
Nash em jogos mais gerais. Se os argumentos acima para dois-por-dois jogos são
demonstrados matematicamente, ao invés de graficamente e, em seguida, eles podem
ser generalizados para aplicar a n - jogador jogos com espaços de estratégia finito
arbitrário.
Teorema (Nash 1950): Na forma normal n-jogador jogo G = {S-[,..., Sn; MI,..., «"}, se n
é finito e Sj é finita para cada i, então existe pelo menos um equilíbrio de Nash,
possivelmente envolvendo estratégias mistas.

A prova do teorema de Nash envolve um teorema do ponto fixo. Como um exemplo


simples de um teorema do ponto fixo, suponha que f (x) é uma função contínua com
domínio [0,1] e o intervalo [0,1]. Então o teorema do ponto fixo de Brouwer garante
que existe pelo menos um ponto fixo — ou seja, existe pelo menos um valor x *

em [0,1] tal que f(x*) = x *. Figura 1.3.13 fornece um exemplo.

15. os casos envolvendo x = z ou y = w não violam a alegação de que o par de


correspondências melhor resposta tem pelo menos um cruzamento. Pelo contrário, além
das características qualitativas descritas no texto, pode agora haver dois equilíbrios de
Nash pura estratégia sem equilíbrio de Nash um misto de estratégia e um continuum dos
equilíbrios de Nash misturado-estratégia.

Aplicação de um teorema do ponto fixo para provar do Nash teorema envolve duas
etapas: (1) mostrando que qualquer ponto de uma certa correspondência fixo é um
equilíbrio de Nash; (2) usando um teorema de ponto fixo apropriado para mostrar que
essa correspondência deve ter um ponto fixo. A correspondência relevante é a «-
correspondência de bestresponse de jogador. Teorema do ponto fixo relevante é devido
Kakutani (1941), que generalizada do teorema de Brouwer para permitir as
correspondências (bem comportadas), bem como funções.

A correspondência de melhor resposta M-jogador é calculada a partir de


correspondências de melhor resposta dos jogadores individuais n como segue.
Considere uma combinação arbitrária de estratégias mistas (pi,..., pn). Para cada
jogador, derivar i ' s melhores respostas às estratégias mistas dos outros jogadores (p
i,..., p,-i, pi + \,..., pn). Em seguida, construa o conjunto de todas as combinações
possíveis de uma tal resposta melhor para cada jogador. (Formalmente, derivar a
correspondência de melhor resposta de cada jogador e então construir o produto cruzado
destes n correspondências individuais). Uma combinação de estratégias mistas (p i,..., p
*) é um ponto fixo deste se correspondência (p j,..., p *) pertence ao conjunto de todas
as combinações possíveis de melhores respostas dos jogadores (p\,..., p *). Ou seja, para
cada i, p * deve ser jogador (um dos) i ' s melhores respostas para (p * {,..., p * _v p * +
1,..., p£), mas esta é precisamente a declaração que (p\,..., p *) é um equilíbrio de Nash.
Isso conclui a etapa (1).

Passo (2) envolve o fato de que a correspondência de melhor resposta de cada jogador é
contínua, em um sentido apropriado. O papel da continuidade no teorema do ponto fixo
de Brouwer pode ser visto, modificando a Figura 1.3.13 f (x): se f (x) é descontínua, em
seguida, ele não precisa ter um ponto fixo. Na Figura 1.3.14, por exemplo, f (x) > x para
todo x-< x', mas /(*') < x' para x &gt; x'. 16

Para ilustrar as diferenças entre f (x) na Figura 1.3.14 e correspondência de melhor


resposta do jogador, considere o caso (iii) na Figura 1.3.10: no cj = q', r*(q') inclui zero,
um e o intervalo inteiro no meio. (Um pouco mais formal, r*(q') inclui o limite de r*(q)
como q abordagens q' da esquerda, o limite de r*(q) como q se aproxima de q' da direita
e todos os valores de r entre esses dois limites.) If/(*') na Figura 1.3.14 se comportou de
forma análoga ao jogador do 1 melhor resposta correspondência r*(q') e, em seguida,
/(*') incluiria não apenas o círculo sólido (como ilustrado na figura) mas também o
círculo aberto e o intervalo inteiro no meio, caso em que f (x) teria um ponto fixo no x'.

16. o valor de f (x'} é indicado pelo círculo sólido. O círculo aberto indica que that/(x')
não inclui esse valor. A linha pontilhada é incluída apenas para indicar que os dois
círculos ocorrem em x = x ', ele não indica mais valores de f(x').

1.3.14 a figura.

Correspondência de melhor resposta de cada jogador sempre se comporta como r*(q')


na Figura 1.3.14: sempre inclui (as generalizações apropriadas de) o limite a partir da
esquerda, o limite da direita e todos os valores no meio. A razão para isto é que, como
mostrado anteriormente para o caso de dois jogadores, se o jogador que tem várias
estratégias puras que são as melhores respostas para os outros jogadores misturado
estratégias e, em seguida, qualquer um misto estratégia p, que coloca toda a sua
probabilidade em alguns ou todos do jogador i ' s puro-estratégia melhores respostas (e
zero probabilidade em todos jogador i outras estratégias puras) é também uma resposta
melhor para o jogador eu. Porque a correspondência de melhor resposta de cada jogador
sempre se comporta desta forma, a correspondência de melhor resposta n-jogador faz
também; essas propriedades satisfazem as hipóteses do teorema de Kakutani, então a
última correspondência tem um ponto fixo.

Teorema de Nash garante que um equilíbrio existe em uma ampla classe de jogos, mas
nenhum dos pedidos analisados na secção 1.2 são membros desta classe (porque cada
aplicativo tem espaços de estratégia infinito). Isso mostra que as hipóteses do teorema
de Nash são suficientes, mas as condições não é necessárias para um equilíbrio de
existir — há muitos jogos que não satisfaçam as hipóteses do teorema, mas, no entanto,
tem um ou mais equilíbrios de Nash.

1.4 leitura adicional

Sobre os pressupostos subjacentes a eliminação iterada de estratégias estritamente


dominadas e equilíbrio de Nash e sobre a interpretação das estratégias mistas em termos
de crenças dos jogadores, ver Brandenburger (1992). Sobre a relação entre modelos de
(Cournot tipo), onde as empresas escolhem quantidades e modelos (Bertrand-tipo), onde
as empresas escolhem os preços, ver Kreps e Scheinkman (1983), que mostram que em
algumas circunstâncias, que o resultado de Cournot ocorre em um tipo de Bertrand
modelo em quais restrições de capacidade de rosto de empresas (que eles escolhem, a
um custo, antes de escolher os preços). Na arbitragem, ver Gibbons (1988), que mostra
como o árbitro preferiu liquidação podem depender o conteúdo de informação de ofertas
das partes, na arbitragem final-oferta e convencional. Finalmente, sobre a existência de
equilíbrio de Nash, incluindo estratégia pura equilíbrios em jogos com espaços de
estratégia contínua, consulte Dasgupta e Maskin (1986).
Capítulo 2

Jogos dinâmicos de informação completa

Neste capítulo, apresentamos jogos dinâmicos. Nós restringimos novamente atenção


para jogos com informações completas (ou seja, jogos em que funções de pagamento
dos jogadores são de conhecimento comum); consulte o capítulo 3 para a introdução de
jogos de informação incompleta. Na seção 2.1, analisamos a dinâmicos jogos que tem
informações não somente completas, mas também perfeitas, pelo qual queremos dizer
que em cada

mover-se no jogo que o jogador com o movimento sabe a história completa da peça do
jogo até agora. Em seções 2.2 através de 2.4 consideramos jogos de informação
completa, mas imperfeito: o jogador com o movimento em algum movimento não sabe
a história do jogo.

A questão central em todos os jogos dinâmicos é a credibilidade. Como um exemplo de


uma ameaça de noncredible, considere o seguinte jogo dois-move. Primeiro, o jogador 1
escolhe entre dar jogador 2 $1.000 e o jogador 2 a dar nada. Em segundo lugar, jogador
2 observa o jogador do 1 mover e em seguida, escolhe-se explodir uma granada que
matará ambos os jogadores. Suponha que o jogador 2 ameaça explodir a Granada, a
menos que o jogador 1 paga a US $1.000. Se o jogador 1 acredita que a ameaça, então
jogador do 1 melhor resposta é para pagar os US $1.000. Mas o jogador 1 não devemos
acreditar que a ameaça, porque é noncredible: se o jogador 2 foi dada a oportunidade de
realizar a ameaça, o jogador 2 escolheria não para realizá-lo. Assim, o jogador 1 deve
pagar jogador 2 nothing.1

Na seção 2.1, analisamos a seguinte classe de jogos dinâmicos de informação completa


e perfeita: primeiro jogador 1 move-se e, em seguida, jogador 2 observa o movimento
do jogador 1, em seguida, movimentos do jogador 2 e o jogo termina. O jogo do
Granada pertence a esta classe, como fazer (1934) modelo de Stackelberg duopólio e
(1946) modelo de Leontief de determinação dos salários e do emprego em uma firma de
sindicalizados. Definimos o resultado para trás-indução de tais jogos e discutir
brevemente a sua relação com o equilíbrio de Nash (adiar a discussão principal desta
relação até seção 2.4). Nós resolvemos para esse resultado nos modelos de Stackelberg
e Leontief. Nós também derivar o resultado análogo no Rubinstein o modelo de
negociação (1982), embora este jogo tem uma sequência potencialmente infinita de
movimentos e por isso não pertence a classe acima dos jogos.

Na seção 2.2 conseguimos enriquecer a classe de jogos analisados na seção anterior:


primeiros jogadores 1 e 2 simultaneamente movem e, em seguida, os jogadores 3 e 4
observam os movimentos escolhidos por 1 e 2, em seguida, os jogadores 3 e 4 movem
simultaneamente e o jogo termina. Como será explicado na seção 2.4, a simultaneidade
de movimentos aqui significa que estes jogos têm informações incompletas. Definimos
o resultado subgameperfect de tais jogos, qual é a extensão natural ao contrário de
indução para estes jogos. Nós resolvemos para esse resultado em diamante e do Dybvig
modelo (1983) de funcionamentos de banco, em um modelo de tarifas e imperfeita
concorrência internacional e no Lazear e Rosen (1981) modelo de torneios.

Na seção 2.3, estudamos jogos repetidos, em que um grupo fixo de jogadores joga um
determinado jogo repetidamente, com os resultados de todas as peças anteriores
observados antes de começar o próximo jogo. O tema da análise é que (credíveis)
ameaças e promessas sobre comportamento futuro podem influenciar o comportamento
atual. Podemos definir o equilíbrio de Nash subjogo-perfeito para jogos repetidos e
relacioná-la com o backwardsinduction e perfeita subjogo resultados definidos nas
seções 2.1 e 2.2. Podemos afirmar e provar o teorema de Folk para jogos de ted
infinitamente FOS, e analisamos o modelo (1971) de Friedman de conluio entre
Cournot duopolists, Shapiro e do Stiglitz modelo (1984), dos salários de eficiência e
Barro e Gordon (1983) modelo da política monetária.

1 jogador 1 pode saber se um oponente que ameaça explodir uma granada é louco.
Usamos modelos de tais dúvidas como informações incompletas — jogador 1 é

Não tem certeza sobre a função de retorno de jogador do 2. Consulte o capítulo 3.

Na seção 2.4, apresentamos as ferramentas necessárias para analisar um jogo dinâmico


geral de informações completas, seja com informação perfeita ou imperfeita. Podemos
definir a representação de forma extensiva de um jogo e relacioná-la com a forma
normal de representação apresentada no capítulo 1. Definimos também o equilíbrio de
Nash subjogo-perfeito para jogos gerais. O ponto principal (tanto nesta seção e o
capítulo como um todo) é que um jogo dinâmico de informação completa pode ter
muitos equilíbrios de Nash, mas alguns destes podem envolver noncredible ameaças ou
promessas. O subgameperfect Nash equilíbrios são aqueles que passar por um teste de
credibilidade.

2.1 dinâmicos jogos de informação completa e perfeita

Teoria 2.1.A: para trás por indução

O jogo de Granada é um membro da classe seguinte de simples jogos de informação


completa e perfeita:

1. o jogador 1 escolhe uma ação a\ do A\ conjunto viável.

2. o jogador 2 observa a\ e em seguida, escolhe uma ação «2 a partir do conjunto viável


A ^.

3. os pagamentos são original (a\, ai} e you-i(a\,a-i).

Muitos problemas económicos se encaixam nessa descrição. 2 dois exemplos

2 conjunto viável do jogador 2 de ações, A2, poderia ser permitido a depender da ação
do jogador do 1, flj. Tal dependência pode ser denotada por AI («i) ou pode ser
incorporada em função de recompensa de jogador de 2, definindo u-i(a\,a?} = — oo
para valores de a2, que não são viáveis para um determinado a\. Alguns movimentos
pelo jogador 1 poderiam até terminar o jogo, sem o jogador 2 se apressar; para tais
valores de a\, o conjunto de ações viáveis Ai(a\) contém apenas um elemento, então o
jogador 2 não tem outra escolha a fazer.

(discutido mais tarde no detalhe) são o modelo de Stackelberg de duopólio e modelo de


Leontief dos salários e do emprego em uma firma de sindicalizados. Outros problemas
econômicos podem ser modelados por permitindo uma sequência mais longa de ações,
ou adicionar mais jogadores pelo permitindo aos jogadores mover-se mais de uma vez.
(Jogo de barganha do Rubinstein, discutido na seção 2.1.D, é um exemplo deste último.)
As principais características de um jogo dinâmico de informação completa e perfeita são
que (i) os movimentos ocorrem em sequência, (ii) todos os movimentos anteriores são
observados antes que o próximo passo é escolhido, e pagamentos (iii) dos jogadores de
cada combinação possível de movimentos são de conhecimento comum.

Resolvemos um jogo a partir dessa classe, ao contrário da indução, como segue.


Quando o jogador 2 recebe o movimento na segunda fase do jogo, ele ou ela irá
enfrentar o seguinte problema, dado a a\ de ação previamente escolhida pelo jogador 1:

Suponha que para cada a\ em A\, problema de otimização de jogador do 2 tem uma
solução única, denotada por ^ 2(^1)-este é o jogador 2 da reação (ou melhor resposta) a
ação do jogador do 1. Desde que o jogador 1 pode resolver 2 problema, bem como 2
pode, jogador 1 deve antecipar a reação do jogador do 2 para cada a\ de ação que pode
levar 1, então do 1 problema na primeira fase eleva-se a

Suponha que este problema de otimização para o jogador 1 tem também uma solução
única, denotada por a\. Vamos chamar (fl|,]?2(fli)) o resultado de indução para trás deste
jogo. O resultado de indução para trás não envolve ameaças noncredible: jogador 1
antecipa que o jogador 2 responderá otimamente a qualquer ação a\ que 1 pode optar
por jogar ^ 2(^1); jogador 1 não dá nenhum crédito a ameaças pelo jogador 2 para
responder de uma forma que não será em 2 auto-interesse, quando chega a segunda fase.

Lembre-se que no capítulo 1, usamos a forma normal de representação a estudar jogos


estáticos de informação completa, e enfocamos a noção de equilíbrio de Nash como um
conceito de solução para tais jogos. Na discussão desta seção de jogos dinâmicos, no
entanto, nós fizemos nenhuma menção de qualquer forma a normal

representação ou equilíbrio de Nash. Em vez disso, temos dado uma descrição verbal de
um jogo do (l)-(3) e definiu o resultado de indução para trás como a solução para esse
jogo. Na seção 2.4.A, veremos que a descrição verbal em (l)-(3) é a representação de
forma extensiva do jogo. Nós se relacionam

as representações de forma extensiva e normal, mas irá encontrar para a representação


de forma extensiva de jogos de dinâmica é frequentemente mais conveniente. Na seção
2.4.B, vamos definir subgameperfect equilíbrio de Nash: um equilíbrio de Nash é
subjogo-perfeito se não envolve uma ameaça noncredible, em um sentido a ser feita
precisos. Vamos encontrar que pode haver múltiplos equilíbrios de Nash em um jogo da
classe definida por (l)-(3), mas que o equilíbrio de Nash só subjogo-perfeito é o
equilíbrio associado com o resultado de indução para trás. Este é um exemplo da
observação na seção 1.1.C que alguns jogos têm múltiplos equilíbrios de Nash, mas tem
um equilíbrio que se destaca como a solução convincente para o jogo.

Podemos concluir esta seção explorando as suposições de racionalidade inerentes em


argumentos para trás-indução. Considere o seguinte jogo de três-movimento, no qual o
jogador 1 move-se duas vezes:

1. o jogador 1 escolhe L ou R, onde L termina o jogo com pagamentos de 2 para o


jogador 1 e 0 para o jogador 2.

2. o jogador 2 observa do 1 escolha. Se 1 escolheu R, em seguida, escolhe de 2 L 'ou R',


onde L' termina o jogo com pagamentos de 1 para ambos os jogadores.

3. o jogador 1 observa 2 escolha (e relembra seu próprio escolha na primeira fase). Se as


opções anteriores eram de R e R' em seguida, 1 escolhe L "ou R", que ambos terminam
o jogo, L "com pagamentos de 3 para o jogador 1 e 0 para o jogador 2 e R" com
subornos análogos de 0 e 2.

Todas estas palavras podem ser traduzidas para a seguinte árvore de jogo sucinta. (Esta
é a representação de forma extensiva do jogo, para ser definido mais geralmente na
seção 2.4). O retorno superior no par de pagamentos ao final de cada ramo da árvore de
jogo é o jogador 1, o jogador do fundo do 2.
Para calcular o resultado de indução para trás deste jogo, começamos a terceira fase (ou
seja, jogador do 1 segundo movimento). Aqui o jogador 1 enfrenta uma escolha entre
um pagamento dos 3 da L "e um retorno de 0 de R", então L "é o ideal. Assim, na
segunda fase, o jogador 2 antecipa-se que se o jogo chega na terceira fase então 1 vai
jogar L", que renderia um retorno de 0 para o jogador 2. A segundo estágio escolha para
o jogador 2 é, portanto, entre um pagamento de 1 de L 'e um pagamento de 0 de R, L
então ' é o ideal. Assim, numa primeira fase, o jogador 1 antecipa que se o jogo atinge a
segunda fase em seguida 2 vai jogar L', que renderia um pagamento de 1 para o jogador
1. A primeira fase escolha para o jogador 1 é, portanto, entre um pagamento de 2 l e
uma recompensa de 1 a partir de R, então L é ideal.

Esse argumento estabelece que o resultado de indução para trás deste jogo é para o
jogador 1 escolher L na primeira fase, terminando assim o jogo. Apesar de ao contrário
indução prediz que o jogo vai acabar na primeira fase, uma parte importante do
argumento diz respeito o que aconteceria se o jogo não terminou na primeira fase. Na
segunda etapa, por exemplo, quando o jogador 2 antecipa-se que se o jogo chega na
terceira fase então 1 vai jogar L", 2 assumindo que 1 é racional. Esta hipótese pode
parecer inconsistente com o fato de que 2 fica mover na se a segunda fase 1 se desvia do
resultado de indução ao contrário do jogo. Isto é, pode parecer que se 1 joga R na
primeira fase, em seguida, 2 não pode assumir na segunda etapa que 1 é racional, mas
este não é o caso: se 1 joga R na primeira fase, em seguida, não é de conhecimento
comum que ambos os jogadores são racionais, mas continua a haver razões para 1 que
tenha escolhido o R que não contradigam 2 pressuposto de que 1 é rational.12 uma
possibilidade é que é de conhecimento comum que jogador 1 é racional, mas não que o
jogador 2 é racional: se 1 acha que 2 não pode ser racional e, em seguida, 1 pode
escolher R na primeira fase, na esperança que o 2 vai jogar R' na segunda etapa, dando 1
a oportunidade de jogar L "na terceira fase. Outra possibilidade é que é de
conhecimento comum que o jogador 2 é racional, mas não que o jogador 1 é racional: 1

12
3. Lembre-se da discussão de eliminação iterada de estratégias estritamente dominadas
(na seção 1.1.B) que é de conhecimento comum que os jogadores são racionais, se todos
os jogadores são racionais, e todos os jogadores sabem que todos os jogadores são
racionais, e todos os jogadores sabem que todos os jogadores sabem que todos os
jogadores são racionais e assim por diante , ad infinitum.
é racional, mas acha que 2 pensa que 1 não pode ser racional, se 1 pode escolher R na
primeira fase, na esperança que os 2 vão pensar que 1 não é racional e assim jogar R' na
esperança de que 1 vai jogar R "na terceira fase. Para trás indução assume que 1 escolha
de R poderia ser explicada ao longo destas linhas. Para alguns jogos, no entanto, pode
ser mais razoável supor que 1 jogou R porque 1 é realmente irracional. Em tais jogos,
ao contrário indução perde muito do seu apelo como uma previsão de jogo, como
equilíbrio de Nash em jogos onde a teoria dos jogos não fornece uma solução única e
nenhuma convenção irá desenvolver.

2.1.B Modelo de Duopólio de Stackelberg

Stackelberg (1934) propôs um modelo dinâmico de duopólio, em que uma firma


dominante (ou líder) movimenta primeiro e uma firma subordinada (ou seguidor)
movimenta segundo. Em alguns pontos da história da indústria automobilística dos
Estados Unidos, por exemplo, General Motors tem parecia e desempenha um papel de
liderança. (É simples para estender o que se segue para permitir mais de uma empresa
seguinte, tais como Ford, Chrysler e assim por diante). Na sequência de Stackelberg,
desenvolveremos o modelo sob a suposição de que as firmas escolhem quantidades,
como no modelo de Cournot (onde escolhas das firmas são simultâneas, ao invés de
sequencial como aqui). Vamos deixá-lo como um exercício para desenvolver o análogo
modelo de movimento sequencial no qual as empresas escolhem os preços, como eles
fazem (simultaneamente) no modelo de Bertrand.

O movimento do jogo é o seguinte: (1) empresa 1 escolhe uma quantidade q1 ≥

0; (2) firma 2 observa q1 e em seguida, escolhe uma quantidade q2 ≥ 0; (3) o pagamento


a empresa i é dado pela função lucro

onde P(Q) = a – Q é o preço de compensação de mercado quando a quantidade total do


mercado é Q = q1 + q2, e c é o custo marginal constante de produção (custos fixos zero).

Para resolver o resultado de indução para trás deste jogo, primeiro resolvemos a
reação da firma 2 para uma quantidade arbitrária para empresa 1. Resolve R2 (q1)
que produz

fornecido q1 < a – c. Essa equação R2 (q1) aparece na nossa análise do jogo de Cournot

de movimento simultâneo na seção 1.2.A. A diferença é que aqui R2 (q1) é a reação


verdadeira da firme 2 à quantidade observada da firma 1, Considerando que na análise
Cournot R2 (q1) é a melhor resposta da firma 2 a uma hipotética quantidade escolhida
simultaneamente pela firma 1.

Desde que a firma 1 pode resolver o problema da firma 2 bem como firma 2
pode resolvê-lo, firma 1 deve prever que a quantidade q1 de escolha será atendida com a

reação R2 (q1) assim, o problema da firma 1 na primeira fase do jogo equivale a

que produz

como o resultado de indução ao contrário do jogo de duopólio de Stackelberg.13

Lembre-se do capítulo 1 que no equilíbrio de Nash do jogo de Cournot cada


firma produz (a – c) / 3. Assim, a quantidade no resultado do jogo de indução para trás
de Stackelberg da 3(a – c) /4, é maior do que a quantidade total no equilíbrio de Nash
do jogo de Cournot, 2(a – c) /3, então o preço de compensação do mercado é menor no
jogo Stackelberg. No jogo de Stackelberg, no entanto, empresa 1 poderia ter escolhido
sua quantidade de Cournot, (a – c) /3, caso no qual firma 2 teria respondido com sua
quantidade de Cournot. Assim, no jogo de Stackelberg, firma 1 poderia ter alcançado
seu nível de lucro de Cournot mas escolheu o contrário, então o lucro da firma 1 no jogo

13
4. tal como "Equilíbrio de Cournot" e "Equilíbrio de Bertrand" normalmente referem-se os equilíbrios
de Nash dos jogos de Cournot e Bertrand, referências ao "Equilíbrio de Stackelberg" muitas vezes
significa que o jogo é sequencial ao invés de movimentos simultâneos. Conforme observado na seção
anterior, no entanto, jogos de movimento sequencial às vezes têm múltiplos equilíbrios de Nash, único do
qual é associado com o resultado de indução ao contrário do jogo. Assim, "Equilíbrio de Stackelberg"
pode referir-se tanto à natureza de movimento sequencial do jogo e para o uso de um conceito de solução
mais forte do que simplesmente o equilíbrio de Nash.
Stackelberg deve exceder seu lucro no jogo Cournot. Mas o preço de compensação de
mercado é mais baixo no jogo Stackelberg, então os lucros agregados são mais baixos,
então o fato de que firma 1 é melhor implica que a firma 2 é pior no Stackelberg do que
no jogo Cournot.

A observação de que a firma 2 é pior no Stackelberg do que no Cournot ilustra


uma diferença importante entre problemas de decisão de pessoa única e múltipla. Na
teoria de decisão individual, ter mais informações pode nunca piorar a decisão do
fabricante. Na teoria dos jogos, ter mais informações (ou, mais precisamente, conhecer
os outros jogadores que tem mais informações) pode fazer um jogador pior.

No jogo de Stackelberg, as informações em questão são quantidade da firma 1:


firma 2 sabe q1, e (como importante) firma 1 sabe que firma 2 sabe q1. Para ver o efeito
que essa informação tem, considere o jogo de movimento sequencial modificado no
qual firma 1 escolhe q1, após o qual firma 2 escolhe q2 mas faz sem observar q1. Se

firma 2 acredita que firma 1 escolheu sua quantidade Stackelberg q*1 = (a – c) / 2, então

a melhor resposta da firma 2 é novamente R2(q*1) = (a – c) / 4. Mas se a firma 1


antecipa que firma 2 vai segurar essa crença e então escolhe esta quantidade, então
firma 1 prefere escolher sua melhor resposta a (a – c) / 4 — ou seja, 3(a – c) /8 — ao
invés de sua quantidade de Stackelberg (a – c) / 2. Assim, firma 2 não deve acreditar
que firma 1 escolheu sua quantidade de Stackelberg. Pelo contrário, o único equilíbrio
de Nash deste jogo de movimento sequencial modificado é para as duas firmas escolher
a quantidade (a – c) / 3 — precisamente o equilíbrio de Nash do jogo Cournot, onde as
firmas movem-se simultaneamente.14 Assim, firma 1 saber que firma 2 sabe q1
prejudica firma 2.

2.1.C salários e do emprego em uma firma de sindicalizados

No modelo de Leontief (1946) da relação entre uma empresa e uma União de


monopólio (ou seja, uma União que é o vendedor de monopólio do trabalho para a
empresa), a União tem controle exclusivo sobre os salários, mas a empresa tem controle
exclusivo sobre o emprego. (Conclusões qualitativas semelhantes surgem em um
modelo mais realista, no qual a empresa e o negócio da União sobre os salários mas a
empresa mantém controle exclusivo sobre o emprego). Função de utilidade da União é

14
U (w, L), onde w é o salário que a União Europeia exige da firma e L é o emprego.
Suponha que U (w, L) aumenta em w e L. Função de lucro da empresa é 7r (zt >, L) = R
(L] — wL, onde r é a receita da empresa pode ganhar se ele emprega trabalhadores L (e
faz as decisões de produção e produto-mercado associadas otimamente). Suponha que r
é crescente e côncavo.

Suponha que a hora do jogo é: (1) a União faz uma demanda de salário, w, (2) a
empresa observa (e aceita) w e em seguida, escolhe emprego, L; (3) pagamentos são
U(w,L) e ir(w,L). Podemos dizer muita coisa sobre o resultado de indução para trás
deste jogo apesar de não ter assumido formas funcionais específicas para U(w,L) e r e
portanto não são capazes de resolver explicitamente para este resultado.

Primeiro, nós pode caracterizar melhor resposta da empresa em palco (2), L*(w), a uma
demanda de salário arbitrário pela União no palco (1), w. Dado w, a firma escolhe
L*(w) para resolver

a condição de primeira ordem para a qual é

5. este é um exemplo de uma reivindicação que fizemos na seção 1.1.A: em uma forma
normal do jogo os jogadores escolhem suas estratégias simultaneamente, mas isso não
implica que as partes se comportem simultaneamente; Basta que cada uma escolha sua
ação sem conhecimento das escolhas dos outros. Para uma discussão mais aprofundada
deste ponto, ver secção 2.4.A.

Figura 2.1.1.

A garantia de que a condição de primeira ordem R'(L) — w = 0 tem uma solução,


assumir que R'(0} = oo e que R'(oo) = 0, como sugerido na Figura 2.1.1.

Figura 2.1.2 parcelas L*(w) como uma função de w (mas usa eixos que facilitam a
comparação com figuras mais tarde) e ilustra que corta L * (w) cada uma das curvas de
isoprofit da empresa em sua maximum.6 segurando L fixo, a empresa faz melhor
quando w é inferior, portanto, menor isoprofit curvas representam níveis mais elevados
de lucro. Figura 2.1.3 retrata o
curvas de indiferença da União. Segurando o L fixada, a União faz melhor quando w é
maior, portanto, maiores curvas de indiferença representam níveis mais elevados de
utilidade para a União.

Passamos ao problema da União no palco (1). Desde que a União pode resolver
problema de segundo estágio da empresa, bem como a empresa pode resolvê-lo, a
União deve antecipar que a reação da empresa para o w de demanda salarial será
escolher o nível de emprego

6. a última propriedade é apenas uma reafirmação do fato de que L * (w) maximiza

ir(L,w) dado w. Se a União Europeia exige w', por exemplo, em seguida, escolha da
empresa dos montantes de L para a escolha de um ponto na linha horizontal w = w'. O
mais alto nível de lucro viável é atingido, escolhendo L tal que a isoprofit curva através
de (L, w') é tangente a restrição w = w'.

Figura 2.1.3.

L*(w). Assim, o problema da União na primeira fase equivale a

Em termos de curvas de indiferença plotadas na Figura 2.1.3, União gostaria de escolher


o w de demanda de salário que produz o resultado (w,L*(w)) que é a curva de
indiferença possível mais alto. A solução para o problema da União é w *, o salário
exigir tais que a curva de indiferença da União através do ponto (w*,L*(w*)) é tangente
a L*(w) nesse ponto; Ver Figura 2.1.4. Assim, (u?*,L*(w*)) é o resultado de indução
para trás deste jogo de emprego e salário.

É simples de ver isso (w*,L*(w*)) é ineficiente: tanto o utilitário da União e o lucro da


empresa seria aumentados se w e L foram na região sombreada na Figura 2.1.5. Esta
ineficiência torna intrigante que nas empresas de prática parecem manter controle
exclusivo sobre o emprego. (Permitindo que a empresa e a União negociar sobre o
salário, mas sair da firma com controle exclusivo sobre rendimentos do emprego uma
ineficiência semelhante). Espinosa e Rhee (1989) propõem uma resposta para este
enigma, baseado no fato de que a União e a empresa negociam várias vezes ao longo do
tempo (muitas vezes em três anos, nos Estados Unidos). Pode existir um equilíbrio de
um jogo tão repetido, em que a escolha da União de w e escolha da empresa de L mentir
na região sombreada da Figura 2.1.5, mesmo que tais valores de w e L não surgem
como o resultado de para trás-indução de uma negociação simples. Ver secção 2.3 em
jogos repetidos e problema 2.16 sobre o modelo de Espinosa-Rhee.

2.1.D sequencial negociação

Vamos começar com um modelo de negociação 3-período da classe de jogos analisados


na seção 2.LA. Então discutimos modelo (1982) do Rubinstein, em que o número de
períodos é (potencialmente) infinito. Em ambos os modelos, a liquidação ocorre
imediatamente — prolongadas negociações (como greves) não ocorrem. Sobel e
Takahashi (1983) modelo de barganha sequencial sob informação assimétrica, em
contraste, greves ocorrem com probabilidade positiva no original (perfeito Bayesiano)
equilíbrio; Ver secção 4.3.B.

Jogadores 1 e 2 estão negociando mais um dólar. Eles se alternam em fazer ofertas:


primeiro jogador 1 faz uma proposta que o jogador 2 pode aceitar ou rejeitar; se 2 rejeita
então 2 faz uma proposta que 1 pode aceitar ou rejeitar; e assim por diante. Uma vez
que uma oferta foi rejeitada, ele deixa de ser vinculativa e é irrelevante para o jogo
subsequente do jogo. Cada oferta leva um período, e os jogadores estão impacientes:

Eles desconto pagamentos recebidos em períodos posteriores, pelo fator 6 por período,
onde 0 < 6 < 1.7

7. o fator de desconto 6 reflete o valor temporal do dinheiro. Um dólar recebido no o


início de um período pode ser colocado no banco para ganhar juros, dizer em taxa r por
período, e então vai valer 1 + r dólares no início do próximo período. Equivalentemente,
um dólar para ser recebido no início do próximo período vale apenas 1 /(1 + r) de um
dólar agora. Deixe 6 = 1 /(1 + r). Em seguida, um TT para ser recebido no próximo
período de pagamento vale só Senhor, uma recompensa? r a receber dois períodos a
partir de agora vale apenas 62? r agora e assim por diante. O valor hoje de um
pagamento futuro chama-se o valor presente dessa recompensa.

Uma descrição mais detalhada do tempo do jogo três-período negocial é a seguinte.

(la) No início do primeiro período, o jogador 1 pretende dar uma quota de s-[do dólar,
deixando 1 — si para jogador 2.
(Ib) Jogador 2 também aceita a oferta (caso em que o jogo termina e os pagamentos de
Sj para o jogador 1 e 1 — si para jogador 2 são imediatamente recebidas) ou rejeita a
oferta (caso em que o jogo continua para o segundo período).

(2a) no início do segundo período, jogador 2 propõe que o jogador 1 Tome uma parte 82
do dólar, deixando 1 — $2 para o jogador 2. (Observe a Convenção que st sempre vai
para o jogador 1, independentemente de quem fez a oferta.)

(2b) Player 1 também aceita a oferta (caso em que o jogo termina e os pagamentos de
82 para o jogador 1 e 1 — $2 para o jogador 2 são imediatamente recebidas) ou rejeita a
oferta (caso em que o jogo continua para o terceiro período).

(3) no início do terceiro período, o jogador 1 recebe uma quota s do dólar, deixando 1 -
s para o jogador 2, onde 0 < s < 1.

Neste modelo três-período, o terceira aula de assentamento (s, 1 - s) é dada


exogenamente. No modelo de horizonte infinito depois consideramos, a recompensa s
no terceiro período representará a recompensa do jogador do 1 no jogo que mantém-se o
terceiro período é atingido (ou seja, se as duas primeiras ofertas são rejeitadas).

Para resolver para o resultado de indução para trás deste jogo threeperiod, primeiro,
computamos oferta ideal de jogador do 2 se o segundo período é alcançado. Jogador 1
pode receber s no terceiro período, ao rejeitar a oferta para o jogador 2 é de US $2 neste
período, mas o valor deste período de recebimento s próximo período é apenas 6s.
Assim, o jogador 1 vai aceitar 82 se e somente se parágrafo 2º > 6s. (Supomos que cada
jogador vai aceitar uma oferta se indiferente entre aceitação e rejeição). Decisão de
segundo período do jogador 2 problema eleva-se, portanto, a escolher entre receber 1-6s
este período (através da oferta de US $2 = 6s para o jogador 1) e receber 1 — s próximo
período (oferecendo o jogador 1 qualquer $2 < 6s). O valor descontado da última opção
é 6 (1 - s), que é menor do que o 1-6s disponível a partir da opção anterior, então o
jogador 2 é ideal segundo período oferta é s£ = 6s. Assim, se jogar atinge o segundo
período, o jogador 2 irá oferecer s ^ e o jogador 1 vai aceitar.

Desde que o jogador 1 pode resolver pode jogador do 2 segundo período problema bem
como jogador 2, jogador 1 sabe que 2 o jogador pode receber 1 — s | no segundo
período, rejeitando o jogador 1 a oferta de si neste período, mas o valor neste período de
receber 1 — s£ o próximo período é apenas 6 (1 — s ^). Assim, o jogador 2 aceitará 1
— si se e somente se 1 - si > 6 (1 - s2), ou si < 1-6 (1 - s |). Decisão de primeiro período
do jogador 1 problema eleva-se, portanto, a escolha entre receber 1 - < 5(1 — §2) neste
período (através da oferta de l - s 1 = 6(l-s2*) para jogador 2) e recebimento de s ^
próximo período (oferecendo qualquer 1 - si < 6 (1 — s ^) para jogador 2). O valor
descontado da última opção é 6s % = 62s, que é menor do que o 1 — 6 (1 — s£) = 1 —
6 (1-6s) disponível a partir da opção anterior, então jogador do 1 oferta de primeiro
período ideal é s ^ = 1 -6 (1 — s |) — 1 -6 (1 — 6s). Assim, no resultado deste jogo de
três-período para trás-indução, jogador 1 oferece o assentamento (s *, 1 — 5j) para o
jogador 2, que aceita.

Agora considere o caso de horizonte infinito. O tempo é conforme descrito


anteriormente, exceto que o assentamento exógeno na etapa (3) é substituído por uma
sequência infinita de etapas (3a), (3b), (4a), (4b) e assim por diante. Jogador 1 faz a
oferta em períodos ímpares, jogador 2 em pares; negociação continua até que um
jogador aceita uma oferta. Gostaríamos de resolver para o resultado de indução ao
contrário do jogo infinito-horizonte por ordem decrescente, como em todas as
aplicações analisadas até agora. Porque o jogo pode continuar infinitamente, no entanto,
não há passado nada no qual se começar esse tipo de análise. Felizmente, a seguir uma
visão (primeiro aplicada por mexido e Sutton 1984) nos permite truncar o jogo
infinitehorizon e aplicar a lógica do caso finito-horizon: o início jogo no terceiro
período (deve ser alcançado) é idêntico ao jogo como um todo (início no primeiro
período) — em ambos os casos, o jogador 1 faz a primeira oferta, os jogadores
alternam-se em fazer ofertas subsequentes , e a negociação continua até que um jogador
aceita uma oferta.

Desde que nós não definimos formalmente um resultado para trás-indução para este
jogo de barganha de horizonte infinito, nossos argumentos serão informais (mas podem
ser feitos formais). Suponha que há um resultado de para trás-indução do jogo como um
todo em que os jogadores 1 e 2 recebem os pagamentos s e 1 — s, respectivamente.
Podemos usar esses pagamentos no início do terceiro período, jogo deve ser alcançado e
então para trás para o primeiro período (como no modelo de três-período) para calcular
um novo resultado de indução para trás para o jogo como um todo. Neste novo
resultado para trás-indução, o jogador 1 vai oferecer o assentamento f(s), l — /(s)) no
primeiro período e jogador 2 aceitará, onde / (s) = 1-6 (1-6s) é o compartilhamento de
tomadas pelo jogador 1 no primeiro período do modelo três-período acima quando o
assentamento (s, 1 - s) é imposta exogenamente no terceiro período.

Deixe o SH ser que o maior jogador de recompensa 1 pode conseguir em qualquer


resultado de enfermarias-indução traseira do jogo como um todo. Imagine usando SH
como o pagamento da terceira aula para jogador 1, conforme descrito anteriormente:
isto irá produzir um novo resultado para trás-indução, no qual o jogador 1 é o primeiro
período é recompensa / (SH). Desde / (s) = 1-6 + < 52s está aumentando em s, /(SH) é o
mais alto possível primeiro período pagamento porque SH é o mais alto possível
suborno de terceira aula. Mas SH é também o mais alto possível primeiro período
pagamento, SO/(SH) = Mostrar argumentos de sh. paralelo que /(SL) = SL, onde si é o
menor jogador de recompensa 1 pode conseguir em qualquer resultado de para trás-
indução do jogo como um todo. O único valor de s que satisfaz / (s) = s é 1 / (1 + 6), que
será denotamos por s *. Assim, SH = s ^ — s *, assim lá é um resultado único para trás-
indução no jogo como um todo: no primeiro período, o jogador 1 oferece o
assentamento (s * =! /(! +6), 1 — s * = 6 /(\ + 6)) para o jogador 2, que aceita.

2.2 duas fases jogos de informação completa, mas imperfeito

Teoria 2.2.A: subjogo perfeição

Conseguimos agora enriquecer a classe de jogos analisados na seção anterior. Como em


jogos dinâmicos de informação completa e perfeita, nós continuamos a assumir que a
peça procede-se em uma sequência de fases, com os movimentos em todas as fases
anteriores, observados antes da próxima fase começa. Ao contrário nos jogos analisados
na seção anterior, wever, agora permitimos que haja movimentos simultâneos dentro de
cada estágio. Como será explicado na seção 2.4, esta simultaneidade de movimentos
dentro de fases significa que os jogos analisados nesta seção têm informações
incompletas. Todavia, estes jogos compartilham características importantes com os
jogos de informação perfeita, considerados na seção anterior.

Vamos analisar o seguinte jogo simples, que chamamos de um jogo de dois estágios de
informação completa, mas imperfeito (uninspiredly!):

1. os jogadores 1 e 2 simultaneamente escolherem ações a\ e #2 viável de moda A\ e A


^, respectivamente.
2. os jogadores 3 e 4 observam o resultado da primeira fase, (a\, «2) / e simultaneamente
escolha ações #3 e um$ de moda viável como e um$, respectivamente.

3. os pagamentos são «,-(«!, «2, #3, ^ 4) para i = 1.2.3.4.

Muitos problemas económicos ajuste este description.8 três exemplos (mais tarde
discutido detalhadamente) são funcionamentos de banco, tarifas e concorrência
imperfeita internacional e torneios (por exemplo, a concorrência entre vários vice-
presidentes de uma empresa para ser o próximo Presidente). Outros problemas
econômicos podem ser modelados por permitindo uma sequência mais longa de
estágios, ou adicionando jogadores pelo permitindo aos jogadores mover-se em mais de
um estágio. Também pode haver menos jogadores: em algumas aplicações, os jogadores
3 e 4 são jogadores 1 e 2; em outros, ou o jogador 2 ou o jogador 4 está faltando.

Resolvemos um jogo dessa classe usando uma abordagem para trás no espírito da
indução, mas desta vez a primeira etapa em ordem decrescente a partir do final do jogo
envolve resolver um jogo real (o jogo de movimento simultâneo entre os jogadores 3 e 4
na fase dois, tendo em conta o resultado da primeira fase) ao invés de resolver um
problema de otimização individual como na secção anterior. Para manter as coisas
simples, nesta seção vamos supor que, para cada resultado possível do jogo da primeira
fase, (a\, por-i), o jogo de segundo estágio que permanece entre os jogadores 3 e 4 tem
um único equilíbrio de Nash, denotado por (a%,(a\,a-i},a\(a\,a-i)). Na seção 2.3.A (na

8. como na seção anterior, a ação viável define dos jogadores 3 e 4 na segunda etapa, A
^ e, poderia ser permitido a depender do resultado da primeira fase, (01,02). Em
particular, pode haver valores de (01,82) que o jogo acabam.

repetido jogos) consideramos as implicações deste pressuposto de relaxamento.

Se os jogadores 1 e 2 prevê que o comportamento do segundo estágio de jogadores 3 e 4


será dada por (a | ( FLI, ^ 2)^4(^1,fl2)) / em seguida a interação firststage aposta se
jogadores 1 e 2 antecipam que o comportamento do segundo estágio de jogadores 3 e 4
será dada por (a | ( FLI, ^ 2)^4(^1,fl2)) / em seguida, a interação firststage entre
quantidades de jogadores 1 e 2 para o seguinte jogo simultâneo-move:

1. os jogadores 1 e 2 simultaneamente escolhem ações a\ e um ^ de viável define A\ e A


^, respectivamente.

2. os pagamentos são w,-(fli'a2,«3(«i,«2),«4(«i,«2)) para z = 1,2.


Suponha que (um ^ um ^) é o único equilíbrio de Nash deste jogo simultâneo-move.
Vamos chamar (um ^ um ^ um ^ um ^ um ^ ^ Ka ^ um ^}) o resultado perfeito subjogo
deste jogo de dois estágios. Este resultado é o analog natural do resultado para trás-
indução em jogos de informação completa e perfeita, e a analogia se aplica tanto a
atraente as características atraentes deste último. Jogadores 1 e 2 não devem acreditar
em uma ameaça por jogadores 3 e 4 que o último responderá com ações que não são um
equilíbrio de Nash no jogo segundo estágio restante, porque quando jogo realmente
atinge o segundo estágio de pelo menos um dos jogadores 3 e 4 não vai querer realizar
tal ameaça (exatamente porque não é um equilíbrio de Nash do jogo que permanece
nessa fase). Por outro lado, suponha que o jogador 1 é também jogador 3, e esse jogador
1 não jogar a\ na primeira fase: jogador 4 pode então querer reconsiderar a suposição de
que o jogador 3 (ou seja, jogador 1) vai jogar a^(a-[,a2) na segunda fase.

Funcionamentos de banco 2.2.B

Dois investidores têm cada D depositado junto de um banco. O Banco investiu estes
depósitos em um projeto a longo prazo. Se o banco é obrigado a liquidar seus
investimentos antes que o projeto amadurece, um total de 2r pode ser recuperado, onde
D > r > D/2. Se o banco permite o investimento atingir a maturidade, no entanto, o
projeto pagará um total de 2R, onde R > m.

Existem duas datas em que os investidores podem fazer retiradas do banco: data 1 é
antes de investimento do banco amadurece; Data 2 é depois. Para simplificar, supor que
não há nenhum desconto. Se ambos os investidores fazem retiradas na data 1, em
seguida, cada um recebe r e o jogo termina. Se apenas um investidor faz uma retirada no
investidor de 1 Então essa data recebe D, o outro recebe 2r - D, e o jogo termina.
Finalmente, se nenhum investidor faz uma retirada na data 1, em seguida, o projeto
amadurece e investidores a tomar decisões de retirada no data 2. Se ambos os
investidores fazem retiradas na data 2, em seguida, cada um recebe R e o jogo termina.
Se apenas um investidor faz uma retirada na data 2, em seguida, o investidor recebe 2R
— D, o outro recebe D, e o jogo acaba. Finalmente, se nenhum investidor faz uma
retirada na data 2 banco retorna R para cada investidor e o jogo termina.

Na seção 2.4, nós discutiremos como representar este jogo formalmente. Por agora, no
entanto, procederemos informalmente. Deixe os retornos aos duas investidores datas 1 e
2 (em função das suas decisões de retirada para estas datas) ser representado pelo
seguinte par de jogos de forma normal. Note bem que o jogo de forma normal para data
1 é diferente do padrão: se ambos os investidores optam por não retirar na data 1, então
sem pagamento é especificado; pelo contrário, os investidores prossigam para o jogo de
forma normal na data 2.

Para analisar este jogo, trabalhamos para trás. Considere o jogo de forma normal na data
2. Desde R > D (e então 2R — D > R), estritamente "retirar" domina "não retirar", então
não há um único equilíbrio de Nash nesse jogo: retirar os dois investidores, levando a
um pagamento de (R, R). Desde que não há nenhum desconto, pode simplesmente
substituir este pagamento para o jogo de forma normal na data 1, como na Figura 2.2.1.
Desde r < D (e então 2r — D < r), esta versão oneperiod do jogo 2-período tem duas
pura estratégia Nash

Figura 2.2.1.

equilíbrio: (1) retirar os dois investidores, levando a um pagamento de (r, r); (2) ambos
os investidores não retirar, levando a um pagamento de (R, R). Assim, o jogo original
do dois-período banco-corre tem dois subgameperfect de resultados (e para que não se
encaixam perfeitamente dentro da classe dos jogos definidos na secção 2.2.A): (1)
ambos os investidores retirar na data 1, produzindo retornos de (r, r); (2) ambos os
investidores não retire na data 1 mas retirar na data 2, produzindo retornos de (R, R) na
data 2.

O primeiro destes resultados pode ser interpretado como uma corrida ao banco. Se o
investidor 1 acredita que esse investidor 2 retirará data 1 então investidor do 1 melhor
resposta é retirar também, embora ambos os investidores seria melhores se eles
esperaram até data 2 a retirar. Este jogo de gerência banco difere do dilema dos
prisioneiros, discutida no capítulo 1, um aspecto importante: ambos os jogos têm um
equilíbrio de Nash que leva a uma recompensa socialmente ineficiente; no dilema dos
prisioneiros, esse equilíbrio é único (e em estratégias dominantes), enquanto que aqui
existe também um segundo equilíbrio que é eficiente. Assim, este modelo não prever
quando ocorrerá a funcionamentos de banco, mas mostra que eles podem ocorrer como
um fenômeno de equilíbrio. Consulte Diamond e Dybvig (1983) para um modelo mais
rico.

2.2.C tarifas e imperfeita concorrência internacional

Voltamo-ao lado de um aplicativo de economia internacional. Considere dois países


idênticos, denotadas por i = 1,2. Cada país tem um governo que escolhe uma tarifa, uma
empresa que produz a saída para consumo e exportação e os consumidores que
compram no mercado interno da empresa para casa ou a empresa estrangeira. Se a
quantidade total do mercado no país z é Qi, então o preço de mercado-clearing é P,-(Q,-
) = um — Q;. A empresa no país eu (doravante chamado firme eu) produz um "Oi" para
consumo em casa e 6 {para exportação. Assim, Q, = Oi + Cj. As empresas têm um custo
marginal constante, c e sem custos fixos. Assim, o custo total de produção para a
empresa z é Q(ft,-,e,-) = c (ft; + e,-). As empresas também incorrer em custos de tarifa
na exportação: se firme z exporta e, para o país /' quando governo / fixou a pauta taxa tj,
então firme z deve pagar / vós, - para governo /'.

O momento do jogo é a seguinte. Em primeiro lugar, os governos simultaneamente


escolher tarifas, eu e o t\ ^. Em segundo lugar, as empresas observar as tarifas e
simultaneamente escolher quantidades para consumo familiar e para exportação, (h\, e\)
e (^ e ^). Em terceiro lugar, subornos são lucro a empresa z e bem-estar total ao governo
i, onde o bem-estar total para país z é a soma dos consumidores 'surplus9 apreciado
pelos consumidores no país, os lucros auferidos por empresa z e as receitas tarifárias
recolhi pelo governo eu empresa;':

Suponha que os governos têm escolhido as tarifas t\ e £2 - se (ft *, e\, ft |, ^ 2) é um


equilíbrio de Nash no jogo (dois-mercado) restante entre as empresas 1 e 2 em seguida,
para cada z, (ft *, e *) deve resolver

Desde 7r,-(f,-, fy, Oi, e, h *, e *} pode ser escrito como a soma dos lucros ZS. firme no
mercado z (que é uma função de /z e e * sozinho) e empresa de lucros z ' s no mercado /
(que é uma função de £,-, ft * e tj sozinho), simplifica o problema de otimização de
dois-mercado firme z ' s em um par de problemas, um para cada mercado: h * deve
resolver
e e * deve resolver

9. se um consumidor compra um bom preço p quando ela seria disposto pagar o valor de
v, então ela gosta de um excedente de v - p. Dada a curva de demanda inversa Pi(Q,) =
um — Q, se a quantidade vendida no mercado, eu é Q, o excedente de consumo
agregado pode ser mostrado para ser (\/2)Q2i.

Supondo que a ej < um — c, temos

e supondo que /z* < um — c — tj, temos...

(Os resultados que obtemos são consistentes com ambos estes pressupostos). Ambas as
funções de melhor resposta (2.2.1) e (2.2.2) devem segurar para cada i = 1,2. Assim,
temos quatro equações as quatro incógnitas (h\, e\, /? £2, |). Felizmente, estas equações
simplificam em dois conjuntos de duas equações em duas incógnitas. As soluções são

Lembre-se (da seção 1.2.A) que é a quantidade de equilíbrio escolhida por ambas as
empresas no jogo Cournot (um — c) / 3, mas que este resultado foi derivado sob a
hipótese de custos marginais simétricas. No equilíbrio descrito por (2.2.3), em contraste,
pautais escolhas dos governos fazem os custos marginais assimétrica (como no
problema 1.6). No mercado z, por exemplo, custo marginal firme z c mas firma/é c + f,-.
Desde então empresa/do (a) custo é mais elevado quer produzir menos. Mas se firme j
vai produzir menos, então o preço de mercado-compensação será mais elevado, tão
firme que quer produzir mais, em qual empresa caso / quer produzir ainda menos.
Assim, em equilíbrio, h * aumentos em t e e * diminui (em um ritmo mais rápido) em t\,
como em (2.2.3).

Tendo resolvido o jogo de segundo estágio que permanece entre as duas empresas
depois que os governos escolher tarifas, podemos agora representar a interação da
primeira fase entre os dois governos como o jogo de simultânea-move a seguir. Em
primeiro lugar, os governos simultaneamente escolher t\ de taxas pautais e eu ^. Em
segundo lugar, os pagamentos são W, (t, t; -, / z *, ej, h |, e |) para governo z = 1,2, onde
h * e * e são funções de t / e fy conforme descrito em (2.2.3). Agora resolvemos para o
equilíbrio de Nash deste jogo entre os governos.

Para simplificar a notação, nós irá suprimir a dependência de hf t {e ef em tf. deixa W *


(£,-, *) •) denotar W ^ ^ fy, /? *,? *, /! * ^ *), o pagamento ao governo que quando ele
escolhe a tarifa £,-, governo j escolhe tj e as empresas eu e j então jogar o equilíbrio de
Nash, dado em (2.2.3). Se (t j, ^) é um Nash equilíbrio deste jogo entre os governos, em
seguida, para cada i, t * deve resolver

Mas W*(£,-,f*) é igual a

Então

para cada i, independente de t *. Assim, neste modelo, escolhendo uma tarifa de (um —
c) / 3 é uma estratégia dominante para cada governo. (Em outros modelos, tais como
quando os custos marginais estão aumentando, as estratégias de equilíbrio dos governos
não são estratégias dominantes.) Substituindo t * = t * = (a - c) / 3 em (2.2.3) produz

como escolhas de quantidade de empresas na segunda fase. Assim, é o resultado


perfeito subjogo deste jogo de pauta (t\ — t\ = (um — c) / 3, ft * = ft * = 4(fl-c)/9, e\ =
e\ = (a-c) / 9).

No resultado perfeito subjogo, totalizando a quantidade em cada mercado é 5 (a - c) / 9.


Se os governos tinham escolhido tarifas igual a zero, no entanto, em seguida a
quantidade agregada em cada mercado teria sido 2(a-c)/3, assim como o modelo de
Cournot. Assim, excedente do consumidor no mercado eu (que, como observado
anteriormente, é simplesmente um meio a Praça da quantidade agregada no mercado f) é
menor quando os governos escolhem suas tarifas de dominantstrategy do que seria se
eles escolheram zero das tarifas. Na verdade, zero tarifas são socialmente ideais, no
sentido de que t\ — tz = 0 é a solução para
Então, há um incentivo para que os governos a assinar um tratado em que cometem para
zero as tarifas (ou seja, o livre comércio). (Se negativo tarifas — ou seja, os subsídios
— são viáveis, o ideal social é para os governos escolher t] = ti =-(a - c), que faz com
que o escritório em casa para produzir zero para consumo familiar e para exportar a
quantidade de concorrência perfeita para outro país.) Assim, dado

que as empresas e / jogar o equilíbrio de Nash, dado em (2.2.3) na segunda etapa, a


primeiro estágio interação entre os governos é o dilema dos prisioneiros, um: o único
equilíbrio de Nash é em estratégias dominantes e é socialmente ineficiente.

Torneios 2.2.D

Considere dois trabalhadores e o chefe deles. Trabalhador eu (onde eu — eu ou 2)


produz saída eu /, = €{+ e,-, onde e, é esforço e e, é o barulho. Produção procede da
seguinte maneira. Primeiro, os trabalhadores simultaneamente escolher níveis de
esforço não-negativo: e, > 0. Em segundo lugar, o ruído termos e\ e £2 independente são
retirados de um density/(e) com média zero. Em terceiro lugar, saídas dos trabalhadores
são observadas, mas não são suas escolhas de esforço. Os salários dos trabalhadores,
portanto, podem depender de suas saídas, mas não (diretamente) em seus esforços.

Suponha que o chefe do partido dos trabalhadores decide induzir o esforço dos
trabalhadores por tê-los a competir em um torneio, como o primeiro analisado por
Lazear e Rosen (1981), 10 o salário ganho pelo vencedor do torneio (ou seja, o
trabalhador com a maior produção) é WH; o salário que ganhou pelo perdedor é u > eu.
O pagamento ao trabalhador do ganhando salário w e gastar esforço e é u (iv, e) = w —
g(e), onde o disutility de esforço, g (e], é crescente e convexa (i.e., g'(e} > 0 e g"(e) >
0). O retorno ao chefe é y\ + y2-wH-wL.

Agora traduzimos esta aplicação para os termos da classe de jogos discutidos na seção
2.2.A. O chefe é o jogador 1, cuja ação a\ é escolher o salário a ser pago no torneio, WH
e wi. Não há nenhum jogador 2. Os trabalhadores são os jogadores 3 e 4, que observam
os salários escolhidos na primeira fase e simultaneamente escolha ações #3 e #4, ou seja
o esforço escolhas e\ e €2 - (consideramos mais tarde a possibilidade de que, dado o
salário escolhido pelo patrão, os trabalhadores preferem não participar do torneio e
aceitar o emprego alternativo em vez disso). Finalmente, pagamentos dos jogadores são
como dado anteriormente. Desde saídas (e assim também os salários) são funções não
só as ações dos jogadores, mas também os termos de ruído E\ e £2, trabalhamos com
retornos esperados dos jogadores.

10. para manter a exposição desta aplicação simples, podemos ignorar vários detalhes
técnicos, tais como as condições sob as quais a condição de primeira ordem do
trabalhador é suficiente. No entanto, a análise envolve mais probabilidade do que os
outros até agora. O aplicativo pode ser ignorado sem perda de continuidade.

Suponha que o chefe escolheu o salário w e WH ^. Se o par de esforço (e ^ e ^) deve ser


um equilíbrio de Nash dos restantes jogo entre os trabalhadores, em seguida, para cada
z, e * deve maximizar o salário de trabalhador ZS. esperado, líquido da disutility do
esforço: e * deve solve11

onde y,-(ej) = Sj + e,. É a condição de primeira ordem para (2.2.4)

Que é, o trabalhador / escolhe ej tal que o marginal disutility de esforço extra, g'fa), é
igual ao ganho marginal de esforço extra, que é o produto do ganho salário de vencer o
torneio, WH — WL e o aumento marginal a probabilidade de ganhar.

Pela regra dos beirais, 12

11. por escrito (2.2.4), supomos que o ruído density/(e) é tal que o evento que saídas dos
trabalhadores são exatamente iguais acontece com probabilidade zero e portanto não
precisa ser considerado no trabalhador i esperado utilitário. (Mais formalmente,
presumimos que o density/(e) é atomless). Em uma descrição completa do torneio, que é
natural (mas imaterial) especificar que o vencedor é determinado por uma moeda de
aleta ou (equivalentemente, neste modelo) que ambos os trabalhadores recebem (WH +
wL) / 2.

12. regra de Bayes fornece uma fórmula para P(A \ B), a probabilidade (condicional)
que ocorrerá um evento A dado que já ocorreu um evento B. Deixe P(A), P(B) e P (A,
B) ser as probabilidades (prévias) (ou seja, as probabilidades antes de A ou B teve a
chance de tomar o lugar) que A irá ocorrer, que B irá ocorrer e que tanto A e B ocorrerá,
respectivamente. Regra de Bayes afirma que P(A \ B) = P(A,B)/P(B). Ou seja, a
probabilidade condicional de A dada B é igual a probabilidade que ambos A e B
ocorrerá, dividido pela probabilidade prévia que B irá ocorrer.

Portanto, se torna a condição de primeira ordem (2.2.5)

Em um equilíbrio de Nash simétrico (i.e., e\ = e\ = e *), temos

Desde g(e) é convexa, um prêmio maior para ganhar (ou seja, um valor maior de WH —
WL) induz mais esforço, como é intuitivo. Por outro lado, segurando a constante de
prêmio, não é a pena trabalhar duro quando a saída é muito barulhenta, porque o
resultado do torneio é susceptível de ser determinado por sorte, ao invés de esforço. Se e
é normalmente distribuído com variância a2, por exemplo, então

fato que diminui em um, e então * diminui em um.

Agora trabalhamos para trás à primeira fase do jogo. Suponho que se os trabalhadores
concordaram em participar do torneio (ao invés de aceitar o emprego alternativo) então
eles vão responder aos salários WH e WL, jogando o equilíbrio de Nash simétrico,
caracterizado por (2.2.6). (Assim, ignoramos as possibilidades de equilíbrios
assimétricos e de um equilíbrio em que as escolhas de esforço dos trabalhadores são
dadas pela e\ de solução de canto = 62 = 0, em vez da condição de primeira ordem
(2.2.5).) Suponha também que oportunidade de alternativas de emprego dos
trabalhadores proporciona utilitário Ua. Desde que o equilíbrio de Nash simétrica cada
trabalhador ganha o torneio com metade de probabilidade (i.e., Prob{t/,(e*) > yj(e*)} =
1/2), se o chefe pretende induzir os trabalhadores a participar do torneio, em seguida,
ela deve escolher os salários que satisfazem

Supondo que a Ua é baixa o suficiente para que o chefe quer induzir os trabalhadores a
participar no torneio, ela escolhe, portanto, os salários para maximizar o lucro esperado,
2e *-wH-wi, sujeitos (2.2.7). At o ideal, (2.2.7) prende-se com a igualdade:
Espera-se de lucro torna-se então 2e *-2Ua — 2g(e*), para que o chefe deseja escolher
salários tal que maximiza ao esforço induzido, e *, e * g(e*)-o esforço induzido ideal,
portanto, satisfaz a condição de primeira ordem g'(e*) — I. substituindo isto na (2.2.6)
implica que o prêmio ideal, WH — WL, resolve

e (2.2.8) então determina WH e Wi-se.

2.3 jogos repetidos

Nesta seção, analisamos se ameaças e promessas sobre comportamento futuro podem


influenciar o comportamento atual nas relações repetidas. Grande parte da intuição é
dada no caso dois-período; algumas ideias exigem um horizonte infinito. Também
definimos subgameperfect equilíbrio de Nash para jogos repetidos. Esta definição é
mais simples para expressar o caso especial de jogos repetidos do que para os gerais
jogos dinâmicos de informação completa, consideramos na seção 2.4.B. Apresentamos
aqui a fim de facilitar a exposição mais tarde.

Teoria 2.3.A: jogos repetidos de dois estágios

Considere o dilema dos prisioneiros, dada na forma normal na Figura 2.3.1. Suponha
que dois jogadores este jogo simultâneo-mover duas vezes, observando o resultado do
primeiro jogo, antes de começar o segundo jogo e suponho que a recompensa para todo
o jogo é simplesmente a soma dos retornos de dois estágios (ou seja, não há nenhum

Figura 2.3.1.

Figura 2.3.2.

descontando). Vamos chamar este jogo repetido dilema dos prisioneiros dois estágios.
Pertence à classe dos jogos analisados na seção 2.2.A. Aqui os jogadores 3 e 4 são
idênticos aos jogadores 1 e 2, a ação espaços um$ AI são idênticos para AI e AI e o «!-
(«!,«2>fl3)fl4) de pagamentos são simplesmente a soma do pagamento do resultado do
primeiro estágio (81,82) e o pagamento do resultado do segundo estágio (83,84). Além
disso, o dilema dos prisioneiros dois estágios satisfaz a suposição que fizemos na seção
2.2.A: para cada resultado possível do jogo primeiro estágio, (81,82), o jogo de segundo
estágio que permanece entre os jogadores 3 e 4 tem um único equilíbrio de Nash,
denotado por (j^(a\,a^,a\(a\,a-L)}. Na verdade, o dilema dos prisioneiros requereu
satisfaz esta suposição da seguinte maneira gritante. Na seção 2.2.A temos permissão
para a possibilidade de que o equilíbrio de Nash do jogo segundo estágio restante
depende do resultado da primeira fase — daí a notação (a3(a1,a2),«4(«i,«2)) em vez de
simplesmente (83, um |). (No jogo pautais, por exemplo, escolhas de quantidade das
empresas o equilíbrio na segunda etapa dependem de escolhas de pauta dos governos na
primeira fase.) No dilema dos prisioneiros requereu, no entanto, o único equilíbrio de
jogo o segundo estágio é (L\, LZ), independentemente do resultado da primeira fase.

Seguindo o procedimento descrito na seção 2.2.A para computar o resultado subjogo-


perfeito de como um jogo, analisamos a primeira fase do dilema dos prisioneiros duas
fases tendo em conta que os resultados dos jogos restantes na segunda fase será o
equilíbrio de Nash que restante jogo — ou seja, (Li, LI) com pagamento (1,1). Assim,
os jogadores primeiro estágio interação em quantidades de dilema dos prisioneiros duas
fases para o jogo One-Shot na Figura 2.3.2, em que o par de recompensa (1,1) para a
segunda fase foi adicionado para cada par de pagamento do primeiro estágio. O jogo na
Figura 2.3.2 também tem um único equilíbrio de Nash: (L\, L ^). Assim, o único
resultado subjogo-perfeito dilema dos prisioneiros dois estágios é (L\, 12) no primeiro
fase/seguido (Li, L ^) na segunda fase. Cooperação — isto é, (R\, R?) — Não pode ser
realizado em qualquer fase do resultado subjogo-perfeito.

Este argumento prende-se mais geralmente. (Aqui temporariamente partimos do caso


dois-período para permitir qualquer número finito de repetições, T.) Deixe G = {A\,...,
um; u\,..., un} denotar um jogo estático de informação completa, em que os jogadores 1
a n simultaneamente escolher ações a\ através de um dos espaços de ação

A\ através de um, respectivamente, e retornos são original (a\,..., um) através de


un(ai,...,an). O jogo G será chamado o jogo de estágio do jogo repetido.

Definição dada a um jogo de fase G, deixe g (t) denotar o finitamente repetidas vezes
jogo no qual G é T, com os resultados de todas as peças anteriores observados antes de
começar o próximo jogo. Os pagamentos por g (t) são simplesmente a soma das
pagamentos de jogos da fase de T.

Proposição se o palco do jogo G tem um único equilíbrio de Nash, então, para qualquer
T finito, o jogo repetido g (t) tem um único resultado subjogo-perfeito: o ofG de
equilíbrio de Nash é jogado em todas as etapas. 13

Podemos agora voltar para o caso de dois-período, mas considerar a possibilidade que o
jogo de palco G tem múltiplos equilíbrios de Nash, como na Figura 2.3.3. As estratégias
de etiquetas L e M, imitam o dilema dos prisioneiros da Figura 2.3.1, mas as estratégias
rotuladas Rj foram adicionadas ao jogo que agora existem dois equilíbrios de Nash
puro-estratégia: (Li, LI), como no dilema dos prisioneiros e agora também (R\, #2)-claro
é artificial para adicionar um equilíbrio para o dilema dos prisioneiros dessa forma , mas
o nosso interesse neste jogo é expositivo, ao invés de econômica. Na próxima seção,
veremos que jogos infinitamente repetidos compartilham este espírito de equilíbrios
múltiplos mesmo se o jogo de palco sendo repetido infinitamente tem um único
equilíbrio de Nash, como faz o dilema dos prisioneiros. Assim, dentro desta seção
podemos

13. análogos resultados segura se o jogo de palco G é um jogo dinâmico de informação


completa. Suponha que G é um jogo dinâmico de informação completa e perfeita da
classe definida na seção 2.1.A. G tem um resultado único para trás-indução, se g (t) tem
um único resultado subjogo perfeita: o resultado de backwardsinduction de G é jogado
em todas as etapas. Da mesma forma, suponha que G é um jogo de requereu da classe
definida na seção 2.2.A. G tem um resultado único subgameperfect, se g (t) tem um
único resultado subjogo perfeita: o resultado de subgameperfect de G é jogado em todas
as etapas.

Figura 2.3.3.

analisar um jogo artificial palco no quadro 2-período simples e assim se preparar para
nossa análise posterior de um jogo de fase economicamente interessante no horizonte
infinito quadro.
Suponha que o estágio na Figura 2.3.3 jogo duas vezes, com o resultado do primeiro
estágio observado antes do início do segundo estágio. Vamos mostrar que não há um
resultado perfeito subjogo deste jogo repetidas em que o par de estratégia (Mi, m. 2) é
jogado no primeiro stage.14 como na seção 2.2.A, assumir que, na primeira fase, os
jogadores antecipam que o resultado do segundo estágio será um equilíbrio de Nash do
jogo palco. Desde que este jogo de palco tem mais de um equilíbrio de Nash, é agora
possível para os jogadores para antecipar que resultados diferentes da primeira fase
serão seguidos por diferentes equilíbrios de fase-jogo na segunda fase. Suponha, por
exemplo, que os jogadores antecipam isso (R\, ^ 2) será o resultado do segundo estágio
se o resultado da primeira fase (Mi, MI), mas que (Li, L2), será o resultado do segundo
estágio se qualquer um dos oito outros resultados primeira fase ocorre. Primeiro estágio
interação dos jogadores então montantes para o jogo One-Shot na Figura 2.3.4, onde
(3,3) foi adicionado para o (Mi, M2)-célula e (1,1) foi adicionado às oito outras células.

Existem três equilíbrios de Nash puro-estratégia no jogo na Figura 2.3.4: (Li, L2), (Ma,
M2) e (Ri, R2). Como na Figura 2.3.2,

14. estritamente falando, nós definimos a noção de um resultado perfeito subjogo


somente para a classe de jogos definidos na seção 2.2.A. Dilema do prisioneiro duas
fases pertence a esta classe porque para cada resultado possível do jogo firststage há um
único equilíbrio de Nash do jogo segundo estágio restante. O jogo repetido de dois
estágios, baseado no jogo de palco na Figura 2.3.3 não pertence a esta classe, no
entanto, porque o jogo de palco tem múltiplos equilíbrios de Nash. Não formalmente
estenderemos a definição de um resultado de subjogo-perfeito para que ele se aplica a
todos os jogos repetidos de dois estágios, tanto porque a mudança na definição é
minúscula e definições ainda mais gerais aparecem nas seções 2.3.B e 2.4.B.

Equilíbrios de Nash deste jogo One-Shot correspondem a resultados subgameperfect do


original jogo repetido. Deixe ((zt >, x), (y, z)) denotar um resultado do jogo repetido —
(if, x) no primeiro estágio e (y, z) no segundo. O equilíbrio de Nash (Li, LI) na Figura
2.3.4 corresponde ao resultado subjogo-perfeito ((Li, L2), (Li, La)) no jogo repetido,
porque o resultado antecipado secondstage é (Li, L2) seguinte tudo menos (Mi, M2) na
primeira fase. Da mesma forma, o equilíbrio de Nash (Ri, R2) na Figura 2.3.4
corresponde ao resultado subjogo-perfeito ((Ri. R2), (Li, L2)) no jogo repetido. Estes
dois resultados subjogo perfeita do jogo repetido simplesmente concatenar os resultados
de equilíbrio de Nash do jogo de palco, mas o terceiro equilíbrio de Nash na Figura
2.3.4 produz um resultado qualitativamente diferente: (Mi, M2) na Figura 2.3.4
corresponde ao resultado subjogo-perfeito ((Mi, M2), (Ri, R2)) no jogo repetido, porque
é o resultado esperado do segundo estágio (R-[, R2) sequência (Mi, M2). Assim, como
afirmado anteriormente, a cooperação pode ser alcançada na primeira fase de um
resultado perfeito subjogo do jogo repetido. Este é um exemplo de um ponto mais geral:
se G = {A - [,..., um; U],..., «"} é um jogo estático de informação completa com
múltiplos equilíbrios de Nash, então pode haver resultados subjogo-perfeito do repetido
jogo g (t) em que, para qualquer t < T, o resultado no palco t não é um equilíbrio de
Nash de G. Voltamos a essa ideia no horizonte infinito qualquer t < T, o resultado no
palco t não é um equilíbrio de Nash de G. Voltamos a essa ideia em análise horizonte
infinito na próxima seção.

O ponto principal para extrair deste exemplo é que credíveis ameaças ou promessas
sobre comportamento futuro podem influenciar o comportamento atual. Um segundo
ponto, no entanto, é que a perfeição-subjogo não pode encarnar uma definição
suficientemente forte de credibilidade. Em derivar o resultado perfeito subjogo ((Mi,
M2), (Rj, R2)), por exemplo, nós assumimos que os jogadores antecipam que (R-i, R2)
será o resultado do segundo estágio se o resultado do primeiro estágio é (Mi, M2)

e que (Li, L?), será o resultado do segundo estágio se qualquer um dos oito outros
resultados primeira fase ocorrem. Mas jogar (Li, 12), na segunda etapa, com seu
pagamento de (1,1), pode parecer bobagem quando (Ri, R2), com seu pagamento de
(3,3), também está disponível como um equilíbrio de Nash do jogo fase restantes.
Vagamente colocar, parece natural para os jogadores para renegotiate.15 se (Mi, MI)
não ocorre como o resultado do primeiro estágio, então essa (L\, LI) é suposto para ser
jogado na segunda etapa, em seguida, cada jogador pode argumentar que o passado é o
passado e que o equilíbrio de fase-jogo preferido por unanimidade (Ri, 7? 2) deve ser
jogado em vez disso. Mas se (Rj, R2) vai ser o resultado de segundo estágio após todos
os resultados da primeira fase, o incentivo para jogar (Mi, M2) na primeira fase é
destruído: a primeiro estágio interação entre os dois jogadores simplesmente equivale ao
One-Shot jogo em que o pagamento (3,3) foi adicionado para cada célula do jogo
estágio na Figura 2.3.3, então L, é o jogador i ' s melhor resposta ao Mj.
Para sugerir uma solução para este problema de renegociação, consideramos que o jogo
na Figura 2.3.5, o que é ainda mais artificial do que o jogo na Figura 2.3.3. Mais uma
vez, nosso interesse neste jogo é expositivo, ao invés de econômica. As ideias que
desenvolvemos aqui para renegociação de endereço neste jogo artificial também podem
ser aplicadas a renegociação em jogos infinitamente repetidos; consulte Farrell e
Maskin (1989), por exemplo.

15. isto é uso solto porque "renegociar" sugere que a comunicação (ou mesmo
negociação) ocorre entre as primeira e segunda fases. Se tais ações são possíveis, então
eles devem ser incluídos na descrição e análise do jogo. Aqui nós supor que tais ações
não são possíveis, então pelo "renegociar" que temos em mente uma análise baseada na
introspecção.

Este jogo de palco adiciona as estratégias P e Q, o jogo de palco na Figura 2.3.3.


Existem quatro equilíbrios de Nash pura estratégia de jogo o estágio: (L\, L2) e (Ri, R2)
e agora também (Pi, Pa) e (Qi, Q2). Como antes, os jogadores preferem por
unanimidade (R\, R2) (Li, La). Mais importante, lá não é nenhum equilíbrio de Nash (x,
y) na Figura 2.3.5 tal que os jogadores preferem por unanimidade (x, y) para (Pi, P2), ou
(Ql7 Q2), ou (R, jR2). Dizemos que (Rlf R2) Paretodominates (Li, L2) e (Pi, P2), (Qi,
Q2), e (Ri, R2) estão na fronteira de Pareto dos pagamentos de equilíbrios de Nash do
jogo estágio na Figura 2.3.5.

Suponha que o estágio na Figura 2.3.5 jogo duas vezes, com o resultado do primeiro
estágio observado antes do início do segundo estágio. Suponha ainda que os jogadores
antecipam que o resultado do segundo estágio será como segue: (R-[, R2) se o resultado
do primeiro estágio é (Mi, M2); (Pi, P2) se é o resultado da primeira fase (Mi, w), onde
w é tudo menos M2; (Qi, Q2) se o resultado do primeiro estágio é (x, M2), onde x é
qualquer coisa menos MI; e (Ri, R2) se o resultado do primeiro estágio é (y, z), onde y é
tudo menos MI e z é tudo menos M2. Então ((Mi, M2), (Ri, R2)) é um resultado de
subjogo perfeita do jogo repetido, porque cada jogador recebe 4 + 3 de jogar M. e R,-
mas só 5 + 1/2 de desviar-se para L, na primeira fase (e menos ainda de outros desvios).
Mais importante ainda, a dificuldade no exemplo anterior não se coloca aqui. O jogo
repetidas de dois estágios é baseado no Figura 2.3.3, a única maneira de punir um
jogador para desviar-se na primeira fase foi jogar um equilíbrio Pareto-dominado na
segunda etapa, assim também a punir o justiceiro. Aqui, em contrapartida, existem três
equilíbrios na fronteira de Pareto — um para o bom comportamento de recompensa por
ambos os jogadores na primeira fase e outros dois para ser usado não só para punir um
jogador que se desvia na primeira fase, mas também para premiar o justiceiro. Assim, se
punição é chamada para a segunda fase, há não outro equilíbrio de fase-jogo que o
justiceiro preferiria, então o justiceiro não pode ser persuadido a renegociar o castigo.