Escolar Documentos
Profissional Documentos
Cultura Documentos
Felipe Zurita
E-mail address: fzurita@faceapuc.cl
URL: http://www.economia.puc.cl/profesores/fzurita
Resumen. Apuntes para los cursos de Teora Microeconmica II y III.
ndice general
Captulo 1. Lenguaje Matemtico 1
1. Nociones bsicas 1
2. Matrices 5
3. Ecuaciones en diferencia 6
Parte 1. Decisiones individuales 10
Captulo 2. Teora General de la Eleccin 11
1. Preferencias y utilidad 11
2. Conocimiento, incertidumbre y decisin 14
3. Medida, probabilidad y creencias 20
4. Utilidad esperada 22
5. Coherencia en decisiones dinmicas 30
Captulo 3. Informacin en la toma de decisiones 36
1. Informacin como renamiento particional 36
2. Informacin como variable 38
3. El valor de la informacin 45
4. La comparacin de dos servicios informativos 48
Parte 2. Teora de Juegos 53
Captulo 4. Nocin de juego 54
1. El modelo competitivo no es un juego 54
2. Juegos en forma estratgica 56
Captulo 5. Equilibrio de Nash 59
1. Denicin 59
2. Existencia, unicidad 61
3. Estrategias mixtas 63
Captulo 6. Equilibrio de Nash como estado estacionario 66
1. Dinmica de mejor respuesta 66
2. Evolucin 71
3. Aprendizaje 77
Captulo 7. Equilibrio de Nash va introspeccin 87
1. Racionalizabilidad 87
3
NDICE GENERAL 4
2. Equilibrio correlacionado 88
3. Juegos bayesianos 94
4. Conocimiento recproco 100
5. Condiciones epistmicas para el equilibrio de Nash 104
Captulo 8. Juegos en forma extensiva 110
Captulo 9. Credibilidad 115
1. Perfeccin 115
2. Juegos en forma extensiva generalizados 117
3. Equilibrio secuencial 120
4. Equilibrio bayesiano perfecto 124
5. Equilibrio autoconrmado (pospuesto) 126
Captulo 10. Informacin en un contexto estratgico 127
1. Sealizacin 127
2. El problema de la transmisin de informacin 139
Captulo 11. Juegos repetidos 147
1. Repeticin innita 147
2. Repeticin nita 162
3. Jugadores de corto y largo plazos 163
4. Reputacin 166
Captulo 12. Diseo de mecanismos 177
1. El problema general 178
2. El principio de revelacin 179
3. Aplicacin: discriminacin de precios 180
4. Aplicacin: subastas 189
5. Aplicacin: problema de delegacin 194
6. Aplicacin: votaciones y teorema de Gibbard 194
7. Aplicacin: bienes pblicos y el mecanismo de Groves 196
Apndice A. Catlogo de juegos 203
CAPTULO 1
Lenguaje Matemtico
El anlisis econmico se ha beneciado del uso de las matemticas en dos
aspectos:
1. Cuantitativo. Muchas de las variables de inters en economa tienen una
contrapartida numrica, en que las cantidades son centrales. El anlisis de
ndices y el anlisis estadstico pertenecen a esta categora.
2. Lingstico. El lenguaje matemtico posee (y fuerza a) un grado de precisin
conceptual particularmente valioso, y por otra parte (o acaso por lo mismo)
en l resulta a menudo mucho ms simple que en otros lenguajes establecer
la verdad o falsedad de una proposicin.
Es el aspecto lingstico el que nos interesa prioritariamente en este curso. En
ese sentido, este captulo pretende ser un minsculo diccionario de trminos que nos
sern de gran utilidad. Para el aprendizaje de estos conceptos se recomiendan, por
ejemplo, los textos de ngel de la Fuente y de Efe Ok.
1. Nociones bsicas
Una proposicin es una aseveracin que puede ser cierta o falsa. Usamos
las letras p; q; r; ::: para denotarlas; denotamos al grupo de ellas por : Cuando
una aseveracin se hace respecto de un sujeto o elemento, podemos agrupar a los
elementos entre aquellos que la satisfacen (esto es, para los cuales es verdadera) y
aquellos que no (respecto de los cuales es falsa). Si le llamamos al grupo de
elementos, entonces la proposicin p divide a en dos partes, digamos A y A
c
: A
es el conjunto generado por p, y A
c
es el conjunto generado por :p: Se dice que el
elemento a pertenece a A (a 2 A) si respecto de a, p es verdadera. Los smbolos 8,
9 y : representan las frases para todo, existe y tal que respectivamente.
A partir de proposiciones bsicas o simples es posible construir otras complejas
o compuestas, por medio de los hilativos y (^) y o (_). La proposicin (p ^ q)
se entiende verdadera si ambas proposiciones simples son verdaderas; la proposicin
(p _ q) se entiende verdadera si cualquiera de las proposiciones simples lo es. Se de-
nen la implicacin como la proposicin condicional (:p _ q), denotada por (p )q),
y la equivalencia como la proposicin compuesta (p )q) ^ (q )p), denotada por
(p ,q) :
Similarmente, se dene la inclusin () como: A B ,(a 2 A )a 2 B)
Los siguientes axiomas dan origen a al teora de conjuntos en su forma habit-
ual
1
:
1
Esto es, la modelacin de Kolmogorov (1950).
1
1. NOCIONES BSICAS 2
Axioma 1. A = B ,((a 2 A )a 2 B) ^ (a 2 B )a 2 A))
Axioma 2. (8B) (8p) (9A B : A es generado por p)
Axioma 3. 8a; b con a 6= b; existe un conjunto que contiene a a y a b:
Axioma 4. (8A conjunto de conjuntos) (9 un conjunto que contiene a los miembros de A)
El primero establece que dos conjuntos son el mismo si contienen los mis-
mos elementos (an cuando hayan sido generados por proposiciones diferentes, como
p =el nmero es natural y par y q =el nmero es natural y mltiplo de 2. El
segundo dice que para todo conjunto existe una proposicin que es verdadera para no
necesariamente todos los elementos del conjunto (generando la nocin de subcon-
junto), y que todo subconjunto tiene una proposicin que lo genera. Observe que
este axioma fuerza la existencia del vaco (denotado por ;) puesto que debe existir un
subconjunto que satisfaga la proposicin a no es elemento de A en todo conjunto;
ms an, por el axioma 1, el vaco es nico. Le llamamos tautologa a la proposi-
cin que es cierta cuando se aplica a todos los elementos (esto es, a la proposicin que
genera a ), y contradiccin a su negacin (y que por tanto genera el vaco). El
cuarto axioma es til para asegurar la existencia de uniones arbitrarias de conjuntos.
As, tenemos:
A \ B = fx 2 : (x 2 A) ^ (x 2 B)g
A [ B = fx 2 : (x 2 A) _ (x 2 B)g
A menudo queremos hacer comparaciones entre los elementos de un conjunto,
por ejemplo, a es ms grande que b", a es ms veloz que b"; o a es mejor que b.
El valor de verdad de estas proposiciones puede estar denido implcitamente en las
proposiciones de , pero tambin pueden construirse (o declararse) explcitamente
por medio de relaciones.
Una relacin o correspondencia es un subconjunto R de X Y . Notacin:
(x; y) 2 R ,xRy. Una relacin es binaria si X = Y .
Una relacin binaria R X Y es:
reeja si 8x 2 X; xRx:
antirreeja si 8x 2 X; x:Rx:
simtrica si 8x; y 2 X; xRy )yRx:
asimtrica si 8x; y 2 X; xRy )y:Rx:
antisimtrica si 8x; y 2 X; xRy ^ yRx )x = y:
transitiva si 8x; y; z 2 X; xRy ^ yRz )xRz:
completa si 8x; y 2 X; x 6= y; xRy _ yRx:
El siguiente cuadro muestra los nombres que reciben relaciones binarias con
combinaciones de estas propiedades:
1. NOCIONES BSICAS 3
Orden
Pre- Pre-Comp. Dbil Parcial Total (lineal) Equivalencia
reeja * * * * *
antirreeja y
simtrica *
asimtrica y
antisimtrica * *
transitiva * * * * * *
completa * *
Ejemplos: %
Las relaciones de orden son las que permiten hacer comparaciones del tipo
ms y menos [tal cosa] al interior de un conjunto.
Una funcin f es una relacin tal que para cada x 2 X, 9!y 2 X : xRy. En
ese caso, escribimos y = f(x), y llamamos al conjunto f(x; y) 2 X Y : y = f (x)g
el grco de f:
Llamamos imagen de f al conjunto f (X) fy 2 Y : y = f (x)g, e imagen
inversa a f
1
(Y ) = fx 2 X : y = f (x)g.
Una funcin es:
inyectiva (o uno-a-uno) si f (x) = f (y) )x = y
epiyectiva si f (X) = Y
biyectiva si es inyectiva y epiyectiva (toda funcin biyectiva tiene inversa).
Existen clases importantes de funciones, que ameritan nombres especiales. Si
X es un espacio vectorial normado (ver denicin ms abajo) e Y es R, f se llama
funcional (por ejemplo, la integral). Si X = Y , entonces se llama operador o
transformacin (por ejemplo, la derivada). Si Y es un conjunto de conjuntos (o
clase de conjuntos), entonces f es una correspondencia. Si Y = R, f se llama
funcin real; si Y = C, compleja. Una secuencia es una funcin f : N[f0g !Y ,
que asocia a cada n 2 N[f0g un y
n
2 Y: Usualmente se escribe fy
n
g Y:
Una funcin : X X ! R se llama distancia o mtrica, si 8x; y; z 2 X,
satisface:
(x; x) = 0
(x; y) = (y; x)
(x; y) 0
(x; y) + (y; z) (x; z)
Un espacio mtrico (X; ) es un conjunto X dotado de una mtrica . El
conjunto B(x; ") fy 2 X : (x; y) < "g se llama bola de radio " > 0 centrada en
x.
Sea (X; ) un espacio mtrico. Entonces, fx
n
g converge a x 2 X (denotado
x
n
! x) ssi 8" > 0, 9N < 1 tal que 8n N; (x
n
; x) < " (esta ltima frase
tambin se escribe lm
n!1
x
n
= x).
1. NOCIONES BSICAS 4
Una secuencia de Cauchy es una secuencia tal que para todo " > 0, existe
un entero N tal que (x
n
; x
m
) < " para todo n; m N Toda secuencia convergente
es de Cauchy, pero no al revs. Un espacio mtrico completo es un espacio mtrico
en el que toda secuencia de Cauchy converge. R
n
es un ejemplo prominente.
Un punto x 2 X es un punto lmite de S X si existe una secuencia
fx
n
g S que converge a x. Un punto x 2 X es un punto interior de S X si
existe una bola B(x; ") S:
Un conjunto S X es:
cerrado si contiene todos sus puntos lmite.
abierto si contiene todos sus puntos interiores. Alternativamente, si es el
complemento de un cerrado observe que no es lo contrario de cerrado; un
conjunto puede ser cerrado y abierto a la vez.
convexo si x; y 2 S )x + (1 ) y 2 S; para todo 2 [0; 1] :
acotado si existe b 2 R y x 2 X tal que (x; y) < b para todo y 2 S:
Una funcin f : (X; ) ! (Y; ) es continua en x
0
si 8" > 0, 9 > 0 : 8x 2
X; (x; x
0
) < ) (f (x) ; f (x
0
)) < ". En ese caso, escribimos lm
x!x0
f (x) =
f (x
0
) :
Una funcin es continua si es continua en todo x. Las siguientes condiciones
son equivalentes:
f es continua.
8G Y abierto (en Y ) se tiene que f
1
(G) es abierto (en X).
8G Y cerrado (en Y ) se tiene que f
1
(G) es cerrado (en X).
Vale decir, las funciones continuas tienen imgenes inversas que conservan la
apertura.
Un homeomorsmo es una funcin biyectiva y continua con inversa contin-
ua. Su nombre deriva del hecho de que preserva la misma forma, o propiedades
topolgicas.
Un espacio vectorial sobre R es un conjunto V R
n
con dos operaciones:
suma (+ : V V !R) y multiplicacin escalar ( : R V ! V ), tal que para todo
v; v
0
; v
00
2 V; y para todo ; 2 R, satisface los siguientes axiomas:
v1: (v +v
0
) +v
00
= v + (v
0
+v
00
) (asociatividad)
v
0
+v = v +v
0
(conmutatividad)
v2: 90 2 V : v + 0 = v (existencia de un cero vector)
v3: 8v 2 V , el elemento (1)v 2 V tiene la propiedad que v + (1)v = 0:
v4: ( +) v = v +v, () v = () v
(v +v
0
) = v +v
0
; 1v = v:
Un espacio vectorial normado (V; kk) es un espacio vectorial dotado de
una funcin kk : V !R, tal que para todo v; v
0
2 V y para todo 2 R,
n1: kvk > 0 8v 6= 0; k0k = 0
n2: kvk = jj kvk
n3: kv +v
0
k kvk +kv
0
k
2. MATRICES 5
Observe que V se convierte en un espacio mtrico con la funcin de distancia
(v; v
0
) = kv v
0
k. Obseve tambin que R
n
es un espacio vectorial normado con
la norma euclidiana kxk =
pP
n
i=1
x
2
i
: En general, toda norma genera una mtrica,
pero no viceversa.
Un punto jo de la funcin (resp., correspondencia) f : X ! X es una
solucin de la ecuacin x = f(x) (resp., x 2 f(x)).
Teorema 1 (Brouwer). Sea X un subconjunto no vaco, cerrado, acotado y
convexo de un espacio vectorial normado de dimensin nita. Si f : X !X es una
funcin continua, entonces tiene al menos un punto jo.
Corolario 1. Sea f : [a; b] ![a; b], donde f es continua. Entonces, f tiene
al menos un punto jo.
Teorema 2 (Kakutani). Sea X un subconjunto no vaco, cerrado, acotado y
convexo de R
n
; y sea f : X !X una correspondencia tal que:
f es no vaca y convexa para todo x, y
f tiene un grco cerrado (es decir, para todas las secuencias fx
n
g e fy
n
g
tales que y
n
2 f(x
n
) para todo n, x
n
!x e y
n
!y, tenemos que y 2 f(x)).
Entonces, f tiene al menos un punto jo.
Sea (S; ) un espacio mtrico completo. El operador T : S ! S es una
contraccin con mdulo 2 (0; 1) si para cada x; y 2 S tenemos que
(Tx; Ty) (x; y)
Teorema 3 (de la contraccin). Si T es una contraccin, entonces tiene un
nico punto jo.
Oberve que (Tx; Ty) (x; y) ) (T
n
x; T
n
y)
n
(x; y) )lm
n!
(T
n
x; T
n
y) =
0:
Corolario 2. Sea f : [a; b] ! [a; b], donde f es continua y jf
0
(x)j < 1 para
todo x 2 [a; b]. Entonces, f tiene un nico punto jo, y jf(x) f(y)j < jx yj :
2. Matrices
Sea A una matriz cuadrada de n n: A es singular si jAj = 0. Un escalar
se llama valor propio de A si existe un vector c 6= 0 tal que Ac = c. En este caso,
el vector c se llama vector propio. Si A se interpreta como una transformacin de
un vector x, entonces un vector propio es aqul que no sufre transformacin alguna
salvo por la escala, dada por . Cada vector propio es una solucin de la ecuacin
(AI) x = 0, que ocurre en x 6= 0 si (AI) es singular. Luego, es un valor
propio de A si y slo si es una solucin de la ecuacin p() jA Ij = 0. p() se
denomina polinomio caracterstico de A. Tenemos tambin que:
jAj =
Q
n
i=1
i
tr (A) =
P
n
i=1
a
ii
=
P
n
i=1
i
lm
t!1
A
t
= 0 si y slo si para todo valor propio j
i
j < 1:
3. ECUACIONES EN DIFERENCIA 6
p() = ()
n
+b
n1
()
n1
+::: +b
1
() +b
0
, donde b
k
es la suma de los
determinantes de todos los menores principales de A de orden nk (hay
n
k
a
11
a
12
a
21
a
22
, b
0
= jAj ; b
1
= ja
11
j + ja
22
j =
tr(A).
La matriz cuadrada D es diagonal si todas sus entradas son 0 salvo la diagonal
principal. La matriz A es diagonalizable ssi existe una matriz diagonal D y una
matriz P : D = P
1
AP. Una condicin suciente, pero no necesaria, es que todos los
valores propios de A sean distintos. A y P
1
AP tienen los mismos valores propios.
La matriz A es idempotente si A
2
= A. Si A es idempotente, entonces sus
valores propios slo toman los valores 0 o 1.
3. Ecuaciones en diferencia
Un sistema dinmico de orden k; en tiempo discreto, es una ecuacin de la
forma:
(3.1) x
t+k
= f (x
t+k1
; :::; x
t
; t)
donde f : R
n
! R
n
y t 2 T Z. Si T = N [ f0g N
0
, existe un perodo inicial.
Una solucin de (3.1) es una secuencia fx
t
g R
n
que la satisface.
El sistema de primer orden es:
lineal cuando f (x
t
) = Ax
t
+b
t
. El sistema lineal es homogneo si b = 0.
autnomo cuando f (x
t
; t) = f (x
t
), es decir, la dependencia temporal
ocurre exclusivamente a travs de x
t
.
Un estado estacionario x es un punto jo de f, es decir, una solucin de la
ecuacin x = f (x) :
x
i
es un punto peridico de x
t+1
= f (x
t
), con perodo p 2, si es un
punto jo del iterado f
p
(), pero no de algn otro iterado de orden menor. Bajo esta
nomenclatura, un estado estacionario es un punto peridico de perodo 1.
La rbita que pasa por x
0
es el conjunto (x
o
) fx
t
jx
t
= f
t
(x
0
); t 2 Tg. Los
puntos (x
1
; :::; x
p
) son una rbita peridica de x
t+1
= f (x
t
) si cada x
i
(i = 1; :::; p)
es un punto peridico distinto de x
t+1
= f (x
t
).
Sea
Df =
0
B
@
@f1
@x1
@f1
@x1
.
.
.
.
.
.
.
.
.
@fn
@x
1
: : :
@fn
@x
1
1
C
A
el jacobiano de f:
El punto jo x de x
t+1
= f (x
t
) es un estado estacionario hiperblico si
el jacobiano Df(x) no contiene valores propios con mdulo 1.
El estado estacionario x de x
t+1
= f (x
t
) es:
1. Estable-Liapunov si rbitas que empiezan cerca de x permanecen cerca de
x:
3. ECUACIONES EN DIFERENCIA 7
2. Asintticamente estable si rbitas que empiezan cerca de x convergen a
x cuando t !1:
3. Globalmente asintticamente estable si rbitas que empiezan en cualquier
parte del espacio convergen a x.
Observacin 1. 3)2)1.
Una base de atraccin del estado estacionario x
es un conjunto B(x
) X
tal que toda rbita que comienza en l, converge a x
:
3.1. Sistemas lineales. Para encontrar las soluciones de un sistema lineal
autnomo homogneo de primer orden, es decir, de la ecuacin:
x
t+1
= Ax
t
Si la condicin inicial x
0
es conocida, tenemos:
x
1
= Ax
0
x
2
= Ax
1
= AAx
0
.
.
.
x
t
= AAx
t2
= A
t
x
0
(3.2)
En el caso de una variable, x
t+1
= ax
t
)x
t
= a
t
x
0
, y la familia de soluciones
es de la forma x
t
= a
t
c: Por otra parte, en el caso de n variables, pero con A diagonal,
tenemos de facto un sistema de n sistemas independientes, con solucin
x
t
= A
t
c =
0
@
a
t
1
0
.
.
.
.
.
.
0 a
t
n
1
A
0
@
c
1
.
.
.
c
n
1
A
=
0
@
a
t
1
c
1
.
.
.
a
t
n
c
n
1
A
Si A no es diagonal, es posible que se pueda diagonalizar. Sea D = P
1
AP la
matriz diagonal que se forma a partir de A (si es que existe, A se dice diagonalizable).
Entonces, el sistema
x
t+1
= Ax
t
P
1
x
t+1
= P
1
APP
1
x
t
P
1
x
t+1
= D
P
1
x
t
z
t+1
= Dz
t
donde z
t
P
1
x
t
y D =
0
@
1
0
.
.
.
.
.
.
0
n
1
A
; de manera que el nuevo sistema tiene
como solucin z
t
=
0
@
t
1
c
1
.
.
.
t
n
c
n
1
A
, y el sistema original se recupera con x
t
= Pz
t
: Es
importante notar que el hecho de que A y D tengan los mismos valores propios,
implica que ambos sistemas tienen las mismas propiedades dinmicas, como veremos
ms abajo.
3. ECUACIONES EN DIFERENCIA 8
En el caso de un sistema no homogneo, x
t+1
= Ax
t
+b; tenemos:
x
1
= Ax
0
+b
x
2
= Ax
1
+b = A(Ax
0
+b) +b = A
2
x
0
+Ab +b
x
3
= Ax
2
+b = A
A
2
x
0
+Ab +b
+b = A
3
x
0
+A
2
b +Ab +b
.
.
.
x
t
= Ax
t1
+b = A
t
x
0
|{z}
Funcin complementaria
+
t1
X
i=1
A
i
b
| {z }
Solucin particular
Alternativamente, note que si x es un punto jo:
x = Ax +b )(I A) x = b
x
t+1
b = Ax
t
x
t+1
Ix = A(x
t
x)
y
t+1
= Ay
t
es un sistema homogneo en y
t
(x
t
x) :
Nos interesan las propiedades dinmicas del sistema x
t+1
= Ax
t
. La solucin
de este sistema es de la forma x
t
= A
t
c, de manera que converge si y slo si todos los
valores propios de A tienen un mdulo menor que 1. En este caso, converge indepen-
dientemente de la condicin inicial, de manera que es globalmente asintticamente
estable. En otras palabras, Tx = Ax es una contraccin. Por el contrario, si al
menos un valor propio tiene un mdulo mayor que 1, el sistema diverge.
Independientemente de si el sistema converge o no, es posible que el sistema
describa una rbita peridica. Esto ocurre si alguno de los valores propios son comple-
jos (por ejemplo, el sistema x
t+1
= x
t
1
2
p
1), o si siendo reales tienen signos opuestos
(por ejemplo, el sistema x
t+1
= 1 x
t
; con x
0
= 0).
En efecto, consideremos el caso en que los valores propios no son reales, sino
complejos:
i
2 C.
Observacin 2. Sea
i
a
i
+b
i
p
1, donde a
i
es su parte real y b
i
su parte
imaginaria (y (a
i
; b
i
) 2 R
2
). Entonces, j
i
j =
p
a
2
i
+b
2
i
: Alternativamente, podemos
representar (a; b) 2 R
2
en coordenadas polares: a = r cos , b = r sin, donde r = jj
y tan =
b
a
(llamado el argumento de ), y puede escribirse como:
a +bi = r (cos +i sin )
Es til adems recordar el teorema de Moivre, que establece que si n 2 N;
[r (cos +i sin )]
n
= r
n
(cos n +i sinn)
En este caso, el sistema sigue siendo estable en la medida en que j
i
j < 1
para todo i; e inestable en caso contrario. Sin embargo, el sistema converge con
oscilaciones.
3. ECUACIONES EN DIFERENCIA 9
3.2. Sistemas no lineales. Supongamos que x
t+1
= f (x
t
) tiene un punto jo
x. Entonces podemos aproximarlo alrededor de ese punto jo, de acuerdo a:
f(x) = f (x) +Df (x) (xx) +O(2)
Luego, localmente tenemos
x
t+1
= x +Df (x) (x
t
x)
y
t+1
= Df (x) y
t
donde y
t
(x
t
x) ; es un sistema lineal homogneo.
Teorema 4 (Hartman-Grobman). Si x es un punto jo hiperblico de f(),
y el jacobiano Df (x) se puede invertir, entonces existe una vecindad U X que
contiene a x, donde x
t+1
= f (x
t
) y x
t+1
x = Df (x) (x
t
x) son topolgicamente
equivalentes.
Teorema 5 (estabilidad no lineal). Suponga que x es un punto jo de f().
Entonces:
1. Si todos los valores propios de Df (x) tienen mdulo menor que 1, entonces
x es asintticamente estable.
2. Si al menos un valor propio de Df (x) tiene mdulo mayor que 1, entonces
x es inestable.
Si algunos son menores que 1 y otros mayores, es un punto silla (sad-
dle).
Si todos son mayores que 1, es un punto fuente (source).
Parte 1
Decisiones individuales
CAPTULO 2
Teora General de la Eleccin
1. Preferencias y utilidad
Una decisin se reere al acto de elegir una accin a dentro de un conjunto de
posibilidades A A (el universo de acciones posibles).
Sea a
(A) 6= ;:
Es natural tambin suponer que si eliminamos parte de las posibilidades que
no fueron escogidas, la decisin no debera cambiar: a
(A) = a
(A A) para todo
A A; con a
(A) = 2 A:
Si estas condiciones se cumplen, podemos encapsular esas decisiones en una
relacin de preferencias denida sobre el conjunto de todas las posibilidades imag-
inables (A; %), donde a
% a se lee a
(A) = faja % a
0
8a; a
0
2 Ag :
Teorema 6. (%; A) representa las decisiones denidas por a
(A); donde a
(A) 6=
; para todo A 6= 2 A y a
(A) = a
(A) = 2 A, si y
slo si % satisface los axiomas 1 al 3.
Demostracin. [)] a
(fa; a
0
g) = a,
o a
0
% a si a
(fa; a
0
g) = a
0
). Por otra parte, sean a = a
(fa; a
0
g) y a
0
= a
(fa
0
; a
00
g).
Entonces, a = a
(fa; a
0
; a
00
g), puesto que si a
00
= a
(fa; a
0
; a
00
g), al remover a a ten-
dramos a
(fa
0
; a
00
g) = a
00
, en contradiccin con la hiptesis.
[(] Si 8a; a
0
2 Aa % a y a % a
0
_ a
0
% a, entonces a
(A) = faja % a
0
8a; a
0
2 Ag 6=
; para todo A: Por otra parte, si a = a
(fa; a
0
g) ^ a
0
= a
(fa
0
; a
00
g) ) a =
a
(fa; a
0
; a
00
g) entonces a
(fa; a
0
; a
00
g) = a
(fa; a
00
g) = a
(fa; a
0
g) = a
(fag). Por
11
1. PREFERENCIAS Y UTILIDAD 12
transitividad, de la inclusin y la implicancia, el argumento se extiende a conjuntos
arbitrarios A en A.
El axioma de transitividad, entonces, que normalmente se entiende como co-
herencia en las decisiones (y por tanto dene el sentido de racionalidad en el com-
portamiento econmico) no es otra cosa que exigir que las preferencias existan en
forma independiente de las posibilidades particulares al momento de decidir. Es por
esto, entonces, que cada decisin puede ser racionalizada en funcin del conjunto de
posibilidades disponibles al momento de la decisin.
A partir de %, podemos denir las relaciones de indiferencia y preferencia
estricta de la siguiente forma:
a a
0
,a % a
0
^ a
0
% a
a a
0
,a % a
0
^ a
0
a
Es sencillo vericar que si % satisface los axiomas 1-3, entonces:
%
reeja * *
antirreeja *
simtrica *
asimtrica *
transitiva * * *
completa *
As, % es un preorden completo, mientras que es una relacin de equivalen-
cia. Normalmente nos referimos a como la parte simtrica de %, y a como su
parte asimtrica.
El hecho de que % sea un preorden nos permite denir el supremo y el nmo de
cada conjunto imaginable. En este caso, a
:
4. UTILIDAD ESPERADA 24
El axioma de continuidad pide que para cualquier tro de loteras comparables
bajo el orden de preferencia, exista siempre una composicin de las dos extremas que
le sea indiferente a la intermedia.
Axioma 31 (vN-M 5: independencia). Si a a
0
, entonces 8 2 (0; 1] se tiene
que a + (1 ) a
00
a
0
+ (1 ) a
00
:
En palabras, el componer de la misma forma a dos loteras con una tercera no
altera el orden de preferencias. La idea es que los elementos que conforman las loteras
no pueden ser complementarios ni sustitutos, sino independientes. Quizs esto es ms
fcil de apreciar si pensamos en a; a
0
y a
00
como vrtices (esto es, como consecuencias):
si la consecuencia representada por a es preferida a la representada por a
0
, entonces
una lotera que con probabilidad conduce a a y con probabilidad (1 ) conduce
a a
00
tambin debe ser preferida a la lotera que con probabilidad conduca a a
0
y
con probabilidad (1 ) a a
00
. Esto no sera as, por ejemplo, si a
00
fuese un muy
buen complemento de a
0
y por otro lado perjudicara a a: Un individuo que preera
la mermelada a las papas fritas sin sal probablemente no preferir la mermelada con
sal a las papas fritas con sal, precisamente porque la sal complementa bien a las
papas fritas, y daa a la mermelada. Sin embargo, el argumento para el axioma
de independencia es precisamente que la complementariedad no debera darse entre
dos consecuencias que son mutuamente excluyentes: mientras en el ejemplo anterior
el individuo consumira papas fritas con sal, o mermelada con sal, en el contexto
presente consumira la consecuencia de a la de a
0
, pero no ambas. De no suponerse
la independencia, la preferencia en un estado de la naturaleza dependera de lo que
podra haber ocurrido de haberse dado otro estado de la naturaleza. En ese sentido,
parece razonable postular que la decisin no debera depender de lo que podra haber
ocurrido si la situacin hubiese sido otra. Alternativamente, el axioma dice que la
decisin se basa en la diferencia entre dos opciones, y no en las coincidencias.
Lema 2 (monotonicidad). Sean a = a
00
+(1 ) a
000
y a
0
=
0
a
00
+(1
0
) a
000
dos loteras compuestas tales que a
00
a
000
. Entonces, a a
0
, >
0
:
Demostracin. En efecto, si tenemos a = a
00
+ (1 ) a
000
y a
0
=
0
a
00
+
(1
0
) a
000
dos loteras compuestas tales que a
00
a
000
, entonces >
0
) a a
0
:
Primero, observe que a a
000
, porque a
00
a
000
) a = a
00
+ (1 ) a
000
a
000
(por
independencia). Segundo, >
0
,
0
1
0
a +
0
1
0
a
000
+
0
a
, a
1
0
a
000
+
0
(a
00
+a
000
(1 ))
, a (1
0
) a
000
+
0
a
00
= a
0
4. UTILIDAD ESPERADA 25
Finalmente,
a a
0
,a (1
0
) a
000
+
0
a
00
, a
1
0
a
000
+
0
a
pero como a a
000
, por continuidad 0
0
1 ,
0
: As, continuidad e
independencia implican monotonicidad.
Teorema 10 (de utilidad esperada). Si los axiomas 1-5 se satisfacen, en-
tonces existe una funcin U : A ! R que representa a %. Ms an, U tiene una
representacin como valor esperado: U(a) = E
i
e
i
y a
0
=
P
i
0
i
e
i
.
Ellos satisfacen:
a =
X
i
i
e
i
X
i
i
(u
i
e
n
+ (1 u
i
) e
1
) =
X
i
i
u
i
e
n
+
1
X
i
i
u
i
!
e
1
a
0
X
i
0
i
e
i
X
i
0
i
(u
i
e
n
+ (1 u
i
) e
1
) =
X
i
0
i
u
i
e
n
+
1
X
i
0
i
u
i
!
e
1
Pero por monotonicidad, tenemos a a
0
,
P
i
i
u
i
>
P
i
0
i
u
i
: De esta
forma, U(a) =
P
n
i=1
i
u(c
i
) representa a (A; %) :
Un inconveniente de la teora de von Neumann y Morgenstern es que las prob-
abilidades son exgenas, esto es, forman parte de la descripcin del problema de de-
cisin; la nica subjetividad posible es la que pueda caracterizar la funcin Bernoulli.
La consecuencia ms problemtica de este hecho radica en que es imposible denir
ignorancia, o tomar en cuenta de alguna forma la subjetividad de la percepcin del
individuo.
Una va de escape acaso sea considerar como relevantes probabilidades condi-
cionales en informacin parcial. Sin embargo, si un observador externo y un individ-
uo bajo estudio tienen informacin distinta, entonces ambos concebiran el problema
de decisin como compuesto por alternativas distintas, esto es, no estaran de acuerdo
en cul es el conjunto de opciones que enfrenta el individuo. En otras palabras, los
conjuntos de posibiliadades se volveran subjetivos. Si bien esto no es conceptual-
mente un problema serio, s lo es para efectos de vericar o falsicar la teora.
Savage, en cambio, parte de una denicin de acto ms sencilla (es decir,
con menos estructura), y desarrolla un conjunto de axiomas bsicos, de los cuales se
deduce la existencia de una probabilidad implcita en las preferencias (sobre actos) del
4. UTILIDAD ESPERADA 26
individuo (interpretable como creencia). La probabilidad, al estar imbuda en la pre-
ferencia sobre actos, pasa a ser tan subjetiva como la preferencia sobre consecuencias.
Ello permite pensar, entonces, en individuos con distintas creencias sin sacricar la
objetividad del conjunto de actos. La teora de Savage, entonces, es ms adecuada
para la descripcin de problemas de decisin bajo ignorancia.
4.2. Savage. Para Savage, un acto no es una lotera, sino simplemente una
funcin a : ! C, donde (C; 3) est ordenado por esa preferencia ex post. Se
asume una preferencia sobre el conjunto de actos (%; A), y se le impone la siguiente
estructura una estructura que resulta nalmente en la existencia de una probabilidad
subjetiva, y en una representacin de utilidad esperada (donde la esperanza se toma
respecto de esa creencia) para la preferencia sobre actos.
Savage desarrolla su teora suponiendo que tanto el conjunto de estados como
el conjunto de actos tienen la cardinalidad del continuo. Lo empuja a esto el deseo
de conseguir una representacin nica de la creencia
6
, lo que evidentemente no era
un tema en la teora de von Neumann y Morgenstern. La desventaja prctica de ese
enfoque para los propsitos de este curso es que lleva nuestras necesidades matemti-
cas ms all de nuestros lmites. Por eso, vamos a mirar someramente la teora de
Savage, y con ms detalle la adaptacin que hace Gul (1992) de ella. Partimos por la
versin de Gul (1992, 1993). En lo que sigue, decimos que dos actos a y b coiciden
en el evento E, si ambos tienen las mismas consecuencias en todos los estados que
conforman a E, esto es, c (aj!) = c (bj!) 8! 2
_
E; en ese caso, escribimos a =
E
b:
Por favor tenga en mente que la frase a =
E
b no dice nada respecto de lo que ocurra
en E
c
: Por otro lado, decimos que un acto es constante si existe c 2 C tal que
c (aj!) = c para todo ! 2 ; escribimos por simplicidad a =
c (tome nota de que
usaremos a y b para actos, y c para consecuencias), o simplemente le llamamos c al
acto constante que redunda en _ c: Denimos la relacin de preferencia condicional
de la siguiente forma: a b dado E (denotado por a
E
b) si a
0
b
0
, donde a
0
=
E
a
y b =
E
b
0
, y a
0
=
E
c b
0
:. As, decimos que el evento E es nulo si 8a; b 2 A, a
E
b:
Finalmente, escribimos aEb para denotar al acto que coincide con a en el evento E y
con b en E
c
:
Axioma 32 (1-3). % es una relacin de preferencias sobre A.
Axioma 33 (4). 8a 2 A; los conjuntos M (a) = fb 2 Ajb % ag y P (a) =
fb 2 Aja % bg son cerrados.
Este es un el mismo axioma de continuidad de la teora general de la eleccin.
Observe, sin embargo, la diferencia con el axioma vN-M4: mientras ese axioma explota
la estructura impuesta en A, ac se debe volver a la formulacin general. Observe,
por otra parte, que estamos implcitamente exigiendo cierta estructura sobre A: debe
ser un conjunto tal que el apelativo de cerrado tenga sentido.
Axioma 34 (G5). c 3 c
0
) c % c
0
: Ms an, existe E tal que cEc
0
c
0
E
c
c:
6
Sin embargo, ver los comentarios adicionales en la subseccin siguiente.
4. UTILIDAD ESPERADA 27
La primera parte del axioma G5 dice que dos actos constantes son comparados
de la misma manera en que se comparan sus consecuencias. Lo que se hace es respetar
el orden sobre actos que induce el orden sobre consecuencias (consecuencialismo). La
segunda parte, en cambio, pide la existencia de una particin de en un par de
eventos igualmente probables.
Axioma 35 (G6). Si a
0
aEd ^ b
0
bEd para todo E no nulo, a b ,
a
0
b
0
:
El axioma G6 es anlogo al de independencia, prescindiendo por supuesto de
la referencia a la idea de probabilidad. Esencialmente lo que dice es que mezclar dos
actos con un tercero no altera el orden de preferencias si la mezcla se hace de igual
forma (esto es, en los mismos estados), precisamente porque no existe complemen-
tariedad entre consecuencias. Ahora bien, observe que esta idea se extiende de modo
que se aplique no slo a las mezclas, sino a actos que el individuo clasica en el mismo
nivel de preferencia.
Teorema 11 (Gul). Si se cumplen los axiomas G1 a G6, entonces 9 una
medida de probabilidad sobre 2
y una funcin u : C !R tales que:
1. a b ,
P
!
[ (!) u(c (aj!))] >
P
!
[ (!) u(c (bj!))] ;
2. u es continua y estrictamente creciente;
3. si (1) se obtiene cuando la medida es reemplazada por la medida
0
y u por
u
0
, entonces
0
= y u
0
= u + para algn > 0:
Tenemos, entonces, una nica medida de probabilidad que representa a la
creencia. La unicidad de esta medida se obtiene, a su vez, de la unicidad (salvo por
transformaciones lineales positivas) de la funcin Bernoulli:
c c
0
Ec
00
,u (c) = (E) u(c
0
) + (1 (E)) u(c
00
)
, (E) =
u(c) u(c
00
)
u (c
0
) u(c
00
)
=
+u(c) u(c
00
)
+u (c
0
) u (c
00
)
de manera que cada evento en el lgebra tiene asociado un nico valor, sin importar
la escala de la funcin Bernoulli.
Los axiomas de Savage (1957) son los siguientes:
Axioma 36 (S1: no trivialidad). 9c; c
0
2 C : c c
0
Axioma 37 (S2). a; a
0
; b; b
0
2 A; E :
a =
E
a
0
^ b =
E
b
0
a =
E
cb ^ a
0
=
E
c b
0
) a b , a
0
b
0
a = a
0
Eb ^ b = b
0
Ea ^ b
0
= bEa
0
(Alternativamente, podemos escribir
a = a
0
Eb ^ b = b
0
Ea ^ a
0
= aEb
0
^ b
0
= bEa
0
) a b , a
0
b
0
)
4. UTILIDAD ESPERADA 28
Axioma 38 (S3). Si E no es nulo, y si a =
E
c y b =
E
c
0
; )a
E
b ,c c
0
:
Axioma 39 (S4). Si c; d; c
0
; d
0
2 C, a; a
0
; b; b
0
2 A, E; F satisfacen:
c d ^ c
0
d
0
a = cEd ^ a
0
= c
0
Ed
0
b = cFd ^ b
0
= c
0
Fd
0
) a b , a
0
b
0
(porque a b , P (E) > P (F) ,a
0
b
0
:)
Definicin 2. Denimos la relacin binaria ms probable en ( ) ; deno-
tada
; de acuerdo a: E; F 2 ( ) ;
E
F ,
8c; c
0
2 C tales que c c
0
;
a = cEc
0
y b = cFc
0
a b
(por el axioma anterior, no importa cules son c y c
0
).
Axioma 40 (S5: principio de la cosa segura).
a
E
c (bj!) 8! 2 E )a %
E
b
c (bj!)
E
a 8! 2 E )b %
E
a
El principio de la cosa segura es probablemente muy intuitivo: si un acto es
considerado mejor que cualquiera de las consecuencias de otro acto, entonces debe ser
preferido. Inversamente, si es considerado peor que cualquiera de las consecuencias de
otro acto, entonces el otro debe ser preferido. Note que este axioma no es meramente
trasladar las preferencias sobre consecuencias a preferencias sobre actos; lo que hace
es exigir que el riesgo no importe cuando existe una relacin de dominancia entre las
consecuencias de dos actos.
Axioma 41 (S6). 8a; b 2 A tales que a b, y 8c 2 C, existe una particin
nita H de tal que 8h 2 H;
a
0
= cha )a
0
b
b
0
= chb )a b
0
Este es un requisito de continuidad: para toda consecuencia, sin importar qu
tan buena o mala sea, existe un evento sucientemente pequeo (en el sentido de
importancia que el individuo le asigne) tal que si se mezcla con l un acto en ese
evento, el acto mezclado se mantiene en el mismo lugar de preferencia que el original.
Teorema 12 (Savage). Si se cumplen los axiomas S1 a S6, entonces:
1. 9! medida de probabilidad en ( ) tal que E
F , (E) > (F) :
2. 8E 2 ( ) y r 2 [0; 1], 9F E : (F) = r (E) :
4. UTILIDAD ESPERADA 29
3. Para ; 9u : C !R acotada, tal que a b ,E [u(c
!
(a)) ; ] > E[u(c
!
(b)) ; ].
Ms an, u es nica salvo por transformaciones lineales positivas.
La demostracin de este teorema requiere un nivel de matemticas superior al
de este curso (vase, por ejemplo, Savage 1957 Kreps 1988). Sin embargo, vale la
pena hacer ciertas observaciones.
En primer lugar, su principal caracterstica: la deduccin de una medida de
probabilidad de la estructura en la manera que el individuo se comporta. Como
decamos, la probabilidad est implcita en la preferencia y es, por tanto, subjetiva.
La medida de probabilidad es nica porque el conjunto de comparaciones se forz
a un tamao que lo permitiera. Eso se observa en la segunda conclusin: que cada
evento es innitamente divisible.
En segundo lugar, tenemos una representacin de la preferencia de la forma
de una esperanza de una funcin Bernoulli, tomada respecto de la medida de proba-
bilidad anterior. u es cuasi-cardinal, mientras que U es ordinal.
Finalmente, a partir de esa funcin de utilidad, podemos denir un conjunto
de funciones de utilidad que representen a las preferencias condicionales, una para
cada evento. Sucede que esas preferencias se obtienen de aplicar la regla de Bayes
sobre : en la nueva preferencia, el evento E
c
pasa a ser nulo.
4.3. Comentarios adicionales. Normalmente el teorema de Savage se inter-
preta como deduciendo una funcin de utilidad nica salvo por transformaciones
montonas crecientes, y en que la probabilidad satisface la regla de Bayes. En rea-
lidad, existen muchas otras representaciones, en que la funcin Bernoulli no es con-
stante. Respecto de ellas, la secuencia de creencias condicionales no obedece la regla
de Bayes. Karni (2004) identica un conjunto de axiomas que permiten descartar
estas otras representaciones. En otras palabras, la axiomatizacin de Savage (o la de
Gul, de la misma forma), no despeja la duda sobre la coherencia de las creencias del
individuo una vez que la preferencia condicional se explota para obtener una versin
dinmica de la teora.
5. COHERENCIA EN DECISIONES DINMICAS 30
5. Coherencia en decisiones dinmicas
Tanto la teora de von Neumann y Morgenstern como la de Savage son esen-
cialmente estticas. Sin embargo, es posible interpretarlas como teoras dinmicas si
el objeto de eleccin es de hecho una secuencia (temporal) de actos. La pregunta que
surge en este contexto es: si una vez que el individuo ha escogido su plan de accin
y cuando ya han pasado algunas fechas, se le diera la oportunidad de cambiarlo, lo
hara? Hablando vagamanete, si la respuesta es s diremos que sus decisiones no son
coherentes en el tiempo. En este caso, esencialmente estamos en presencia de dos
preferencias distintas sobre la misma secuencia de actos. El problema de la coheren-
cia intertemporal es muy importante desde el punto de vista normativo: si la gente
acta de forma incoherente, a cul de las encarnaciones de una persona se debiera
considerar en el anlisis de bienestar? Esta pregunta no tiene una respuesta sencilla
(an cuando algunos autores han sugerido que se debiera cambiar el foco, de individ-
uos a individuos-fecha; esto es, a considerar a todas las encarnaciones de la misma
persona como individuos distintos, y basar el anlisis de bienestar en el criterio de
Pareto). En esta seccin, sin embargo, nos concentramos en las condiciones que debe
satisfacer una preferencia para ser coherente, sin deternernos en el tema del bienestar.
5.1. Certidumbre. Para jar ideas, consideremos el siguiente problema discu-
tido por Hammond (1976): una persona decide si probar o no una droga. El riesgo
que corre es el de convertirse en adicta. Si no prueba la droga, no hay decisiones
futuras. Si la prueba, en cambio, deber decidir en una fecha futura si abandona su
consumo o no. Digamos que a representa a la decisin (o cadena de decisiones) probar
y abandonar, b a probar y no abandonar, y c a no probar. Esto lo representamos por
medio del siguiente rbol de decisin:
1
a
b
c
1
1
a
b
c
1
Como comentramos al comienzo del curso, fuera del contexto del axioma 0,
debemos separar la preferencia referida a comporamiento (que denotamos por
C
)
de la referida al bienestar del individuo (que denotamos por
B
).
Supongamos, ms an, que el ordenamiento de actos en t = 0 es a
B
0
c
B
0
b,
y en t = 1; c
B
1
b
B
1
a, representando la adiccin: preferira nunca haber probado
la droga, pero dado que la prob preere seguir consumindola. Existen distintos
modos de comportamiento en que podemos pensar:
5. COHERENCIA EN DECISIONES DINMICAS 31
1. Comportamiento miope o ingenuo: el individuo no toma en cuenta al decidir
que en futuro posiblemente modicar los planes que haga hoy. Entonces,
en t = 0 escoge a, y en t = 1 escoge b. Los datos a
(fa; b; cg) = a y
a
(fa; bg) = b son incoherentes, por lo que no es posible construir una nica
preferencia
C
que racionalice este comportamiento. Es necesario construir
dos (por ejemplo, podemos usar las preferencias
B
t
, pero en ese caso las
decisiones son intertemporalmente incoherentes.
2. Comportamiento sosticado: el indivuo prev el cambio futuro de planes,
por lo que escoge c. Pero entonces, su comportamiento estara dado por:
a
(fa; b; cg) = c, a
(fa; cg) = a y a
(t
0
t)
u(c
t
0 )
la familia completa se genera tomando transformaciones lineales de U
0
:
U
t
(c
0
; c
1
; :::; c
T
) =
1
t
T
X
t
0
=0
t
0
u(c
t
0 )
por lo que podemos decir que se trata de una misma preferencia a lo largo de la vida.
Luego, la funcin de utilidad con descuento exponencial genera decisiones intertem-
poralemente coherentes. Un resultado quizs sorprendente es que de hecho esta es
la nica funcin dentro de la familia que estamos considerando con esta propiedad:
cualquier otra funcin de descuento genera decisiones incoherentes.
Para ver esto, cambiaremos al equivalente en tiempo continuo:
U
t
(c (t
0
)) =
Z
1
0
f (t
0
t) u(c (t
0
)) dt
0
=
Z
1
0
e
(t
0
t)
u(c (t
0
)) dt
0
Miramos la tasa marginal de sustitucin entre t
0
y t
0
+j para un t jo:
TMS =
f (t
0
t) u
0
(c (t
0
))
f (t
0
+j t) u
0
(c (t
0
+j))
Queremos que la TMS no dependa de t :
dTMS
dt
= 0
5. COHERENCIA EN DECISIONES DINMICAS 33
Diferenciando, tenemos:
dTMS =
f
0
(t
0
t) u
0
(c (t
0
)) f (t
0
+j t) u
0
(c (t
0
+j)) +f
0
(t
0
+j t) u
0
(c (t
0
+j)) f (t
0
t) u
0
(c (
f (t
0
+j t) u
0
(c (t
0
+j))
dTMS
dt
= 0 )
f
0
(t
0
t)
f (t
0
t)
=
f
0
(t
0
+j t)
f (t
0
+j t)
para todo j. Luego,
f
0
(t
0
t)
f (t
0
t)
= k
) lnf (t
0
t) = k (t
0
t)
, e
k(t
0
t)
= f (t
0
t)
El requisito de k < 0 se obtiene de imponer e
k(t
0
t)
< 1 para (t
0
t) > 0 :
e
k(t
0
t)
< 1
) k (t
0
t) < ln 1 = 0
5.2. Incertidumbre. Si al problema anterior le aadimos incertidumbre, en-
tonces el consumo en cada fecha es desconocido de antemano. Podemos modelar esto
imaginando un rbol de movimientos de la naturaleza: consideramos un conjunto
de estados (con la interpretacin habitual, de que el conocimiento del estado equiv-
ale al conocimiento de todo lo relevante), y una secuencia de particiones (ltracin)
de ; fH
t
g
1
t=0
, donde H
t
es ms na que H
t1
(esto es, h
t
(!) h
t1
(!) para todo t
y todo !). En este contexto, una secuencia innita corresponde a un nico !:
Si tomamos la perspectiva de un observador externo omnisciente, que conoce !,
podramos anticipar todo lo que el individuo sabr a lo largo de su vida: en t = 0 sabe
, en t = 1 sabe h
1
(!) ; etc., esto es, va conociendo perodo a perodo la secuencia
de eventos fh
t
(!)g
1
t=0
: Observe que el evento indica adems la fecha, por lo que
h
t
(!) denota tanto el momento en que se consume o decide, como la circunstancia.
Respecto del caso de certidumbre, lo que tenemos es que cada fecha se dividi en
tantas partes como celdas tenga la particin H
t
.
El conjunto de lo factible toma ahora la forma de un conjunto de planes con-
tingentes de consumo: cunto consumir en cada evento h
t
posible.
Tomamos entonces lo aprendido en la seccin anterior, esto es, consideramos
la familia de funciones de utilidad aditivas en el tiempo con descuento exponen-
cial, agregamos el supuesto de una utilidad instantnea de la forma von Neumann-
Morgenstern, y volvemos sobre la pregunta de qu se debe pedir a esa coleccin de
funciones de utilidad para que las decisiones que produzcan sean intertemporalmente
coherentes.
La respuesta resulta ser extraordinariamente simple (y quizs sorprendente):
la familia de funciones de utilidad U
t
c
h
t
0
c
; fc
h
1
g
h
1
2H
1
; :::;
=
T
X
t
0
=0
(t
0
t)
X
h
t
0 2H
t
0
ht
(h
t
0 ) u
c
h
t
0
;
y
2.
ht
(h
t
0 ) =
(ht\h
t
0 )
(ht)
(h
t
0 jh
t
) :
En palabras, el requisito es que la funcin de utilidad de cada fecha-evento U
ht
sea obtenida de una misma funcin U
0
, en que las probabilidades han sido actualizadas
(de acuerdo a la regla de Bayes) condicionales en el evento respectivo h
t
.
Ver que la regla de Bayes (unida al descuento exponencial) genera decisiones
coherentes es relativamente sencillo: la actualizacin bayesiana de la probabilidad
produce ajustes proporcionales en las probabilidades, por lo que no cambian los pesos
relativos de dos eventos que se mantengan como posibles. Es decir, la secuencia de
funciones de utilidad generada a partir de actualizaciones bayesianas de las creencias
es una secuencia de transformaciones montonas crecientes de la funcin de utilidad
original.
Ver que si las creencias en dos fechas o eventos distintos no satisfacen la regla
de Bayes, la coherencia se pierde, es un poco ms complejo. Suponga que es
nito, y que la funcin
P
!2
!
u(c
!
) representa a la preferencia incondicional (; A).
Recuerde la denicin de preferencia condicional en el evento E de Savage: a
E
b ,
a
0
b
0
donde c
!
(a
0
) = c
!
(b
0
) 8! 2 E
c
; y .c
!
(a
0
) = c
!
(a) y c
!
(b
0
) = c
!
(b) 8! 2 E.
Proposicin 1.
P
!2E
!
(E)
u(c
!
) representa a (
E
; A) :
Demostracin. Por hiptesis, a
0
b
0
,
P
!2
!
u(c (a
0
; !)) >
P
!2
!
u(c (b
0
; !))
lo que equivale a
X
!2E
!
u(c (a
0
; !)) +
X
!2E
c
!
u(c (a
0
; !))
>
X
!2E
!
u(c (b
0
; !)) +
X
!2E
c
!
u(c (b
0
; !))
, (E)
X
!2E
!
(E)
u(c (a
0
; !)) + (E
c
)
X
!2E
c
!
(E
c
)
u(c (a
0
; !))
> (E)
X
!2E
!
(E)
u(c (b
0
; !)) + (E
c
)
X
!2E
c
!
(E
c
)
u(c (b
0
; !))
pero c
!
(a
0
) = c
!
(b
0
) 8! 2 E
c
: Luego,
, (E)
X
!2E
!
(E)
u(c (a
0
; !)) > (E)
X
!2E
!
(E)
u(c (b
0
; !))
,
X
!2E
!
(E)
u(c (a
0
; !)) >
X
!2E
!
(E)
u(c (b
0
; !))
, a
E
b
5. COHERENCIA EN DECISIONES DINMICAS 35
Observe el rol que juegan en esto (1) la aditividad de la funcin von Neumann-
Morgenstern, y (2) la proporcionalidad de las probabilidades condicionales.
CAPTULO 3
Informacin en la toma de decisiones
En este captulo nos concentramos en el efecto que los cambios en el conocimien-
to de un individuo tienen en su comportamiento. Se debe tener presente que si
suponemos que su funcin de informacin es particional, entonces todo cambio en
conocimiento es exgeno, esto es, el individuo advierte un cambio en su ambiente
lo que afecta su conocimiento. Descartamos la posibilidad de que el individuo tenga
segundos pensamientos, o modique conclusiones que previamente mantena, sin que
de por medio haya cambios externos. Esto, porque como veamos previamente, si su
funcin de informacin es particional, entonces saber algo y no saber algo son eventos
evidentes en s mismos.
Observe que las variaciones en el ambiente nos fuerzan a pensar en una dimen-
sin temporal, de modo que necesariamente debemos considerar decisiones dinmicas,
donde la coherencia y consistencia en las decisiones es una propiedad fundamental.
En este captulo, como en la mayor parte de la literatura de informacin, nos con-
centramos en el caso de las preferencias representables por medio de una funcin de
utilidad esperada, y aditiva intertemporalmente con descuento exponencial, de modo
que slo estudiaremos decisiones coherentes y consistentes.
Estos cambios exgenos en el conocimiento del individuo, o informacin, mod-
icarn sus creencias. Lo que se quiere retratar es el efecto que cambios exgenos en
las creencias de uno o varios individuos pueda tener en su comportamiento. Interesa,
por ejemplo, entender el efecto que una noticia tiene en la disposicin a pagar por
un activo de una persona; la informacin privilegiada en los precios de los activos; el
efecto de diversas metodologas de venta de un activo sobre el precio que permitan
conseguir; el efecto de diversos modos de organizacin de la actividad econmica en
las asignaciones que produzcan, etc.
Pese a las crticas al modelo de la Utilidad Esperada discutidas previamente,
en este captulo se usa exclusivamente este enfoque. La razn es simple: sabemos
cmo modelar informacin por medio de la idea de la probabilidad condicional; no
sabemos condicionar, por ejemplo, con capacidades u otras representaciones de las
creencias. Ms adelante, cuando discutamos sobre la informacin en juegos, ten-
dremos la oportunidad de revisar algunos resultados que prescinden de la nocin de
probabilidad.
1. Informacin como renamiento particional
El conocimiento de un individuo est implcito en su particin de informacin
(de ). Imaginamos una fecha inicial t = 0 en la cual P
0
(!) = . En un momento
36
1. INFORMACIN COMO REFINAMIENTO PARTICIONAL 37
posterior, t = 1, ocurre un evento E: Lo que el individuo sea capaz de percibir
est implcito en una segunda particin, P
1
(!). En ese momento, al ocurrir E,
el conjunto de estados que considera posibles est dado por P(E) [
!
0
2E
P(!
0
).
Observe que P(E) extiende la denicin de la funcin de informacin a eventos, esto
es, a la lgebra que dene la percepcin del individuo en la fecha correspondiente.
Observe que no en todos los escenarios se sabe de la ocurrencia de E. En el ejemplo
del prximo dibujo, slo en el evento del medio el individuo sabe de la ocurrencia
de E, esto es, en todos los escenarios que considera posibles son compatibles con la
ocurrencia de E.
K(E)
E
O
P(E)
K(E)
E
O
P(E)
Ahora bien, si cuando ocurre E el individuo se entera exactamente de eso,
entonces K (E) = E = P (E). En ese caso, las celdas de la particin H
t
inducida por
la funcin de informacin P
t
representan a todos los eventos que el individuo podra
percibir en t.
Si el individuo no olvida, entonces su conocimiento siempre redunda en un
renamiento de su particin de informacin a travs del tiempo.
Definicin 3. Sean H
1
y H
2
dos particiones de un conjunto X. Decimos que
H
1
es ms na que H
2
(H
1
% H
2
) si para todo ! 2 tenemos que h
1
(!) h
2
(!),
donde h
que contiene a !:
Observe que mientras ms na es la particin, ms elementos tiene. Por eso,
puede usarse como regla nemotcnica que, bajo ese orden, mayor signica ms
elementos. Observe tambin que la relacin de neza (o en su defecto, la de
grosor) ordena parcialmente al conjunto de las particiones de , H( ) : Ms an,
(H( ) ; %) tiene la estructura de un reticulado:
Definicin 4. Un conjunto parcialmente ordenado (X; <) es un reticulado
(lattice) si y slo si
x ^ y = inf fx; yg 2 X (\meet)
x _ y = supfx; yg 2 X (\join)
El reticulado es completo si 8Y X;
sup fY g
inf fY g
2 Y .
Proposicin 2. El conjunto de las particiones de , H( ) ; junto al orden
parcial ms no %, es un reticulado.
2. INFORMACIN COMO VARIABLE 38
Demostracin. % induce un orden parcial en P( ) :
Reeja: H % H ,h(!) h(!) 8! 2
Antisimtrica: H % H
0
y H
0
% H , h(!) h
0
(!) y h
0
(!) h(!) ) h(!) =
h
0
(!) 8! 2 , esto es, H = H
0
:
Transitiva: H % H
0
y H
0
% H
00
, h(!) h
0
(!) y h
0
(!) h
00
(!) ) h(!)
h
00
(!) 8! 2 , esto es, H % H
00
:
Por otro lado, H
0
^H
00
= inf fH
0
; H
00
g = fh(!) : h(!) h
0
(!) y h(!) h
00
(!) 8! 2 g 2
H( )
H
0
_ H
00
= supfH
0
; H
00
g = fh(!) : h
0
(!) h(!) y h
00
(!) h(!) 8! 2 g 2 H( ) :
y
F
1
dF
1
dy
y
F
2
dF
2
dy
8y
2. INFORMACIN COMO VARIABLE 40
En efecto,
y
F
1
dF
1
dy
y
F
2
dF
2
dy
)
F
0
1
F
1
F
0
2
F
2
Z
t
s
dy
)
Z
t
s
F
0
1
F
1
dy
Z
t
s
F
0
2
F
2
dy
, lnF
1
(t) lnF
1
(s) ln F
2
(t) ln F
2
(s)
, ln
F
1
(t)
F
1
(s)
ln
F
2
(t)
F
2
(s)
)
F
1
(t)
F
1
(s)
F
2
(t)
F
2
(s)
,
F
1
(t)
F
2
(t)
F
1
(s)
F
2
(s)
para todo s < t, en particular para t = b :
) 1
F
1
(s)
F
2
(s)
, F
2
(s) F
1
(s) 8s
Por ejemplo, la familia F
n
(y) =
y
n
si y 2 [0; 1]
0 si no
, para n = 1; 2; ::: satis-
face esta condicin. En efecto, f
n
(y) = ny
n1
es una densidad:
Z
1
0
ay
a1
dy = lm
y!0+
(y
a
+ 1) = 1;
y la elasticidad
y
F
n
dF
n
dy
=
y
y
n
ny
n1
= n
es creciente en n. El grco de la familia F
n
es:
1 0.75 0.5 0.25 0
1
0.75
0.5
0.25
0
x
y
x
y
1 0.75 0.5 0.25 0
4
3
2
1
0
x
y
x
y
2. INFORMACIN COMO VARIABLE 41
2. La razn de verosimilitud es montona, esto es,
f
1
(y)
f
2
(y)
es creciente en y
En efecto, para todo s < t tendramos:
F
0
1
(s)
F
0
2
(s)
F
0
1
(t)
F
0
2
(t)
) F
0
1
(s)
F
0
1
(t)
F
0
2
(t)
F
0
2
(s)
Z
t
a
ds
)
Z
t
a
F
0
1
(s) ds
F
0
1
(t)
F
0
2
(t)
Z
t
a
F
0
2
(s) ds
, F
1
(t)
F
0
1
(t)
F
0
2
(t)
F
2
(t)
,
F
0
2
(t)
F
2
(t)
F
0
1
(t)
F
1
(t)
;
que corresponde a la condicin (1).
Por ejemplo, un modelo muy comn en microestructura es el siguiente:
y = x +"
x N
;
2
x
" N
0;
2
"
y donde x y " son independientes deje pasar por el momento el hecho de que el soporte
no es acotado. Conocer x no afecta los pagos, pero tiene valor informacional porque
la posteriori sobre y es diferente a la priori. En efecto,
y N
;
2
x
+
2
"
yjx N
2
x
+x
2
"
2
x
+
2
"
;
2
x
2
"
2
x
+
2
"
2
"
2
x
+
2
"
2
exp
8
>
<
>
:
y
2
"
+x1
2
x
2
x
+
2
"
2
2
2
x
2
"
2
x
+
2
"
9
>
=
>
;
f
2
=
1
q
2
x
2
"
2
x
+
2
"
2
exp
8
>
<
>
:
y
2
"
+x
2
2
x
2
x
+
2
"
2
2
2
x
2
"
2
x
+
2
"
9
>
=
>
;
f
1
f
2
= exp
(x
1
x
2
)
2y (
2
x
+
2
"
) 2
2
"
2
x
(x
1
+x
2
)
2
2
"
(
2
"
+
2
x
)
2
"
: Por ejemplo:
10 5 0 -5 -10
0.15
0.1
0.05
0
x
y
x
y
A pesar de que la mayora de los modelos satisfacen esta condicin, en que la
incertidumbre (medida como la varianza de la distribucin marginal sobre y) dis-
minuye luego de recibir un mensaje, no es por cierto general, ni es una implicancia
del supuesto de que la familia de creencias a posteriori est ordenada por dominancia
de primer orden. Considere el siguiente ejemplo:
en es
x
1
x
2
y
1
= 1 0.05 0
y
2
= 0 0 0.9
y
3
= 100 0.05 0
Pr (yjx
1
) =
0
@
0;5
0
0;5
1
A
2
= 2550;25
Pr (yjx
2
) =
0
@
0
100
0
1
A
2
= 0
Pr (x
1
) = 0;1, Pr (x
2
) = 0;9
) Pr (y) =
0
@
0;05
0;9
0;05
1
A
2
= 500;05
De manera y
2
D
1
yD
1
y
1
; pero
2
2
>
2
>
2
1
: Si bien estas distribuciones es-
tn ordenadas por dominancia de primer orden, la informacin puede aumentar la
incertidumbre respecto de y (x
2
), si se mide por la varianza, o disminuirla (x
1
) :
2.2. Dominancia estocstica de segundo orden y MPS.
Definicin 6. Se dice que una variable aleatoria y
1
con funcin de densidad
f
1
(y) domina estocsticamente en segundo orden a otra variable aleatoria y
2
2. INFORMACIN COMO VARIABLE 43
con funcin de densidad f
2
(y) (denotado por y
1
D
2
y
2
) ssi
y
Z
a
F
1
(t)dt
y
Z
a
F
2
(t)dt 8y 2 R
Un caso particular y lmite por lo dems de la dominancia de segundo orden
es el de la dilacin que preserva la media (mean-preserving spread, o MPS). Esta
nocin fue desarrollada por Rothschild y Stiglitz (1970), en un afn por denir una
nocin general de ms riesgo, que prescindiera de nociones ad hoc como la varianza.
Definicin 7. Se dice que una variable aleatoria y
2
con funcin de densidad
f
2
(y) es una dilacin que preserva la media de otra variable aleatoria y
1
con
funcin de densidad f
1
(y) (denotado por y
2
MPSy
1
) ssi
y
1
D
2
y
2
y E[y
1
] = E [y
2
]
Intuitivamente, la variable y
2
es generada a partir de y
1
trasladando masa
del centro a los extremos, de manera balanceada en ambos lados de la media. En
realidad, un MPS es un caso lmite de dominancia de segundo orden, en el siguiente
sentido:
Proposicin 3. y
1
D
2
y
2
)E[y
1
] E [y
2
] :
Demostracin.
E [y
1
] E[y
2
] =
b
Z
a
tf
1
(t)dt
b
Z
a
tf
2
(t)dt
=
b
Z
a
t (f
1
(t) f
2
(t)) dt
Integrando por partes, en que u = t y dv = (f
1
(t) f
2
(t)) dt; tenemos du = dt y
v = (F
1
(t) F
2
(t)) :
= t (F
1
(t) F
2
(t))j
b
a
b
Z
a
(F
1
(t) F
2
(t)) dt
=
b
Z
a
F
2
(t)dt
b
Z
a
F
1
(t)dt
pero
y
1
D
2
y
2
,
y
Z
a
F
1
(t)dt
y
Z
a
F
2
(t)dt 8y;
en particular para y = b: Luego, E[y
1
] E[y
2
] :
2. INFORMACIN COMO VARIABLE 44
Por ejemplo, si dos distribuciones normales tienen la misma media pero distinta
varianza, entonces la de mayor varianza es un MPS de la otra:
10 5 0 -5 -10
0.3
0.2
0.1
0
x
y
x
y
Definicin 8. Un par de distribuciones F
1
y F
2
tiene la propiedad del cruce
nico si existe y
tal que
F
1
(y) F
2
(y) 0 8y y
F
1
(y) F
2
(y) 0 8y y
a la inversa.
Proposicin 4. Si el par (F
1
; F
2
) tiene la propiedad del cruce nico y E [y
1
] =
E[y
2
], entonces una es un MPS de la otra.
Demostracin. Si E[y
1
] = E [y
2
], entonces
R
[a;b]
[F
2
(t) F
1
(t)] dt = 0 (ver dem.
anterior). Si adems tienen la propiedad del cruce nico, entonces existe y
tal que,
por ejemplo,
F
1
(y) F
2
(y) 0 8y y
F
1
(y) F
2
(y) 0 8y y
:
[F
1
(y) F
2
(y)] 0 )
y
Z
a
[F
2
(t) F
1
(t)] dt 0
Ahora bien, para y y
, tenemos
y
Z
a
[F
2
(t) F
1
(t)] dt =
b
Z
y
[F
2
(t) F
1
(t)] dt 0
3. EL VALOR DE LA INFORMACIN 45
donde la desigualdad viene de que (F
2
(t) F
1
(t)) 0 por el cruce nico. Entonces,
para todo y;
y
Z
a
[F
2
(t) F
1
(t)] dt 0
esto es, y
1
D
2
y
2
:
3. El valor de la informacin
Decamos que la seal o el mensaje era informativa si generaba un cambio
en las creencias respecto de la variable y (a posteriori distinta de la a priori). La
informacin es valiosa, en cambio, si permite mejorar las decisiones. Quisiramos
comparar los problemas
Escoger a 2 A, dado , con
Escoger a 2 A, dado P (!)
En efecto, el nivel de utilidad alcanzable en cada contexto est dado por:
Sin informacin : U
= max
a2A
Z
Y
f (y) u(a; y) dy
Con informacin : U
(x) = max
a2A
Z
Y
f (yjx) u(a; y) dy
Previo al conocimiento del valor puntual de x, sin embargo, se considera posible
recibir cualquier mensaje en X :
U
=
Z
X
f (x) U
(x) dx
=
Z
X
f (x)
Z
Y
f (yjx) u(a
(x) ; y) dydx
De manera que la informacin es ms valiosa mientras mayor sea la brecha
U
=
Z
X
f (x)
Z
Y
f (yjx) [u(a
(x) ; y) u(a
; y)]
dx;
lo que a su vez depende de la brecha entre a
(x) y a
:
Volvamos, para simplicar la notacin, al caso en que es nito, y general-
icemos la idea anterior, para permitir no slo condicionamiento en variables sino en
eventos. Sean:
la funcin de probabilidades sobre = X Y ,
P la funcin de informacin del individuo, P (!) la informacin que puede
o no excluir algunos y : Como ya es habitual, abusamos de la notacin y
denotamos por P a la cardinalidad de P ( ), su imagen; tambin escribimos
P (x) = f! 2 : ! = (x; y) ; 8y 2 Y g : Ms an, si la funcin de informacin
es particional, escribimos H para denotar la particin sobre inducida por
P, y h (!) para cada una de sus celdas, que pasamos a llamar conjuntos de
3. EL VALOR DE LA INFORMACIN 46
informacin. En adelante supondremos que la estructura de informacin
es particional, salvo que explcitamente se diga lo contrario.
p(!) el vector de Y 1 de probabilidades condicionales (yjh (!)) sobre Y ,
y p la matriz de Y H que recolecta todos tales vectores.
q el vector de H1de probabilidades sobre eventos informacionales (h(!)),
y
la probabilidad a priori sobre Y , (y) :
Entonces, por regla de Bayes,
|{z}
Y 1
= p
|{z}
Y H
q
|{z}
H1
porque
(y) = (yj ) =
X
h(!)2H
(yjh(!))
| {z }
p!(y)
(h(!))
esto es, cada probabilidad a priori de un evento y es una combinacin convexa de
probabilidades a posteriori (de hecho, su esperanza).
Ejemplo 7. Consideremos la siguiente en :
x
1
x
2
y
1
0.45 0.05
y
2
0.05 0.45
que genera:
p
|{z}
Y P
=
9
10
1
10
1
10
9
10
; q
|{z}
P1
=
1
2
1
2
= pq =
9
10
1
10
1
10
9
10
1
2
1
2
1
2
1
2
p
h(!
1
)
:::p
h(!
)
q
(y) =
X
h2H
(h) (yjh)
U
X
h(!)2H
(h(!)) max
a2A
X
y2Y
(yjh(!)) u(a; y)
Quizs una manera ms simple de verlo sea considerar los problemas de escoger
un plan contingente de accin a (h(!)):
max
fa(h(!))g2A
H
X
h(!)2H
(h (!))
X
y2Y
(yjh (!)) u(a (h(!)) ; y)
en que, sin informacin, tenemos la restriccin
a(h (!)) = a (h (!
0
)) 8!; !
0
2
Bajo esta interpretacin, la informacin libera restricciones, y por lo tanto no
puede perjudicar la consecucin del objetivo. Esto no es cierto con informacin no
particional, ni tampoco en el contexto de un juego. Para ver lo segundo, esperaremos
a discutir juegos. Para ver lo primero, considere el siguiente ejemplo
1
: a una persona
se le ofrece una apuesta, en la que ganara 3 en el estado !
2
, y -2 en !
1
en !
3
, de
manera que = f!
1
; !
2
; !
3
g : Los tres estados se consideran igualmente probables.
Antes de llevar a cabo la apuesta, se le da informacin adicional: en el estado !
1
se
le avisa que !
3
es imposible, y en !
3
que !
1
es imposible. Si el individuo tomara esa
informacin ingenuamente (pese a que es verdadera), su funcin de informacin sera:
! P (!) E[ujP (!)] Decisin
!
1
f!
1
; !
2
g 0.5 acepta
!
2
f!
1
; !
2
; !
3
g -0.5 rechaza
!
3
f!
2
; !
3
g 0.5 acepta
Antes de recibir el mensaje, entonces, su utilidad esperada es de
1
3
(2) +
1
3
(0) +
1
3
(2) =
4
3
, menor que la utilidad que obtendra si no participara (pero, es sa la
evaluacin ex ante del individuo?). La informacin lo da, pero esencialmente por
la confusin que le cre, obteniendo conclusiones incorrectas.
4. La comparacin de dos servicios informativos
Este ltimo razonamiento de hecho abre la puerta para la comparacin de dos
servicios informativos. La pregunta que tenemos en mente es qu servicio informativo
(o experimento) debiera escoger un individuo que piensa ocupar la informacin as
conseguida para tomar una decisin. Una respuesta que proviene directamente del
razonamiento anterior es la ms na de las particiones disponibles, imaginando que
todas las particiones disponibles sean comparables.
1
Rubinstein, p. 55
4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 49
En general, entonces, que P sea ms na que P
0
es una condicin suciente
para que sea preferida, sin importar los detalles del problema de decisin, como A,
Y y u(a; y) :
Tambin podramos comparar la forma de las creencias a posteriori que generan
ambos servicios. Imaginemos que tenemos dos servicios, (q
1
; p
1
) y (q
2
; p
2
) ; cuyas a
priori coinciden:
= p
1
q
1
= p
2
q
2
sta es una restriccin natural, puesto que representa el estatus original de las
creencias del individuo. Cundo podemos decir que v (P
1
; q
1
) v (P
2
; q
2
) para todo
u(a; y)?
Teorema 14 (Blackwell, 1951 Comparison of Experiments). Sean (q
1
; p
1
) y
(q
2
; p
2
) dos servicios informativos tales que = p
1
|{z}
Y P
1
q
1
|{z}
P
1
1
= p
2
|{z}
Y P
2
q
2
|{z}
P
2
1
. La estructura
1 es preferida por todo individuo si y slo si existe una matriz K de dimensin P
1
P
2
tal que para todo i; j,
k
ij
0;
X
i
k
ij
= 1; y
p
2
|{z}
Y P2
= p
1
|{z}
Y P1
K
|{z}
P1P2
En palabras, las condiciones sucientes de Blackwell se reducen a decir que un
servicio informativo que genere una familia de creencias a posteriori que estn en el
casco convexo de la familia de posterioris de otro servicio, es inferior para cualquier
problema de decisin.
Adems, en el caso en que la matriz K satisface la condicin
q
1
|{z}
P1
= K
|{z}
PP
q
2
|{z}
P1
existe una interpretacin natural del resultado: el servicio informativo 1 se obtiene de
ensuciar la informacin contenida en el 1 por medio de un ruido.
Ejemplo 9. Considere los servicios
(p
1
; q
1
) =
0
@
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
;
0
@
;3
;4
;3
1
A
1
A
(p
2
; q
2
) =
0
@
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
;
0
@
: 347 37
: 473 68
: 178 95
1
A
1
A
4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 50
Observe que satisfacen = p
1
q
1
= p
2
q
2
:
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
0
@
;3
;4
;3
1
A
=
0
@
: 46
: 26
: 28
1
A
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
0
@
: 347 37
: 473 68
: 178 95
1
A
=
0
@
: 46
: 26
: 28
1
A
El siguiente grco ilustra el casco convexo generado por cada servicio informativo
(el 1 es el exterior):
1 0.75 0.5 0.25 0
1
0.75
0.5
0.25
0
x
y
x
y
Vericamos, entonces que existe tal matriz K :
K =
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
1
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
=
0
@
: 75 8: 333 3 10
2
0
: 166 67 : 722 22 2: 7 10
10
8: 333 3 10
2
: 194 44 1;0
1
A
y
Kq
2
=
0
@
: 75 8: 333 3 10
2
0
: 166 67 : 722 22 2: 7 10
10
8: 333 3 10
2
: 194 44 1;0
1
A
0
@
: 347 37
: 473 68
: 178 95
1
A
=
0
@
: 3
: 4
: 3
1
A
= q
1
Ms an, las columnas de K suman 1:
0
@
1
1
1
1
A
T
0
@
: 75 8: 333 3 10
2
0
: 166 67 : 722 22 2: 7 10
10
8: 333 3 10
2
: 194 44 1;0
1
A
=
2
5
8
3
6
9
1
A
| {z }
K
es que:
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
| {z }
p
2
=
0
@
: 2
1
+: 7
2
+: 4
3
: 2
4
+: 7
5
+: 4
6
: 2
7
+: 7
8
+: 4
9
: 1
1
+: 2
2
+: 5
3
: 1
4
+: 2
5
+: 5
6
: 1
7
+: 2
8
+: 5
9
: 7
1
+: 1
2
+: 1
3
: 7
4
+: 1
5
+: 1
6
: 7
7
+: 1
8
+: 1
9
1
A
esto es, que cada uno de los vectores que representan las creencias a posteriori del
servicio informativo 1, sean combinaciones convexas (lo son si cada columna de la
matriz K suma 1) de los vectores que representan las creencias a posteriori del servicio
informativo 2.
Ahora bien, respecto del requisito que q
1
= Kq
2
; ste slo es necesario bajo la
interpretacin de que (p
2
; q
2
) se obtenga de confundir o ensuciar la informacin
del servicio (p
1
; q
1
). En efecto, el servicio 1 es
0
@
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
;
0
@
;3
;4
;3
1
A
1
A
, esto
es, entrega con probabilidad 0.3 un mensaje cuya conclusin es
0
@
: 2
: 1
;7
1
A
, con prob-
abilidad 0.4 otro con conclusin
0
@
: 7
: 2
;1
1
A
, y con probabilidad 0.3 otro con conclusin
0
@
: 4
: 5
;1
1
A
: Considere otro servicio que confunda las conclusiones del siguiente modo:
con probabilidades
1
el mensaje emitido es el primero, pero el individuo recibe los
otros dos con probabilidades
2
y
3
; con probabilidad
5
el mensaje emitido es el
segundo, pero pueden recibirse el primero y el tercero con probabilidades
4
y
6
, e
igualmente con el tercer mensaje. Suponga que el ruido es sucientemente bajo como
para que la decisin siga siendo la misma que sin ruido. Este segundo servicio infor-
mativo entrega entonces una utilidad esperada menor, porque aumenta la posibilidad
de escoger errneamente. Ms an, la probabilidad de que cada mensaje sea emitido
4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 52
es la misma, y corresponde a:
Pr (m recibido) =
X
m
0
Pr (m recibidojm
0
emitido) Pr (m
0
emitido)
=
X
m
0
m;m
0 q
m
0
Observe que esta interpretacin es la que requiere que ambas particiones tengan el
mismo nmero de elementos, puesto que se trata de las mismas seales.
En el ejemplo,
Kq
2
=
0
@
1
4
7
2
5
8
3
6
9
1
A
0
@
: 347 37
: 473 68
: 178 95
1
A
=
0
@
: 347 37
1
+: 473 68
4
+: 178 95
7
: 347 37
2
+: 473 68
5
+: 178 95
8
: 347 37
3
+: 473 68
6
+: 178 95
9
1
A
=
0
@
: 3
: 4
: 3
1
A
= q
1
Observe tambin que (p
2
; q
2
) es menos informativo que (p
1
; q
1
), toda vez
que las probabilidades condicionales en cada mensaje posible estn en el ms cerca que
las probabilidades a priori que las del servicio 1. Un servicio ms informativo (en este
sentido) es ms valioso, puesto que la informacin que entrega es ms concluyente.
Lo opuesto no es necesariamente cierto.