Você está na página 1de 56

Microeconoma Avanzada

Felipe Zurita
E-mail address: fzurita@faceapuc.cl
URL: http://www.economia.puc.cl/profesores/fzurita
Resumen. Apuntes para los cursos de Teora Microeconmica II y III.
ndice general
Captulo 1. Lenguaje Matemtico 1
1. Nociones bsicas 1
2. Matrices 5
3. Ecuaciones en diferencia 6
Parte 1. Decisiones individuales 10
Captulo 2. Teora General de la Eleccin 11
1. Preferencias y utilidad 11
2. Conocimiento, incertidumbre y decisin 14
3. Medida, probabilidad y creencias 20
4. Utilidad esperada 22
5. Coherencia en decisiones dinmicas 30
Captulo 3. Informacin en la toma de decisiones 36
1. Informacin como renamiento particional 36
2. Informacin como variable 38
3. El valor de la informacin 45
4. La comparacin de dos servicios informativos 48
Parte 2. Teora de Juegos 53
Captulo 4. Nocin de juego 54
1. El modelo competitivo no es un juego 54
2. Juegos en forma estratgica 56
Captulo 5. Equilibrio de Nash 59
1. Denicin 59
2. Existencia, unicidad 61
3. Estrategias mixtas 63
Captulo 6. Equilibrio de Nash como estado estacionario 66
1. Dinmica de mejor respuesta 66
2. Evolucin 71
3. Aprendizaje 77
Captulo 7. Equilibrio de Nash va introspeccin 87
1. Racionalizabilidad 87
3
NDICE GENERAL 4
2. Equilibrio correlacionado 88
3. Juegos bayesianos 94
4. Conocimiento recproco 100
5. Condiciones epistmicas para el equilibrio de Nash 104
Captulo 8. Juegos en forma extensiva 110
Captulo 9. Credibilidad 115
1. Perfeccin 115
2. Juegos en forma extensiva generalizados 117
3. Equilibrio secuencial 120
4. Equilibrio bayesiano perfecto 124
5. Equilibrio autoconrmado (pospuesto) 126
Captulo 10. Informacin en un contexto estratgico 127
1. Sealizacin 127
2. El problema de la transmisin de informacin 139
Captulo 11. Juegos repetidos 147
1. Repeticin innita 147
2. Repeticin nita 162
3. Jugadores de corto y largo plazos 163
4. Reputacin 166
Captulo 12. Diseo de mecanismos 177
1. El problema general 178
2. El principio de revelacin 179
3. Aplicacin: discriminacin de precios 180
4. Aplicacin: subastas 189
5. Aplicacin: problema de delegacin 194
6. Aplicacin: votaciones y teorema de Gibbard 194
7. Aplicacin: bienes pblicos y el mecanismo de Groves 196
Apndice A. Catlogo de juegos 203
CAPTULO 1
Lenguaje Matemtico
El anlisis econmico se ha beneciado del uso de las matemticas en dos
aspectos:
1. Cuantitativo. Muchas de las variables de inters en economa tienen una
contrapartida numrica, en que las cantidades son centrales. El anlisis de
ndices y el anlisis estadstico pertenecen a esta categora.
2. Lingstico. El lenguaje matemtico posee (y fuerza a) un grado de precisin
conceptual particularmente valioso, y por otra parte (o acaso por lo mismo)
en l resulta a menudo mucho ms simple que en otros lenguajes establecer
la verdad o falsedad de una proposicin.
Es el aspecto lingstico el que nos interesa prioritariamente en este curso. En
ese sentido, este captulo pretende ser un minsculo diccionario de trminos que nos
sern de gran utilidad. Para el aprendizaje de estos conceptos se recomiendan, por
ejemplo, los textos de ngel de la Fuente y de Efe Ok.
1. Nociones bsicas
Una proposicin es una aseveracin que puede ser cierta o falsa. Usamos
las letras p; q; r; ::: para denotarlas; denotamos al grupo de ellas por : Cuando
una aseveracin se hace respecto de un sujeto o elemento, podemos agrupar a los
elementos entre aquellos que la satisfacen (esto es, para los cuales es verdadera) y
aquellos que no (respecto de los cuales es falsa). Si le llamamos al grupo de
elementos, entonces la proposicin p divide a en dos partes, digamos A y A
c
: A
es el conjunto generado por p, y A
c
es el conjunto generado por :p: Se dice que el
elemento a pertenece a A (a 2 A) si respecto de a, p es verdadera. Los smbolos 8,
9 y : representan las frases para todo, existe y tal que respectivamente.
A partir de proposiciones bsicas o simples es posible construir otras complejas
o compuestas, por medio de los hilativos y (^) y o (_). La proposicin (p ^ q)
se entiende verdadera si ambas proposiciones simples son verdaderas; la proposicin
(p _ q) se entiende verdadera si cualquiera de las proposiciones simples lo es. Se de-
nen la implicacin como la proposicin condicional (:p _ q), denotada por (p )q),
y la equivalencia como la proposicin compuesta (p )q) ^ (q )p), denotada por
(p ,q) :
Similarmente, se dene la inclusin () como: A B ,(a 2 A )a 2 B)
Los siguientes axiomas dan origen a al teora de conjuntos en su forma habit-
ual
1
:
1
Esto es, la modelacin de Kolmogorov (1950).
1
1. NOCIONES BSICAS 2
Axioma 1. A = B ,((a 2 A )a 2 B) ^ (a 2 B )a 2 A))
Axioma 2. (8B) (8p) (9A B : A es generado por p)
Axioma 3. 8a; b con a 6= b; existe un conjunto que contiene a a y a b:
Axioma 4. (8A conjunto de conjuntos) (9 un conjunto que contiene a los miembros de A)
El primero establece que dos conjuntos son el mismo si contienen los mis-
mos elementos (an cuando hayan sido generados por proposiciones diferentes, como
p =el nmero es natural y par y q =el nmero es natural y mltiplo de 2. El
segundo dice que para todo conjunto existe una proposicin que es verdadera para no
necesariamente todos los elementos del conjunto (generando la nocin de subcon-
junto), y que todo subconjunto tiene una proposicin que lo genera. Observe que
este axioma fuerza la existencia del vaco (denotado por ;) puesto que debe existir un
subconjunto que satisfaga la proposicin a no es elemento de A en todo conjunto;
ms an, por el axioma 1, el vaco es nico. Le llamamos tautologa a la proposi-
cin que es cierta cuando se aplica a todos los elementos (esto es, a la proposicin que
genera a ), y contradiccin a su negacin (y que por tanto genera el vaco). El
cuarto axioma es til para asegurar la existencia de uniones arbitrarias de conjuntos.
As, tenemos:
A \ B = fx 2 : (x 2 A) ^ (x 2 B)g
A [ B = fx 2 : (x 2 A) _ (x 2 B)g
A menudo queremos hacer comparaciones entre los elementos de un conjunto,
por ejemplo, a es ms grande que b", a es ms veloz que b"; o a es mejor que b.
El valor de verdad de estas proposiciones puede estar denido implcitamente en las
proposiciones de , pero tambin pueden construirse (o declararse) explcitamente
por medio de relaciones.
Una relacin o correspondencia es un subconjunto R de X Y . Notacin:
(x; y) 2 R ,xRy. Una relacin es binaria si X = Y .
Una relacin binaria R X Y es:
reeja si 8x 2 X; xRx:
antirreeja si 8x 2 X; x:Rx:
simtrica si 8x; y 2 X; xRy )yRx:
asimtrica si 8x; y 2 X; xRy )y:Rx:
antisimtrica si 8x; y 2 X; xRy ^ yRx )x = y:
transitiva si 8x; y; z 2 X; xRy ^ yRz )xRz:
completa si 8x; y 2 X; x 6= y; xRy _ yRx:
El siguiente cuadro muestra los nombres que reciben relaciones binarias con
combinaciones de estas propiedades:
1. NOCIONES BSICAS 3
Orden
Pre- Pre-Comp. Dbil Parcial Total (lineal) Equivalencia
reeja * * * * *
antirreeja y
simtrica *
asimtrica y
antisimtrica * *
transitiva * * * * * *
completa * *
Ejemplos: %
Las relaciones de orden son las que permiten hacer comparaciones del tipo
ms y menos [tal cosa] al interior de un conjunto.
Una funcin f es una relacin tal que para cada x 2 X, 9!y 2 X : xRy. En
ese caso, escribimos y = f(x), y llamamos al conjunto f(x; y) 2 X Y : y = f (x)g
el grco de f:
Llamamos imagen de f al conjunto f (X) fy 2 Y : y = f (x)g, e imagen
inversa a f
1
(Y ) = fx 2 X : y = f (x)g.
Una funcin es:
inyectiva (o uno-a-uno) si f (x) = f (y) )x = y
epiyectiva si f (X) = Y
biyectiva si es inyectiva y epiyectiva (toda funcin biyectiva tiene inversa).
Existen clases importantes de funciones, que ameritan nombres especiales. Si
X es un espacio vectorial normado (ver denicin ms abajo) e Y es R, f se llama
funcional (por ejemplo, la integral). Si X = Y , entonces se llama operador o
transformacin (por ejemplo, la derivada). Si Y es un conjunto de conjuntos (o
clase de conjuntos), entonces f es una correspondencia. Si Y = R, f se llama
funcin real; si Y = C, compleja. Una secuencia es una funcin f : N[f0g !Y ,
que asocia a cada n 2 N[f0g un y
n
2 Y: Usualmente se escribe fy
n
g Y:
Una funcin : X X ! R se llama distancia o mtrica, si 8x; y; z 2 X,
satisface:
(x; x) = 0
(x; y) = (y; x)
(x; y) 0
(x; y) + (y; z) (x; z)
Un espacio mtrico (X; ) es un conjunto X dotado de una mtrica . El
conjunto B(x; ") fy 2 X : (x; y) < "g se llama bola de radio " > 0 centrada en
x.
Sea (X; ) un espacio mtrico. Entonces, fx
n
g converge a x 2 X (denotado
x
n
! x) ssi 8" > 0, 9N < 1 tal que 8n N; (x
n
; x) < " (esta ltima frase
tambin se escribe lm
n!1
x
n
= x).
1. NOCIONES BSICAS 4
Una secuencia de Cauchy es una secuencia tal que para todo " > 0, existe
un entero N tal que (x
n
; x
m
) < " para todo n; m N Toda secuencia convergente
es de Cauchy, pero no al revs. Un espacio mtrico completo es un espacio mtrico
en el que toda secuencia de Cauchy converge. R
n
es un ejemplo prominente.
Un punto x 2 X es un punto lmite de S X si existe una secuencia
fx
n
g S que converge a x. Un punto x 2 X es un punto interior de S X si
existe una bola B(x; ") S:
Un conjunto S X es:
cerrado si contiene todos sus puntos lmite.
abierto si contiene todos sus puntos interiores. Alternativamente, si es el
complemento de un cerrado observe que no es lo contrario de cerrado; un
conjunto puede ser cerrado y abierto a la vez.
convexo si x; y 2 S )x + (1 ) y 2 S; para todo 2 [0; 1] :
acotado si existe b 2 R y x 2 X tal que (x; y) < b para todo y 2 S:
Una funcin f : (X; ) ! (Y; ) es continua en x
0
si 8" > 0, 9 > 0 : 8x 2
X; (x; x
0
) < ) (f (x) ; f (x
0
)) < ". En ese caso, escribimos lm
x!x0
f (x) =
f (x
0
) :
Una funcin es continua si es continua en todo x. Las siguientes condiciones
son equivalentes:
f es continua.
8G Y abierto (en Y ) se tiene que f
1
(G) es abierto (en X).
8G Y cerrado (en Y ) se tiene que f
1
(G) es cerrado (en X).
Vale decir, las funciones continuas tienen imgenes inversas que conservan la
apertura.
Un homeomorsmo es una funcin biyectiva y continua con inversa contin-
ua. Su nombre deriva del hecho de que preserva la misma forma, o propiedades
topolgicas.
Un espacio vectorial sobre R es un conjunto V R
n
con dos operaciones:
suma (+ : V V !R) y multiplicacin escalar ( : R V ! V ), tal que para todo
v; v
0
; v
00
2 V; y para todo ; 2 R, satisface los siguientes axiomas:
v1: (v +v
0
) +v
00
= v + (v
0
+v
00
) (asociatividad)
v
0
+v = v +v
0
(conmutatividad)
v2: 90 2 V : v + 0 = v (existencia de un cero vector)
v3: 8v 2 V , el elemento (1)v 2 V tiene la propiedad que v + (1)v = 0:
v4: ( +) v = v +v, () v = () v
(v +v
0
) = v +v
0
; 1v = v:
Un espacio vectorial normado (V; kk) es un espacio vectorial dotado de
una funcin kk : V !R, tal que para todo v; v
0
2 V y para todo 2 R,
n1: kvk > 0 8v 6= 0; k0k = 0
n2: kvk = jj kvk
n3: kv +v
0
k kvk +kv
0
k
2. MATRICES 5
Observe que V se convierte en un espacio mtrico con la funcin de distancia
(v; v
0
) = kv v
0
k. Obseve tambin que R
n
es un espacio vectorial normado con
la norma euclidiana kxk =
pP
n
i=1
x
2
i
: En general, toda norma genera una mtrica,
pero no viceversa.
Un punto jo de la funcin (resp., correspondencia) f : X ! X es una
solucin de la ecuacin x = f(x) (resp., x 2 f(x)).
Teorema 1 (Brouwer). Sea X un subconjunto no vaco, cerrado, acotado y
convexo de un espacio vectorial normado de dimensin nita. Si f : X !X es una
funcin continua, entonces tiene al menos un punto jo.
Corolario 1. Sea f : [a; b] ![a; b], donde f es continua. Entonces, f tiene
al menos un punto jo.
Teorema 2 (Kakutani). Sea X un subconjunto no vaco, cerrado, acotado y
convexo de R
n
; y sea f : X !X una correspondencia tal que:
f es no vaca y convexa para todo x, y
f tiene un grco cerrado (es decir, para todas las secuencias fx
n
g e fy
n
g
tales que y
n
2 f(x
n
) para todo n, x
n
!x e y
n
!y, tenemos que y 2 f(x)).
Entonces, f tiene al menos un punto jo.
Sea (S; ) un espacio mtrico completo. El operador T : S ! S es una
contraccin con mdulo 2 (0; 1) si para cada x; y 2 S tenemos que
(Tx; Ty) (x; y)
Teorema 3 (de la contraccin). Si T es una contraccin, entonces tiene un
nico punto jo.
Oberve que (Tx; Ty) (x; y) ) (T
n
x; T
n
y)
n
(x; y) )lm
n!
(T
n
x; T
n
y) =
0:
Corolario 2. Sea f : [a; b] ! [a; b], donde f es continua y jf
0
(x)j < 1 para
todo x 2 [a; b]. Entonces, f tiene un nico punto jo, y jf(x) f(y)j < jx yj :
2. Matrices
Sea A una matriz cuadrada de n n: A es singular si jAj = 0. Un escalar
se llama valor propio de A si existe un vector c 6= 0 tal que Ac = c. En este caso,
el vector c se llama vector propio. Si A se interpreta como una transformacin de
un vector x, entonces un vector propio es aqul que no sufre transformacin alguna
salvo por la escala, dada por . Cada vector propio es una solucin de la ecuacin
(AI) x = 0, que ocurre en x 6= 0 si (AI) es singular. Luego, es un valor
propio de A si y slo si es una solucin de la ecuacin p() jA Ij = 0. p() se
denomina polinomio caracterstico de A. Tenemos tambin que:
jAj =
Q
n
i=1

i
tr (A) =
P
n
i=1
a
ii
=
P
n
i=1

i
lm
t!1
A
t
= 0 si y slo si para todo valor propio j
i
j < 1:
3. ECUACIONES EN DIFERENCIA 6
p() = ()
n
+b
n1
()
n1
+::: +b
1
() +b
0
, donde b
k
es la suma de los
determinantes de todos los menores principales de A de orden nk (hay

n
k

de ellos). Por ejemplo, si A =

a
11
a
12
a
21
a
22

, b
0
= jAj ; b
1
= ja
11
j + ja
22
j =
tr(A).
La matriz cuadrada D es diagonal si todas sus entradas son 0 salvo la diagonal
principal. La matriz A es diagonalizable ssi existe una matriz diagonal D y una
matriz P : D = P
1
AP. Una condicin suciente, pero no necesaria, es que todos los
valores propios de A sean distintos. A y P
1
AP tienen los mismos valores propios.
La matriz A es idempotente si A
2
= A. Si A es idempotente, entonces sus
valores propios slo toman los valores 0 o 1.
3. Ecuaciones en diferencia
Un sistema dinmico de orden k; en tiempo discreto, es una ecuacin de la
forma:
(3.1) x
t+k
= f (x
t+k1
; :::; x
t
; t)
donde f : R
n
! R
n
y t 2 T Z. Si T = N [ f0g N
0
, existe un perodo inicial.
Una solucin de (3.1) es una secuencia fx
t
g R
n
que la satisface.
El sistema de primer orden es:
lineal cuando f (x
t
) = Ax
t
+b
t
. El sistema lineal es homogneo si b = 0.
autnomo cuando f (x
t
; t) = f (x
t
), es decir, la dependencia temporal
ocurre exclusivamente a travs de x
t
.
Un estado estacionario x es un punto jo de f, es decir, una solucin de la
ecuacin x = f (x) :
x
i
es un punto peridico de x
t+1
= f (x
t
), con perodo p 2, si es un
punto jo del iterado f
p
(), pero no de algn otro iterado de orden menor. Bajo esta
nomenclatura, un estado estacionario es un punto peridico de perodo 1.
La rbita que pasa por x
0
es el conjunto (x
o
) fx
t
jx
t
= f
t
(x
0
); t 2 Tg. Los
puntos (x
1
; :::; x
p
) son una rbita peridica de x
t+1
= f (x
t
) si cada x
i
(i = 1; :::; p)
es un punto peridico distinto de x
t+1
= f (x
t
).
Sea
Df =
0
B
@
@f1
@x1

@f1
@x1
.
.
.
.
.
.
.
.
.
@fn
@x
1
: : :
@fn
@x
1
1
C
A
el jacobiano de f:
El punto jo x de x
t+1
= f (x
t
) es un estado estacionario hiperblico si
el jacobiano Df(x) no contiene valores propios con mdulo 1.
El estado estacionario x de x
t+1
= f (x
t
) es:
1. Estable-Liapunov si rbitas que empiezan cerca de x permanecen cerca de
x:
3. ECUACIONES EN DIFERENCIA 7
2. Asintticamente estable si rbitas que empiezan cerca de x convergen a
x cuando t !1:
3. Globalmente asintticamente estable si rbitas que empiezan en cualquier
parte del espacio convergen a x.
Observacin 1. 3)2)1.
Una base de atraccin del estado estacionario x

es un conjunto B(x

) X
tal que toda rbita que comienza en l, converge a x

:
3.1. Sistemas lineales. Para encontrar las soluciones de un sistema lineal
autnomo homogneo de primer orden, es decir, de la ecuacin:
x
t+1
= Ax
t
Si la condicin inicial x
0
es conocida, tenemos:
x
1
= Ax
0
x
2
= Ax
1
= AAx
0
.
.
.
x
t
= AAx
t2
= A
t
x
0
(3.2)
En el caso de una variable, x
t+1
= ax
t
)x
t
= a
t
x
0
, y la familia de soluciones
es de la forma x
t
= a
t
c: Por otra parte, en el caso de n variables, pero con A diagonal,
tenemos de facto un sistema de n sistemas independientes, con solucin
x
t
= A
t
c =
0
@
a
t
1
0
.
.
.
.
.
.
0 a
t
n
1
A
0
@
c
1
.
.
.
c
n
1
A
=
0
@
a
t
1
c
1
.
.
.
a
t
n
c
n
1
A
Si A no es diagonal, es posible que se pueda diagonalizar. Sea D = P
1
AP la
matriz diagonal que se forma a partir de A (si es que existe, A se dice diagonalizable).
Entonces, el sistema
x
t+1
= Ax
t
P
1
x
t+1
= P
1
APP
1
x
t

P
1
x
t+1

= D

P
1
x
t

z
t+1
= Dz
t
donde z
t
P
1
x
t
y D =
0
@

1
0
.
.
.
.
.
.
0
n
1
A
; de manera que el nuevo sistema tiene
como solucin z
t
=
0
@

t
1
c
1
.
.
.

t
n
c
n
1
A
, y el sistema original se recupera con x
t
= Pz
t
: Es
importante notar que el hecho de que A y D tengan los mismos valores propios,
implica que ambos sistemas tienen las mismas propiedades dinmicas, como veremos
ms abajo.
3. ECUACIONES EN DIFERENCIA 8
En el caso de un sistema no homogneo, x
t+1
= Ax
t
+b; tenemos:
x
1
= Ax
0
+b
x
2
= Ax
1
+b = A(Ax
0
+b) +b = A
2
x
0
+Ab +b
x
3
= Ax
2
+b = A

A
2
x
0
+Ab +b

+b = A
3
x
0
+A
2
b +Ab +b
.
.
.
x
t
= Ax
t1
+b = A
t
x
0
|{z}
Funcin complementaria
+
t1
X
i=1
A
i
b
| {z }
Solucin particular
Alternativamente, note que si x es un punto jo:
x = Ax +b )(I A) x = b
x
t+1
b = Ax
t
x
t+1
Ix = A(x
t
x)
y
t+1
= Ay
t
es un sistema homogneo en y
t
(x
t
x) :
Nos interesan las propiedades dinmicas del sistema x
t+1
= Ax
t
. La solucin
de este sistema es de la forma x
t
= A
t
c, de manera que converge si y slo si todos los
valores propios de A tienen un mdulo menor que 1. En este caso, converge indepen-
dientemente de la condicin inicial, de manera que es globalmente asintticamente
estable. En otras palabras, Tx = Ax es una contraccin. Por el contrario, si al
menos un valor propio tiene un mdulo mayor que 1, el sistema diverge.
Independientemente de si el sistema converge o no, es posible que el sistema
describa una rbita peridica. Esto ocurre si alguno de los valores propios son comple-
jos (por ejemplo, el sistema x
t+1
= x
t
1
2
p
1), o si siendo reales tienen signos opuestos
(por ejemplo, el sistema x
t+1
= 1 x
t
; con x
0
= 0).
En efecto, consideremos el caso en que los valores propios no son reales, sino
complejos:
i
2 C.
Observacin 2. Sea
i
a
i
+b
i
p
1, donde a
i
es su parte real y b
i
su parte
imaginaria (y (a
i
; b
i
) 2 R
2
). Entonces, j
i
j =
p
a
2
i
+b
2
i
: Alternativamente, podemos
representar (a; b) 2 R
2
en coordenadas polares: a = r cos , b = r sin, donde r = jj
y tan =
b
a
(llamado el argumento de ), y puede escribirse como:
a +bi = r (cos +i sin )
Es til adems recordar el teorema de Moivre, que establece que si n 2 N;
[r (cos +i sin )]
n
= r
n
(cos n +i sinn)
En este caso, el sistema sigue siendo estable en la medida en que j
i
j < 1
para todo i; e inestable en caso contrario. Sin embargo, el sistema converge con
oscilaciones.
3. ECUACIONES EN DIFERENCIA 9
3.2. Sistemas no lineales. Supongamos que x
t+1
= f (x
t
) tiene un punto jo
x. Entonces podemos aproximarlo alrededor de ese punto jo, de acuerdo a:
f(x) = f (x) +Df (x) (xx) +O(2)
Luego, localmente tenemos
x
t+1
= x +Df (x) (x
t
x)
y
t+1
= Df (x) y
t
donde y
t
(x
t
x) ; es un sistema lineal homogneo.
Teorema 4 (Hartman-Grobman). Si x es un punto jo hiperblico de f(),
y el jacobiano Df (x) se puede invertir, entonces existe una vecindad U X que
contiene a x, donde x
t+1
= f (x
t
) y x
t+1
x = Df (x) (x
t
x) son topolgicamente
equivalentes.
Teorema 5 (estabilidad no lineal). Suponga que x es un punto jo de f().
Entonces:
1. Si todos los valores propios de Df (x) tienen mdulo menor que 1, entonces
x es asintticamente estable.
2. Si al menos un valor propio de Df (x) tiene mdulo mayor que 1, entonces
x es inestable.
Si algunos son menores que 1 y otros mayores, es un punto silla (sad-
dle).
Si todos son mayores que 1, es un punto fuente (source).
Parte 1
Decisiones individuales
CAPTULO 2
Teora General de la Eleccin
1. Preferencias y utilidad
Una decisin se reere al acto de elegir una accin a dentro de un conjunto de
posibilidades A A (el universo de acciones posibles).
Sea a

(A) la decisin cuando las alternativas posibles estn descritas por A.


Suponemos que siempre hay una decisin, es decir, para todo A 6= ; a

(A) 6= ;:
Es natural tambin suponer que si eliminamos parte de las posibilidades que
no fueron escogidas, la decisin no debera cambiar: a

(A) = a

(A A) para todo
A A; con a

(A) = 2 A:
Si estas condiciones se cumplen, podemos encapsular esas decisiones en una
relacin de preferencias denida sobre el conjunto de todas las posibilidades imag-
inables (A; %), donde a

% a se lee a

es preferido sobre a y signica que si las


posibilidades consisten slo de estas dos acciones, a

ser elegida. Esta relacin de


preferencias satisface las siguientes propiedades:
Axioma 5. % es completa en A, es decir 8a; a
0
2 A.
a % a
0
_ a
0
% a
Axioma 6. % es reeja en A, es decir ; 8a 2 A.
a % a
Axioma 7. % es transitiva en A, es decir; 8a; a
0
2 A.
a % a
0
^ a
0
% a
00
) a % a
00
Es claro que a

(A) = faja % a
0
8a; a
0
2 Ag :
Teorema 6. (%; A) representa las decisiones denidas por a

(A); donde a

(A) 6=
; para todo A 6= 2 A y a

(A) = a

(A A) para todo A A; con a

(A) = 2 A, si y
slo si % satisface los axiomas 1 al 3.
Demostracin. [)] a

(A) 6= ; para todo A; en particular, para todo A single-


ton (de manera que a % a) o de dos elementos (en cuyo caso a % a
0
; si a

(fa; a
0
g) = a,
o a
0
% a si a

(fa; a
0
g) = a
0
). Por otra parte, sean a = a

(fa; a
0
g) y a
0
= a

(fa
0
; a
00
g).
Entonces, a = a

(fa; a
0
; a
00
g), puesto que si a
00
= a

(fa; a
0
; a
00
g), al remover a a ten-
dramos a

(fa
0
; a
00
g) = a
00
, en contradiccin con la hiptesis.
[(] Si 8a; a
0
2 Aa % a y a % a
0
_ a
0
% a, entonces a

(A) = faja % a
0
8a; a
0
2 Ag 6=
; para todo A: Por otra parte, si a = a

(fa; a
0
g) ^ a
0
= a

(fa
0
; a
00
g) ) a =
a

(fa; a
0
; a
00
g) entonces a

(fa; a
0
; a
00
g) = a

(fa; a
00
g) = a

(fa; a
0
g) = a

(fag). Por
11
1. PREFERENCIAS Y UTILIDAD 12
transitividad, de la inclusin y la implicancia, el argumento se extiende a conjuntos
arbitrarios A en A.
El axioma de transitividad, entonces, que normalmente se entiende como co-
herencia en las decisiones (y por tanto dene el sentido de racionalidad en el com-
portamiento econmico) no es otra cosa que exigir que las preferencias existan en
forma independiente de las posibilidades particulares al momento de decidir. Es por
esto, entonces, que cada decisin puede ser racionalizada en funcin del conjunto de
posibilidades disponibles al momento de la decisin.
A partir de %, podemos denir las relaciones de indiferencia y preferencia
estricta de la siguiente forma:
a a
0
,a % a
0
^ a
0
% a
a a
0
,a % a
0
^ a
0
a
Es sencillo vericar que si % satisface los axiomas 1-3, entonces:
%
reeja * *
antirreeja *
simtrica *
asimtrica *
transitiva * * *
completa *
As, % es un preorden completo, mientras que es una relacin de equivalen-
cia. Normalmente nos referimos a como la parte simtrica de %, y a como su
parte asimtrica.
El hecho de que % sea un preorden nos permite denir el supremo y el nmo de
cada conjunto imaginable. En este caso, a

(A) = sup (A; %) = faja % a


0
8a; a
0
2 Ag
1
.
sta es de hecho la razn de fondo por la cual podemos representar la decisin co-
mo un problema de optimizacin. Para ocupar el idioma del clculo, sin embargo,
necesitamos un elemento adicional: la continuidad.
Axioma 8 (continuidad). Para todo a
0
2 A; fa : a % a
0
g y fa : a
0
% ag son
cerrados.
En efecto, de satisfacerse (4), las preferencias descritas por % pueden repre-
sentarse por medio de una funcin u(a), en el entendido que la decisin corresponde
a la accin a 2 A que maximiza u(a); es decir
(1.1) a

(A) = arg max


fa2Ag
u(a)
Teorema 7. Si los axiomas 1 a 4 son satisfechos, entonces existe u(a) con-
tinua tal que para todo a; a
0
2 A;
a % a
0
,u(a) u(a
0
)
1
Donde la notacin (A; %) se ocupa para indicar tanto el conjunto de elementos a comparar (A),
como el criterio de comparacin (%).
1. PREFERENCIAS Y UTILIDAD 13
Un ejemplo clsico de preferencias que satisfacen los axiomas 1 al 3, pero no
el 4, son las lexicogrcas. Consideremos acciones descritas por dos caractersticas,
a = (x
1
; x
2
). La preferencia % es lexicogrca si tiene la siguiente forma:
(x
1
; x
2
) % (x
1
; x
2
) ,fx
1
> x
1
g _ fx
1
= x
1
^ x
2
> x
2
g
Para ver la falla en la continuidad, basta notar que en cada punto, la tasa
marginal de sustitucin entre los bienes x e y no est denida. As, el conjunto de
las canastas dbilmente preferidas a culaquiera es siempre abierto.
Sin embargo, aunque no sea representable por una funcin de utilidad, es una
relacin de preferencias legtima, en el sentido de que entrega decisiones (coherentes)
para cualquier conjunto de posibilidades concebible. De manera que no debe enten-
derse la utilidad (y su maximizacin) como el primitivo de la teora, sino slo como
una herramienta de descripcin de la preferencia.
Por otra parte, es importante destacar que la hiptesis de optimizacin hasta
ahora no se reere a que la persona decida bien en algn sentido; solamente repre-
senta el comportamiento de una persona que decide, y cuyas decisiones son indepen-
dientes de la existencia de alternativas que no escoge. Es posible imaginar criterios
abstractos (reglas morales, valores, o simplemente reglas nemotcnicas) que redunden
en decisiones resumidas en una relacin de preferencia; es decir, no hay nada en lo
dicho hasta ahora que impida pensar en buenas motivaciones del comportamien-
to (en particular, ni siquiera es posible a estas alturas denir el individualismo), ni
tampoco lo contrario.
De (1.1) es aparente que la funcin u(a) no tiene sentido cardinal, es decir,
que existen innitas funciones v(a) = f u(a) que representan la misma preferencia.
Teorema 8. Si u(a) representa a %, entonces v(a) = f u(a) (donde f es
creciente) tambin.
Ahora bien, implcitamente el anlisis econmico s le da la connotacin de
bondad a la forma en que las personas deciden. Eso, como hemos visto, no se de-
sprende de la existencia de una funcin de utilidad que se maximice, sino del supuesto
implcito de que las personas deciden de una manera coherente con un objetivo de
bienestarsupuesto que hacemos explcito a continuacin:
Axioma 0: u(a) corresponde a la jerarquizacin del bienestar de la persona,
donde ms utiles signican mayor bienestar.
Es importante tener en mente que este axioma es completamente prescindible
para todos los aspectos predictivos de la teora, pero imperativo para todo anlisis de
bienestar as como para ciertas interpretaciones de algunas nociones de equilibrio.
Es notable de hecho que desde el comienzo de la revolucin marginalista, ambos tipos
de anlisis positivo y normativo han estado estrechamente entrelazados, formando
en la prctica una unidad. En cierto sentido, esto es desafortunado pues opositores de
los aspectos normativos de la teora por mucho tiempo se han privado de los benecios
del aparataje predictivo.
Hasta el momento hemos representado decisiones sin mencionar las consecuen-
cias que esas decisiones tienen para el individuo. Sea C el conjunto de consecuencias
2. CONOCIMIENTO, INCERTIDUMBRE Y DECISIN 14
posibles en un problema de decisin. Sea C(a) 6= el conjunto de consecuencias posi-
bles asociado a la accin a (se puede pensar en C (a) como una relacin de causalidad).
Definicin 1. Un problema de decisin se dice de certidumbre si C(a) es
un singleton para toda a 2 A, y de incertidumbre en caso contrario.
En el caso particular de un problema de decisin bajo certidumbre, podemos
pensar indistintamente que la persona escoge una accin o una consecuencia, puesto
que C(a) = c )a = C
1
(c),
u(a) = u(C
1
(c)) = v(c)
2. Conocimiento, incertidumbre y decisin
Hasta el momento no nos hemos pronunciado sobre el nivel de conciencia en
que la decisin ocurre. En efecto, la representacin del comportamiento por medio de
funciones de utilidad aspira a ser igualmente vlido para actos inconcientes o mecni-
cos (como la eleccin de la ruta exacta para caminar hacia la cocina), concientes pero
con poco razocinio (como la eleccin de la ropa al levantarse) o concientes con mucho
razocinio y recoleccin de informacin previa (como en la ejecucin de un proyecto
de inversin). Sin importar el mtodo de decisin, podemos representar el compor-
tamiento resultante por medio de preferencias toda vez que los axiomas mencionados
sean satisfechos. Sin embargo, en una gran cantidad de situaciones (particularmente
en las que quisiramos hacer una anlisis normativo) querremos pensar explcitamente
en un razonamiento o consideracin conciente de las consecuencias de los actos. Esto
es especialmente as en el caso de las decisiones intertemporales, en que hay secuencias
de decisiones; en el caso de las decisiones bajo incertidumbre, en que la informacin
y las creencias se presume juegan un papel importante (esto es, cuando el individuo
puede esgrimir una razn para su decisin); y en el caso de las situaciones estratgicas.
Algunos autores de hecho preeren distinguir eleccin de decisin", correspondi-
endo el primer trmino al caso general (ambiguo), y el segundo al caso de la eleccin
conciente. Esta seccin se adentra en el problema de la decisin en ese sentido.
Partimos suponiendo que el individuo tiene una conceptualizacin del proble-
ma. Adems de saber que sus opciones estn dadas por A, l identica una serie
de condiciones ambientales para que la accin a 2 A redunde en la consecuencia
c 2 C. Esas condiciones ambientales se expresan en una serie de proposiciones
bsicas ; conjunto que consideramos nito por el momento. Requerimos que sea
cerrado bajo negacin: si q 2 , entonces :q 2 . El hilativo "(^) permite generar
proposiciones compuestas de la forma p q ^ r, para q; r 2 . Usamos al hilativo
.
o
"(_) de la manera tradicional, esto es, como una abreviacin: q _ r ,:(:q ^ :r).
Agrandamos aadindole todas las proposiciones compuestas generables a partir de
sus elemetos; al conjunto resultante lo denotamos por L, y lo llamamos un lenguaje.
Estas proposiciones describen aspectos del ambiente o realidad externa percibi-
da por el individuo. Por ejemplo, el acto a =pasear en bicicleta tiene como conse-
cuencia c
1
=mojarse si la proposicin q =est lloviendo es verdadera; en tal caso
escribimos:
q =)(c (a) = c
1
)
2. CONOCIMIENTO, INCERTIDUMBRE Y DECISIN 15
o bien:
c (ajq) = c
1
Decimos que un problema de decisin ocurre bajo certidumbre si (8a 2 A) (c (ajp) =
c (ajp
0
) 8p; p
0
2 L), y bajo incertidumbre en caso contrario. La incertidumbre
proviene de (o es), entonces, la ignorancia sobre el valor de verdad de alguna o varias de
esas proposiciones. Si el valor de verdad de p no afecta la consecuencia de ningn acto
a 2 A, decimos que p es irrelevante (para el problema de decisin que estudiamos), y
relevante en caso contrario.
Decimos que una proposicin compuesta es completamente detallada (o
es una descripcin completa de un mundo posible) si es de la forma p = (^
n
i=1
q
i
),
donde 2n es el nmero de elementos de , donde p contiene a q
i
a :q
i
, pero no a
ambos, y donde todas las familias de proposiciones de la forma fq
i
; :q
i
g tienen
un representante en p. Cada proposicin en L dene a un conjunto. Cada proposicin
completamente detallada dene a un singleton de la forma f!g; a ese nico elemento le
llamamos estado de la naturaleza: As, un estado ! es la circunstancia o escenario
en que (^
n
i=1
q
i
) es verdadera. Observe entonces que un estado de la naturaleza dene
el valor de verdad de todas y cada una de las proposiciones bsicas.
Denotamos por al conjunto de todos los estados de la naturaleza generados
a partir de ; y le llamamos conjunto (o espacio) de estados (de la naturaleza). Le
llamamos evento a un subconjunto de .
En el modelo estndar del espacio de estados, un axioma fundamental
es que la realidad es nica: cada proposicin tiene en la realidad un valor de verdad
(y slo uno), denido, que la describe objetivamente, y es externo al individuo. Esto
se expresa en la jerga que desarrollamos como un solo estado de la naturaleza se
materializa. El modelo estndar del espacio de estados supone entonces que:
[Estados reales] Todos los estados de la naturaleza en son mutuamente
excluyentes (no puede haber dos que se materialicen simultneamente, puesto
que ellos dieren en el valor de verdad de al menos una proposicin bsica);
[Suciencia de eventos] Si dos lenguajes L
1
y L
2
generan al mismo , entonces
son maneras equivalentes de representar las dudas del individuo.
La suciencia de eventos es una caracterstica central del modelo estndar
del espacio de estados, puesto que permite de facto olvidar el (o los) lenguaje(s)
generador(es) de . En otras palabras, permite pasar de un enfoque sintctico, en
que los objetos de anlisis son proposiciones (L), a uno semntico, en que los objetos
de anlisis son subconjuntos o eventos (M). Siendo distintos estos enfoques, estn
estrechamente relacionados. En efecto, de un modelo sintctico podemos pasar a
uno semntico, de la siguiente forma: pensemos en los eventos como en los conjuntos
generados por los elementos (porposiciones) del lenguaje L. Denotamos por M al
conjunto de eventos. La estructura que hereda L de la forma en que fue construido,
signica que el conjunto de eventos satisface las siguientes propiedades:
2
1. ?; 2 M
2. E 2 M)E
c
2 M
2
A una familia de conjuntos que satisface estas propiedades se le llama lgebra.
2. CONOCIMIENTO, INCERTIDUMBRE Y DECISIN 16
3. E; E
0
2 M)E \ E
0
2 M
Pero como decamos anteriormente, la suciencia de eventos nos permite partir
de una familia de eventos M, con las propiedades de un lgebra, sin necesidad de
explicitar un lenguaje L. ste es, de hecho, el camino de la teora de la probabilidad,
y el camino que tomaremos ms adelante y por el resto del curso.
Sigamos momentneamente en el enfoque sintctico. Las proposiciones en L se
reeren a caractersticas ambientales. Nos interesa ahora describir el estado epistmi-
co del individuo, es decir, el conocimiento que tenga respecto de esas caractersticas
ambientales. Observe que tiene sentido decir que la frase el individuo sabe que p es
cierta es verdadera, o falsa, por lo que el estado epistmico del individuo tambin
puede describirse con proposiciones. Denotaremos, entonces, por k (p) simplemente
kp la frase el individuo sabe p. El lenguaje L posiblemente debe ser ampliado
para incorporar las proposiciones descritas por k, digamos k (L). k sera entonces un
operador en el conjunto L [ k (L) :
Existen algunas propiedades, ya sea naturales o deseables, que ese operador
de conocimiento debiera satisfacer.
En primer lugar, el individuo debiera saber todas las tautologas:
Axioma 9 (k1: necesidad). k(p _ :p) ,(p _ :p)
En segundo lugar, su razonamiento debiera incorporar algunas reglas de argu-
mentacin vlidas, como la conjuncin (f(p) ^ (q)g ,(p ^ q)) :
Axioma 10 (k2: distribucin). k(p) ^ k(q) ,k(p ^ q)
Si bien el axioma de distribucin puede parece intuitivo, y de hecho imperativo,
observe que requiere que el individuo conozca todas las consecuencias de lo que sabe.
Vale decir, no puede mantener compartimentados en su cabeza distintos tipos de
conocimiento.
Por otro lado, suponemos que no debiera aceptar como verdaderas proposi-
ciones que son falsas. Esto debe mirarse con cuidado: no postulamos que sepa qu
es verdadero; el individuo puede dudar sobre la veracidad de cualquier proposicin
bsica, pero si tiene la certeza de algo, ese algo no puede ser falso:
Axioma 11 (k3: de la verdad). k(p) )p
Los siguentes dos axiomas se reeren al grado de conocimiento que el individuo
tiene sobre su propio conocimiento; de ah el apelativo de introspeccin. El primero,
de introspeccin positiva, pide que sepa qu proposiciones sabe. El segundo, de
introspeccin negativa, pide que sepa que no sabe lo que no sabe. En conjunto,
exigen que el individuo conozca completamente su estado epistmico.
Axioma 12 (K4: transparencia o introspeccin positiva). k(p) )k(k(p))
Axioma 13 (K5: de sabidura o introspeccin negativa). :k(p) =)k(:k(p))
Los axiomas anteriores tienen los siguientes equivalentes en el enfoque semn-
tico:
2. CONOCIMIENTO, INCERTIDUMBRE Y DECISIN 17
Axioma 14 (K1: necesidad). K( ) =
Axioma 15 (K2: distribucin). K(A) \ K(B) = K(A \ B)
Axioma 16 (K3: de la verdad). K(A) A:
Axioma 17 (K4: transparencia o introspeccin positiva). K(A) K(K(A))
Axioma 18 (K5: de sabidura o introspeccin negativa). :K(A) K(:K(A))
Una sistema de conocimiento ( ; K), donde es un conjunto de estados y
K un operador sobre un lgebra M( ), es un sistema Kripke-S5, si satisface los cinco
axiomas anteriores. Observe que si insistimos en pensar en ( ; K) como generado por
un modelo sintctico, entonces M( ) es generado por L[k (L) : Observe asimismo
que si tomamos M( ) = 2

, todas las proposiciones imaginables estaran incluidas.
Si el individuo desconoce el valor de verdad de todas las proposiciones que
generan a ; entonces considera a todos los elementos de como posibles. Es posible,
entonces, imaginar que el estado de la naturaleza determine su percepcin, esto es,
que en distintos estados de la naturaleza, considere posibles distintos eventos. Esta
idea la formalizamos mediante la correspondencia de posibilidades:
P : !2

: ! !P (!)
con la interpretacin de que en el estado !, la persona puede descartar que cualquier
estado en P (!)
C
sea verdad. P (!) es una lista, entonces, de todos los escenarios que
el individuo considera posibles cuando la realidad es !.
Es estndar imponer la siguiente estructura sobre P :
Axioma 19. 8! 2 ; ! 2 P (!)
Este axioma dice que nunca se tiene la certeza de que la verdad es falsa o,
dicho de otro modo, que no se puede saber algo que no es. Cualquiera sea la realidad,
siempre se considera posible. Este axioma sera violado, por ejemplo, por una persona
que en todo escenario saca conclusiones tajantes, de modo que P (!) es un singleton,
puesto que cualquier error de juicio involucra una violacin del axioma (salvo que sea
omnisciente en cuyo caso sabe la verdad).
Axioma 20. Si !
0
2 P (!) )P (!
0
) P (!)
Si un estado !
0
se considera posible cuando el estado es !, entonces todos
los estados que se consideraran posibles de darse !
0
deberan considerarse posibles
cuando el estado es !: Supongamos que esto no fuese as, esto es, que exista un
escenario !
00
que se considerara posible de darse !
0
, pero que en ! se considera
imposible: !
00
2 P (!
0
) y !
00
= 2 P (!). El hecho de que !
00
se considere imposible
cuando ! ocurre debera bastarle al individuo para descartar !
0
de sus posibilidades;
por introspeccin, descubrira que si la realidad hubiese sido !
0
, l pensara que !
00
es
posible.
Axioma 21. Si !
0
2 P (!) )P (!) P (!
0
)
2. CONOCIMIENTO, INCERTIDUMBRE Y DECISIN 18
Similarmente, si esta axioma no se cumpliera, existira un estado !
00
tal que
!
00
2 P (!) y.!
00
= 2 P (!
0
). Si ocurre !, el individuo considera posible a !
00
. Si !
0
hubiera ocurrido, l lo considerara imposible, por lo que !
0
no puede ser cierto.
Ejemplo 1 (Rubinstein p46). Una persona recuerda lo bueno, pero olvida lo
malo. Si = fB; Mg ; P (B) = fBg y P (M) = fB; Mg : Esta estructura satisface
los axiomas 1 (B 2 P (B) y M 2 P (M)) y 2 (B 2 P (M) y P (B) = fBg P (M) =
fB; Mg), pero no el 3: B 2 P (M) y P (M) = fB; Mg * P (B) = fBg : En el estado
B la persona sabe que est en B; en el M; la persona considera posible el B pero si
estuviera en el B sabra que M no es el estado. Si no satisface los axiomas 2 o
3, signica entonces que no ocupa completamente la informacin contenida en los
eventos que no se dieron.
Por supuesto, estos dos ltimos axiomas equivalen a pedir que !
0
2 P (!) )
P (!) = P (!
0
) : dos estados se consideran posibles si y slo el estado epistmico del
individuo sera el mismo en ambos estados; cualquier diferencia permitira descartar
uno de ellos, por introspeccin. En cierto sentido, entonces, los axiomas exigen que
el individuo no haya dejado conclusiones por resolver, esto es, que sepa todo lo que
se puede deducir de lo que sabe.
Lema 1. P satisface los axiomas 1, 2 y 3, si y slo si induce una particin
sobre :
En el caso del lema, decimos que la estructura de informacin es parti-
cional.
Ejemplo 2 (Rubinstein, p45). Una persona lee un nmero entero z (por
ejemplo, temperatura), pero con un error de medicin de 1: As, si lee z no sabe
si la verdadera cifra es z 1; z o z + 1: Luego, si el conjunto de estados es Z,
P (z) = fz 1; z; z + 1g : Esta estructura no es particional: P (z) \ P (z + 1) =
fz; z + 1g 6= ;:
Ahora bien, se podra modicar la denicin de estado de modo que P sea particional:
digamos que el estado ! se compone de una lectura (b z) y un nivel verdadero de la vari-
able (z): ! = (z; b z) Entonces, P (z; b z) = f(b z 1; b z) ; (b z; b z) ; (b z + 1; b z)g : Observe que
P (z; b z) \ P (z
0
; b z
0
) = ;:
Este ejemplo tambin ilustra lo limitado del razonamiento de una persona con
estructura no particional: si la persona estuviera consciente de que siempre considera
posibles un nmero mayor y otro menor, entonces sera capaz de inferir el nmero,
de modo que su funcin de informacin sera P (z) = fzg. En general, la estructura
de informacin no slo considera los mensajes directos que reciba del medio, sino
toda inferencia que pudiera hacer a partir de l y la informacin previa.
A partir de P podemos generar una funcin u operador de conocimiento
3
:
K : M( ) !M( )
K(E) f! 2 : P(!) Eg
3
Se dene :K (E) K (E)
C
:
2. CONOCIMIENTO, INCERTIDUMBRE Y DECISIN 19
indicando para cada evento la lista de estados en la que ese evento es conocido.
Observe que la inclusin P(!) E signica: todo lo que se considera posible en !
es compatible con la ocurrencia de E. La interpretacin es que K (E) es el conjunto
de escenarios en que el individuo conoce E o sabe E. K (E)
C
:K (E) son los
estados en los que no sabe E. Observe que no saber E no es lo mismo que saber
E
C
: :K(E) ; K(E
C
) en general, a menos que que K(E) = E, esto es, que E sea
evidente en s mismo
4
. Observe por otra parte que :(:K(E)) = K(E):
Teorema 9. La funcin de conocimiento K inducida por P de acuerdo a
K(E) f! 2 : P(!) Eg forma un sistema de conocimiento Kripke-S5.
Demostracin. K1: K( ) = f! 2 : P(!) g =
K2: K(A)\K(B) ,f! 2 : P(!) Ag\f! 2 : P(!) Bg ,f! 2 : P(!) A y P(!) Bg
,f! 2 : P(!) A \ Bg = K(A \ B)
K3: a 2 K(A) ,a 2 f! 2 : P(!) Ag )a 2 A
K4: K(K(A)) = f! 2 : P(!) f!
0
2 : P(!
0
) Agg
K5: K(A) = f! 2 : P(!) * Ag
K( K(A)) = f! 2 : P(!) f!
0
2 : P(!
0
) * Agg = f! 2 : P(!) * Ag
Estos axiomas, entonces, establecen que el conocimiento positivo de saber algo,
y el conocimiento negativo de saber algo, son evidentes en s mismos (introspeccin
positiva y negativa, respectivamente).
Volviendo al ejemplo de la persona que recuerda lo bueno pero olvida lo malo,
su funcin de conocimiento est dada por:
E P (E) K(E) K (K (E)) K(E) K ( K (E))
; ; ; ; fB; Mg fB; Mg
fBg fBg fBg fBg fMg ;
fMg fB; Mg ; ; fB; Mg fB; Mg
fB; Mg fB; Mg fB; Mg fB; Mg ; ;
Observe que falla el conocimiento negativo: cuando la persona no recibe la noti-
cia buena, no concluye que la noticia fue mala. En cambio, si la estructura fuera
particional, su inferencia satisfara conocimiento positivo y negativo:
E P (E) K(E) K (K (E)) K(E) K ( K (E))
; ; ; ; fB; Mg fB; Mg
fBg fBg fBg fBg fMg fMg
fMg fMg fMg fMg fBg fBg
fB; Mg fB; Mg fB; Mg fB; Mg ; ;
Ejemplo 3 (Rubinstein p46). Una . Si = fB; Mg ; P (B) = y P (M) = :
Esta estructura satisface los axiomas 1 (B 2 P (B) y M 2 P (M)) y 2 (B 2 P (M)
y P (B) = fBg P (M) = fB; Mg), pero no el 3: B 2 P (M) y P (M) = fB; Mg *
P (B) = fBg : En el estado B la persona sabe que est en B; en el M; la persona
considera posible el B pero si estuviera en el B sabra que M no es el estado. Si
4
Decimos que el evento E es evidente en s mismo ssi E = K(E), esto es, si es un punto jo
del operador K:
3. MEDIDA, PROBABILIDAD Y CREENCIAS 20
no satisface los axiomas 2 o 3, signica entonces que no ocupa completamente la
informacin contenida en los eventos que no se dieron.
Ejemplo 4. Una pelota puede ser Grande/Chica o Roja/Azul. Sea =
fGR; GA; CR; CAg : La funcin de informacin Tamao genera la particin P
T
=
ffGR; GAg ; fCR; CAgg, mientras que la funcin de informacin Color genera la
particin P
C
= ffGR; CRg ; fGA; CAgg : Las funciones de conocimiento generadas
por estas funciones de informacin son:
Ejemplo 5.
E K
T
(E) K
C
(E)
; ; ;
fGRg ; ;
fGAg ; ;
fCRg ; ;
fCAg ; ;
fGR; GAg fGR; GAg ;
fGR; CRg ; fGR; CRg
fGR; CAg ; ;
fGA; CRg ; ;
fGA; CAg ; fGA; CAg
fCR; CAg fCR; CAg ;
fGR; GA; CRg ; ;
fGR; GA; CAg ; ;
fGR; CR; CAg ; ;
fGA; CR; CAg ; ;
fGR; GA; CR; CAg fGR; GA; CR; CAg fGR; GA; CR; CAg
3. Medida, probabilidad y creencias
An cuando el individuo desconozca el valor de verdad de una proposicin,
podra tener ms conanza en su veracidad que en su falsedad, o bien ms conanza
en la veracidad de una proposicin que de otra. Esto es, nos interesara distinguir
en grados de conanza, donde conocimiento se podra asociar con conanza extrema.
Una manera de modelar los grados de conanza depositados en cada proposicin rele-
vante, o creencias, es utilizando una funcin : M( ) ![0; 1], con la interpretacin
de que mayores valores de denotan mayor conanza. De hecho, esta funcin de-
bera satisfacer otras propiedades naturales. Por ejemplo, monotonicidad. Sobre esto
volveremos ms adelante. Antes de eso necesitamos hacer un parntesis para discutir
problemas matemticos que surgen al considerar conjuntos de dimensin innita.
Se le llama lgebra M( ) a la familia de subconjuntos de con las siguientes
propiedades:
Axioma 22. ?; 2 M
Axioma 23. E 2 M)E
c
2 M
3. MEDIDA, PROBABILIDAD Y CREENCIAS 21
Axioma 24. E; E
0
2 M)E [ E
0
2 M
Se le llama lgebra a un lgebra tal que:
Axioma 25. Si la familia fE
i
g
1
i=1
satisface E
i
2 M 8i; E
i
\E
j
= ? 8i; j )
E [
1
i=1
E
i
2 M
Las familias f?; g y 2

son lgebras. Si es nito, entonces toda lgebra
es tambin una lgebra.
Observe que un lgebra tiene exactamente la estructura que necesitaramos
como dominio para las creencias. En efecto, necesitamos valorar eventos. Quisiramos
que la lista de eventos que valorramos contuviera a la contradiccin y a la tautologa;
que si podemos expresar que una proposicin es verdadera, que tambin podamos
expresar su negacin; y que si podemos describir dos eventos, que tambin podamos
describir la ocurrencia de alguno de ellos (observe que su ocurrencia simultnea se
puede describir como (E
c
[ E
0c
)
c
= E \E
0
). En una lgebra, la ocurrencia de un
conjunto innito de eventos tambin es expresable.
Pero existen distintas lgebras, algunas mayores que otras. Por ejemplo,
f?; g 2

. De hecho, estos son los casos extremos. Nosotros queramos usar
una funcin cuyo dominio fuese la mayor de las lgebras. Sin embargo, si es
innito, esto no es posible, como veremos a continuacin.
La nocin de medida generaliza la idea de longitud, rea o volumen. Aplicado
a objetos, nos interesara tener una manera de compararlos en estas dimensiones.
Una funcin que mida a una familia de objetos debera satisfacer las siguientes
propiedades:
1. (E
1
[ E
2
[ :::) = (E
1
) + (E
2
) + ::: fE
i
g
1
i=1
es una familia de conjuntos
disjuntos.
2. Si E es congruente con F (esto es, si E es transformable en F por medio de
traslaciones, rotaciones y reexiones), (E) = (F) :
3. (Q) = 1 )Q = fx 2 R
n
: 0 x
j
< 1 j = 1; :::; ng
(1) pide que si juntamos dos objetos, midan lo que la suma de sus partes
mide. (2) pide que la medida no dependa de la posicin en el espacio del objeto. (3)
pide que el intervalo unitario tenga una longitud de 1, el cuadrado unitario tenga un
rea de 1, etc. Ocurre que estas tres condiciones son mutuamente inconsistentes (verlo
no es tarea sencilla; por ejemplo, consulte Folland, p. 11). Alguna de las condiciones
debe ser relajada; lo habitual es renunciar a la aspiracin de medirlo todo. Por
ejemplo, una medida sobre R puede denirse con esas propiedades, siempre y cuando
se restrinja en dominio a la lgebra de Borel (los borelianos: todos los conjuntos
formados a partir de los intervalos (a; b), con a < b).
As, una medida en ( ; ) es una funcin : ![0; 1] tal que:
Axioma 26 (M1). (?) = 0, y
Axioma 27 (M2). Si fE
i
g
1
i=1
es una familia de conjuntos disjuntos, ([
1
i=1
E
i
) =
P
1
i=1
(E
i
) : (aditividad contable)
En este caso, los elementos de se dicen medibles.
4. UTILIDAD ESPERADA 22
De la misma forma, una medida de probabilidad (o simplemente proba-
bilidad") es una medida con las siguientes propiedades:
Axioma 28 (P1). ( ) = 1 (normalizacin)
Axioma 29 (P2). E E
0
) (E) (E
0
) (monotonicidad)
Observe que la probabilidad es una medida y por tanto tambin satisface M1
y M2, por lo que (?) = 0 y ([
1
i=1
E
i
) =
P
1
i=1
(E
i
) si los E
i
son disjuntos de a
pares.
En suma, expresaremos la lista de eventos a juzgar con una lgebra, y
deniremos una probabilidad sobre ella para indicar el grado de conanza que el indi-
viduo tenga en la materializacin de cualquiera de esos eventos (conjuntos medibles).
Observe que la monotonicidad es necesaria toda vez que la ocurrencia de E implica la
ocurrencia de E
0
, por lo que no tendra sentido que E
0
sea juzgado menos probable.
Se trata, entonces, de un requisito de coherencia.
4. Utilidad esperada
En el caso de decisiones bajo incertidumbre, pese a que el aparataje axiomtico
descrito en la seccin 1 no pierde validez, es con frecuencia til racionalizar la decisin
teniendo como punto de partida la evaluacin de las consecuencias de los actos en
lugar de tratar a los propios actos como primitivos de la teora. Observe que esto
conlleva una nocin ms fuerte de racionalidad que la mera coherencia (transitividad)
de la preferencia.
Procederemos de manera anloga al caso de certidumbre, es decir, escribiendo
en la forma de axiomas las caractersticas que pensamos las decisiones deberan tener
de manera de obtener predicciones comprobables. Una diferencia de nfasis, eso s, es
que ahora s necesitamos ser especcos respecto de que se trata de una desiderata
para decisiones pensadas. Racionalidad ahora involucra coherencia con respecto a
creencias, y por tanto llamamos a evaluacin explcita.
Suponemos que el individuo imagina una relacin entre actos a su disposicin
y sus consecuencias posibles. En el enfoque semntico, esto se puede describir especi-
cando una funcin de A ! C, especicando para cada acto a su consecuencia
en el estado de la naturaleza !; c = g(a; !); en un enfoque sintctico, su equivalente
es g (ajp), donde p es totalmente detallada.
Suponemos tambin que esta lista es correcta, en el sentido de que podemos
tener la certeza de que despus de escoger una acto a, solamente una de las conse-
cuencias especicadas en la funcin g(a; !) (de en C) puede ocurrir. Recuerde
que el problema que analizamos es el de la decisin bajo ignorancia, por lo que casi
por denicin las posibilidades que imagina el individuo salvo una son falsas. Sin
embargo, lo que exigimos es que considere un abanico de posibilidades suciente-
mente grande como para garantizar que no va a ocurrir algo que no est en esa lista.
Recuerde que esto est detrs del axioma de la verdad (k4 K4, dependiendo del
enfoque).
La Teora de la Utilidad Esperada postula que las preferencias de un individuo
tienen una representacin por medio de una funcin de utilidad muy particular: la
4. UTILIDAD ESPERADA 23
esperanza de una segunda funcin que evala las consecuencias posibles de los actos.
En realidad, existen distintas maneras de conseguir esta representacin, y que de hecho
constituyen teoras distintas. Por eso es quizs ms apropiado hablar del modelo de
la utilidad esperada, en contraposicin a la teora de la utilidad esperada. Estas
teoras dieren esencialmente en la interpretacin que se le da a la probabilidad con
respecto a la cual se toma la esperanza. En la teora de von Neumann y Morgenstern,
la probabilidad es objetiva; en la de Savage, subjetiva. Existen teoras intermedias,
como la de Anscombe y Aumann, pero nos concentraremos en los extremos.
4.1. von Neumann - Morgenstern. En la teora de von Neumann y Mor-
genstern imaginamos que los objetos de decisin, los cursos de accin, a 2 A, son
loteras sobre consecuencias. Suponemos C, el conjunto de consecuencias, es nito
(tiene n elementos), y que sobre C existe una relacin de preferencias (3; C); cuando
sea necesario o conveniente, tambin supondremos que esa relacin de preferencias es
representada por la funcin Bernoulli u(c). Digamos que indizamos a C, el conjunto
de consecuencias, por i = 1; 2; :::; n, usando el orden de preferencias, de manera que
c
i
2 c
i+1
para todo i:
Una lotera es un vector de dimensin n, indicando para cada consecuencia la
probabilidad con que se ella se obtendra de tomarse el curso de accin a representado
por la lotera. As, cada accin es una lotera distinta. El espacio de acciones,
entonces, es un subconjunto del smplex estndar
5
, 4
n1
: a 2 4
n1
.
Si e
i
es un vector (columna) de dimensin n, cuyo isimo elemento es un 1
y todo el resto de sus entradas son 0, entonces decimos que e
i
2 4
n1
es un vrtice
del smplex. Observe que e
i
correspondera al acto que tiene la consecuencia i en
cualquier evento. Luego, podemos situar las consecuencias en el espacio de actos,
denindolas como actos que con probabilidad 1 llevan a cada determinada conse-
cuencia. Esto es, las funciones de probabilidad degeneradas, o vrtices del smplex,
representan a las consecuencias. El orden (3; C), por tanto, induce un orden sobre los
vrtices del smplex. Los axiomas de von Neumann y Morgenstern permiten, en cierto
sentido, extender ese orden al resto del conjunto, por la va de imponer condiciones
razonables sobre la manera en que el individuo debiera comparar actos.
El smplex es un conjunto convexo: para a; a
0
2 4
n1
, a +(1 ) a
0
2 4
n1
.
De hecho, el smplex es el casco convexo del conjunto de sus vrtices. Entonces, es
posible imaginar loteras sobre loteras. Por ejemplo, una persona puede escoger tirar
una moneda al aire para elegir entre las acciones o loteras a y a
0
; consideramos esto
equivalente a una tercera accin, o lotera compuesta, a
00
=
1
2
a +
1
2
a
0
:
Mantenemos entonces los axiomas sobre las preferencias 1-3, que garantizan
un orden en A, (A; ) Agregamos:
Axioma 30 (vN-M4: continuidad, o arquimidiano). Si a a
0
a
00
, entonces
9p 2 [0; 1] tal que a
0
pa + (1 p) a
00
:
5
El smplex estndar es el conjunto denido por

x 2 R
n+1
: 8i; x
i
0; y
P
n
i=0
x
i
= 1

:
4. UTILIDAD ESPERADA 24
El axioma de continuidad pide que para cualquier tro de loteras comparables
bajo el orden de preferencia, exista siempre una composicin de las dos extremas que
le sea indiferente a la intermedia.
Axioma 31 (vN-M 5: independencia). Si a a
0
, entonces 8 2 (0; 1] se tiene
que a + (1 ) a
00
a
0
+ (1 ) a
00
:
En palabras, el componer de la misma forma a dos loteras con una tercera no
altera el orden de preferencias. La idea es que los elementos que conforman las loteras
no pueden ser complementarios ni sustitutos, sino independientes. Quizs esto es ms
fcil de apreciar si pensamos en a; a
0
y a
00
como vrtices (esto es, como consecuencias):
si la consecuencia representada por a es preferida a la representada por a
0
, entonces
una lotera que con probabilidad conduce a a y con probabilidad (1 ) conduce
a a
00
tambin debe ser preferida a la lotera que con probabilidad conduca a a
0
y
con probabilidad (1 ) a a
00
. Esto no sera as, por ejemplo, si a
00
fuese un muy
buen complemento de a
0
y por otro lado perjudicara a a: Un individuo que preera
la mermelada a las papas fritas sin sal probablemente no preferir la mermelada con
sal a las papas fritas con sal, precisamente porque la sal complementa bien a las
papas fritas, y daa a la mermelada. Sin embargo, el argumento para el axioma
de independencia es precisamente que la complementariedad no debera darse entre
dos consecuencias que son mutuamente excluyentes: mientras en el ejemplo anterior
el individuo consumira papas fritas con sal, o mermelada con sal, en el contexto
presente consumira la consecuencia de a la de a
0
, pero no ambas. De no suponerse
la independencia, la preferencia en un estado de la naturaleza dependera de lo que
podra haber ocurrido de haberse dado otro estado de la naturaleza. En ese sentido,
parece razonable postular que la decisin no debera depender de lo que podra haber
ocurrido si la situacin hubiese sido otra. Alternativamente, el axioma dice que la
decisin se basa en la diferencia entre dos opciones, y no en las coincidencias.
Lema 2 (monotonicidad). Sean a = a
00
+(1 ) a
000
y a
0
=
0
a
00
+(1
0
) a
000
dos loteras compuestas tales que a
00
a
000
. Entonces, a a
0
, >
0
:
Demostracin. En efecto, si tenemos a = a
00
+ (1 ) a
000
y a
0
=
0
a
00
+
(1
0
) a
000
dos loteras compuestas tales que a
00
a
000
, entonces >
0
) a a
0
:
Primero, observe que a a
000
, porque a
00
a
000
) a = a
00
+ (1 ) a
000
a
000
(por
independencia). Segundo, >
0
,

0

< 1, de manera que por independencia


tambin,
a a
000
) a =

1

0

a +

0

1

0

a
000
+

0

a
, a

1

0

a
000
+

0

(a
00
+a
000
(1 ))
, a (1
0
) a
000
+
0
a
00
= a
0
4. UTILIDAD ESPERADA 25
Finalmente,
a a
0
,a (1
0
) a
000
+
0
a
00
, a

1

0

a
000
+

0

a
pero como a a
000
, por continuidad 0

0

1 ,
0
: As, continuidad e
independencia implican monotonicidad.
Teorema 10 (de utilidad esperada). Si los axiomas 1-5 se satisfacen, en-
tonces existe una funcin U : A ! R que representa a %. Ms an, U tiene una
representacin como valor esperado: U(a) = E

[u(c)], en donde u(c) representa a


(3; C) :
Demostracin. Partimos del ordenamiento inducido por el de consecuencias:
e
n
% e
n1
% ::: % e
1
. Por continuidad (vN-M4), existen nmeros fu
i
g ; con u
i
2 [0; 1] ;
tales que e
i
u
i
e
n
+ (1 u
i
) e
1
: Por monotonicidad, u(c) representa a (3; C) (por
qu?) Por otro lado, cualquier acto en A puede escribirse como una combinacin
convexa de los vrtices del smplex. Tomemos dos actos: a =
P
i

i
e
i
y a
0
=
P
i

0
i
e
i
.
Ellos satisfacen:
a =
X
i

i
e
i

X
i

i
(u
i
e
n
+ (1 u
i
) e
1
) =
X
i

i
u
i
e
n
+

1
X
i

i
u
i
!
e
1
a
0

X
i

0
i
e
i

X
i

0
i
(u
i
e
n
+ (1 u
i
) e
1
) =
X
i

0
i
u
i
e
n
+

1
X
i

0
i
u
i
!
e
1
Pero por monotonicidad, tenemos a a
0
,
P
i

i
u
i
>
P
i

0
i
u
i
: De esta
forma, U(a) =
P
n
i=1

i
u(c
i
) representa a (A; %) :
Un inconveniente de la teora de von Neumann y Morgenstern es que las prob-
abilidades son exgenas, esto es, forman parte de la descripcin del problema de de-
cisin; la nica subjetividad posible es la que pueda caracterizar la funcin Bernoulli.
La consecuencia ms problemtica de este hecho radica en que es imposible denir
ignorancia, o tomar en cuenta de alguna forma la subjetividad de la percepcin del
individuo.
Una va de escape acaso sea considerar como relevantes probabilidades condi-
cionales en informacin parcial. Sin embargo, si un observador externo y un individ-
uo bajo estudio tienen informacin distinta, entonces ambos concebiran el problema
de decisin como compuesto por alternativas distintas, esto es, no estaran de acuerdo
en cul es el conjunto de opciones que enfrenta el individuo. En otras palabras, los
conjuntos de posibiliadades se volveran subjetivos. Si bien esto no es conceptual-
mente un problema serio, s lo es para efectos de vericar o falsicar la teora.
Savage, en cambio, parte de una denicin de acto ms sencilla (es decir,
con menos estructura), y desarrolla un conjunto de axiomas bsicos, de los cuales se
deduce la existencia de una probabilidad implcita en las preferencias (sobre actos) del
4. UTILIDAD ESPERADA 26
individuo (interpretable como creencia). La probabilidad, al estar imbuda en la pre-
ferencia sobre actos, pasa a ser tan subjetiva como la preferencia sobre consecuencias.
Ello permite pensar, entonces, en individuos con distintas creencias sin sacricar la
objetividad del conjunto de actos. La teora de Savage, entonces, es ms adecuada
para la descripcin de problemas de decisin bajo ignorancia.
4.2. Savage. Para Savage, un acto no es una lotera, sino simplemente una
funcin a : ! C, donde (C; 3) est ordenado por esa preferencia ex post. Se
asume una preferencia sobre el conjunto de actos (%; A), y se le impone la siguiente
estructura una estructura que resulta nalmente en la existencia de una probabilidad
subjetiva, y en una representacin de utilidad esperada (donde la esperanza se toma
respecto de esa creencia) para la preferencia sobre actos.
Savage desarrolla su teora suponiendo que tanto el conjunto de estados como
el conjunto de actos tienen la cardinalidad del continuo. Lo empuja a esto el deseo
de conseguir una representacin nica de la creencia
6
, lo que evidentemente no era
un tema en la teora de von Neumann y Morgenstern. La desventaja prctica de ese
enfoque para los propsitos de este curso es que lleva nuestras necesidades matemti-
cas ms all de nuestros lmites. Por eso, vamos a mirar someramente la teora de
Savage, y con ms detalle la adaptacin que hace Gul (1992) de ella. Partimos por la
versin de Gul (1992, 1993). En lo que sigue, decimos que dos actos a y b coiciden
en el evento E, si ambos tienen las mismas consecuencias en todos los estados que
conforman a E, esto es, c (aj!) = c (bj!) 8! 2
_
E; en ese caso, escribimos a =
E
b:
Por favor tenga en mente que la frase a =
E
b no dice nada respecto de lo que ocurra
en E
c
: Por otro lado, decimos que un acto es constante si existe c 2 C tal que
c (aj!) = c para todo ! 2 ; escribimos por simplicidad a =

c (tome nota de que
usaremos a y b para actos, y c para consecuencias), o simplemente le llamamos c al
acto constante que redunda en _ c: Denimos la relacin de preferencia condicional
de la siguiente forma: a b dado E (denotado por a
E
b) si a
0
b
0
, donde a
0
=
E
a
y b =
E
b
0
, y a
0
=
E
c b
0
:. As, decimos que el evento E es nulo si 8a; b 2 A, a
E
b:
Finalmente, escribimos aEb para denotar al acto que coincide con a en el evento E y
con b en E
c
:
Axioma 32 (1-3). % es una relacin de preferencias sobre A.
Axioma 33 (4). 8a 2 A; los conjuntos M (a) = fb 2 Ajb % ag y P (a) =
fb 2 Aja % bg son cerrados.
Este es un el mismo axioma de continuidad de la teora general de la eleccin.
Observe, sin embargo, la diferencia con el axioma vN-M4: mientras ese axioma explota
la estructura impuesta en A, ac se debe volver a la formulacin general. Observe,
por otra parte, que estamos implcitamente exigiendo cierta estructura sobre A: debe
ser un conjunto tal que el apelativo de cerrado tenga sentido.
Axioma 34 (G5). c 3 c
0
) c % c
0
: Ms an, existe E tal que cEc
0

c
0
E
c
c:
6
Sin embargo, ver los comentarios adicionales en la subseccin siguiente.
4. UTILIDAD ESPERADA 27
La primera parte del axioma G5 dice que dos actos constantes son comparados
de la misma manera en que se comparan sus consecuencias. Lo que se hace es respetar
el orden sobre actos que induce el orden sobre consecuencias (consecuencialismo). La
segunda parte, en cambio, pide la existencia de una particin de en un par de
eventos igualmente probables.
Axioma 35 (G6). Si a
0
aEd ^ b
0
bEd para todo E no nulo, a b ,
a
0
b
0
:
El axioma G6 es anlogo al de independencia, prescindiendo por supuesto de
la referencia a la idea de probabilidad. Esencialmente lo que dice es que mezclar dos
actos con un tercero no altera el orden de preferencias si la mezcla se hace de igual
forma (esto es, en los mismos estados), precisamente porque no existe complemen-
tariedad entre consecuencias. Ahora bien, observe que esta idea se extiende de modo
que se aplique no slo a las mezclas, sino a actos que el individuo clasica en el mismo
nivel de preferencia.
Teorema 11 (Gul). Si se cumplen los axiomas G1 a G6, entonces 9 una
medida de probabilidad sobre 2

y una funcin u : C !R tales que:
1. a b ,
P
!
[ (!) u(c (aj!))] >
P
!
[ (!) u(c (bj!))] ;
2. u es continua y estrictamente creciente;
3. si (1) se obtiene cuando la medida es reemplazada por la medida
0
y u por
u
0
, entonces
0
= y u
0
= u + para algn > 0:
Tenemos, entonces, una nica medida de probabilidad que representa a la
creencia. La unicidad de esta medida se obtiene, a su vez, de la unicidad (salvo por
transformaciones lineales positivas) de la funcin Bernoulli:
c c
0
Ec
00
,u (c) = (E) u(c
0
) + (1 (E)) u(c
00
)
, (E) =
u(c) u(c
00
)
u (c
0
) u(c
00
)
=
+u(c) u(c
00
)
+u (c
0
) u (c
00
)
de manera que cada evento en el lgebra tiene asociado un nico valor, sin importar
la escala de la funcin Bernoulli.
Los axiomas de Savage (1957) son los siguientes:
Axioma 36 (S1: no trivialidad). 9c; c
0
2 C : c c
0
Axioma 37 (S2). a; a
0
; b; b
0
2 A; E :
a =
E
a
0
^ b =
E
b
0
a =
E
cb ^ a
0
=
E
c b
0
) a b , a
0
b
0
a = a
0
Eb ^ b = b
0
Ea ^ b
0
= bEa
0
(Alternativamente, podemos escribir
a = a
0
Eb ^ b = b
0
Ea ^ a
0
= aEb
0
^ b
0
= bEa
0
) a b , a
0
b
0
)
4. UTILIDAD ESPERADA 28
Axioma 38 (S3). Si E no es nulo, y si a =
E
c y b =
E
c
0
; )a
E
b ,c c
0
:
Axioma 39 (S4). Si c; d; c
0
; d
0
2 C, a; a
0
; b; b
0
2 A, E; F satisfacen:
c d ^ c
0
d
0
a = cEd ^ a
0
= c
0
Ed
0
b = cFd ^ b
0
= c
0
Fd
0
) a b , a
0
b
0
(porque a b , P (E) > P (F) ,a
0
b
0
:)
Definicin 2. Denimos la relacin binaria ms probable en ( ) ; deno-
tada

; de acuerdo a: E; F 2 ( ) ;
E

F ,
8c; c
0
2 C tales que c c
0
;
a = cEc
0
y b = cFc
0
a b
(por el axioma anterior, no importa cules son c y c
0
).
Axioma 40 (S5: principio de la cosa segura).
a
E
c (bj!) 8! 2 E )a %
E
b
c (bj!)
E
a 8! 2 E )b %
E
a
El principio de la cosa segura es probablemente muy intuitivo: si un acto es
considerado mejor que cualquiera de las consecuencias de otro acto, entonces debe ser
preferido. Inversamente, si es considerado peor que cualquiera de las consecuencias de
otro acto, entonces el otro debe ser preferido. Note que este axioma no es meramente
trasladar las preferencias sobre consecuencias a preferencias sobre actos; lo que hace
es exigir que el riesgo no importe cuando existe una relacin de dominancia entre las
consecuencias de dos actos.
Axioma 41 (S6). 8a; b 2 A tales que a b, y 8c 2 C, existe una particin
nita H de tal que 8h 2 H;
a
0
= cha )a
0
b
b
0
= chb )a b
0
Este es un requisito de continuidad: para toda consecuencia, sin importar qu
tan buena o mala sea, existe un evento sucientemente pequeo (en el sentido de
importancia que el individuo le asigne) tal que si se mezcla con l un acto en ese
evento, el acto mezclado se mantiene en el mismo lugar de preferencia que el original.
Teorema 12 (Savage). Si se cumplen los axiomas S1 a S6, entonces:
1. 9! medida de probabilidad en ( ) tal que E

F , (E) > (F) :
2. 8E 2 ( ) y r 2 [0; 1], 9F E : (F) = r (E) :
4. UTILIDAD ESPERADA 29
3. Para ; 9u : C !R acotada, tal que a b ,E [u(c
!
(a)) ; ] > E[u(c
!
(b)) ; ].
Ms an, u es nica salvo por transformaciones lineales positivas.
La demostracin de este teorema requiere un nivel de matemticas superior al
de este curso (vase, por ejemplo, Savage 1957 Kreps 1988). Sin embargo, vale la
pena hacer ciertas observaciones.
En primer lugar, su principal caracterstica: la deduccin de una medida de
probabilidad de la estructura en la manera que el individuo se comporta. Como
decamos, la probabilidad est implcita en la preferencia y es, por tanto, subjetiva.
La medida de probabilidad es nica porque el conjunto de comparaciones se forz
a un tamao que lo permitiera. Eso se observa en la segunda conclusin: que cada
evento es innitamente divisible.
En segundo lugar, tenemos una representacin de la preferencia de la forma
de una esperanza de una funcin Bernoulli, tomada respecto de la medida de proba-
bilidad anterior. u es cuasi-cardinal, mientras que U es ordinal.
Finalmente, a partir de esa funcin de utilidad, podemos denir un conjunto
de funciones de utilidad que representen a las preferencias condicionales, una para
cada evento. Sucede que esas preferencias se obtienen de aplicar la regla de Bayes
sobre : en la nueva preferencia, el evento E
c
pasa a ser nulo.
4.3. Comentarios adicionales. Normalmente el teorema de Savage se inter-
preta como deduciendo una funcin de utilidad nica salvo por transformaciones
montonas crecientes, y en que la probabilidad satisface la regla de Bayes. En rea-
lidad, existen muchas otras representaciones, en que la funcin Bernoulli no es con-
stante. Respecto de ellas, la secuencia de creencias condicionales no obedece la regla
de Bayes. Karni (2004) identica un conjunto de axiomas que permiten descartar
estas otras representaciones. En otras palabras, la axiomatizacin de Savage (o la de
Gul, de la misma forma), no despeja la duda sobre la coherencia de las creencias del
individuo una vez que la preferencia condicional se explota para obtener una versin
dinmica de la teora.
5. COHERENCIA EN DECISIONES DINMICAS 30
5. Coherencia en decisiones dinmicas
Tanto la teora de von Neumann y Morgenstern como la de Savage son esen-
cialmente estticas. Sin embargo, es posible interpretarlas como teoras dinmicas si
el objeto de eleccin es de hecho una secuencia (temporal) de actos. La pregunta que
surge en este contexto es: si una vez que el individuo ha escogido su plan de accin
y cuando ya han pasado algunas fechas, se le diera la oportunidad de cambiarlo, lo
hara? Hablando vagamanete, si la respuesta es s diremos que sus decisiones no son
coherentes en el tiempo. En este caso, esencialmente estamos en presencia de dos
preferencias distintas sobre la misma secuencia de actos. El problema de la coheren-
cia intertemporal es muy importante desde el punto de vista normativo: si la gente
acta de forma incoherente, a cul de las encarnaciones de una persona se debiera
considerar en el anlisis de bienestar? Esta pregunta no tiene una respuesta sencilla
(an cuando algunos autores han sugerido que se debiera cambiar el foco, de individ-
uos a individuos-fecha; esto es, a considerar a todas las encarnaciones de la misma
persona como individuos distintos, y basar el anlisis de bienestar en el criterio de
Pareto). En esta seccin, sin embargo, nos concentramos en las condiciones que debe
satisfacer una preferencia para ser coherente, sin deternernos en el tema del bienestar.
5.1. Certidumbre. Para jar ideas, consideremos el siguiente problema discu-
tido por Hammond (1976): una persona decide si probar o no una droga. El riesgo
que corre es el de convertirse en adicta. Si no prueba la droga, no hay decisiones
futuras. Si la prueba, en cambio, deber decidir en una fecha futura si abandona su
consumo o no. Digamos que a representa a la decisin (o cadena de decisiones) probar
y abandonar, b a probar y no abandonar, y c a no probar. Esto lo representamos por
medio del siguiente rbol de decisin:
1
a
b
c
1
1
a
b
c
1
Como comentramos al comienzo del curso, fuera del contexto del axioma 0,
debemos separar la preferencia referida a comporamiento (que denotamos por
C
)
de la referida al bienestar del individuo (que denotamos por
B
).
Supongamos, ms an, que el ordenamiento de actos en t = 0 es a
B
0
c
B
0
b,
y en t = 1; c
B
1
b
B
1
a, representando la adiccin: preferira nunca haber probado
la droga, pero dado que la prob preere seguir consumindola. Existen distintos
modos de comportamiento en que podemos pensar:
5. COHERENCIA EN DECISIONES DINMICAS 31
1. Comportamiento miope o ingenuo: el individuo no toma en cuenta al decidir
que en futuro posiblemente modicar los planes que haga hoy. Entonces,
en t = 0 escoge a, y en t = 1 escoge b. Los datos a

(fa; b; cg) = a y
a

(fa; bg) = b son incoherentes, por lo que no es posible construir una nica
preferencia
C
que racionalice este comportamiento. Es necesario construir
dos (por ejemplo, podemos usar las preferencias
B
t
, pero en ese caso las
decisiones son intertemporalmente incoherentes.
2. Comportamiento sosticado: el indivuo prev el cambio futuro de planes,
por lo que escoge c. Pero entonces, su comportamiento estara dado por:
a

(fa; b; cg) = c, a

(fa; cg) = a y a

(fa; bg) = b. Nuevamente esta regla de


decisin es incoherente, en el sentido que no existe una relacin de preferen-
cias sobre actos de la cual puedan venir estas decisiones.
La observacin ltima de Hammond es que una preferencia incoherente es
esencialmente incoherente: adaptaciones de comportamiento para lidiar con la in-
coherencia original no la hacen cohrerente.
Hammond discute tambin la posibilidad del compromiso. Cuando Ulises
se amarra al mstil, le impide moverse a su encarnacin futura, esa que escucha a
las sirenas y las sigue. En ese caso, decimos que se compromete a no seguirlas.
Observe que el compromiso viene de restringir el conjunto de posibilidades, y no de
cambiar la preferencia de su encarnacin futura por la va de la persuasin o de alguna
otra manera. Hammond apunta, entonces, acertadamente a nuestro parecer, que la
posibilidad del compromiso comporta un conjunto de posibilidades particular, y se
reere entonces ms al espacio de acciones disponibles que a la forma de la preferencia
(sea de bienestar o conductual), en lnea con el trabajo reciente de Gul y Pesendorfer
(2003).
La teora del consumo intertemporal se enmarca en un contexto ligeramente
distinto: los objetos de eleccin son secuencias (nitas o innitas) de la forma a =
(c
0
; c
1 ;
:::; c
T
; :::): t denota tiempo calendario. Usaremos a
t
para denotar a una se-
cuencia nita que termina en t, y por a
t
a la secuencia (innita si el problema lo es)
que comienza en t. Inicialmente (en la fecha t = 0) existe un conjunto de secuencias
que se vislumbra posible: A. Cuando ha transcurrido un perodo, y ya habiendo si-
do escogido c
0
, ya no son factibles las secuencias que comienzan con c
0
0
. Denimos
entonces el conjunto de lo factible como A(c
0
) = fa 2 Ajc
0
= c
0
g, y procedemos de
igual forma para denir en general A(a
t1
). A(a
t
) es en realidad un rbol con tronco
a
t1
: En este contexto, decimos que la preferencia es intertemporalmente coherente si
para todo t tenemos que a % a
0
)a
t
% (a
0
)
t
: La idea es que si un plan de consumo es
escogido en la fecha 0, con el paso del tiempo el individuo est conforme continuando
su ejecucin: si se le ofrece la opcin de revisar su plan, no desea hacerlo.
Otro ingrediente comn en la teora del consumo intertemporal es el deseo
de contar con una funcin de utilidad aditiva, con un componetente de utilidad
instantnea o corriente (dependiendo de si se considera tiempo continuo o discreto)
u(c
t
; ), donde t es la fecha calendario y el nmero de perodos que faltan para que
llegue t. Ms an, esta funcin se asume separable en un componente estacionario
5. COHERENCIA EN DECISIONES DINMICAS 32
otro que depende de :
u(c
t
; ) = f () u(c
t
)
La funcin f () es la funcin de descuento. Oberve que hace que la preferencia
cambie con la distancia a la que se encuentra el consumo que se evala. Esto, porque
est la idea de que lo que ocurra en el futuro lejano es menos importante que lo
que ocurra en el cercano (f decreciente). Pero esto signica que a priori estamos
pensando en que la funcin de utilidad de que van a salir las decisiones cambia en
el tiempo: a medida que t avance, el consumo en t
0
est a una distancia = t
0
t
menor. As, consideramos a la familia de funciones de utilidad de la forma:
U
t
(c
0
; c
1
; :::) =
1
X
t
0
=0
f (t
0
t) u(c
t
0 )
Observe que si
U
t
(c
0
; c
1
; :::; c
T
) =
T
X
t
0
=0

(t
0
t)
u(c
t
0 )
la familia completa se genera tomando transformaciones lineales de U
0
:
U
t
(c
0
; c
1
; :::; c
T
) =
1

t
T
X
t
0
=0

t
0
u(c
t
0 )
por lo que podemos decir que se trata de una misma preferencia a lo largo de la vida.
Luego, la funcin de utilidad con descuento exponencial genera decisiones intertem-
poralemente coherentes. Un resultado quizs sorprendente es que de hecho esta es
la nica funcin dentro de la familia que estamos considerando con esta propiedad:
cualquier otra funcin de descuento genera decisiones incoherentes.
Para ver esto, cambiaremos al equivalente en tiempo continuo:
U
t
(c (t
0
)) =
Z
1
0
f (t
0
t) u(c (t
0
)) dt
0
=
Z
1
0
e
(t
0
t)
u(c (t
0
)) dt
0
Miramos la tasa marginal de sustitucin entre t
0
y t
0
+j para un t jo:
TMS =
f (t
0
t) u
0
(c (t
0
))
f (t
0
+j t) u
0
(c (t
0
+j))
Queremos que la TMS no dependa de t :
dTMS
dt
= 0
5. COHERENCIA EN DECISIONES DINMICAS 33
Diferenciando, tenemos:
dTMS =
f
0
(t
0
t) u
0
(c (t
0
)) f (t
0
+j t) u
0
(c (t
0
+j)) +f
0
(t
0
+j t) u
0
(c (t
0
+j)) f (t
0
t) u
0
(c (
f (t
0
+j t) u
0
(c (t
0
+j))
dTMS
dt
= 0 )
f
0
(t
0
t)
f (t
0
t)
=
f
0
(t
0
+j t)
f (t
0
+j t)
para todo j. Luego,
f
0
(t
0
t)
f (t
0
t)
= k
) lnf (t
0
t) = k (t
0
t)
, e
k(t
0
t)
= f (t
0
t)
El requisito de k < 0 se obtiene de imponer e
k(t
0
t)
< 1 para (t
0
t) > 0 :
e
k(t
0
t)
< 1
) k (t
0
t) < ln 1 = 0
5.2. Incertidumbre. Si al problema anterior le aadimos incertidumbre, en-
tonces el consumo en cada fecha es desconocido de antemano. Podemos modelar esto
imaginando un rbol de movimientos de la naturaleza: consideramos un conjunto
de estados (con la interpretacin habitual, de que el conocimiento del estado equiv-
ale al conocimiento de todo lo relevante), y una secuencia de particiones (ltracin)
de ; fH
t
g
1
t=0
, donde H
t
es ms na que H
t1
(esto es, h
t
(!) h
t1
(!) para todo t
y todo !). En este contexto, una secuencia innita corresponde a un nico !:
Si tomamos la perspectiva de un observador externo omnisciente, que conoce !,
podramos anticipar todo lo que el individuo sabr a lo largo de su vida: en t = 0 sabe
, en t = 1 sabe h
1
(!) ; etc., esto es, va conociendo perodo a perodo la secuencia
de eventos fh
t
(!)g
1
t=0
: Observe que el evento indica adems la fecha, por lo que
h
t
(!) denota tanto el momento en que se consume o decide, como la circunstancia.
Respecto del caso de certidumbre, lo que tenemos es que cada fecha se dividi en
tantas partes como celdas tenga la particin H
t
.
El conjunto de lo factible toma ahora la forma de un conjunto de planes con-
tingentes de consumo: cunto consumir en cada evento h
t
posible.
Tomamos entonces lo aprendido en la seccin anterior, esto es, consideramos
la familia de funciones de utilidad aditivas en el tiempo con descuento exponen-
cial, agregamos el supuesto de una utilidad instantnea de la forma von Neumann-
Morgenstern, y volvemos sobre la pregunta de qu se debe pedir a esa coleccin de
funciones de utilidad para que las decisiones que produzcan sean intertemporalmente
coherentes.
La respuesta resulta ser extraordinariamente simple (y quizs sorprendente):
la familia de funciones de utilidad U
t

c
h
t
0

produce decisiones coherentes en el


tiempo si y slo si:
5. COHERENCIA EN DECISIONES DINMICAS 34
1. Cada funcin de utilidad, en cada nodo h
t
, es de la forma:
U
ht

c

; fc
h
1
g
h
1
2H
1
; :::;

=
T
X
t
0
=0

(t
0
t)
X
h
t
0 2H
t
0

ht
(h
t
0 ) u

c
h
t
0

;
y
2.
ht
(h
t
0 ) =
(ht\h
t
0 )
(ht)
(h
t
0 jh
t
) :
En palabras, el requisito es que la funcin de utilidad de cada fecha-evento U
ht
sea obtenida de una misma funcin U
0
, en que las probabilidades han sido actualizadas
(de acuerdo a la regla de Bayes) condicionales en el evento respectivo h
t
.
Ver que la regla de Bayes (unida al descuento exponencial) genera decisiones
coherentes es relativamente sencillo: la actualizacin bayesiana de la probabilidad
produce ajustes proporcionales en las probabilidades, por lo que no cambian los pesos
relativos de dos eventos que se mantengan como posibles. Es decir, la secuencia de
funciones de utilidad generada a partir de actualizaciones bayesianas de las creencias
es una secuencia de transformaciones montonas crecientes de la funcin de utilidad
original.
Ver que si las creencias en dos fechas o eventos distintos no satisfacen la regla
de Bayes, la coherencia se pierde, es un poco ms complejo. Suponga que es
nito, y que la funcin
P
!2

!
u(c
!
) representa a la preferencia incondicional (; A).
Recuerde la denicin de preferencia condicional en el evento E de Savage: a
E
b ,
a
0
b
0
donde c
!
(a
0
) = c
!
(b
0
) 8! 2 E
c
; y .c
!
(a
0
) = c
!
(a) y c
!
(b
0
) = c
!
(b) 8! 2 E.
Proposicin 1.
P
!2E
!
(E)
u(c
!
) representa a (
E
; A) :
Demostracin. Por hiptesis, a
0
b
0
,
P
!2

!
u(c (a
0
; !)) >
P
!2

!
u(c (b
0
; !))
lo que equivale a
X
!2E

!
u(c (a
0
; !)) +
X
!2E
c

!
u(c (a
0
; !))
>
X
!2E

!
u(c (b
0
; !)) +
X
!2E
c

!
u(c (b
0
; !))
, (E)
X
!2E

!
(E)
u(c (a
0
; !)) + (E
c
)
X
!2E
c

!
(E
c
)
u(c (a
0
; !))
> (E)
X
!2E

!
(E)
u(c (b
0
; !)) + (E
c
)
X
!2E
c

!
(E
c
)
u(c (b
0
; !))
pero c
!
(a
0
) = c
!
(b
0
) 8! 2 E
c
: Luego,
, (E)
X
!2E

!
(E)
u(c (a
0
; !)) > (E)
X
!2E

!
(E)
u(c (b
0
; !))
,
X
!2E

!
(E)
u(c (a
0
; !)) >
X
!2E

!
(E)
u(c (b
0
; !))
, a
E
b
5. COHERENCIA EN DECISIONES DINMICAS 35
Observe el rol que juegan en esto (1) la aditividad de la funcin von Neumann-
Morgenstern, y (2) la proporcionalidad de las probabilidades condicionales.
CAPTULO 3
Informacin en la toma de decisiones
En este captulo nos concentramos en el efecto que los cambios en el conocimien-
to de un individuo tienen en su comportamiento. Se debe tener presente que si
suponemos que su funcin de informacin es particional, entonces todo cambio en
conocimiento es exgeno, esto es, el individuo advierte un cambio en su ambiente
lo que afecta su conocimiento. Descartamos la posibilidad de que el individuo tenga
segundos pensamientos, o modique conclusiones que previamente mantena, sin que
de por medio haya cambios externos. Esto, porque como veamos previamente, si su
funcin de informacin es particional, entonces saber algo y no saber algo son eventos
evidentes en s mismos.
Observe que las variaciones en el ambiente nos fuerzan a pensar en una dimen-
sin temporal, de modo que necesariamente debemos considerar decisiones dinmicas,
donde la coherencia y consistencia en las decisiones es una propiedad fundamental.
En este captulo, como en la mayor parte de la literatura de informacin, nos con-
centramos en el caso de las preferencias representables por medio de una funcin de
utilidad esperada, y aditiva intertemporalmente con descuento exponencial, de modo
que slo estudiaremos decisiones coherentes y consistentes.
Estos cambios exgenos en el conocimiento del individuo, o informacin, mod-
icarn sus creencias. Lo que se quiere retratar es el efecto que cambios exgenos en
las creencias de uno o varios individuos pueda tener en su comportamiento. Interesa,
por ejemplo, entender el efecto que una noticia tiene en la disposicin a pagar por
un activo de una persona; la informacin privilegiada en los precios de los activos; el
efecto de diversas metodologas de venta de un activo sobre el precio que permitan
conseguir; el efecto de diversos modos de organizacin de la actividad econmica en
las asignaciones que produzcan, etc.
Pese a las crticas al modelo de la Utilidad Esperada discutidas previamente,
en este captulo se usa exclusivamente este enfoque. La razn es simple: sabemos
cmo modelar informacin por medio de la idea de la probabilidad condicional; no
sabemos condicionar, por ejemplo, con capacidades u otras representaciones de las
creencias. Ms adelante, cuando discutamos sobre la informacin en juegos, ten-
dremos la oportunidad de revisar algunos resultados que prescinden de la nocin de
probabilidad.
1. Informacin como renamiento particional
El conocimiento de un individuo est implcito en su particin de informacin
(de ). Imaginamos una fecha inicial t = 0 en la cual P
0
(!) = . En un momento
36
1. INFORMACIN COMO REFINAMIENTO PARTICIONAL 37
posterior, t = 1, ocurre un evento E: Lo que el individuo sea capaz de percibir
est implcito en una segunda particin, P
1
(!). En ese momento, al ocurrir E,
el conjunto de estados que considera posibles est dado por P(E) [
!
0
2E
P(!
0
).
Observe que P(E) extiende la denicin de la funcin de informacin a eventos, esto
es, a la lgebra que dene la percepcin del individuo en la fecha correspondiente.
Observe que no en todos los escenarios se sabe de la ocurrencia de E. En el ejemplo
del prximo dibujo, slo en el evento del medio el individuo sabe de la ocurrencia
de E, esto es, en todos los escenarios que considera posibles son compatibles con la
ocurrencia de E.
K(E)
E
O
P(E)
K(E)
E
O
P(E)
Ahora bien, si cuando ocurre E el individuo se entera exactamente de eso,
entonces K (E) = E = P (E). En ese caso, las celdas de la particin H
t
inducida por
la funcin de informacin P
t
representan a todos los eventos que el individuo podra
percibir en t.
Si el individuo no olvida, entonces su conocimiento siempre redunda en un
renamiento de su particin de informacin a travs del tiempo.
Definicin 3. Sean H
1
y H
2
dos particiones de un conjunto X. Decimos que
H
1
es ms na que H
2
(H
1
% H
2
) si para todo ! 2 tenemos que h
1
(!) h
2
(!),
donde h

(!) representa a la celda de la particin H

que contiene a !:
Observe que mientras ms na es la particin, ms elementos tiene. Por eso,
puede usarse como regla nemotcnica que, bajo ese orden, mayor signica ms
elementos. Observe tambin que la relacin de neza (o en su defecto, la de
grosor) ordena parcialmente al conjunto de las particiones de , H( ) : Ms an,
(H( ) ; %) tiene la estructura de un reticulado:
Definicin 4. Un conjunto parcialmente ordenado (X; <) es un reticulado
(lattice) si y slo si
x ^ y = inf fx; yg 2 X (\meet)
x _ y = supfx; yg 2 X (\join)
El reticulado es completo si 8Y X;

sup fY g
inf fY g
2 Y .
Proposicin 2. El conjunto de las particiones de , H( ) ; junto al orden
parcial ms no %, es un reticulado.
2. INFORMACIN COMO VARIABLE 38
Demostracin. % induce un orden parcial en P( ) :
Reeja: H % H ,h(!) h(!) 8! 2
Antisimtrica: H % H
0
y H
0
% H , h(!) h
0
(!) y h
0
(!) h(!) ) h(!) =
h
0
(!) 8! 2 , esto es, H = H
0
:
Transitiva: H % H
0
y H
0
% H
00
, h(!) h
0
(!) y h
0
(!) h
00
(!) ) h(!)
h
00
(!) 8! 2 , esto es, H % H
00
:
Por otro lado, H
0
^H
00
= inf fH
0
; H
00
g = fh(!) : h(!) h
0
(!) y h(!) h
00
(!) 8! 2 g 2
H( )
H
0
_ H
00
= supfH
0
; H
00
g = fh(!) : h
0
(!) h(!) y h
00
(!) h(!) 8! 2 g 2 H( ) :

Observacin 3. Bajo el orden ms no, el nmo corresponde a la parti-


cin ms na que es menos gruesa que todas (meet) y el supremo a la ms gruesa
que es ms na que todas (join).
Ejemplo 6. Considere las particiones de = fa; b; c; d; eg H
1
= ffa; bg ; fc; dg ; fegg
y H
2
= ffag ; fb; cg ; fd; egg. H ^ H
0
= inf fH; H
0
g = ffa; b; c; d; egg y H _ H
0
=
sup fH; H
0
g = ffag ; fbg ; fcg ; fdg fegg :
2. Informacin como variable
A menudo es til separar la descripcin de un estado entre eventos puramente
informacionales (x) y eventos que afectan los pagos (y):
! = (x; y)
donde el modelo implcito es de la forma
u (a; y)
donde a 2 A es una accin, y 2 Y un estado que afecta los pagos, y u(a; y) el pago
del jugador en ese esenario. En este caso, escribimos
(!) = f (x; y) ;
y donde probabilidad condicional se dene de la manera habitual. Esta separacin
es particularmente til cuando el conocimiento de un hecho no permite descartar
ningn valor de Y . An en este caso, sigue siendo cierto que se ren : P (x) =
f(x; y) : y 2 Y g :
Observe que la informacin puede ser cualquier x o cualquier unin de x
0
s
(evento). Si X e Y son intervalos de los reales (como ocurre comnmente en apli-
caciones), entonces nuestra discusin previa sobre las posibilidades de denir una
medida sobre todos los subconjuntos de R se aplica directamente. Los eventos (o ele-
mentos de la lgebra) sobre los cuales podemos denir la probabilidad es de hecho
la lgebra de Borel, esto es, la generada por uniones o intersecciones arbitrarias
de intervalos abiertos o, equivalentemente, de cerrados. (fy 2 (y
0
; y
1
)g) se dene
por la frmula (fy 2 [y
0
; y
1
]g) = F (y
1
) F (y
0
), donde F se dene a su vez como
F (y) = (fy 2 (1; y)g). F (y) es creciente porque la probabilidad es montona
(por axioma). Entonces, (!) = f (x; y) es un abuso de notacin, abuso que nos
2. INFORMACIN COMO VARIABLE 39
permitiremos cuando no provoque confusin, esto es, cuando la densidad f (x; y) sea
continua.
Por teorema de Bayes, decimos que e x es informativo respecto de e y si
f (x; y)
f (x)
f (yjx)
| {z }
creencia a posteriori
6= f (y)
|{z}
creencia a priori
Luego, la variable x es informativa sobre y si y slo si no son independientes.
Observe que aqu modicamos la nomenclatura. Antes nos referamos a
como la creencia a priori sobre , y a la redistribucin proporcional de sobre un
evento E;
jE
, como la creencia condicional en E. Ahora le llamamos creencia a priori
a la marginal de sobre Y , y creencia a posteriori a la marginal de
jE
sobre Y .
Entonces, x es informativa respecto de y si x afecta la creencia a posteriori.
En lo que sigue, suponemos que X e Y son subconjuntos acotados de R; de
manera que
sop (f
x
) [a; b] = Y
Un criterio para comparar funciones de probabilidad (o densidades) es a travs
de la dominancia estocstica.
2.1. Dominancia estocstica de primer orden.
Definicin 5. Se dice que una variable aleatoria y
1
con funcin de densidad
f
1
(y) domina estocsticamente (en primer orden) a otra variable aleatoria y
2
con
funcin de densidad f
2
(y) (denotado por y
1
D
1
y
2
) ssi
y
Z
a
f
1
(t)dt
y
Z
a
f
2
(t)dt 8y 2 [a; b]
Claramente estamos pensando en y
1
como la creencia a posteriori sobre y, dada
la seal x
1
, esto es,
y
1
f
1
(y) f (yjx
1
) ;
y as para toda seal (o unin de ellas). De igual modo, F
1
denota a la acumulada
condicional en x
1
;
F
1
(y)
y
Z
a
f
1
(t)dt
Condiciones sucientes para que y
1
domine en primer orden a y
2
son:
1. F
1
(y) es ms elstica que F
2
(y) ; esto es,

y
F
1
dF
1
dy

y
F
2
dF
2
dy

8y
2. INFORMACIN COMO VARIABLE 40
En efecto,

y
F
1
dF
1
dy

y
F
2
dF
2
dy

)
F
0
1
F
1

F
0
2
F
2
Z
t
s
dy
)
Z
t
s
F
0
1
F
1
dy
Z
t
s
F
0
2
F
2
dy
, lnF
1
(t) lnF
1
(s) ln F
2
(t) ln F
2
(s)
, ln
F
1
(t)
F
1
(s)
ln
F
2
(t)
F
2
(s)
)
F
1
(t)
F
1
(s)

F
2
(t)
F
2
(s)
,
F
1
(t)
F
2
(t)

F
1
(s)
F
2
(s)
para todo s < t, en particular para t = b :
) 1
F
1
(s)
F
2
(s)
, F
2
(s) F
1
(s) 8s
Por ejemplo, la familia F
n
(y) =

y
n
si y 2 [0; 1]
0 si no
, para n = 1; 2; ::: satis-
face esta condicin. En efecto, f
n
(y) = ny
n1
es una densidad:
Z
1
0
ay
a1
dy = lm
y!0+
(y
a
+ 1) = 1;
y la elasticidad
y
F
n
dF
n
dy
=
y
y
n
ny
n1
= n
es creciente en n. El grco de la familia F
n
es:
1 0.75 0.5 0.25 0
1
0.75
0.5
0.25
0
x
y
x
y
1 0.75 0.5 0.25 0
4
3
2
1
0
x
y
x
y
2. INFORMACIN COMO VARIABLE 41
2. La razn de verosimilitud es montona, esto es,
f
1
(y)
f
2
(y)
es creciente en y
En efecto, para todo s < t tendramos:
F
0
1
(s)
F
0
2
(s)

F
0
1
(t)
F
0
2
(t)
) F
0
1
(s)
F
0
1
(t)
F
0
2
(t)
F
0
2
(s)
Z
t
a
ds
)
Z
t
a
F
0
1
(s) ds
F
0
1
(t)
F
0
2
(t)
Z
t
a
F
0
2
(s) ds
, F
1
(t)
F
0
1
(t)
F
0
2
(t)
F
2
(t)
,
F
0
2
(t)
F
2
(t)

F
0
1
(t)
F
1
(t)
;
que corresponde a la condicin (1).
Por ejemplo, un modelo muy comn en microestructura es el siguiente:
y = x +"
x N

;
2
x

" N

0;
2
"

y donde x y " son independientes deje pasar por el momento el hecho de que el soporte
no es acotado. Conocer x no afecta los pagos, pero tiene valor informacional porque
la posteriori sobre y es diferente a la priori. En efecto,
y N

;
2
x
+
2
"

yjx N

2
x
+x
2
"

2
x
+
2
"
;

2
x

2
"

2
x
+
2
"

Ahora bien, la familia de creencias f (yjx) est ordenada por dominancia de


primer orden, puesto que se trata de la misma distribucin desplazada de acuerdo al
valor de x. Cumplir la condicin (2)?
f
1
=
1
q

2
x

2
"

2
x
+
2
"
2
exp
8
>
<
>
:

y

2
"
+x1
2
x

2
x
+
2
"

2
2

2
x

2
"

2
x
+
2
"
9
>
=
>
;
f
2
=
1
q

2
x

2
"

2
x
+
2
"
2
exp
8
>
<
>
:

y

2
"
+x
2

2
x

2
x
+
2
"

2
2

2
x

2
"

2
x
+
2
"
9
>
=
>
;
f
1
f
2
= exp

(x
1
x
2
)
2y (
2
x
+
2
"
) 2
2
"

2
x
(x
1
+x
2
)
2
2
"
(
2
"
+
2
x
)

2. INFORMACIN COMO VARIABLE 42


que es montona (creciente en y si (x
1
x
2
) > 0; y decreciente en caso contrario).
Ms an, la creencia a posteriori est ms concentrada menos difusa que la
a priori: (
2
x
+
2
"
)
2
>
2
x

2
"
: Por ejemplo:
10 5 0 -5 -10
0.15
0.1
0.05
0
x
y
x
y
A pesar de que la mayora de los modelos satisfacen esta condicin, en que la
incertidumbre (medida como la varianza de la distribucin marginal sobre y) dis-
minuye luego de recibir un mensaje, no es por cierto general, ni es una implicancia
del supuesto de que la familia de creencias a posteriori est ordenada por dominancia
de primer orden. Considere el siguiente ejemplo:
en es
x
1
x
2
y
1
= 1 0.05 0
y
2
= 0 0 0.9
y
3
= 100 0.05 0
Pr (yjx
1
) =
0
@
0;5
0
0;5
1
A

2
= 2550;25
Pr (yjx
2
) =
0
@
0
100
0
1
A

2
= 0
Pr (x
1
) = 0;1, Pr (x
2
) = 0;9
) Pr (y) =
0
@
0;05
0;9
0;05
1
A

2
= 500;05
De manera y
2
D
1
yD
1
y
1
; pero
2
2
>
2
>
2
1
: Si bien estas distribuciones es-
tn ordenadas por dominancia de primer orden, la informacin puede aumentar la
incertidumbre respecto de y (x
2
), si se mide por la varianza, o disminuirla (x
1
) :
2.2. Dominancia estocstica de segundo orden y MPS.
Definicin 6. Se dice que una variable aleatoria y
1
con funcin de densidad
f
1
(y) domina estocsticamente en segundo orden a otra variable aleatoria y
2
2. INFORMACIN COMO VARIABLE 43
con funcin de densidad f
2
(y) (denotado por y
1
D
2
y
2
) ssi
y
Z
a
F
1
(t)dt
y
Z
a
F
2
(t)dt 8y 2 R
Un caso particular y lmite por lo dems de la dominancia de segundo orden
es el de la dilacin que preserva la media (mean-preserving spread, o MPS). Esta
nocin fue desarrollada por Rothschild y Stiglitz (1970), en un afn por denir una
nocin general de ms riesgo, que prescindiera de nociones ad hoc como la varianza.
Definicin 7. Se dice que una variable aleatoria y
2
con funcin de densidad
f
2
(y) es una dilacin que preserva la media de otra variable aleatoria y
1
con
funcin de densidad f
1
(y) (denotado por y
2
MPSy
1
) ssi
y
1
D
2
y
2
y E[y
1
] = E [y
2
]
Intuitivamente, la variable y
2
es generada a partir de y
1
trasladando masa
del centro a los extremos, de manera balanceada en ambos lados de la media. En
realidad, un MPS es un caso lmite de dominancia de segundo orden, en el siguiente
sentido:
Proposicin 3. y
1
D
2
y
2
)E[y
1
] E [y
2
] :
Demostracin.
E [y
1
] E[y
2
] =
b
Z
a
tf
1
(t)dt
b
Z
a
tf
2
(t)dt
=
b
Z
a
t (f
1
(t) f
2
(t)) dt
Integrando por partes, en que u = t y dv = (f
1
(t) f
2
(t)) dt; tenemos du = dt y
v = (F
1
(t) F
2
(t)) :
= t (F
1
(t) F
2
(t))j
b
a

b
Z
a
(F
1
(t) F
2
(t)) dt
=
b
Z
a
F
2
(t)dt
b
Z
a
F
1
(t)dt
pero
y
1
D
2
y
2
,
y
Z
a
F
1
(t)dt
y
Z
a
F
2
(t)dt 8y;
en particular para y = b: Luego, E[y
1
] E[y
2
] :
2. INFORMACIN COMO VARIABLE 44
Por ejemplo, si dos distribuciones normales tienen la misma media pero distinta
varianza, entonces la de mayor varianza es un MPS de la otra:
10 5 0 -5 -10
0.3
0.2
0.1
0
x
y
x
y
Definicin 8. Un par de distribuciones F
1
y F
2
tiene la propiedad del cruce
nico si existe y

tal que
F
1
(y) F
2
(y) 0 8y y

F
1
(y) F
2
(y) 0 8y y

a la inversa.
Proposicin 4. Si el par (F
1
; F
2
) tiene la propiedad del cruce nico y E [y
1
] =
E[y
2
], entonces una es un MPS de la otra.
Demostracin. Si E[y
1
] = E [y
2
], entonces
R
[a;b]
[F
2
(t) F
1
(t)] dt = 0 (ver dem.
anterior). Si adems tienen la propiedad del cruce nico, entonces existe y

tal que,
por ejemplo,
F
1
(y) F
2
(y) 0 8y y

F
1
(y) F
2
(y) 0 8y y

Podemos descomponer la integral en:


b
Z
a
[F
2
(t) F
1
(t)] dt =
y
Z
a
[F
2
(t) F
1
(t)] dt +
b
Z
y
[F
2
(t) F
1
(t)] dt = 0
Sabemos, por la propiedad del cruce nico, que para todo y y

:
[F
1
(y) F
2
(y)] 0 )
y
Z
a
[F
2
(t) F
1
(t)] dt 0
Ahora bien, para y y

, tenemos
y

Z
a
[F
2
(t) F
1
(t)] dt =
b
Z
y

[F
2
(t) F
1
(t)] dt 0
3. EL VALOR DE LA INFORMACIN 45
donde la desigualdad viene de que (F
2
(t) F
1
(t)) 0 por el cruce nico. Entonces,
para todo y;
y
Z
a
[F
2
(t) F
1
(t)] dt 0
esto es, y
1
D
2
y
2
:
3. El valor de la informacin
Decamos que la seal o el mensaje era informativa si generaba un cambio
en las creencias respecto de la variable y (a posteriori distinta de la a priori). La
informacin es valiosa, en cambio, si permite mejorar las decisiones. Quisiramos
comparar los problemas
Escoger a 2 A, dado , con
Escoger a 2 A, dado P (!)
En efecto, el nivel de utilidad alcanzable en cada contexto est dado por:
Sin informacin : U

= max
a2A
Z
Y
f (y) u(a; y) dy
Con informacin : U

(x) = max
a2A
Z
Y
f (yjx) u(a; y) dy
Previo al conocimiento del valor puntual de x, sin embargo, se considera posible
recibir cualquier mensaje en X :
U

=
Z
X
f (x) U

(x) dx
=
Z
X
f (x)
Z
Y
f (yjx) u(a

(x) ; y) dydx
De manera que la informacin es ms valiosa mientras mayor sea la brecha
U

=
Z
X
f (x)
Z
Y
f (yjx) [u(a

(x) ; y) u(a

; y)]

dx;
lo que a su vez depende de la brecha entre a

(x) y a

:
Volvamos, para simplicar la notacin, al caso en que es nito, y general-
icemos la idea anterior, para permitir no slo condicionamiento en variables sino en
eventos. Sean:
la funcin de probabilidades sobre = X Y ,
P la funcin de informacin del individuo, P (!) la informacin que puede
o no excluir algunos y : Como ya es habitual, abusamos de la notacin y
denotamos por P a la cardinalidad de P ( ), su imagen; tambin escribimos
P (x) = f! 2 : ! = (x; y) ; 8y 2 Y g : Ms an, si la funcin de informacin
es particional, escribimos H para denotar la particin sobre inducida por
P, y h (!) para cada una de sus celdas, que pasamos a llamar conjuntos de
3. EL VALOR DE LA INFORMACIN 46
informacin. En adelante supondremos que la estructura de informacin
es particional, salvo que explcitamente se diga lo contrario.
p(!) el vector de Y 1 de probabilidades condicionales (yjh (!)) sobre Y ,
y p la matriz de Y H que recolecta todos tales vectores.
q el vector de H1de probabilidades sobre eventos informacionales (h(!)),
y
la probabilidad a priori sobre Y , (y) :
Entonces, por regla de Bayes,

|{z}
Y 1
= p
|{z}
Y H
q
|{z}
H1
porque
(y) = (yj ) =
X
h(!)2H
(yjh(!))
| {z }
p!(y)
(h(!))
esto es, cada probabilidad a priori de un evento y es una combinacin convexa de
probabilidades a posteriori (de hecho, su esperanza).
Ejemplo 7. Consideremos la siguiente en :
x
1
x
2
y
1
0.45 0.05
y
2
0.05 0.45
que genera:
p
|{z}
Y P
=

9
10
1
10
1
10
9
10

; q
|{z}
P1
=

1
2
1
2

= pq =

9
10
1
10
1
10
9
10

1
2
1
2

1
2
1
2

En posesin de la informacin P (!), el individuo escoge una accin que max-


imiza su utilidad esperada condicional. Denamos:
g (f) max
a2A
X
y
f (y) u (a; y)
para una probabilidad f cualquiera sobre Y:
Entonces,
g (p (!)) = max
a2A
X
y
(yjh (!)) u(a; y)
y apilemos en un vector g, de dimensin H 1, tales valores, para todo h (!) 2 H.
El servicio informativo H; entonces, genera una utilidad esperada (a priori) de
v (p; q) = q
0
|{z}
1H
g
|{z}
H1
Lema 3. g (f) es convexa en f:
3. EL VALOR DE LA INFORMACIN 47
Demostracin. Observe que si a

no dependiera de f, entonces g sera lineal


en f. Pero si dependiera, entonces, g (f) sera la envolvente superior de funciones
lineales de la forma
P
y
f (y) u(a
0
; y), para todo a
0
2 A:
Ejemplo 8. En el ejemplo anterior, frente a un problema de decisin fa
1
; a
2
; a
3
g,
en que
u(a; y) =
a
1
a
2
a
3
y
1
2 0 1
y
2
0 2 1
tendramos, si x = Pr (y
1
) ; que E [u(a; y)]
1 0.75 0.5 0.25 0
2
1.5
1
0.5
0
x
y
x
y
1 0.75 0.5 0.25 0
2
1.5
1
0.5
0
x
y
x
y
Esto implica, entonces, que la informacin es siempre valiosa, en el sentido que
aumenta la utilidad esperada ex ante. Por cierto, enterarse de un evento negativo
hace caer la utilidad, pero la informacin no cambia esa probabilidad en la mente del
individuo, y conocer la ocurrencia del evento permite modicar las decisiones. En
efecto, como la utilidad esperada es lineal en la probabilidad, entonces el individuo es
de hecho neutral a la incertidumbre sobre sus creencias futuras per se. Si, en cambio,
puede condicionar la accin a esas creencias, de neutral pasa a ser amante.
Teorema 13. El valor de la informacin es no negativo.
Demostracin. Tenemos
g () max
a2A
X
y
(y) u(a; y)
Pero la a priori es una esperanza de a posterioris = pq =

p
h(!
1
)
:::p
h(!

)

q
(y) =
X
h2H
(h) (yjh)
U

= g (pq) = g () = g (E[p(h)]) E [g (p(h))]


=
X
h2H
(h) g (p(h)) = q
0
g = U

porque g es convexa (desigualdad de Jensen).


4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 48
Esto es,
g () max
a2A
X
y
(y) u(a; y)

X
h(!)2H
(h(!)) max
a2A
X
y2Y
(yjh(!)) u(a; y)
Quizs una manera ms simple de verlo sea considerar los problemas de escoger
un plan contingente de accin a (h(!)):
max
fa(h(!))g2A
H
X
h(!)2H
(h (!))
X
y2Y
(yjh (!)) u(a (h(!)) ; y)
en que, sin informacin, tenemos la restriccin
a(h (!)) = a (h (!
0
)) 8!; !
0
2
Bajo esta interpretacin, la informacin libera restricciones, y por lo tanto no
puede perjudicar la consecucin del objetivo. Esto no es cierto con informacin no
particional, ni tampoco en el contexto de un juego. Para ver lo segundo, esperaremos
a discutir juegos. Para ver lo primero, considere el siguiente ejemplo
1
: a una persona
se le ofrece una apuesta, en la que ganara 3 en el estado !
2
, y -2 en !
1
en !
3
, de
manera que = f!
1
; !
2
; !
3
g : Los tres estados se consideran igualmente probables.
Antes de llevar a cabo la apuesta, se le da informacin adicional: en el estado !
1
se
le avisa que !
3
es imposible, y en !
3
que !
1
es imposible. Si el individuo tomara esa
informacin ingenuamente (pese a que es verdadera), su funcin de informacin sera:
! P (!) E[ujP (!)] Decisin
!
1
f!
1
; !
2
g 0.5 acepta
!
2
f!
1
; !
2
; !
3
g -0.5 rechaza
!
3
f!
2
; !
3
g 0.5 acepta
Antes de recibir el mensaje, entonces, su utilidad esperada es de
1
3
(2) +
1
3
(0) +
1
3
(2) =
4
3
, menor que la utilidad que obtendra si no participara (pero, es sa la
evaluacin ex ante del individuo?). La informacin lo da, pero esencialmente por
la confusin que le cre, obteniendo conclusiones incorrectas.
4. La comparacin de dos servicios informativos
Este ltimo razonamiento de hecho abre la puerta para la comparacin de dos
servicios informativos. La pregunta que tenemos en mente es qu servicio informativo
(o experimento) debiera escoger un individuo que piensa ocupar la informacin as
conseguida para tomar una decisin. Una respuesta que proviene directamente del
razonamiento anterior es la ms na de las particiones disponibles, imaginando que
todas las particiones disponibles sean comparables.
1
Rubinstein, p. 55
4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 49
En general, entonces, que P sea ms na que P
0
es una condicin suciente
para que sea preferida, sin importar los detalles del problema de decisin, como A,
Y y u(a; y) :
Tambin podramos comparar la forma de las creencias a posteriori que generan
ambos servicios. Imaginemos que tenemos dos servicios, (q
1
; p
1
) y (q
2
; p
2
) ; cuyas a
priori coinciden:
= p
1
q
1
= p
2
q
2
sta es una restriccin natural, puesto que representa el estatus original de las
creencias del individuo. Cundo podemos decir que v (P
1
; q
1
) v (P
2
; q
2
) para todo
u(a; y)?
Teorema 14 (Blackwell, 1951 Comparison of Experiments). Sean (q
1
; p
1
) y
(q
2
; p
2
) dos servicios informativos tales que = p
1
|{z}
Y P
1
q
1
|{z}
P
1
1
= p
2
|{z}
Y P
2
q
2
|{z}
P
2
1
. La estructura
1 es preferida por todo individuo si y slo si existe una matriz K de dimensin P
1
P
2
tal que para todo i; j,
k
ij
0;
X
i
k
ij
= 1; y
p
2
|{z}
Y P2
= p
1
|{z}
Y P1
K
|{z}
P1P2
En palabras, las condiciones sucientes de Blackwell se reducen a decir que un
servicio informativo que genere una familia de creencias a posteriori que estn en el
casco convexo de la familia de posterioris de otro servicio, es inferior para cualquier
problema de decisin.
Adems, en el caso en que la matriz K satisface la condicin
q
1
|{z}
P1
= K
|{z}
PP
q
2
|{z}
P1
existe una interpretacin natural del resultado: el servicio informativo 1 se obtiene de
ensuciar la informacin contenida en el 1 por medio de un ruido.
Ejemplo 9. Considere los servicios
(p
1
; q
1
) =
0
@
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
;
0
@
;3
;4
;3
1
A
1
A
(p
2
; q
2
) =
0
@
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
;
0
@
: 347 37
: 473 68
: 178 95
1
A
1
A
4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 50
Observe que satisfacen = p
1
q
1
= p
2
q
2
:
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
0
@
;3
;4
;3
1
A
=
0
@
: 46
: 26
: 28
1
A
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
0
@
: 347 37
: 473 68
: 178 95
1
A
=
0
@
: 46
: 26
: 28
1
A
El siguiente grco ilustra el casco convexo generado por cada servicio informativo
(el 1 es el exterior):
1 0.75 0.5 0.25 0
1
0.75
0.5
0.25
0
x
y
x
y
Vericamos, entonces que existe tal matriz K :
K =
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
1
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
=
0
@
: 75 8: 333 3 10
2
0
: 166 67 : 722 22 2: 7 10
10
8: 333 3 10
2
: 194 44 1;0
1
A
y
Kq
2
=
0
@
: 75 8: 333 3 10
2
0
: 166 67 : 722 22 2: 7 10
10
8: 333 3 10
2
: 194 44 1;0
1
A
0
@
: 347 37
: 473 68
: 178 95
1
A
=
0
@
: 3
: 4
: 3
1
A
= q
1
Ms an, las columnas de K suman 1:
0
@
1
1
1
1
A
T
0
@
: 75 8: 333 3 10
2
0
: 166 67 : 722 22 2: 7 10
10
8: 333 3 10
2
: 194 44 1;0
1
A
=

1;0 : 999 99 1;0



4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 51
Obsrve que lo que pedimos con la condicin:
p
2
|{z}
Y P
2
= p
1
|{z}
Y P
1
K
|{z}
P1P2
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
=
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
0
@

1

4

7

2

5

8

3

6

9
1
A
| {z }
K
es que:
0
@
: 3 : 6 : 4
: 15 : 25 : 5
;55 ;15 ;1
1
A
| {z }
p
2
=
0
@
: 2
1
+: 7
2
+: 4
3
: 2
4
+: 7
5
+: 4
6
: 2
7
+: 7
8
+: 4
9
: 1
1
+: 2
2
+: 5
3
: 1
4
+: 2
5
+: 5
6
: 1
7
+: 2
8
+: 5
9
: 7
1
+: 1
2
+: 1
3
: 7
4
+: 1
5
+: 1
6
: 7
7
+: 1
8
+: 1
9
1
A
esto es, que cada uno de los vectores que representan las creencias a posteriori del
servicio informativo 1, sean combinaciones convexas (lo son si cada columna de la
matriz K suma 1) de los vectores que representan las creencias a posteriori del servicio
informativo 2.
Ahora bien, respecto del requisito que q
1
= Kq
2
; ste slo es necesario bajo la
interpretacin de que (p
2
; q
2
) se obtenga de confundir o ensuciar la informacin
del servicio (p
1
; q
1
). En efecto, el servicio 1 es
0
@
0
@
: 2 : 7 : 4
: 1 : 2 : 5
;7 ;1 ;1
1
A
;
0
@
;3
;4
;3
1
A
1
A
, esto
es, entrega con probabilidad 0.3 un mensaje cuya conclusin es
0
@
: 2
: 1
;7
1
A
, con prob-
abilidad 0.4 otro con conclusin
0
@
: 7
: 2
;1
1
A
, y con probabilidad 0.3 otro con conclusin
0
@
: 4
: 5
;1
1
A
: Considere otro servicio que confunda las conclusiones del siguiente modo:
con probabilidades
1
el mensaje emitido es el primero, pero el individuo recibe los
otros dos con probabilidades
2
y
3
; con probabilidad
5
el mensaje emitido es el
segundo, pero pueden recibirse el primero y el tercero con probabilidades
4
y
6
, e
igualmente con el tercer mensaje. Suponga que el ruido es sucientemente bajo como
para que la decisin siga siendo la misma que sin ruido. Este segundo servicio infor-
mativo entrega entonces una utilidad esperada menor, porque aumenta la posibilidad
de escoger errneamente. Ms an, la probabilidad de que cada mensaje sea emitido
4. LA COMPARACIN DE DOS SERVICIOS INFORMATIVOS 52
es la misma, y corresponde a:
Pr (m recibido) =
X
m
0
Pr (m recibidojm
0
emitido) Pr (m
0
emitido)
=
X
m
0

m;m
0 q
m
0
Observe que esta interpretacin es la que requiere que ambas particiones tengan el
mismo nmero de elementos, puesto que se trata de las mismas seales.
En el ejemplo,
Kq
2
=
0
@

1

4

7

2

5

8

3

6

9
1
A
0
@
: 347 37
: 473 68
: 178 95
1
A
=
0
@
: 347 37
1
+: 473 68
4
+: 178 95
7
: 347 37
2
+: 473 68
5
+: 178 95
8
: 347 37
3
+: 473 68
6
+: 178 95
9
1
A
=
0
@
: 3
: 4
: 3
1
A
= q
1
Observe tambin que (p
2
; q
2
) es menos informativo que (p
1
; q
1
), toda vez
que las probabilidades condicionales en cada mensaje posible estn en el ms cerca que
las probabilidades a priori que las del servicio 1. Un servicio ms informativo (en este
sentido) es ms valioso, puesto que la informacin que entrega es ms concluyente.
Lo opuesto no es necesariamente cierto.

Você também pode gostar