Escolar Documentos
Profissional Documentos
Cultura Documentos
ndice
1. Densidades y Distribuciones
2. Momentos poblacionales
3. Esperanza
4. Momentos muestrales
5. Sesgo y Eciencia
6. Distribuciones Conjuntas
7. Distribuciones Condicionales
9. Independencia
10.Covarianza
11.Correlacin
13.Ortogonalidad
16.Skew y Kurtosis
18.Funcin de verosimilitud
20.Probabilidad Lmite
1.
Densidades y Distribuciones
Una variable estocstica o aleatoria X se dice que es de valor discreto si sta puede tomar slo uno
de los K valores particulares; llmese x1 ; x2 ; : : : ; xK . Su distribucin de probabilidad es un conjunto de
numeros que otorgan la probabilidad de cada resultado.
Pr [X = xk ]
k = 1; : : : ; K
Pr [X = xk ] = 1
k=1
xj ] =
j
X
Pr [X = xk ]
k=1
fX (x) dx = 1
(1)
Pr [X a]
Z a
=
fX (x) dx
(2)
2.
Momentos poblacionales
La media poblacional
siempre que esta integral exista. (En las frmulas que siguen, asumimos por simplicidad de la exposicin
que las funciones de densidad son continuas y que todas las integrales indicadas existen). La varianza
poblacional es
Z
var [X] =
(x
fX (x) dx
3.
Esperanza
La media poblacional es tambin llamada la esperanza de X, denotado por E [X] o a menudo por
simplemente EX. En general, la esperanza de una funcin g (X) est dada por
Z 1
E [g (X)] =
g (x) fX (x) dx
(3)
1
= a + bE [X]
La varianza de a + bX es
var [a + bX]
= b2
[(a + bx)
(x
(a + b )]
2
fX (x) dx
fX (x) dx
= b2 var [X]
Otro resultado importante es
4.
Momentos muestrales
s2
2
5.
x)
T
1X r
x
T t=1 t
Sesgo y Eciencia
Sea ^ un estimador muestral de un vector de parmetros poblacionales . Por ejemplo, ^ puede ser
la media x y la media poblacional . Ele stimador se dice que es insesgado si E[^] = .
Suponga que ^ es un estimador insesgado de . El estimador ^ se dice que es eciente si este es el
caso en el que para cualquier otro estimador insesgado ^ , la siguiente matriz es semidenida positiva
P
6.
E[(^
)(^
)]
E[(^
)(^
)]
Distribuciones Conjuntas
Para dos variables aleatorias X e Y con densidad conjunta fX;Y (x; y), calculamos la probabilidad del
evento conjunto en el que X a y Y
b a partir de
Z a Z b
Pr [X a; Y
b] =
fX;Y (x; y) dy dx
1
a; Y
b]
La probabilidad de que X
dx
(4)
La comparacin de (4) con (2) revela que la densidad marginal fX (x) es obtenida mediante la integracin
de la densidad conjunta fX;Y (x; y) con respecto a y :
Z 1
fX (x) =
fX;Y (x; y) dy
(5)
1
7.
Distribuciones Condicionales
La densidad condicionl de Y dado X esta dado por
8
< fX;Y (x; y)
fY jX (yjx)
fX (x)
:
0
si fX (x) > 0
(6)
en otro caso
Una mayor implicacin obvia de la denicin en (6) es que una densidad conjunta puede ser escrita
como el producto de una densidad condicional y la densidad marginal
fX;Y (x; y) = fY jX (yjx) fX (x)
La esperanza condicional de Y dado que la variable aleatoria X toma un valor particular x es
Z 1
E [Y jX = x] =
y fY jX (yjx) dy
(7)
(8)
8.
Observe que la esperanza condicional es una funcin del valor de la variable aleatoria X. Para diferentes
realizaciones de X, la esperanza condicional ser un numero diferente. Suponga que vemos a E [Y jX] como
una variable aleatoria y tomemos su esperanza con respecto a la distribucin de X:
Z 1 Z 1
EX EY jX [Y jX] =
y fY jX (yjx) dy fX (x) dx
1
Podemos usar los resultados (7) y (5) para expresar esta esperanza como
Z 1 Z 1
Z 1Z 1
y fY jX (yjx) dy fX (x) dx =
y fY jX (yjx) fX (x) dy dx
1
1
1
1
Z 1Z 1
y fX;Y (x; y) dy dx
=
1
1
Z 1
Z 1
y
fX;Y (x; y) dx dy
=
1
1
Z 1
=
y fY (y) dy
1
= EY [Y ]
As,
EX EY jX [Y jX] = EY [Y ]
(9)
En palabras, la variable aleatoria E [Y jX] tiene la misma esperanza que una variable aleatoria Y . Esto
es conocido como la ley de esperanzas iteradas.
9.
Independencia
Las variables X e Y se dicen que son independientes si
fX;Y (x; y) = fX (x) fY (y)
(10)
10.
Covarianza
Denotemos
a E [X] y
11.
(11)
(12)
Correlacin
cov [X; Y ]
p
p
var [X] var [Y ]
12.
cov [X; Y ] = 0
La proposicin contraria, sin embargo, no es verdad el hecho que X e Y no esten correlacionadas
no es suciente para deducir que ellas son independientes. Para constuir un contraejemplo, suponga que
Z e Y son variables aleatorias independientes cada una con media 0, y sea X Z Y . Entonces
cov [X; Y ]
=
=
=
=
=
E [(X
E [(ZY
E [(ZY
E [(ZY )
E [Z] E
X ) (Y
)]
E [ZY ]) (Y 0)]
E [Z] E [Y ]) Y ]
Y]
Y2 =0
Y
13.
Ortogonalidad
T
Considere una muestra de tamao T de dos variables aleatorias fxt gt=1 y fyt gt=1 . Las dos variables
se dicen que son ortogonales si
T
X
xt yt = 0
t=1
1 (wt
w) =
t=1
14.
T
X
wt
w, donde w
T w=0
t=1
(13)
(14)
y la varianza es
Cuando X e Y no estan correlacionados
var [aX + bY ] = a2 var [X] + b2 var [Y ]
Generalizando el resultado (13) (14). Si fX1 ; X2 ; : : : ; Xn g denotan una coleccin de n variables aleatorias, entonces
E [a1 X1 + a2 X2 +
var [a1 X1 + a2 X2 +
+ an Xn ] = a1 E [X1 ] + a2 E [X2 ] +
(15)
i=1
+ an E [Xn ]
i=1 j=i+1
i=1
var [a1 X1 + a2 X2 +
15.
+ an Xn ]
i=1
a21 var [X1 ]
(17)
La Distribucin Normal
N
6
y varianza
si
(18)
16.
) ]=0
para r = 1; 3; 5; : : :
h
E (Yt
=3
Skew y Kurtosis
[var (Yt )]
Una variable con un skewness negativo es mas probable a estar muy por debajo de la media que estar
por encima de la media. La kurtosis es
h
i
4
E (Yt
)
2
[var (Yt )]
Una distribucin cuya kurtosis excede de 3 tiene mas masa en las colas que una distribucin Gaussiana
con la misma varianza.
17.
Y
Sea X
N (0; 1) y Y
(n)
se dice que tienen una distribucin t con n grados de libertad, denotado por
Z
Sea Y1
(n1 ) y Y2
t (n)
Y1 =n1
Y2 =n2
se dice que tienen una distribucin F con n1 grados de libertad del numerador y n2 grados de libertad
del denominador, denotado por
Z F (n1 ; n2 )
Observe que si Z
18.
t (n), entonces Z 2
F (1; n).
Funcin de verosimilitud
Suponga que tiene una muestra de tamao T sobre alguna variable aleatoria Yt . Denotemos a
fY1 ;Y2 ;:::;YT (y1 ; y2 ; : : : ; yT ; )
como la densidad conjunta de Y1 ; Y2 ; : : : ; YT .
7
La notacin hace incapi en que la densidad conjunta se presume depender de un vector poblacional
de parmetros. Si observamos a esta densidad conjunta como una funcin de (dados los datos en Y ),
el resultado es llamado la funcin de verosimilitud muestral.
Por ejemplo, considere una muestra de T variables i:i:d: extraidas de una distribucin N ; 2 . Para
0
esta distribucin, = ; 2 , y a partir de (10) la densidad conjunta es el producto de los terminos
individuales como en (18):
fY1 ;Y2 ;:::;YT y1 ; y2 ; : : : ; yT ; ;
= fY1 y1 ; ;
T
Y
fY2 y2 ; ;
fYT yT ; ;
fYt yt ; ;
t=1
T
X
log fYt yt ; ;
t=1
T
log
2
T
log (2 )
2
T
X
(yt
t=1
As, para una muestra de T variables aleatorias Gaussianas con media y varianza
verosimilitud logartmica muestral, denotada por L ; 2 ; y1 ; y2 ; : : : ; yT , esta dada por
L
T
log
2
; y1 ; y 2 ; : : : ; yT = k
T
X
(yt
t=1
)
2
2
la funcin de
)
2
(19)
19.
@L X yt
=
@
t=1
^
|{z}
es caracterizado por
@L
=
@ 2
M LE de
(20)
m edia muestral
X (yt
T
+
2
2
2
t=1
=0
T
1X
yt
T t=1
| {z }
M LE de
El M LE de
=
2
)
4
=0
(21)
(22)
obtenemos
T
1X
(yt
T t=1
|
{z
^)
varianza muestral
20.
Probabilidad Lmite
1
(Y1 + Y2 +
T
+ YT )
(23)
en cuyo caso podemos querer saber las propiedades de una media muestral conforme el tamao T de la
muestra aumenta de tamao.
La secuencia fX1 ; X2 ; : : : ; XT g se dice que converge en probabilidad a c si para todo > 0 y > 0
existe un valor N tal que, para todo T N ,
Pr [ jXT
cj >
]<
(24)
XT
21.
!c
En virtud de las condiciones generales descritas en el Captulo 7 del libro de Hamilton, la media
muestral (23) converge en probabilidad a la media poblacional
T
1X
Yt
T t=1
| {z }
E [Yt ]
| {z }
(25)
m edia p oblacional
m edia muestral
Cuando (25) se mantiene, decimos que la media muestral brinda una estimador consistente de la media
poblacional.
22.
Una condicin mas fuerte que la convergencia en probabilidad es la convergencia en media cuadrtica.
La secuencia fX1 ; X2 ; : : : ; XT g se dice que converge en media cuadrtica si para todo > 0 existe un
valor N tal que, para todo T N
h
i
2
E (XT c) <
(26)
Indicamos que la secuencia converge a c en media cuadrtica tal como sigue
XT
m:s:
!c