Você está na página 1de 39

Econometrı́a I

Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas

Esperanzas y
momentos
Econometrı́a I
Distribuciones
Repaso de estadı́stica multivariadas

Distribuciones
condicionales

La distribución normal
Erix Ruiz Distribuciones
relacionadas

Unac Pruebas de hipótesis

Abril de 2011
Econometrı́a I
Contenido Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
Variables aleatorias discretas
Variables aleatorias
continuas

Variables aleatorias continuas Esperanzas y


momentos

Distribuciones
multivariadas
Esperanzas y momentos
Distribuciones
condicionales

Distribuciones multivariadas La distribución normal

Distribuciones
relacionadas

Distribuciones condicionales Pruebas de hipótesis

La distribución normal

Distribuciones relacionadas

Pruebas de hipótesis
Econometrı́a I
Variables aleatorias discretas Repaso de estadı́stica

Erix Ruiz

I Una variable aleatoria es una variable que puede tomar diferentes Variables aleatorias
discretas
valores (resultados) dependiendo del “estado de la naturaleza”. Variables aleatorias
continuas
I Por ejemplo, el resultado de lanzar un dado es aleatorio, con 6
Esperanzas y
posibles resultados. Si Y denota el resultado de lanzar un dado, la momentos
probabilidad de cada resultado es 1/6, lo cual se puede denotar Distribuciones
multivariadas
como:
Distribuciones
P {Y = y } = 1/6, y = 1, 2, · · · , 6. condicionales

I La función que relaciona los posibles resultados con sus La distribución normal

correspondientes probabilidades es la función de masa de Distribuciones


relacionadas
probabilidad o, más generalmente, función de distribución de Pruebas de hipótesis
probabilidad, la cual se puede denotar como:

f (y ) = P {Y = y }
I La función f (y ) tiene la propiedad de que si la sumamos sobre
todos sus posible resultados, el resultado es uno. Esto es:
X
f (yj ) = 1.
j
Econometrı́a I
Variables aleatorias discretas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas
I El valor esperado de una variable aleatoria discreta es un promedio Esperanzas y
ponderado de todos los posibles resultados, donde las momentos

ponderaciones corresponden a la probabilidad de cada resultado en Distribuciones


multivariadas
particular, es decir: Distribuciones
X condicionales

E {Y } = yj f (yj ). La distribución normal

j Distribuciones
relacionadas

I Notese que E {Y } no necesariamente corresponde a uno de los Pruebas de hipótesis

posibles resultados.
I Una distribución es degenerada si esta es concentrada en un único
punto, esto es, si P {Y = y } = 1 para un valor particular de y y
cero para otros valores.
Econometrı́a I
Variables aleatorias continuas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
I Una variable aleatoria continua puede tomar un número infinito continuas

de diferentes resultados, por ejemplo, cualquier valor en el intervalo Esperanzas y


momentos
[0, 1]. En este caso, cada resultado individual tiene una probabilidad
Distribuciones
de cero. En lugar de la función de masa de probabilidad, se define multivariadas

la función de densidad de probabilidad f (y ) ≥ 0 como: Distribuciones


condicionales
Z b La distribución normal
P {a ≤ Y ≤ b} = f (y )dy . Distribuciones
a relacionadas

Pruebas de hipótesis
I En un gráfico, P {a ≤ Y ≤ b} es el área bajo la función f (y ) entre
los puntos a y b. Tomando la integral de f (y ) sobre todos los
posibles resultados, se tiene que:
Z ∞
f (y )dy = 1.
−∞
Econometrı́a I
Variables aleatorias continuas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I Si Y toma valores sólo dentro de cierto rango, se asume
Variables aleatorias
implı́citamente que f (y ) = 0 para todos los valores fuera de este continuas
rango. Esperanzas y
momentos
I La función de densidad acumulada (cdf) se define como: Distribuciones
Z y multivariadas

F (y ) = P {Y ≤ y } = f (t)dt Distribuciones
condicionales
−∞
La distribución normal

I f (y ) = F 0 (y ). La función de densidad acumulada tiene la Distribuciones


relacionadas
propiedad de que 0 ≤ F (y ) ≤ 1, y es monotónicamente creciente,
Pruebas de hipótesis
es decir: F (y ) ≥ F (x), si y ≥ x.
I Es fácil mostrar que P {a ≤ Y ≤ b} = F (b) − F (a).
I El valor esperado o media de una variable aleatoria continua,
usualmente denotada como µ se define como:
Z ∞
µ = E {Y } = yf (y )dy .
−∞
Econometrı́a I
Variables aleatorias continuas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas

I Otras medidas son la mediana, la cual es el valor m para el cual se Esperanzas y


momentos
tiene que: Distribuciones
multivariadas
P {Y ≤ m} ≥ 1/2, P {Y ≥ m} ≤ 1/2. Distribuciones
condicionales

I Es decir, el 50 % de las observaciones están por debajo de la La distribución normal

mediana y el 50 % por encima. La moda es simplemente el valor Distribuciones


relacionadas
para el cual f (y ) obtiene su máximo. No es muy usada en
Pruebas de hipótesis
aplicaciones econométricas.
I Una distribución es simétrica alrededor de su media si
f (µ − y ) = f (µ + y ). En este caso, la media y la mediana de la
distribución son idénticas.
Econometrı́a I
Esperanzas y momentos Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I Si Y y X son variables aleatorias y a y b son constantes, se cumple Variables aleatorias
que. continuas

E {aY + bX } = aE {Y } + bE {X } , Esperanzas y
momentos
I La esperanza es un operador lineal. Similares resultados no Distribuciones
multivariadas
necesariamente se obtienen si consideremos una transformación no
Distribuciones
lineal de una variable aletoria. Para una función no lineal g , no se condicionales
cumple en general que E {g (Y )} = g (E {Y }). Si g es cóncava La distribución normal
(g 00 (Y ) < 0), la desigualdad de Jensen dice que: Distribuciones
relacionadas

E {g (Y )} ≤ g (E {Y }). Pruebas de hipótesis

I Por ejemplo, E {log Y } ≤ log E {Y }. La implicancia de esto es que


no podemos determinar el valor esperado de una función de Y sólo
desde el valor esperado de Y . Obviamente, por definición se
cumple que: Z ∞
E {g (Y )} = g (y )f (y )dy .
−∞
Econometrı́a I
Esperanzas y momentos Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
I La varianza de una variable aleatoria, usualmente denotada por σ 2 , continuas

Esperanzas y
es una medida de dispersión de la distribución y es definida como: momentos

Distribuciones
σ 2 = Var [Y ] = E [(Y − µ)2 ] multivariadas

Distribuciones
I La varianza es usualmente denominada el segundo momento condicionales

central. Un resultado útil es que: La distribución normal

Distribuciones
E [(Y − µ)2 ] = E [Y 2 ] − 2E [Y ]µ + µ2 = E [Y 2 ] − µ2 . relacionadas

Pruebas de hipótesis

I E [Y 2 ] es el segundo momento. Si Y tiene una distribución


discreta, su varianza es definida como:
X
Var [Y ] = (yj − µ)2 f (yj ).
j
Econometrı́a I
Esperanzas y momentos Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I Para una distribución continua, se tiene que : Variables aleatorias
continuas
Z ∞
Esperanzas y
Var [Y ] = (y − µ)2 f (y )dy . momentos
−∞ Distribuciones
multivariadas
I Usando estas definiciones es fácil verificar que: Distribuciones
condicionales
2
Var [aY + b] = a Var [Y ]. La distribución normal

Distribuciones
I Otra medida es la desviación estándar, denotada por σ y se define relacionadas

como la raı́z cuadrada de la varianza. La desviación estándar es Pruebas de hipótesis

expresada en las mismas unidades de Y .


I En la mayorı́a de casos la distribución de una variable aleatoria no
es complemetamente descrita por su media y varianza. En ese
sentido se puede definir el k-ésimo momento central como:

E [(Y − µ)k ], k = 1, 2, · · ·
Econometrı́a I
Esperanzas y momentos Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas

Esperanzas y
momentos
I En particular, el tercer momento central es una medida de Distribuciones
asimetrı́a de una distribución alrededor de su media, mientras en multivariadas

cuarto momento central mide el grado de concentración alrededor Distribuciones


condicionales
de la media.
La distribución normal
I Tı́picamente, la asimetrı́a es definida como S = E [(Y − µ)3 ]/σ 3 , Distribuciones
mientras la curtosis es definida como K = E [(Y − µ)4 ]/σ 4 . La relacionadas

curtosis en una distribución normal es 3, tal que K − 3 es conocido Pruebas de hipótesis

como el exceso de curtosis. Una distribución con exceso de curtosis


es deonominada leptocúrtica.
Econometrı́a I
Distribuciones multivariadas Repaso de estadı́stica

Erix Ruiz

I La función de densidad conjunta de dos variables aleatorias Y y Variables aleatorias


discretas
X , denotada por f (y , x), es definida por: Variables aleatorias
continuas
Z b1 Z b2
Esperanzas y
P[a1 < Y < b1 , a2 < X < b2 ] = f (y , x)dydx. momentos
a1 a2
Distribuciones
multivariadas
I Si Y y X son independientes, se cumple que f (y , x) = f (y )f (x), Distribuciones
tal que condicionales

La distribución normal
P[a1 < Y < b1 , a2 < X < b2 ] = P[a1 < Y < b1 ]P[a2 < X < b2 ]. Distribuciones
relacionadas

I En general, la distrbución marginal de Y está caracterizada por la Pruebas de hipótesis

función de densidad
Z ∞
f (y ) = f (y , x)dx.
−∞

I Lo cual implica que el valor esperado de Y está dado por:


Z ∞ Z ∞ Z ∞
E [Y ] = yf (y )dy = yf (y , x)dxdy .
−∞ −∞ −∞
Econometrı́a I
Distribuciones multivariadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas
I La covarianza entre Y y X es una medida de dependencia lineal Esperanzas y
entre dos variables. Esta es definida como: momentos

Distribuciones
σxy = Cov [Y , X ] = E [(Y − µy )(X − µx )]. multivariadas

Distribuciones
condicionales
I O de manera equivalente:
La distribución normal

Cov [Y , X ] = E [YX ] − µy µx Distribuciones


relacionadas

Pruebas de hipótesis
I El coeficiente de correlación está dado por la covarianza
estandarizada por las dos desviaciones estándar, es decir:
Cov [Y , X ] σxy
ρyx = p = .
Var [Y ]Var [X ] σx σy
Econometrı́a I
Distribuciones multivariadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I El coeficiente de correlación está siempre entre −1 y 1 y no es Variables aleatorias
continuas
afectado por la escala de las variables. Si Cov [Y , X ] = 0, Y y X
Esperanzas y
están no correlacionadas. Cuando a, b, c, d son constantes, se momentos

cumple que: Distribuciones


multivariadas

Cov [aY + b, cX + d] = acCov [Y , X ]. Distribuciones


condicionales

La distribución normal
I Adicionalmente:
Distribuciones
relacionadas
Cov [aY +bX , X ] = aCov [Y , X ]+bCov [X , X ] = aCov [Y , X ]+bVar [X ].
Pruebas de hipótesis

I Es decir, dos variables Y y X están perfectamente correlacionadas


(ρyx = 1) si Y = aX para algún valor a 6= 0. Si Y y X están
correlacionadas, la varianza de una función lineal de Y y X
depende de la covarianza. En particular:

Var [aY + bX ] = a2 Var [Y ] + b 2 Var [X ] + 2abCov [Y , X ].


Econometrı́a I
Distribuciones multivariadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
I Si consideramos un vector de dimensión K de variables aleatorias discretas
Y = (Y1 , · · · , YK )0 , se puede definir la esperanza del vector como: Variables aleatorias
continuas
 
E [Y1 ] Esperanzas y
momentos
..
E [Y] = 
 
.  Distribuciones
multivariadas
E [YK ] Distribuciones
condicionales
I Mientras su matriz de varianza-covarianza (o simplemente matriz La distribución normal
de covarianzas es: Distribuciones
relacionadas
· · · Cov [Y1 , YK ]
 
Var [Y1 ] Pruebas de hipótesis
.. .. ..
Var [Y] = 
 
. . . 
Cov [YK , Y1 ] · · · Var [YK ]
I Nótese que esta matriz es simétrica. Si consideremos más
combinaciones de los elementos en Y, por ejemplo RY, donde R es
de dimensión J × K , se cumple que:

Var [RY] = RVar [Y]R 0 .


Econometrı́a I
Distribuciones condicionales Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I Una distribución condicional describe la distribución de una Variables aleatorias
variable, digamos Y , dado el resultado de otra variable X . continuas

Esperanzas y
I Por ejemplo, si lanzamos dos dados, X podrı́a denotar el resultados momentos
del primer dado y Y el resultado del segundo. Entonces podrı́amos Distribuciones
multivariadas
estar interesados en la probabilidad de de obtener la suma de 7 si el
Distribuciones
primer dado tiene un resultado de 3, o un resultado menor o igual condicionales
a 3. La distribución normal
I La distribución condicional es implicada por la distribución Distribuciones
relacionadas
conjunta de las dos variables. Es decir:
Pruebas de hipótesis

f (y , x)
f (y |X = x) = f (y |x) = .
f (x)
I Si Y y X son independientes, se obtiene que f (y |x) = f (y ) . De la
definición previa se cumple que:

f (y , x) = f (y |x)f (x).
Econometrı́a I
Distribuciones condicionales Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas

Esperanzas y
I La distribución conjunta de dos variables puede ser descompuesta momentos

en el producto de una distribución condicional y una distribución Distribuciones


multivariadas
marginal. Similarmente, se puede escribir: Distribuciones
condicionales
f (y , x) = f (x |y )f (y ). La distribución normal

Distribuciones
I La esperanza condicional de Y dado X = x es el valor esperado relacionadas

de Y desde la distribución condicional. Es decir: Pruebas de hipótesis


Z
E [Y |X = x] = E [Y |x] = yf (y |x)dy .
Econometrı́a I
Distribuciones condicionales Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I La esperanza condicional es una función de x a menos que Y y X Variables aleatorias
sean independientes. Similarmente, se define la varianza continuas

condicional como : Esperanzas y


momentos
Z Distribuciones
Var [Y |x] = (y − E [Y |x])2 f (y |x)dy . multivariadas

Distribuciones
condicionales
La cual se puede escribir como:
La distribución normal
2 2
Var [Y |x] = E [Y |x] − (E [Y |x]) . Distribuciones
relacionadas

Pruebas de hipótesis
Con lo cual se cumple que:

Var [Y ] = Ex [Var [Y |X ]] + Varx [E [Y |X ]].

Donde Ex y Varx denotan el valor esperado y la varianza


respectivamente, basadas en la distibución marginal de X . Los
términos Var [Y |X ] y E [Y |X ] son funciones de la variable aleatoria
X y son variables aleatorias en si mismas.
Econometrı́a I
Distribuciones condicionales Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I Consideremos la relación entre dos variables aleatorias Y y X , Variables aleatorias
continuas
donde E [Y ] = 0. Entonces, se sabe que Y y X son no
Esperanzas y
correlacionadas si momentos

Distribuciones
E [YX ] = Cov [Y , X ] = 0. multivariadas

Distribuciones
I Si Y es independiente en la media condicional de X significa que condicionales

: La distribución normal

E [Y |X ] = E [Y ] = 0. Distribuciones
relacionadas

I Esta condición es más fuerte que la cero correlación debido a que Pruebas de hipótesis

E [Y |X ] = 0 implica que E [Yg (X )] = 0 para cualquier función g .


Si Y y X son independientes esta condición es nuevamente más
fuerte e implica que:

E [g1 (Y )g2 (X )] = E [g1 (Y )]E [g2 (X )]

para funciones arbitrarias g1 y g2 .


Econometrı́a I
La distribución normal Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
I En econometrı́a la distribución normal juega un papel importante. continuas

La función de densidad para distribución normal con media µ y Esperanzas y


momentos
varianza σ 2 está dada por:
Distribuciones
multivariadas
1 (y − µ)2
 
1
f (y ) = √ exp − . Distribuciones
2πσ 2 2 σ2 condicionales

La distribución normal
I Lo cual se escribe como Y ∼ N (µ, σ 2 ). Se puede verificar que una Distribuciones
relacionadas
distribución normal es simétrica. La distribución normal estándar se
Pruebas de hipótesis
obtiene para µ = 0 y σ = 1. Notese que la variable estandarizada
(Y − µ)/σ es N (0, 1) si Y ∼ N (µ, σ 2 ). La densidad de una
distribución normal estandarizada, φ, está dada por:
 
1 1
φ(y ) = √ exp − y 2 .
2π 2
Econometrı́a I
La distribución normal Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas
I Un propiedad útil de la distribución normal es que una función Esperanzas y
lineal de una variable normal también es normal. Es decir, si momentos

Y ∼ N (µ, σ 2 ), entonces: Distribuciones


multivariadas

AY + b ∼ N (aµ + b, a2 σ 2 ). Distribuciones
condicionales

La distribución normal
I La función de densidad acumulada de una distribución normal no
Distribuciones
tiene una expresión en forma cerrada. Se tiene: relacionadas

Pruebas de hipótesis

Y −µ y −µ
  y − µ  Z (y −µ)/σ
P[Y ≤ y ] = P ≤ =Φ = φ(t)dt,
σ σ σ −∞

donde Φ denota la cdf de la distribución normal estándar. Note


que Φ(y ) = 1 − Φ(−y ) debido a la simetrı́a.
Econometrı́a I
La distribución normal Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas

Esperanzas y
momentos
I La simetrı́a también implica que el tercer momento de una Distribuciones
multivariadas
distribución normal es cero. Se puede mostrar que el cuarto
Distribuciones
momento central de una distribución normal está dado por condicionales

La distribución normal
E [(Y − µ)4 ] = 3σ 4 .
Distribuciones
relacionadas
4 4
I Notese que esto implica que E [Y ] = 4σ . Tı́picamente estas Pruebas de hipótesis
propiedades del tercer y cuarto momento central son usados para
hacer pruebas de normalidad.
Econometrı́a I
La distribución normal Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
Figura: Distribuciones normales N (0, 1) y N (0.5, 1.3) continuas

Esperanzas y
momentos

Distribuciones
multivariadas

Distribuciones
condicionales

La distribución normal

Distribuciones
relacionadas

Pruebas de hipótesis
Econometrı́a I
La distribución normal Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

I Si (Y , X ) tiene una distribución normal bivariada con un vector Variables aleatorias


continuas
de medias µ = (µy , µx )0 y matriz de covarianzas
Esperanzas y
 2  momentos
σy σyx Distribuciones
Σ= 2 multivariadas
σyx σx
Distribuciones
denotada por (Y , X )0 ∼ (µ, Σ), la función de densidad conjunta condicionales

está dada por La distribución normal

f (y , x) = f (y |x)f (x), Distribuciones


relacionadas

donde ambas, la densidad condicional de Y dado X y la densidad Pruebas de hipótesis

marginal de X son normales. La función de densidad condicional


está dada por:
( )
1 1 (y − µy |x )2
f (y |x) = q exp − .
2πσ 2 2 σy2|x
y |x
Econometrı́a I
La distribución normal Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

I µy |x es la esperanza condicional de Y dado X y se define como: Variables aleatorias


continuas

Esperanzas y
µy |x = µy +( σyx /σx2 )(x − µx ), momentos

Distribuciones
I σy2|x es la varianza condicional de Y dado X y se define como: multivariadas

Distribuciones
condicionales
σy2|x = σy2 − σyx
2
/σx2 = σy2 (1 − ρ2yx ),
La distribución normal

donde ρyx es el coeficiente de correlación entre Y y X . Distribuciones


relacionadas
I Estos resultados tienen implicancias importantes. Primero, si dos Pruebas de hipótesis

(o más) variables tienen una distribución normal conjunta, todas


las distribuciones marginales y distribuciones condicionales son
también normales. Segundo, la esperanza condicional de una
variable dadas la(s) otra(s) variable(s) es una función lineal (con
un intercepto). Tercero, si ρyx = 0, entonces f (y |x) = f (y ) y
f (y , x) = f (y )f (x),entonces Y y X son independientes.
Econometrı́a I
La distribución normal Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I Entonces, si Y y X tienen una distribución normal conjunta con
Variables aleatorias
correlación cero, son automáticamente independientes. continuas

I Otro resultado importante es que una función lineal de variables Esperanzas y


momentos
normales también es normal, es decir, si (Y , X )0 ∼ N (µ, Σ), Distribuciones
entonces: multivariadas

Distribuciones
aY + bX ∼ N (aµy + bµx , a2 σy2 + b 2 σx2 + 2abσyx ). condicionales

La distribución normal

I Estos resultados pueden ser generalizados a una distribución normal Distribuciones


relacionadas
K -variada. Si el vector Y de dimensión K tiene una distribución
Pruebas de hipótesis
normal con vector de medias µ y matriz de covarianzas Σ, es decir

Y ∼ N (µ, Σ),

se cumple que la distribución de RY, donde R es una matriz


J × K , es una distibución normal J-variada, dada por :

RY ∼ N (Rµ, RΣR 0 ).
Econometrı́a I
Distribuciones relacionadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas
I Además de la distribución normal, existen otras distribuciones que
Variables aleatorias
son importantes. continuas

I Se define la distribución Chi-cuadrado como sigue: Si Y1 , · · · , YJ Esperanzas y


momentos
es un conjunto de variables normales estándar independientes, Distribuciones
entonces se cumple que multivariadas

Distribuciones
J
X condicionales

ξ= Yj2 La distribución normal

j=1 Distribuciones
relacionadas

tiene una distibución Chi-cuadrado con J grados de libertad. Se Pruebas de hipótesis

denota ξ ∼ χ2J . De manera general, si Y1 , · · · , YJ es un conjunto


de variables normales independientes con media µ y varianza σ 2 , se
cumple que:
J
X (Yj − µ)2
ξ=
j=1
σ2

es Chi-cuadrado con J grados de libertad.


Econometrı́a I
Distribuciones relacionadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Figura: Distribuciones Chi-cuadrado χ23 y χ24 Variables aleatorias


continuas

Esperanzas y
momentos

Distribuciones
multivariadas

Distribuciones
condicionales

La distribución normal

Distribuciones
relacionadas

Pruebas de hipótesis
Econometrı́a I
Distribuciones relacionadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
I Si Y = (Y1 , · · · , YJ )0 es un vector de variables aleatorias que tienen discretas

una distribución normal conjunta con vector de medias µ y matriz Variables aleatorias
continuas
de covarianzas (no singular) Σ, se cumple que: Esperanzas y
momentos
ξ = (Y − µ)0 Σ−1 (Y − µ) ∼ χ2J . Distribuciones
multivariadas
I Si ξ tiene un distribución Chi-cuadrado con J grados de libertad, se Distribuciones
condicionales
cumple que E [ξ] = J y Var [ξ] = 2J.
La distribución normal
I Ahora consideremos la distribución t (Student). Si X ∼ N (0, 1), y Distribuciones
ξ ∼ χ2J y si X y ξ son independientes, el ratio relacionadas

Pruebas de hipótesis
X
t= p
ξ/J
tiene una distribución t con J grados de libertad. Similar a la
distribución normal estándar, la distribución t es simétrica es
alrededor de cero, pero tiene colas mas anchas, particularmente
para valores pequeños de J. Si J tiene a un valor muy grande, la
distribución t se aproxima a una distribución normal.
Econometrı́a I
Distribuciones relacionadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Figura: Distribuciones t con 3 gl y N (0, 1) Variables aleatorias


continuas

Esperanzas y
momentos

Distribuciones
multivariadas

Distribuciones
condicionales

La distribución normal

Distribuciones
relacionadas

Pruebas de hipótesis
Econometrı́a I
Distribuciones relacionadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
I Si ξ1 ∼ χ2J1 y ξ2 ∼ χ2J2 y si ξ1 y ξ2 son independientes, se cumple continuas

que : Esperanzas y
momentos
ξ1 /J1
f = Distribuciones
ξ2 /J2 multivariadas

tiene una distribución F con J1 y J2 grados de libertad en el Distribuciones


condicionales
numerador y denominador respectiamente. Adicionalmente, el ratio La distribución normal
inverso Distribuciones
ξ2 /J2 relacionadas
f =
ξ1 /J1 Pruebas de hipótesis

tiene una distribución F con J2 y J1 grados de libertad


respectivamente.
I La distribución F es la distribución del ratio de dos variables
Chi-cuadrado independientes, divididas por sus respectivos grados
de libertad.
Econometrı́a I
Distribuciones relacionadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas
I Cuando J1 = 1, ξ1 es una variable normal cuadrada, es decir, Esperanzas y
ξ1 = X 2 , y se cumple que. momentos

Distribuciones
!2 multivariadas
X ξ1
t2 = p = = f ∼ FJ12 . Distribuciones
ξ2 /J2 ξ2 /J2 condicionales

La distribución normal
I Es decir, con un grado de libertad en el numerador, la distribución Distribuciones
relacionadas
F es el cuadrado de una distribución t. Si J2 es grande, la
Pruebas de hipótesis
distribución de
ξ1
J1 f =
ξ2
es bien aproximada por una distribución Chi-cuadrado con J1
grados de libertad.
Econometrı́a I
Distribuciones relacionadas Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas

Esperanzas y
momentos
I Finalmente, consideremos la distribución lognormal. Si log Y tiene Distribuciones
una distribución normal con media µ y varianza σ 2 , entonces multivariadas

Y > 0 tiene una distribución lognormal. La densidad lognormal es Distribuciones


condicionales
utilizada comúnmente para describir la distibución poblacional del
La distribución normal
ingreso o la distribución de los retornos de activos (Campbell, Lo y
Distribuciones
MacKinlay, 1997). Mientras E [log Y ] = µ, se cumple que: relacionadas

  Pruebas de hipótesis
1
E [Y ] = exp µ + σ 2 .
2
Econometrı́a I
Pruebas de hipótesis Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
I Una hipótesis estadı́stica es una afirmación sobre los valores de discretas

algunos parámetros sobre la población de la cual se ha extraido una Variables aleatorias


continuas
muestra. Esperanzas y
momentos
I Una hipótesis que señala que un parámetro tiene un valor
Distribuciones
especı́fico es una hipótesis puntual. Una hipótesis que señala que multivariadas
el valor de un parámetro se encuentra en un determinado intervalo Distribuciones
condicionales
es una hipótesis interna.
La distribución normal
I Una prueba de hipótesis es un procedimiento que responde la
Distribuciones
pregunta de si la diferencia observada entre el valor muestral y el relacionadas

valor poblacional hipotético es real o se debe a un cambio Pruebas de hipótesis

aleatorio.
I La hipótesis que estamos probando es la hipótesis nula, H0 . La
hipótesis alternativa es denotada por H1 .
I La probabilidad de rechazar H0 , cuando esta es cierta, se conoce
como el nivel de significancia. Para probar si la diferencia
observada entre los datos y lo que uno espera bajo H0 es
significativa, usamos estadı́sticos de prueba.
Econometrı́a I
Pruebas de hipótesis Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
I Un criterio deseable para el estadı́stico de prueba es que su continuas
distribución muestral sea tratable, de preferencia con Esperanzas y
momentos
probabilidades tabuladas. Ası́, generalmente se utilizan las
distribuciones normal, t, χ2 y F para realizar estos estadı́sticos. Distribuciones
multivariadas

I El nivel de significancia observado o P-value es la probabilidad Distribuciones


condicionales
de obtener un valor del estadı́stico que es extremo o más extremo
La distribución normal
que el valor observado del estadı́stico de prueba.
Distribuciones
I Por ejemplo, consideremos una muestra de n observaciones relacionadas

independientes tomadas de una población normal con media µ y Pruebas de hipótesis

varianza σ 2 . Y queremos probar:

H0 : µ = 7

contra
H1 : µ 6= 7
Econometrı́a I
Pruebas de hipótesis Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas
I El estadı́stico de prueba a usar es: Esperanzas y
momentos

n(ȳ − µ) Distribuciones
t= multivariadas
S
Distribuciones
condicionales
que tiene una distribución t con (n − 1) grados de libertad. Si
La distribución normal
n = 25, ȳ = 10, S = 5, bajo H0 el valor observado de t es t0 = 3,
Distribuciones
mientras el P − value es (dado los grados de libertad) relacionadas

Pruebas de hipótesis
P = Prob[t24 > 3].
I Es una práctica común mencionar simplemente que el resultado de
la prueba es (estadı́sticamente) significativo o no significativo y no
reportar los P − values
Econometrı́a I
Pruebas de hipótesis Repaso de estadı́stica

Erix Ruiz

I Estadı́sticamente significativo: la variabilidad de la muestra es Variables aleatorias


discretas
una explicación poco probable de la discrepancia entre los valor de Variables aleatorias
la hipótesis nunla y el valor muestral. continuas

Esperanzas y
I Estadı́sticamente no significativo: la variabilidad de la muestra es momentos
una explicación probable de la discrepancia entre el valor de la Distribuciones
multivariadas
hipótesis nula y en valor muestral.
Distribuciones
I Es usual rechazar la hipótesis nula, H0 , cuando el estadı́stico de condicionales

prueba es estadı́sticamente significativo a un determinado nivel de La distribución normal

significancia. H0 puede ser cierta o falsa. Ası́, se pueden tener las Distribuciones
relacionadas
siguientes posibilidades:
Pruebas de hipótesis

Figura: Error Tipo I y Tipo II


Econometrı́a I
Pruebas de hipótesis Repaso de estadı́stica

Erix Ruiz

I α = P[rechazarH0 |H0 es verdadera] Variables aleatorias


discretas
I β = P[ no rechazarH0 |H0 es falsa] Variables aleatorias
continuas
I α es el nivel de significancia. (1 − β) es denominado poder de la Esperanzas y
prueba. El poder de la prueba no puede ser calculado a menos que momentos

se especifique la hipótesis alternativa H1 . Es decir, que H0 no sea Distribuciones


multivariadas
verdadera significa que H1 es verdadera. Distribuciones
condicionales
I Por ejemplo, consideremos las siguientes hipótesis:
La distribución normal

H0 : µ = 10, H1 : µ = 15. Distribuciones


relacionadas

para una población normal con media µ y√varianza σ 2 . El Pruebas de hipótesis

estadı́stico de prueba que usamos es t = n(x̄ − µ)/S. De una


muestra se obtienen los valores de n, x̄ y S. Para calcular α usamos
µ010, y para calcular β usamos µ = 15. Ası́, los dos errores son:

α = P[t > t ∗ |µ = 10]

β = P[t < t ∗ |µ = 15]


donde t ∗ es el valor crı́tico de t que se usa para rechazar o no H0 .
Econometrı́a I
Pruebas de hipótesis Repaso de estadı́stica

Erix Ruiz

Variables aleatorias
discretas

Variables aleatorias
continuas

Figura: Error Tipo I y Tipo II en una prueba de hipótesis Esperanzas y


momentos

Distribuciones
multivariadas

Distribuciones
condicionales

La distribución normal

Distribuciones
relacionadas

Pruebas de hipótesis

Você também pode gostar