Escolar Documentos
Profissional Documentos
Cultura Documentos
De manera compacta:
p
plim Xn = μ ó Xn → μ
0,3
0,2
0,1
0
GRÁFICO 1
Teorema de Markov: Sea 𝑋𝑛 una variable aleatoria que depende de “n”, y sean 𝜀 y 𝛿 dos
constantes positivas, entonces:
𝐸[𝑋𝑛 ] = 𝐸[𝑋𝑛 /𝑋𝑛 < 𝛿]𝑃𝑟 (𝑋𝑛 < 𝛿 ) + 𝐸[𝑋𝑛 /𝑋𝑛 ≥ 𝛿]𝑃𝑟 (𝑋𝑛 ≥ 𝛿 )
𝐸[𝑋𝑛 ] ≥ 𝐸[𝑋𝑛 /𝑋𝑛 ≥ 𝛿]𝑃𝑟 (𝑋𝑛 ≥ 𝛿 )
𝐸[𝑋𝑛 ] ≥ 𝛿 𝑃𝑟 (𝑋𝑛 ≥ 𝛿 )
𝐸[𝑋𝑛 ]
𝑃𝑟 (𝑋𝑛 ≥ 𝛿 ) ≤ Desigualdad de Markov
𝛿
Teorema de Slutsky:
I. CONDICION DE INVARIANZA: Sea 𝑔(𝑋𝑛 ) una función de 𝑋𝑛 , entonces 𝑝𝑙𝑖𝑚 𝑔(𝑋𝑛 ) =
𝑔[𝑝𝑙𝑖𝑚 (𝑋𝑛 )]
Ejemplos:
𝑔(𝑋𝑛 ) = 𝑋𝑛 𝛼
𝑝𝑙𝑖𝑚 [𝑋𝑛 𝛼 ] = (𝑝𝑙𝑖𝑚 𝑋𝑛 )𝛼
𝑔(𝑋𝑛 ) = 𝑙𝑛𝑋𝑛
𝑝𝑙𝑖𝑚 (𝑙𝑛𝑋𝑛 ) = 𝑙𝑛(𝑝𝑙𝑖𝑚 𝑋𝑛 )
𝑋 𝑝𝑙𝑖𝑚 𝑋𝑛
𝑝𝑙𝑖𝑚 ( 𝑌𝑛) =
𝑛 𝑝𝑙𝑖𝑚 𝑌𝑛
−𝟏 −𝟏
𝑿′ 𝑿 𝑿′ 𝑿
Si las 𝑿 son fijas entonces 𝑝𝑙𝑖𝑚 ( 𝑛
) =(
𝑛
)
Veamos:
∑ 𝑢𝒊
𝑛
𝑿′𝒖 ∑ 𝑋2𝑖 𝑢𝒊
( )= 𝑛
𝑛
⋮
∑ 𝑋𝑘𝑖 𝑢𝒊
[ 𝑛 ]
∑ 𝑢𝒊
Sea 𝑢̅ = 𝑛
𝐸(𝑢̅) = 0 (Probar)
𝑉𝑎𝑟(𝑢̅) = 𝐸[𝑢̅ − 𝐸(𝑢̅)]2
2
∑ 𝑢𝒊
𝑉𝑎𝑟(𝑢̅) = 𝐸 [ ]
𝑛
1
𝑉𝑎𝑟(𝑢̅) = 𝐸 [ (𝑢1 2 + 𝑢2 2 + ⋯ + 𝑢𝑛 2 + 2𝑢1 𝑢2 + ⋯ + 2𝑢𝑛−1 𝑢𝑛 )]
𝑛
1
𝑉𝑎𝑟(𝑢̅) = 𝐸(𝑢1 2 ) + ⋯ + 𝐸(𝑢𝑛 2 )
𝑛2
1
𝑉𝑎𝑟(𝑢̅) = 𝑛𝜎 2
𝑛2
𝜎2
𝑉𝑎𝑟(𝑢̅) =
𝑛
∑ 𝑢𝒊 ∑ 𝑢𝒊
Es decir converge en media cuadrática a cero, por lo que 𝑝𝑙𝑖𝑚 ( )=0
𝑛 𝑛
∑ 𝑋2𝑖 𝑢𝒊
Ahora bien, el término tiene esperanza igual a cero, si:
𝑛
∑ 𝑋2𝑖 𝑢𝒊 1 1
𝐸[ ] = 𝐸(𝑋21 ) ∗ 𝐸(𝑢1 ) + ⋯ + 𝐸(𝑋2𝑛 ) ∗ 𝐸(𝑢𝑛 ) = 0
𝑛 𝑛 𝑛
∑ 𝑋2𝑖 𝑢𝒊 1
𝑉𝑎𝑟 [ ] = 2 𝐸[(𝑋2𝑖 𝑢𝒊 )2 ]
𝑛 𝑛
∑ 𝑋2𝑖 𝑢𝒊 1
𝑉𝑎𝑟 [ ] = 2 [𝑋21 2 𝐸(𝑢1 2 ) + ⋯ + 𝑋2𝑛 2 𝐸(𝑢𝑛 2 ) + 2𝑋21 2 𝑋22 2 𝐸(𝑢1 𝑢2 2 ) + ⋯
𝑛 𝑛
+ 2𝑋2(𝑛−1) 2 𝑋2𝑛 2 𝐸(𝑢𝑛−1 𝑢𝑛 2 )]
∑ 𝑋2𝑖 𝑢𝒊 𝜎 2 ∑ 𝑋2𝑖 2
𝑉𝑎𝑟 [ ] = ( )( )
𝑛 𝑛 𝑛
∑ 𝑋2𝑖 𝑢𝒊 ∑ 𝑋2𝑖 𝑢𝒊
Por lo tanto converge en media cuadrática a cero y 𝑝𝑙𝑖𝑚 [ ]=0
𝑛 𝑛
𝑿′𝒖
Aplicando el mismo procedimiento a los demás términos deducimos que 𝑝𝑙𝑖𝑚 ( ) = 𝟎.
𝑛
Finalmente:
̂ = 𝜷 + 𝑸−𝟏 ∗ 𝟎
𝑝𝑙𝑖𝑚 𝜷 𝑿𝑿
̂ = 𝜷 → Es un estimador Consistente.
𝑝𝑙𝑖𝑚 𝜷
3) Convergencia en Distribución
Sea 𝑋𝑛 una variable con función de distribución 𝐹(𝑋𝑛 ). Se dice que 𝑋𝑛 converge a 𝑋 si y
solo si
lim [𝐹(𝑋𝑛 ) − 𝐹(𝑋)] = 0
𝑛→∞
𝑑
De manera compacta escribimos: 𝑋𝑛 → 𝑋
Por ejemplo, considere una variable que sigue una distribución “t” de Student. Sabemos
que a medida que “n” se incrementa, esta variable converge en distribución a una normal
estándar 𝑍(0, 1).
Propiedades:
𝑑 𝑝
Sean 𝑋𝑛 y 𝑌𝑛 variables aleatorias y sea “C” una constante. Además 𝑋𝑛 → 𝑋 y 𝑌𝑛 → 𝐶
𝑑
I. 𝑋𝑛 𝑌𝑛 → 𝑋𝐶
𝑋𝑛 𝑑 𝑋
II. →𝐶
𝑌𝑛
𝑑
III. (𝑋𝑛 +𝑌𝑛 ) → (𝑋 + 𝐶)
IV. Sea 𝑔(𝑋𝑛 ) una función de 𝑋𝑛 . Entonces:
𝑑
𝑔(𝑋𝑛 ) → 𝑔(𝑋)
𝑑
Ejemplo: Suponga una variable con una distribución “t”. Sabemos que 𝑡 → 𝑍(0, 1). Sea
𝑔(𝑡) = 𝑡 2 , aplicando la propiedad, tenemos:
𝑑
𝑡 2 → 𝑍 2 = 𝜒 2 (1)
Es decir
𝑑
𝑡 2 → 𝜒 2 (1)
Pero 𝑡 2 𝑉 = 𝐹1;𝑉 finalmente
𝑑
𝐹1;𝑉 → 𝜒 2 (1)
DISTRIBUCIONES ASINTOTICAS
Sabiendo que la distribución límite de un estimador consistente es degenerada, lo que se
busca es una transformación (estabilizadora) de la variable de manera que esta tenga una
distribución que no degenere.
Ejemplo:
Suponga una secuencia de observaciones muestrales 𝑋1 , 𝑋2 , … , 𝑋𝑛 (𝑖𝑖𝑑) tomadas de una
población normal con media 𝑢 y 𝜎 2 .
1
̅̅̅𝑛̅ = ∑𝑛𝑖=1 𝑋𝑖
El estadístico 𝑋 𝑛
√𝑛 ̅ √𝑛 1 1 1
𝑍= (𝑋 − 𝑢) = ( 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 − 𝜇)
𝜎 𝜎 𝑛 𝑛 𝑛
̅̅̅𝑛̅, de la
Con este resultado encontramos la distribución asintótica o aproximada de 𝑋
siguiente forma:
√𝑛 ̅ 𝑑
(𝑋 − 𝑢) → 𝑁(0, 1)
𝜎
𝑎 𝜎2
(𝑋̅ − 𝑢) → 𝑁 (0; )
𝑛
𝑎 𝜎2
𝑋̅ → 𝑁 (𝑢; )
𝑛
La ley débil de los grandes números (Kichine) plantea que dada la secuencia de {𝑋𝑖 } de una
misma población con media 𝑢 y varianza 𝜎 2 , el estadístico 𝑋̅ converge en probabilidad a 𝑢.
𝑝
𝑋̅ → 𝑢
Por lo tanto se demuestra que 𝑋̅ es un estimador consistente de 𝑢.
√𝑛 ̅ 𝑑
𝑍= (𝑋 − 𝑢) → 𝑁(0, 1)
𝜎
𝑿′ 𝒖 𝒅
( ) → 𝑁(𝟎; 𝜎 𝟐 𝑸𝑿 𝑿 ) (Teorema de Mann-Wold)
√ 𝑛
𝑎 𝜎 𝟐 −𝟏
̂ − 𝜷) → 𝑁 (𝟎;
(𝜷 𝑸 𝑿 𝑿)
𝑛
𝑎 𝜎 𝟐 −𝟏
̂ → 𝑁 (𝜷;
𝜷 𝑸 𝑿 𝑿)
𝑛
−𝟏
𝑿′ 𝑿
Si la muestra es lo suficientemente grande 𝑸−𝟏 𝑿 𝑿 se puede aproximar con ( )
𝑛
−𝟏
𝑎 𝜎 𝟐 𝑿′ 𝑿
̂ → 𝑁 (𝜷;
𝜷 ( ) )
𝑛 𝑛
𝑎
̂ → 𝑁(𝜷; 𝜎 𝟐 (𝑿′ 𝑿)−𝟏 )
𝜷
Conclusiones:
1. Los estimadores de MCO son consistentes siempre y cuando los regresores sean fijos o
estocásticas pero independientes de las 𝑢𝑖 .