Você está na página 1de 9

ELEMENTOS DE TEORÍA ASINTOTICA

¿Por qué estudiar teoría asintótica?


El concepto fundamental con el que iniciamos este breve repaso de teoría asintótica es el
concepto de Convergencia.

1.- Convergencia en Probabilidad


Sea Xn una variable aleatoria, que depende de “n”; {Xn } es una sucesión de Xn . Se define
a la vecindad de Xn alrededor de un escalar positivo ε, como Xn ± ε.
Sea, además, Pr [μ − ε < Xn < μ + ε] la probabilidad de que X n se encuentre en el intervalo
μ ± ε.
Nótese que lo anterior se puede escribir como Pr [|Xn − μ| < ε].
Una variable aleatoria Xn converge en probabilidad a μ si y solo si:

lim Pr [|Xn − μ| < ε] = 1


n→∞

Alternativamente, podemos escribir:


lim Pr [|Xn − μ| > ε] = 0
n→∞

De manera compacta:
p
plim Xn = μ ó Xn → μ

Si un estimador converge en probabilidad al parámetro θ entonces se dice que θ̂n es un


estimador consistente de θ.

2.- Convergencia en Media Cuadrática


“Una variable aleatoria cuya varianza y cuyo sesgo convergen a cero, se dice que convergen
en media cuadrática”. Formalmente:

lim E[(Xn − μ)2 ] = 0


n→∞

De manera compacta, la convergencia en media cuadrática se puede representar como,


mc
Xn → μ
La convergencia en media cuadrática es condición suficiente de convergencia en
probabilidad.
1
0,9 Estimador Insesgado
0,8
0,7
0,6 n=1000
0,5 n=100
0,4 n=10

0,3
0,2
0,1
0

GRÁFICO 1

Teorema de Markov: Sea 𝑋𝑛 una variable aleatoria que depende de “n”, y sean 𝜀 y 𝛿 dos
constantes positivas, entonces:
𝐸[𝑋𝑛 ] = 𝐸[𝑋𝑛 /𝑋𝑛 < 𝛿]𝑃𝑟 (𝑋𝑛 < 𝛿 ) + 𝐸[𝑋𝑛 /𝑋𝑛 ≥ 𝛿]𝑃𝑟 (𝑋𝑛 ≥ 𝛿 )
𝐸[𝑋𝑛 ] ≥ 𝐸[𝑋𝑛 /𝑋𝑛 ≥ 𝛿]𝑃𝑟 (𝑋𝑛 ≥ 𝛿 )
𝐸[𝑋𝑛 ] ≥ 𝛿 𝑃𝑟 (𝑋𝑛 ≥ 𝛿 )
𝐸[𝑋𝑛 ]
𝑃𝑟 (𝑋𝑛 ≥ 𝛿 ) ≤ Desigualdad de Markov
𝛿

Teorema de Kolmogorov: Utilizando 𝜀 2 en lugar de 𝛿 y utilizando [𝑋𝑛 − 𝐸(𝑋𝑛 )]2 en lugar


de 𝑋𝑛 .
Y reemplazando en la desigualdad de Markov, obtenemos
𝐸[𝑋𝑛 − 𝐸(𝑋𝑛 )]2
𝑃𝑟 {[𝑋𝑛 − 𝐸(𝑋𝑛 )]2 ≥ 𝜀 2 } ≤
𝜀2
Sea 𝜎 2 = 𝐸[𝑋𝑛 − 𝐸(𝑋𝑛 )]2, entonces podemos escribir lo siguiente:
𝜎2
𝑃𝑟 [|𝑋𝑛 − 𝐸(𝑋𝑛 )| ≥ 𝜀] ≤ 2
𝜀
Ya que [𝑋𝑛 − 𝐸(𝑋𝑛 )]2 ≥ 𝜀 2 |𝑋𝑛 − 𝐸(𝑋𝑛 )| ≥ 𝜀
𝑚𝑐
Si 𝑋𝑛 → μ esto implica que 𝐸[𝑋𝑛 ] = μ y 𝜎 2 = 0. Entonces:
lim 𝑃𝑟 [|𝑋𝑛 − 𝜇| ≥ 𝜀] = 0
𝑛→∞

Lo que obviamente indica convergencia en probabilidad.

Teorema de Slutsky:
I. CONDICION DE INVARIANZA: Sea 𝑔(𝑋𝑛 ) una función de 𝑋𝑛 , entonces 𝑝𝑙𝑖𝑚 𝑔(𝑋𝑛 ) =
𝑔[𝑝𝑙𝑖𝑚 (𝑋𝑛 )]

Ejemplos:
 𝑔(𝑋𝑛 ) = 𝑋𝑛 𝛼
𝑝𝑙𝑖𝑚 [𝑋𝑛 𝛼 ] = (𝑝𝑙𝑖𝑚 𝑋𝑛 )𝛼

 𝑔(𝑋𝑛 ) = 𝑙𝑛𝑋𝑛
𝑝𝑙𝑖𝑚 (𝑙𝑛𝑋𝑛 ) = 𝑙𝑛(𝑝𝑙𝑖𝑚 𝑋𝑛 )

 𝑔(𝑋𝑛 ) = 3𝑋𝑛 4 − 2𝑋𝑛 2 + 2


𝑝𝑙𝑖𝑚 [3𝑋𝑛 4 − 2𝑋𝑛 2 + 2] = 3(𝑝𝑙𝑖𝑚 𝑋𝑛 )4 − 2(𝑝𝑙𝑖𝑚 𝑋𝑛 )2 + 2

II. Sean 𝑋𝑛 y 𝑌𝑛 dos variables aleatorias, entonces:

𝑋 𝑝𝑙𝑖𝑚 𝑋𝑛
 𝑝𝑙𝑖𝑚 ( 𝑌𝑛) =
𝑛 𝑝𝑙𝑖𝑚 𝑌𝑛

 𝑝𝑙𝑖𝑚 (𝑋𝑛 ∗ 𝑌𝑛 ) = (𝑝𝑙𝑖𝑚 𝑋𝑛 ) ∗ (𝑝𝑙𝑖𝑚 𝑌𝑛 )

 𝑝𝑙𝑖𝑚 (𝑋𝑛 + 𝑌𝑛 ) = (𝑝𝑙𝑖𝑚 𝑋𝑛 ) + (𝑝𝑙𝑖𝑚 𝑌𝑛 )

 Sea 𝑨 una matriz invertible 𝑝𝑙𝑖𝑚 𝑨−1 = [𝑝𝑙𝑖𝑚 𝑨]−1

Consistencia de los estimadores de MCO


̂ = 𝜷 + (𝑿′ 𝑿)−𝟏 𝑿′𝒖, Introduciendo “n” en la ecuación:
𝜷
′ −𝟏
̂ = 𝜷 + (𝑿 𝑿)
𝜷 (
𝑿′𝒖
̂
) Ahora queremos obtener el 𝑝𝑙𝑖𝑚 𝜷
𝑛 𝑛

−𝟏 −𝟏
𝑿′ 𝑿 𝑿′ 𝑿
 Si las 𝑿 son fijas entonces 𝑝𝑙𝑖𝑚 ( 𝑛
) =(
𝑛
)

 Si las 𝑿 son estocásticas pero estacionarias, podemos suponer que


−𝟏
𝑿′ 𝑿
𝑝𝑙𝑖𝑚 ( ) = 𝑸−𝟏 𝑿 𝑿 < ∞
𝑛
𝑿′𝒖
Donde 𝑸−𝟏 𝑿 𝑿 es una matriz finita. ¿Qué sucede, por otro lado con el 𝑝𝑙𝑖𝑚 ( )?
𝑛

Veamos:
∑ 𝑢𝒊
𝑛
𝑿′𝒖 ∑ 𝑋2𝑖 𝑢𝒊
( )= 𝑛
𝑛

∑ 𝑋𝑘𝑖 𝑢𝒊
[ 𝑛 ]
∑ 𝑢𝒊
Sea 𝑢̅ = 𝑛

𝐸(𝑢̅) = 0 (Probar)
𝑉𝑎𝑟(𝑢̅) = 𝐸[𝑢̅ − 𝐸(𝑢̅)]2
2
∑ 𝑢𝒊
𝑉𝑎𝑟(𝑢̅) = 𝐸 [ ]
𝑛
1
𝑉𝑎𝑟(𝑢̅) = 𝐸 [ (𝑢1 2 + 𝑢2 2 + ⋯ + 𝑢𝑛 2 + 2𝑢1 𝑢2 + ⋯ + 2𝑢𝑛−1 𝑢𝑛 )]
𝑛
1
𝑉𝑎𝑟(𝑢̅) = 𝐸(𝑢1 2 ) + ⋯ + 𝐸(𝑢𝑛 2 )
𝑛2
1
𝑉𝑎𝑟(𝑢̅) = 𝑛𝜎 2
𝑛2
𝜎2
𝑉𝑎𝑟(𝑢̅) =
𝑛
∑ 𝑢𝒊 ∑ 𝑢𝒊
Es decir converge en media cuadrática a cero, por lo que 𝑝𝑙𝑖𝑚 ( )=0
𝑛 𝑛
∑ 𝑋2𝑖 𝑢𝒊
Ahora bien, el término tiene esperanza igual a cero, si:
𝑛

I. Si las 𝑿 son fijas

∑ 𝑋2𝑖 𝑢𝒊 𝑋21 𝑋2𝑛


𝐸[ ]= 𝐸(𝑢1 ) + ⋯ + 𝐸(𝑢𝑛 ) = 0
𝑛 𝑛 𝑛

II. Si las 𝑿 son estocásticas, pero independientes de las 𝑢𝑖


∑ 𝑋2𝑖 𝑢𝒊 1 1
𝐸[ ] = 𝑛 𝐸(𝑋21 𝑢1 ) + ⋯ + 𝑛 𝐸(𝑋2𝑛 𝑢𝑛 ), si las 𝑋2𝑖 son independientes de las 𝑢𝑖 .
𝑛

∑ 𝑋2𝑖 𝑢𝒊 1 1
𝐸[ ] = 𝐸(𝑋21 ) ∗ 𝐸(𝑢1 ) + ⋯ + 𝐸(𝑋2𝑛 ) ∗ 𝐸(𝑢𝑛 ) = 0
𝑛 𝑛 𝑛

Y su varianza viene dada por:

∑ 𝑋2𝑖 𝑢𝒊 1
𝑉𝑎𝑟 [ ] = 2 𝐸[(𝑋2𝑖 𝑢𝒊 )2 ]
𝑛 𝑛

∑ 𝑋2𝑖 𝑢𝒊 1
𝑉𝑎𝑟 [ ] = 2 [𝑋21 2 𝐸(𝑢1 2 ) + ⋯ + 𝑋2𝑛 2 𝐸(𝑢𝑛 2 ) + 2𝑋21 2 𝑋22 2 𝐸(𝑢1 𝑢2 2 ) + ⋯
𝑛 𝑛
+ 2𝑋2(𝑛−1) 2 𝑋2𝑛 2 𝐸(𝑢𝑛−1 𝑢𝑛 2 )]

∑ 𝑋2𝑖 𝑢𝒊 𝜎 2 ∑ 𝑋2𝑖 2
𝑉𝑎𝑟 [ ] = ( )( )
𝑛 𝑛 𝑛

∑ 𝑋2𝑖 𝑢𝒊 ∑ 𝑋2𝑖 𝑢𝒊
Por lo tanto converge en media cuadrática a cero y 𝑝𝑙𝑖𝑚 [ ]=0
𝑛 𝑛
𝑿′𝒖
Aplicando el mismo procedimiento a los demás términos deducimos que 𝑝𝑙𝑖𝑚 ( ) = 𝟎.
𝑛
Finalmente:
̂ = 𝜷 + 𝑸−𝟏 ∗ 𝟎
𝑝𝑙𝑖𝑚 𝜷 𝑿𝑿

̂ = 𝜷 → Es un estimador Consistente.
𝑝𝑙𝑖𝑚 𝜷

3) Convergencia en Distribución
Sea 𝑋𝑛 una variable con función de distribución 𝐹(𝑋𝑛 ). Se dice que 𝑋𝑛 converge a 𝑋 si y
solo si
lim [𝐹(𝑋𝑛 ) − 𝐹(𝑋)] = 0
𝑛→∞

𝑑
De manera compacta escribimos: 𝑋𝑛 → 𝑋
Por ejemplo, considere una variable que sigue una distribución “t” de Student. Sabemos
que a medida que “n” se incrementa, esta variable converge en distribución a una normal
estándar 𝑍(0, 1).
Propiedades:
𝑑 𝑝
Sean 𝑋𝑛 y 𝑌𝑛 variables aleatorias y sea “C” una constante. Además 𝑋𝑛 → 𝑋 y 𝑌𝑛 → 𝐶
𝑑
I. 𝑋𝑛 𝑌𝑛 → 𝑋𝐶
𝑋𝑛 𝑑 𝑋
II. →𝐶
𝑌𝑛
𝑑
III. (𝑋𝑛 +𝑌𝑛 ) → (𝑋 + 𝐶)
IV. Sea 𝑔(𝑋𝑛 ) una función de 𝑋𝑛 . Entonces:
𝑑
𝑔(𝑋𝑛 ) → 𝑔(𝑋)

𝑑
Ejemplo: Suponga una variable con una distribución “t”. Sabemos que 𝑡 → 𝑍(0, 1). Sea
𝑔(𝑡) = 𝑡 2 , aplicando la propiedad, tenemos:

𝑑
𝑡 2 → 𝑍 2 = 𝜒 2 (1)
Es decir
𝑑
𝑡 2 → 𝜒 2 (1)
Pero 𝑡 2 𝑉 = 𝐹1;𝑉 finalmente
𝑑
𝐹1;𝑉 → 𝜒 2 (1)

Relación entre los tipos de convergencia:


𝑚𝑐 → 𝑝 → 𝑑(𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛 𝐷𝑒𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑎)
Si una variable 𝑋𝑛 converge en media cuadrática eso implica que converge en probabilidad
y esto a su vez implica que converge en distribución a una distribución “degenerada”.

DISTRIBUCIONES ASINTOTICAS
Sabiendo que la distribución límite de un estimador consistente es degenerada, lo que se
busca es una transformación (estabilizadora) de la variable de manera que esta tenga una
distribución que no degenere.
Ejemplo:
Suponga una secuencia de observaciones muestrales 𝑋1 , 𝑋2 , … , 𝑋𝑛 (𝑖𝑖𝑑) tomadas de una
población normal con media 𝑢 y 𝜎 2 .
1
̅̅̅𝑛̅ = ∑𝑛𝑖=1 𝑋𝑖
El estadístico 𝑋 𝑛

I. Sigue una distribución normal.


II. Tiene media 𝑢.
𝜎2
III. Tiene varianza 𝑛
𝑚𝑐 𝑝
̅̅̅𝑛̅ → 𝑢 ⟹ 𝑋
𝑋 ̅̅̅𝑛̅ → 𝑢 ⟹ 𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛 𝐿𝑖𝑚𝑖𝑡𝑒 𝐷𝑒𝑔𝑒𝑛𝑒𝑟𝑎𝑑𝑎
̅̅̅̅
√𝑛(𝑋 𝑛 −𝑢)
Sin embargo, la variable 𝑍 = sigue una distribución normal con media 0 y
𝜎
varianza 1, es decir 𝑍(0, 1).

√𝑛 ̅ √𝑛 1 1 1
𝑍= (𝑋 − 𝑢) = ( 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 − 𝜇)
𝜎 𝜎 𝑛 𝑛 𝑛
̅̅̅𝑛̅, de la
Con este resultado encontramos la distribución asintótica o aproximada de 𝑋
siguiente forma:

√𝑛 ̅ 𝑑
(𝑋 − 𝑢) → 𝑁(0, 1)
𝜎
𝑎 𝜎2
(𝑋̅ − 𝑢) → 𝑁 (0; )
𝑛

𝑎 𝜎2
𝑋̅ → 𝑁 (𝑢; )
𝑛

La ley débil de los grandes números (Kichine) plantea que dada la secuencia de {𝑋𝑖 } de una
misma población con media 𝑢 y varianza 𝜎 2 , el estadístico 𝑋̅ converge en probabilidad a 𝑢.
𝑝
𝑋̅ → 𝑢
Por lo tanto se demuestra que 𝑋̅ es un estimador consistente de 𝑢.

Teorema del Limite Central (Lindberg – Levy).


Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 variables aleatorias tomadas de cualquier distribución (población no
necesariamente normal) con media 𝑢 y varianza 𝜎 2 .
√𝑛 ̅
Sea además 𝑍 = (𝑋 − 𝑢). Entonces
𝜎

√𝑛 ̅ 𝑑
𝑍= (𝑋 − 𝑢) → 𝑁(0, 1)
𝜎

Teorema del Limite Central (Lindberg – Feller).


Sean 𝑋1 , 𝑋2 , … , 𝑋𝑛 variables aleatorias cada una con 𝐸(𝑋𝑖 ) = 𝑢𝑖 y 𝑉𝑎𝑟(𝑋𝑖 ) = 𝜎𝑖 2 . La
variable
𝑑
̅̅̅𝑛̅ − ̅̅̅)
𝑍 = √𝑛(𝑋 ̅̅̅2 )
𝑢𝑛 → 𝑁(0; 𝜎

̅̅̅2 = lim ̅̅̅̅̅ ̅̅̅̅̅ 1


Donde 𝜎 𝜎𝑛 2 y 𝜎𝑛 2 = 𝑛 ∑𝑛𝑖=1 𝜎𝑖 2
𝑛→∞

Aplicando Lindberg-Levy a estimadores muestrales 𝜃̂


𝑑
I. √𝑛(𝜃̂ − 𝜃) → 𝑁(0; 𝜎 2 ) ⟹ Para un solo estimador.
𝑑
II. ̂ − 𝜽) → 𝑁(𝟎; 𝚺) ⟹ Para un vector de estimadores.
√𝑛(𝜽

DISTRIBUCIÓN ASINTÓTICA DE LOS ESTIMADORES DE MCO


−𝟏
𝑿′ 𝑿 𝑿′𝒖
̂
𝜷=𝜷+( ) ( )
𝑛 𝑛
−𝟏
𝑿′ 𝑿 𝑿′𝒖
̂ − 𝜷) = (
√𝑛(𝜷 ) ( )
𝑛 √𝑛
Dado que la distribución límite del lado derecho es la misma que la del lado izquierdo.
−𝟏
𝑿′ 𝑿
 Sabemos que 𝑝𝑙𝑖𝑚 ( 𝑛
) = 𝑸−𝟏 𝑿 𝑿 < ∞.
 Se puede demostrar que, bajo ciertas condiciones

𝑿′ 𝒖 𝒅
( ) → 𝑁(𝟎; 𝜎 𝟐 𝑸𝑿 𝑿 ) (Teorema de Mann-Wold)
√ 𝑛

Aplicando las propiedades de las distribuciones límite:


−𝟏
𝑿′ 𝑿 𝑿′𝒖 𝒅
( ) ( ) → 𝑸−𝟏 𝑿 𝑿 𝑁(𝟎; 𝜎 𝟐 𝑸𝑿 𝑿 )
𝑛 √𝑛
−𝟏
𝑿′ 𝑿 𝑿′𝒖 𝒅
( ) ( ) → 𝑁(𝟎; 𝜎 𝟐 𝑸−𝟏 𝑿 𝑿 𝑸𝑿 𝑿 𝑸−𝟏 𝑿 𝑿 )
𝑛 √𝑛
Se deduce que:
𝑑
̂ − 𝜷) → 𝑁(𝟎; 𝜎 𝟐 𝑸−𝟏 )
√𝑛(𝜷 𝑿𝑿

𝑎 𝜎 𝟐 −𝟏
̂ − 𝜷) → 𝑁 (𝟎;
(𝜷 𝑸 𝑿 𝑿)
𝑛

𝑎 𝜎 𝟐 −𝟏
̂ → 𝑁 (𝜷;
𝜷 𝑸 𝑿 𝑿)
𝑛
−𝟏
𝑿′ 𝑿
Si la muestra es lo suficientemente grande 𝑸−𝟏 𝑿 𝑿 se puede aproximar con ( )
𝑛
−𝟏
𝑎 𝜎 𝟐 𝑿′ 𝑿
̂ → 𝑁 (𝜷;
𝜷 ( ) )
𝑛 𝑛
𝑎
̂ → 𝑁(𝜷; 𝜎 𝟐 (𝑿′ 𝑿)−𝟏 )
𝜷
Conclusiones:
1. Los estimadores de MCO son consistentes siempre y cuando los regresores sean fijos o
estocásticas pero independientes de las 𝑢𝑖 .

2. Es importante, por ahora, suponer regresores estacionarios.

3. Si la muestra es lo suficientemente grande los estimadores de MCO seguirán una


distribución aproximadamente normal independientemente si las 𝑢𝑖 siguen o no una
normal.

Você também pode gostar