Você está na página 1de 34

Econometria

prof. Danielle Carusi Machado

Aula 7

1o. Semestre de 2023


Propriedades Assintóticas do EMQO
Seção 4.4 Greene
Propriedades assintóticas
O número de resultados estatísticos exatos, tais como o
valor esperado ou a distribuição verdadeira, em
muitos modelos é baixo.

Usualmente, utilizamos resultados aproximados com base


no que se sabe do comportamento de determinadas
estatísticas de grandes amostras.
Convergência
Definições, tipos de convergência quando n
cresce:

1. Para uma constante; exemplo, a média


amostral, x

2. Para uma variável aleatória; exemplo,


uma estatística t com n -1 graus de liberdade.
Convergência para uma constante

Convergência de uma variável aleatória

O que significa uma variável aleatória convergir para uma


constante?

Convergência da variância para zero.

A variável aleatória converge para algo que não é aleatório.


Resultados de convergência
Convergência de uma sequência de variáveis aleatórias para uma
constante

A média converge para uma constante e a variância converge


para zero.

xn = Σ x , E[ xn ] = µ → µ, Var[xn ]=σ / n → 0
1
n
n
i =1 i
2

Teorema de convergência para momentos amostrais.

Momentos amostrais convergem em probabilidade para


seus análogos populacionais.

(1/n)Σig(zi) converge para E[g(zi)]. Análogo Populacional

Momento Amostral
Convergência em probabilidade

A variável aleatória x n converge em probabilidade


para uma constante c sss
( )
limn →∞ Pr ob x n − c > ε = 0 para qualquer valor positivo ε .

A probabilidade que a diferença entre xn e c seja maior do


que ε para qualquer ε vai para zero.

Ou seja, xn fica perto de c.


Convergência em probabilidade
Convergência em probabilidade significa que os valores das
variáveis que não estão próximos de c ficam cada vez
mais improváveis à medida que o n cresce.

Exemplo:
Suponha uma variável aleatória xn que assume dois valores,
zero e n, com probabilidades (1-1/n) e (1/n), respectivamente.
Quando n aumenta , o segundo valor é menos provável.
Xn converge em probabilidade para zero.

Toda a massa da distribuição de probabilidade fica concentrada


em pontos próximos de c.
p lim x n = c
Convergência em Média Quadrática
Se xn tem média μn e variância σ2 tal que os limites ordinários
de μn e σ2 são c e 0, respectivamente, xn converge em “média
quadrática“ para c, e
Convergência em Média Quadrática

Convergência em probabilidade não implica


convergência em média quadrática!!!

Exemplo dado: calcular o valor esperado: o valor esperado


é igual a 1 para qualquer n.

As condições para a convergência em média são mais


fáceis de verificar do que a forma geral de
convergência em probabilidade.

Utilizaremos quase sempre convergência em média.


Consistência de um estimador

Se a variável aleatória xn é um estimador (por exemplo, a


média), e se:

plim xn = θ

xn é um estimador consistente de θ.
Teorema de Slutsky
Se xn é uma variável aleatória tal que plim xn = θ.

Onde θ é uma constante.

g(.) é uma função contínua. g(.) não é função de


n.
Conclusão: plim[g(xn)] = g[plim(xn)] = g(θ ) e
g[plim(xn)] existe.
Corolários Slutsky
x n and y n are two sequences of random variables with
probability limits θ and µ.
Plim (x n ± y n ) = θ ± µ (sum)
Plim (x n × y n ) = θ × µ (product)
Plim (x n / y n ) = θ / µ (product, if µ ≠ 0)
Plim[g(x n ,y n )] = g(θ , µ) assuming it exists and g(.) is
continuous with continuous partials, etc.
Resultados de Slutsky para
Matrizes
Funções de matrizes são funções contínuas de
elementos das matrizes.

Se plimAn = A e plimBn = B (elemento a


elemento),
Plim(An-1) = [plim An]-1 = A-1
e
plim(AnBn) = plimAnplim Bn = AB
Distribuições limites
Convergência para um tipo de VA e não para uma
constante
xn é uma sequência de VA com Fn(xn).
Se plim xn = θ (constante), Fn(xn) será um ponto.
Mas, Fn pode convergir para uma variável
aleatória específica.
A distribuição desta VA será a distribuição limite de
xn.
d
x n → x ⇔ Fn (x n ) 
n→∞
→ F(x)
Teorema de Slutsky para Variáveis
Aleatórias

d
X n →
 X
Se , e se g(Xn) é uma função continua com derivadas

contínuas e que não depende de n, temos que :

d
g ( X n ) →
 g (X )

Exemplo:

t-student converge para uma normal padrão.

Quadrado de uma t-student converge para uma qui-quadrada.


Uma extensão do Teorema de
Slutsky
d
Se x n →
 x (Xn tem uma distribuição limite) e θ é uma constante tal

d
que g (x n , θ ) →
 g (gn tem uma distribuição limite que é função de θ),

d
e p lim y n = θ temos que: g (x n , y n ) →
 g

Ou seja, substituir o θ por um estimador consistente leva a mesma

distribuição limite.
Aplicação do Teorema de Slutsky
Comportamento da estatística F para testar restrições em grandes amostras:

* * (e *´e * − e´e )  d χJ 2
(e ´e − e´e )  →

J = σ 2J  J
F =
e´e
e´e  p
(n − k ) 2  →
 1
σ (n − k )
d
 χJ 2
JF →
Teorema do Limite Central
Descreve o comportamento de uma variável
aleatória que envolve soma de variáveis
“Tendência para a normalidade.”

A média de uma amostra aleatória de qualquer


população (com variância finita), quando
padronizada, tem uma distribuição normal
padrão assintótica.
Teorema do Limite Central
Teorema Lindeberg-Levy (versão simples do TLC):

Se x1, x2, … , xn é uma amostra aleatória de uma população cuja

distribuição de probabilidade tem média μ e variância finita


n


1
igual a σ2 e xn =
n
xi temos que:
=1
i
xn − µ d
n →
 N (0,1)
σ

Se p lims n= σ :
x −µ d
n n → N (0,1)
sn
Teorema do Limite Central
Teorema Lindeberg-Feller :

Suponha que {x i }, i = 1,..., n é uma sequência de variáveis aleatórias

independentes com média μi e variâncias positivas finitas σ2i


1
µn = (µ1 + µ2 + µ3 + ... + µn )
n
1
σ n2 = (σ 1 + σ 2 + σ 3 + ... + σ n )
n

n (x n − µn ) →
d
 N (0, σ 2 )
Lindberg-Levy vs. Lindeberg-Feller
Lindeberg-Levy assume amostra aleatória – observações
possuem as mesmas média e variância.

Lindeberg-Feller – a variância pode ser diferente entre as


observações, apenas com hipóteses de como elas variam.
Soma de variáveis aleatórias, independente da sua
distribuição, tenderão a ser normalmente distribuídas. E,
mais, Lindeberg-Feller não requere que as variáveis na soma
venham da mesma distribuição de probabilidade.

Estimadores em econometria – uso da versão Lindeberg-Feller


do TLC.
Distribuição assintótica
 Uma distribuição assintótica é uma distribuição usada para a
aproximar a verdadeira distribuição de amostra finita de uma variável
aleatória.
 Construída a partir da distribuição limite da função de uma variável
aleatória.
 Se x −µ d
n  n  →
 N (0,1)
 σ 
2
x n ~ N (µ , σ )
 n é assintoticamente normalmente distribuído
com média μ e variância σ2/n.
Eficiência assintótica
 Comparação de variâncias assintóticas

 Como comparamos estimadores consistentes? Se


convergem para constante, ambas variâncias vão para zero.
d
n (θˆn − θ ) →
 N (0,V )

 Eficiência assintótica: Um estimador θˆn é assintoticamente


normal, este estimador é eficiente assintoticamente se a
matriz de covariância de qq outro estimador consistente e
assintoticamente normal exceder (1/n)V por uma matriz
definida não negativa.
Eficiência assintótica
Exemplo: Amostra aleatória de uma distribuição
normal,

 A média amostral é assintoticamente normal com


[μ,σ2/n]
 Mediana é assintoticamente normal com
[μ,(π/2)σ2/n]
 Média é assintoticamente mais eficiente.
Propriedades assintóticas do EMQ
A hipótese de normalidade não é necessária para
derivarmos as propriedades assintóticas.
Hipóteses: Convergência de X′′X/n para uma
matriz Q positiva definida.
Convergência de X’εε/n para 0. Suficiente para a
consistência.
Hipóteses: Convergência de (1/√n)X’εε para um
vetor com distribuição normal – normalidade
assintótica.
EMQ
EMQ pode ser escrito da seguinte forma:
(X′′X)-1X′′y = (X′′X)-1Σixiyi
= β + (X′′X)-1Σixiεi
Um vetor de constantes mais um vetor de variáveis
aleatórias.
Os resultados para a amostra finita são estabelecidos
conforme regras estatísticas para esta soma.
Como esta soma de variáveis se comporta em grandes
amostras?
Convergência em média quadrática

E[b|X]=β para qualquer X.


Var[b|X]0 para um X específico
b converge para β
b é consistente
Limite de probabilidade
−1
1  1 n 
b = β +  X'X  ×   i=1 x iεi 
n  n 
−1 −1
1  1 n  1  1 
b - β =  X'X  ×   i=1 x iεi  =  X'X   X'ε 
n  n  n  n 
 1 −1
 1 
P lim(b - β) = p lim  X'X   X'ε  
 n  n  
−1 −1
1  1   1  1 
= p lim  X'X  p lim  X'ε  =  p lim n X'X  p lim n X' ε 
n  n       
1 
= Q −1p lim  X'ε  assuming well behaved regressors.
A inversa é uma
n 
função contínua
Este plim 
1 da matriz
What must be assumed to get p lim  =
X'εdeverá
0 ?ser zero
n  original.
Limite de probabilidade

Devemos encontrar o plim do último termo:


 X 'ε 
p lim 
 n 
n n
X 'ε
 x i ε i = w i = w
1 1
=
n n n
i=1 i =1

p lim b = β + Q −1p limw

Para isto, devemos formular algumas hipóteses.


Hipótese crucial do modelo
O que devemos assumir para que plim(1/nX’ε)=0?

1) xi = vetor aleatório com média e variâncias finitas e com


distribuições idênticas.
2) εi = variável aleatória com uma distribuição constante com
média e variância finitas e E(εi)=0
3) xi e εi são estatisticamente independentes. wi = xiεi = uma
observação em uma amostra aleatória, com matriz de
covariância constante e o vetor de média igual a zero.
1
n w i converge para sua esperança (Análogo Populacional).

Momento Amostral
Limite de probabilidade

Pela hipótese de exogeneidade e pela lei das


expectativas iteradas:
  = E   x i εi 
E (w i ) = E x E w i E
  x i  x  
 x i


  = 0
= E x x i E  ε i 
  x i 
Desta forma a expectativa exata E (w ) = 0

n  
1 1 1
E (w ) = E ( wi ) = E ( wi ) = E (w i ) = 0
n n
i =1 i =1 i =1
Limite de probabilidade
Pela decomposição da variância:
[ ( X )] + var[E (w X )]
var(w ) = E var w

= E [var (w )] + 0 (1)
X
Para calcular o primeiro termo usamos E [εε '| X ] = σ 2 I

(
var w
X
) 1 1  
= E [w w '| X ] = E  X ' ε  X ' ε '| X  =
n n  
1 1  σ 2  X ' X 
X ' E [εε '| X ]X =   (2)
n  
n  n  n 
Limite de probabilidade
Substituindo (2) em (1) :
 σ 2  X ' X
  σ 2   X ' X 
[ (
var(w ) = E var w
X
)] = E  
 =

 n  n  
E 
  n   n 


A variância irá para zero se a esperança entre parênteses convergir para


uma matriz constante. A hipótese de que plim (X' X/n) converge para Q será
suficiente.
lim var(w ) = 0.Q = 0
n →∞
Como a média w é zero e sua variância converge para zero, w converge em média
quadrática para zero, desta forma :
X 'ε
plim =0
n EMQ é consistente!!
p lim b = β + Q −1.0 = β

Você também pode gostar