Você está na página 1de 10

LEI DOS GRANDES NÚMEROS

A Lei dos Grandes Números enuncia que:

A média aritmética dos valores observados tende à esperança da variável aleatória, com
o aumento do número de observações.

̅ se
Em outras palavras, conforme o tamanho da amostra 𝒏 aumenta (tende ao infinito), a média amostral 𝑿
aproxima da esperança (ou média) populacional 𝑬(𝑿) = 𝝁.
Ressalte-se que a esperança populacional é um número, ou seja, a Lei dos Grandes Números não trata da
distribuição da média amostral, mas sim do número para o qual ela converge.

As Leis dos Grandes Números tratam da convergência da média amostral à média


populacional (que é um número) e não da sua distribuição.

A Lei dos Grandes Números é dividida em duas: a Lei Fraca e a Lei Forte dos Grandes Números. A principal
diferença entre elas é que a Lei Fraca enuncia uma convergência em probabilidade e a Lei Forte enuncia
uma convergência quase certa. Essa diferença do tipo de convergência (em probabilidade ou quase
certamente) decorre das condições em que cada Lei é enunciada.
Vale pontuar que a convergência quase certa é mais forte que a convergência em probabilidade, ou seja, se
houver convergência quase certa, haverá a convergência em probabilidade, mas o contrário não é verdade.

(2014 – Pró-Município) Julgue a afirmativa: Pela lei dos grandes números a distribuição da média amostral
de n variáveis aleatórias independentes (para n suficientemente grande) é aproximadamente normal.
Comentários:
As Leis dos Grandes Números tratam da convergência da média amostral à média populacional (um número)
e não da sua distribuição.
Resposta: Errado.
(2015 – INCAB) Sejam X1, X2, ... i.i.d. com E[X1] = 1. Qual o valor de
3𝑋1 + 3𝑋2 + ⋯ + 3𝑋𝑛
lim
𝑛→∞ 𝑛
a) 1
b) 2
c) π
d) 3
e) 4
Comentários:
Pelas Leis dos Grandes Números, a média amostral tende à esperança, à medida que n tende ao infinito:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
lim = 𝐸(𝑋)
𝑛→∞ 𝑛
O enunciado informa que as variáveis são identicamente distribuídas (i.i.d.), logo 𝐸 (𝑋1 ) = 𝐸 (𝑋) = 1:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
lim =1
𝑛→∞ 𝑛
No entanto, o enunciado pede o valor de três vezes esse limite:
3𝑋1 + 3𝑋2 + ⋯ + 3𝑋𝑛
lim =3
𝑛→∞ 𝑛
Gabarito: D

(FGV/2015 – TJ-RO) A Lei dos Grandes Números existe em duas versões que tratam de convergências de
tipos distintos. A Lei Fraca e a Lei Forte abordam, respectivamente, convergências:
a) em probabilidade e em distribuição;
b) quase certa e em probabilidade;
c) em distribuição e quase certa;
d) em distribuição e em probabilidade;
e) em probabilidade e quase certa.
Comentários:
Vimos que a Lei Fraca enuncia uma convergência em probabilidade e a Lei Forte enuncia uma convergência
quase certa.
Gabarito: E.
Lei Fraca dos Grandes Números

A Lei Fraca dos Grandes Números afirma basicamente que, atendidas determinadas condições que
estudaremos a seguir, sendo {𝑋𝑛 } uma sequência de variáveis com a mesma média 𝑬(𝑿𝒊 ) = 𝝁, a média da
∑ 𝑛
𝑋
sequência de variáveis ̅̅̅̅
𝑿𝒏 = 𝑖=1 𝑖 converge em probabilidade à média da variável 𝝁:
𝑛

𝑃
̅̅
𝑋̅̅
𝑛→𝜇

̅̅̅̅
lim 𝑃(|𝑋 𝑛 − 𝜇| ≥ 𝜖) = 0
𝑛→∞

Isso é o mesmo que dizer que a diferença entre a média da sequência ̅̅


𝑋̅̅
𝑛 e a média da variável 𝜇 converge
a zero em probabilidade:
𝑃
̅̅
𝑋̅̅
𝑛 −𝜇→0

Considerando que uma amostra retirada de uma população 𝑋 produz uma sequência de variáveis, é comum
nos referirmos à média da sequência ̅̅̅̅
𝑿𝒏 como média amostral e à média da variável 𝝁 como média (ou
esperança) populacional. Assim, pela Lei Fraca dos Grandes Números, podemos dizer que a média amostral
converge em probabilidade à média populacional.

Segundo a Lei Fraca dos Grandes números de Chebyshev, sempre que as variáveis aleatórias 𝑋𝑖 forem
independentes1 umas das outras, com a mesma média 𝑬(𝑿𝒊 ) = 𝝁 e a mesma variância 𝑽(𝑿𝒊 ) = 𝝈𝟐 finita,
a média amostral irá convergir em probabilidade à média populacional:
𝑃
̅̅
𝑋̅̅
𝑛→𝜇

1
A Lei Fraca dos Grandes Números de Chebyshev pode ser aplicada mesmo que as variáveis sejam simplesmente não
correlacionadas, isto é, 𝑐𝑜𝑣(𝑋𝑖 , 𝑋𝑗 ) = 0, ∀𝑖, 𝑗, mesmo que não sejam independentes.
Essa Lei decorre do Teorema da Desigualdade de Chebyshev, o qual afirma que para uma
variável 𝑌 com média 𝐸 (𝑌) e variância finita 𝑉(𝑌), temos para todo 𝜖:

𝑉(𝑌)
𝑃(|𝑌 − 𝐸(𝑌)| ≥ 𝜖) ≤ 𝜖2

𝑋 +𝑋 +⋯+𝑋𝑛
Fazendo 𝑌 = 1 2𝑛 = ̅̅𝑋̅̅
𝑛 , sendo 𝑋𝑖 variáveis aleatórias independentes, com a
mesma média 𝐸(𝑋) = 𝜇 e a mesma variância finita 𝑉(𝑋) = 𝜎 2 , então pelas propriedades
da esperança e da variância, temos:

𝑋1 +𝑋2 +⋯+𝑋𝑛 𝐸(𝑋1 +𝑋2 +⋯+𝑋𝑛 ) 𝜇+𝜇+⋯+𝜇 𝑛.𝜇


𝐸 (𝑌 ) = 𝐸 ( )= = = =𝜇
𝑛 𝑛 𝑛 𝑛

𝑋1 +𝑋2 +⋯+𝑋𝑛 𝑉(𝑋1 +𝑋2 +⋯+𝑋𝑛 ) 𝜎2 +𝜎2 +⋯+𝜎2 𝑛.𝜎2 𝜎2


𝑉 (𝑌 ) = 𝑉 ( )= = = =
𝑛 𝑛2 𝑛2 𝑛2 𝑛

𝜎 2
̅̅̅̅
𝑃(|𝑋 𝑛 − 𝜇| ≥ 𝜖) ≤ 𝑛.𝜖2

𝜎2
No limite, para 𝑛 → ∞, a razão 𝑛.𝜖2 tende a zero, por se tratar de uma divisão entre um
número finito e 0 (por essa razão, é necessário que a variância seja finita). Dessa forma,
temos para todo 𝜖:

̅̅̅̅
lim 𝑃(|𝑋 𝑛 − 𝜇| ≥ 𝜖) = 0
𝑛→∞

Pela definição de convergência em probabilidade, podemos dizer que a variável ̅̅


𝑋̅̅
𝑛
converge em probabilidade a 𝜇.

Caso as variáveis 𝑋𝑖 não tenham a mesma média e a mesma variância, ainda assim teremos a seguinte
convergência em probabilidade, sempre que as variáveis forem independentes e as suas variâncias forem
finitas:
𝑆𝑛 − 𝐸(𝑆𝑛 ) 𝑃
→0
𝑛
Em que 𝑆𝑛 corresponde ao somatório da sequência 𝑋𝑖 , ou seja, 𝑆𝑛 = ∑𝑛𝑖=1 𝑋𝑖 . Essa fórmula pode ser reescrita:

𝑆𝑛 𝑃 𝐸(𝑆𝑛 )

𝑛 𝑛

𝑃 𝐸(𝑆𝑛 )
̅̅
𝑋̅̅
𝑛→
𝑛
Essa regra também decorre do Teorema da Desigualdade de Chebyshev:

𝑉(𝑌)
𝑃(|𝑌 − 𝐸(𝑌)| ≥ 𝛿) ≤ 𝛿2

Agora, vamos considerar que 𝑌 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 = 𝑆𝑛 e 𝛿 = 𝑛. 𝜖. Assim, temos:

𝑉(𝑆𝑛 )
𝑃(|𝑆𝑛 − 𝐸(𝑆𝑛 )| ≥ 𝑛. 𝜖) ≤
(𝑛.𝜖)2

Dividindo a inequação de dentro do parêntesis por 𝑛, temos:

𝑆𝑛 −𝐸(𝑆𝑛 ) 𝑉(𝑆 )
𝑃(| | ≥ 𝜖) ≤ (𝑛.𝜖)𝑛2
𝑛

𝜎2
No limite, para 𝑛 → ∞, a razão (𝑛.𝜖)2 tende a zero, sempre que 𝑉(𝑆𝑛 ) for finito:

𝑆𝑛 −𝐸(𝑆𝑛 )
lim 𝑃(| | ≥ 𝜖) = 0
𝑛→∞ 𝑛

𝑆𝑛 −𝐸(𝑆𝑛 ) 𝑆𝑛
E assim concluímos que converge em probabilidade a 0, ou similarmente que
𝑛 𝑛
𝐸(𝑆𝑛)
converge em probabilidade a .
𝑛

Podemos utilizar a Lei Fraca dos Grandes números para mostrar que a probabilidade de um evento é igual a
frequência relativa para infinitas repetições (conceito frequentista de probabilidade):
𝑃(𝐴) = lim 𝑓
𝑁→∞

Em que a frequência relativa é a razão entre o número de repetições do evento divido pelo número total de
repetições:
𝑛(𝐴)
𝑓=
𝑁
Para essa demonstração, vamos definir uma sequência de 𝑁 variáveis aleatórias
independentes 𝑋𝑖 , sendo 𝑋𝑖 = 1 caso o evento 𝐴 ocorra na 𝑖-ésima realização e 𝑋𝑖 = 0,
caso contrário. Note que 𝑋 é uma variável de Bernoulli com probabilidade de sucesso igual
à probabilidade de ocorrência do evento A: 𝑝 = 𝑃(𝐴).

Assim, o número de repetições do evento A corresponde à soma dos resultados das


variáveis, 𝑛(𝐴) = ∑𝑁𝑖=1 𝑋𝑖 . E a frequência relativa é a razão entre essa soma e o número
total de repetições 𝑁:

𝑛(𝐴) ∑𝑁
𝑖=1 𝑋𝑖
𝑓= =
𝑁 𝑁

∑𝑁 𝑋
Pela Lei Fraca dos Grandes números, temos que a média 𝑖=1 𝑖 converge em probabilidade
𝑁
à esperança da variável 𝐸(𝑋), pois as variáveis 𝑋𝑖 são independentes, com a mesma média
e mesma variância (finita), logo:

̅̅̅̅
lim 𝑃(|𝑋 𝑁 − 𝐸(𝑋)| ≥ 𝜖) = 0
𝑁→∞

𝑁
∑𝑖=1 𝑋𝑖
Aqui, a média corresponde à frequência relativa, ̅̅ 𝑋̅̅
𝑛 = = 𝑓; e a esperança é a
𝑁
probabilidade de sucesso, por se tratar de uma distribuição de Bernoulli, 𝐸 (𝑋) = 𝑝 = 𝑃(𝐴)

lim 𝑃(|𝑓 − 𝑃(𝐴)| ≥ 𝜖) = 0


𝑁→∞

Similarmente, temos:

lim 𝑓 = 𝑃(𝐴)
𝑁→∞

A Lei Fraca dos Grandes Números também é utilizada para verificar certa propriedade dos
estimadores. Essa propriedade é chamada de consistência e está associada à qualidade do
estimador para grandes amostras.
(CESPE/2016 – TCE/PA) Considerando que uma amostra aleatória simples 𝑋1 , 𝑋2 , … , 𝑋𝑛 tenha sido retirada
de uma população exponencial com média igual a 5, julgue o próximo item, relativo à média amostral 𝑋̅ =
𝑋1 ,𝑋2 ,…,𝑋𝑛
.
𝑛

De acordo com a lei fraca dos grandes números, a média amostral 𝑋̅ converge em probabilidade para 5.
Comentários:
A Lei dos Grandes Números afirma que a média aritmética das observações 𝑋̅ converge para a média (ou
esperança) da variável. Segundo a Lei Fraca, há uma convergência em probabilidade.
Gabarito: Certo.

(2014 – Pró-Município) Considerando a Lei dos Grandes Números, julgue a seguinte afirmativa: As condições
suficientes para identificar a consistência de um estimador são baseadas na lei dos grandes números.
Comentários:
A Lei Fraca dos Grandes Números é utilizada para verificar a consistência dos estimadores, de fato.
Resposta: Certo.

Lei Forte dos Grandes Números

A Lei Forte dos Grandes Números enuncia que sendo 𝑋𝑖 uma sequência de variáveis independentes e
identicamente distribuídas (i.i.d.), com média 𝑬(𝑿) = 𝝁 e quarto momento central 𝑬[(𝑿 − 𝝁)𝟒 ] = 𝜸
𝑛
∑𝑖=1 𝑋𝑖
finitos, então a média da sequência de variáveis ̅̅
𝑋̅̅
𝑛 = converge quase certamente (ou com
𝑛
probabilidade 1) à média 𝜇:

𝑞.𝑐.
̅̅
𝑋̅̅
𝑛→ 𝜇

𝑃 ( lim ̅̅
𝑋̅̅
𝑛 = 𝜇) = 1
𝑛→∞
As questões podem se referir a variáveis independentes e identicamente distribuídas
como a observações independentes de uma amostra extraída de uma mesma população.

Por exemplo, para uma sequência de variáveis independentes com distribuição de Bernoulli e probabilidade
𝑝, temos 𝐸 (𝑋) = 𝑝. Pela Lei Forte dos Grandes Números, temos:

𝑞.𝑐.
𝑋̅ → 𝑝

A Lei Forte pode ser aplicada porque o quarto momento central é finito.

Vamos verificar 𝐸 [(𝑋 − 𝜇 )4 ] é finito para a distribuição de Bernoulli. Desenvolvendo a


expressão (𝑋 − 𝜇 )4 , obtemos:

(𝑋 − 𝜇 )4 = 𝑋 4 − 4𝑋 3 𝜇 + 6𝑋 2 𝜇 2 − 4𝑋𝜇 3 + 𝜇 4

Pelas propriedades da esperança, temos:

𝐸 [(𝑋 − 𝜇 )4 ] = 𝐸 (𝑋 4 ) − 4. 𝐸 (𝑋 3 ). 𝜇 + 6. 𝐸 (𝑋 2 ). 𝜇 2 − 4𝐸 (𝑋). 𝜇 3 + 𝜇 4

Para uma distribuição discreta, o k-ésimo momento é dado por:

𝐸 (𝑋 𝑘 ) = ∑ 𝑥 𝑘 . 𝑃(𝑋 = 𝑥)

Como a variável de Bernoulli assume apenas os valores 0 e 1, com 𝑃(𝑋 = 1) = 𝑝, então


qualquer momento da distribuição é dado por:

𝐸 (𝑋 𝑘 ) = 0𝑘 . 𝑃(𝑋 = 0) + 1𝑘 . 𝑃 (𝑋 = 1) = 𝑝

Considerando também que 𝜇 = 𝐸 (𝑋) = 𝑝, o quarto momento central da distribuição é:

𝐸 [(𝑋 − 𝜇 )4 ] = 𝑝 − 4. 𝑝. 𝑝 + 6. 𝑝. 𝑝2 − 4𝑝. 𝑝3 + 𝑝4 = 𝑝 − 4𝑝2 + 6𝑝3 − 3𝑝4

Como 0 < 𝑝 < 1, então podemos afirmar que o quarto 𝐸 [(𝑋 − 𝜇 )4 ] é finito.
No gráfico a seguir, que representa o quarto momento central da distribuição de Bernoulli,
podemos verificar que tal medida varia entre 0 e 0,1.

Também podemos aplicar a Lei Forte dos Grandes números a variáveis aleatórias i.i.d. com as seguintes
distribuições, uma vez que a média e o quarto momento central dessas variáveis é finito:

• Distribuição uniforme no intervalo (0,1)


Nesse caso, a média amostral converge quase certamente para 𝐸(𝑋) = 0,5:
𝑞.𝑐.
̅̅
𝑋̅̅
𝑛 → 0,5

• Distribuição exponencial, com parâmetro 𝜆


1
Nesse caso, a média amostral converge quase certamente para 𝐸(𝑋) = 𝜆:

𝑞.𝑐. 1
̅̅
𝑋̅̅
𝑛→
𝜆
• Distribuição normal, com média 𝜇 e variância 𝜎 2 finita:
𝑞.𝑐.
̅̅
𝑋̅̅
𝑛→ 𝜇

De modo geral, se as variáveis independentes e identicamente distribuídas com média 𝐸 (𝑋𝑖 ) = 𝜇 forem
∑𝑛
𝑖=1 𝑋𝑖
integráveis, então podemos concluir que a média amostral ̅̅
𝑋̅̅
𝑛 = converge quase certamente à média
𝑛
𝜇 (Lei Forte de Kolmogorov):
𝑞.𝑐.
̅̅
𝑋̅̅
𝑛→ 𝜇

Leis dos Grandes Números

Média amostral converge à média populacional: ̅̅̅̅


𝑿𝒏 → 𝝁

Lei Fraca Lei Forte

𝑃 𝑞.𝑐.
• Convergência em probabilidade: ̅̅̅
𝑋𝑛̅ → 𝜇 • Convergência quase certa: ̅̅̅
𝑋𝑛̅ → 𝜇

̅̅̅𝑛̅ − 𝜇| ≥ 𝜖) = 0
lim 𝑃(|𝑋 𝑃 ( lim ̅̅̅
𝑋𝑛̅ = 𝜇) = 1
𝑛→∞ 𝑛→∞
(CESPE/2015 – FUB) Considerando que, em n ensaios independentes de Bernoulli, a probabilidade de
sucesso de cada um deles seja igual a p, e que X represente o número de sucessos observados nesses n
ensaios, julgue o item subsecutivo, relativo à lei dos grandes números.
Segundo a lei forte dos grandes números, à medida que o tamanho da amostra aumenta, a estatística X/n
converge para uma distribuição normal com média p.
Comentários:
A Lei dos Grandes Números não trata da distribuição da média amostral, mas sim da convergência de seu
valor. Logo, a questão está errada.
A título de complementação, a Lei Forte enuncia que, considerando n ensaios independentes de Bernoulli,
∑𝑛
𝑖=1 𝑋𝑖
com probabilidade p, à medida que o tamanho da amostra aumenta, a estatística converge para p.
𝑛

Gabarito: Errado.

(2017 – TRF 2ª Região) Considere X1, ... Xn variáveis aleatórias independentes e identicamente distribuídas e
E(X) = μ. De acordo com a Lei dos Grandes Números, assinale a afirmativa correta.

a) Pela Lei Forte dos Grandes Números, 𝑃 ( lim 𝑋̅𝑛 = 𝜇) = 1, ou seja, a média converge em probabilidade
𝑛→∞
para seu valor esperado quando n tende ao infinito.

b) Pela Lei Fraca dos Grandes Números, 𝑃 ( lim 𝑋̅𝑛 = 𝜇) = 1, ou seja, a média converge em probabilidade
𝑛→∞
para seu valor esperado quando n tende ao infinito.

c) Pela Lei Forte dos Grandes Números, 𝑃 ( lim 𝑋̅𝑛 = 𝜇) = 1, ou seja, a média converge com probabilidade
𝑛→∞
1 para seu valor esperado quando n tende ao infinito.

d) Pela Lei Fraca dos Grandes Números, 𝑃 ( lim 𝑋̅𝑛 = 𝜇) = 1, ou seja, a média converge com probabilidade
𝑛→∞
1 para seu valor esperado quando n tende ao infinito.
Comentários:
A questão pede para identificarmos a Lei (Fraca ou Forte) e o significado da seguinte expressão:

𝑃 ( lim 𝑋̅𝑛 = 𝜇) = 1
𝑛→∞

Esse é o enunciado da Lei Forte e representa uma convergência quase certa ou com probabilidade 1.
Gabarito: C.

Você também pode gostar