Você está na página 1de 7

1 Distribuição normal

A distribuição normal ou gaussiana é a função de densidade mais amplamente usada em aplicações


estatı́sticas numa grande variedade de áreas. No começo dos desenvolvimentos da teoria das prob-
abilidades a distribuição bionomial utilizou-se para resolver problemas do tipo “Se uma moeda
é lançada 100 vezes, qual a probabilidade de obter 60 ou mais caras?”. O cálculo exato deste
número é realizado utilizando a expressão
N!
P (X = x) = θx (1 − θ)N −x ,
x!(N − x!)

conhecida como função de probabilidade binomial. Nesta expressão x é o número de caras (60),
N o número de lançamentos da moeda (100) e θ a probabilidade de obter-se cara ao lançar uma
moeda balanceada (1/2).
Aconte que para resolver este problema devemos calcular a probabilidade de obter 60 caras,
depois de obter 61 caras, 62 caras, e assim por diante e somar estes valores para obtermos
a probabilidade procurada. Não é difı́cil imaginar o trabalhouso deste simples cálculo sem a
utlização das modernas calculadoras ou computadores.
Abraham de Moivre (1667-1754), no século 18, observou que quando o número de eventos
aumenta (lançamentos da moeda), a forma da distribuição binomial aproxima-se de uma curva
continua e suave, isto pode ser observado nos gráficos na Figura 1.

N=2 N=4 N=12

0.25
0.4
0.5

0.20
0.3
0.4
probabilidade

probabilidade

probabilidade

0.15
0.3

0.2

0.10
0.2

0.1

0.05
0.1

0.00
0.0

0.0

0.0 0.5 1.0 1.5 2.0 0 1 2 3 4 0 2 4 6 8 10 12

x x x

Figura 1: Exemplos da distribuição binomial. O tamanho das barras azuis representam os valores
de probabilidade.

O pensamento então foi que se fosse possı́vel encontrar a expressão matemática desta curva
suave seria muito mais fácil o cálculo para encontrar a probabilidade de obter 60 ou mais caras
em 100 lançamentos de uma moeda, e foi exatamente isso que de Moivre fez, descobrindo a
densidade normal.
A distribuição normal é importante pelo fato de ser a distribuição de probabilidade natural
em muitos fenômenos naturais ou pelo menos aproxima bem a distribuição de probabilidades
natural do fenômeno. Uma das primeiras aplicações foi a análise de erros de medições. Galileo
(Galileo Galilei, 1564-1642) no século 17 observou que os erros de medições, no caso medições
astronômicas, aconteciam simetricamente e que pequenos erros ocorriam mais fequentemente do
que erros groseiros. De maneira independente, os matemáticos Adrian (Robert Adrain, 1775-
1843) em 1808 e Gauss (Johann Carl Friedrich Gauss, 1777-1855) em 1809 desenvolveram a
expressão da densidade normal e mostraram que os erros de medição ajustam-se bem a ela.

1
De diversas formas podemos encontrar a forma funcional desta densidade. Por exemplo,
as seguintes hipóteses devem-se a William Herschel (1738-1822): considere a distribuição dos
disparos ao alvo (idealmente pontos) e seja (X, Y ) as coordenadas dos desvios (erros) do disparo
com relação aos eixos ortogonais através do centro.
Consideremos as seguintes hipóteses:
(a) As funções de densidade marginal p(x) e q(y) dos erros X e Y são contı́nuas.
(b) A função de densidade no ponto (x, y) depende somente da distância r = (x2 + y 2 )1/2 desde
a origem.
(c) Os erros nas direções em x e y são independentes.
A função de densidade do desvio Z em qualquer direção é a densidade normal
1 © 2 2
ª
f (z) = exp −z /(2σ ) ,
σ(2π)1/2
O desvio (eero) em qualquer direção é Z = X cos θ + Y senθ.
Resumidamente dizemos que Z ∼ N (0, σ 2 ), com E{Z} = 0 e Var{Z} = σ 2 . A expressão da
densidade normal para qualquer valor de média (µ) é
1 © 2 2
ª
f (z) = exp −(z − µ) /(2σ ) , (1)
σ(2π)1/2
e é mostrada na Figura 2 para diversos valores de variança e qualquer seja a média.

densidade normal

σ2=1/2

normal padrão

σ2=2

Figura 2: Densidade normal para diversos valores de variancia e igual média.

Alguns detalhes importantes devem ser considerados:


• A forma da função de densidade é determinada pelos valores dos parâmetros µ e σ 2 .
Então, se conhecemos a média e variancia populacionais e sabemos que a distribuição
de probabilidades da variável aleatória é normal, podemos afirmar que conhecemos tudo
acerca das probabilidades associadas já que conhecemos a função (1) completamente.

2
• A forma de (1) depende criticamente do termo
(z − µ)2
− = (z − µ)(σ 2 )−1 (z − µ),
σ2
e note que este termo depende da desvio da média ou diferença quadratica (z − µ)2 .

• O desvio mencionado acima é padronizado pelo desvio padrão σ, o qual tem a mesma
unidade do que Z, por isso tranforma-o em unidades padronizadas, ou seja, números reais.

• O desvio da média padronizado tem a interpretação de medida de distância, isto é, mede
quão afastado z esta de µ e logo coloca o resultado em unidades padronizadas do distan-
ciamento, de z ao redor de µ, esperado.

• Desta forma a distribuição normal e o método de mı́nimos quadrados, o qual depende


da minização da soma dos desvios quadrados, estão fortemente relacionados. Alias, o
matemático Robert Adrian chegou à expressão da densidade normal pela formulação do
método de mı́nimos quadrados.
No R (R Development Core Team, 2008) temos disponı́neis diversas funções para calcular as
probabilidades de variáveis normais. As funções básicas são: dnorm, pnorm, qnorm e rnorm as
quais, respectivamente, nos fornecem a função de densidade, a função de distribuição acumulada,
os quantis e geração de números aleatórios.
A forma de utilização destas funções é mostrada a seguir e pode ser consultada digitando
help(rnorm).
dnorm(x, mean=0, sd=1, log = FALSE)
pnorm(q, mean=0, sd=1, lower.tail = TRUE, log.p = FALSE)
qnorm(p, mean=0, sd=1, lower.tail = TRUE, log.p = FALSE)
rnorm(n, mean=0, sd=1)

onde xé um vetor de números reais, q um vetor de quantis, p um vetor de probabilidades e n o


número de observações. Os parâmetros da distribuição são considerados, média 0 e variancia 1
se não são especificados, caso queira-se especifica-los deve-se indicar o vetor de médias em mean
e o vetor de desvio padrão em sd. Em algumas situações interessam os valores do logaritmo da
função de densidade ou o logaritmo da probabilidade e nesses casos especifica-se log=TRUE ou
log.p=TRUE.
A função de distribuição acumulada, por definição, nos fornece as probabilidades acumuladas
até o ponto de interesse, ou seja, pnorm(x)=P {X ≤ x}. Se o interesse é encontrar P {X > x}
temos duas formas de fazer este cálculo. Uma forma é digitar 1-pnorm(x), outra é especificar
lower.tail=FALSE, isto é, escrever pnorm(x,lower.tail=F).
Por exemplo, se X ∼ N (2, 9) e queremos calcular P {−2 < x < 3} podemos obter o resultado
escrevendo na linha de comandos do R
pnorm(3,mean=2,sd=3)-pnorm(-2,mean=2,sd=3)
ou
pnorm(-2,mean=2,sd=3,lower.tail=F)-pnorm(3,mean=2,sd=3,lower.tail=F)
obténdo-se em ambos os casos 0.5393474 como resposta.
Mencionaremos algumas propriedades importantes, estes resultados foram demonstrados ao
longo de muitos anos e atualmente podem ser encontradas demonstrações modernas em livros
como Rao (1973) e Rohatgi (1976).

3
1. Sejam X1 , X2 , . . . , Xn variáveisPaletórias independentes com distribuição Xk ∼ N (µk , σk2 ),
n. Então Sn = nk=1 Xk é uma variável aleatória normal com distribuição
k =P1, 2, . . . ,P
N ( nk=1 µk , nk=1 σk2 ).

2. Se X1 , X2 , . . . , Xn são variáveis aletórias independentes com distribuição normal padrão


N (0, 1) então n−1/2 Sn também tem distribuição normal padrão N (0, 1).

3. Sejam X e Y variáveis aleatórias independentes. Então X + Y é normalmente distribuı́da


se, e somente se, X e Y são ambas normais.

4. Sejam X e Y variáveis aleatórias independentes normal padrão. Então X + Y e X − Y


são independentes.

5. Se as variáveis aleatórias X e Y são independentes e tem a mesma distribuição com va-


riancia finita e, se Z1 = X + Y e Z2 = X − Y são independnetes então todas as variáveis
aleatórias X, Y , Z1 e Z2 são normalmente distribuı́das.
Pn
6. Se as variáveis aleatórias normais Pn X1 , X2 , . . . , XP
n são tais que k=1 ak bk Var{Xk } = 0 então
as variáveis aleatórias L1 = k=1 ak Xk e L2 = nk=1 bk Xk são independentes. Os números
a1 , . . . , an e b1 , . . . , bn são reais fixos não negativos.

7. Sejam as variáveis aleatórias X1 , X2 , . . . , Xn independentes, os


Pnúmeros a1 , . . . , anPe b1 , . . . , bn
reais fixos nenhum deles zero e se as formas lineares L1 = k=1 ak Xk e L2 = nk=1 bk Xk
n

independentes. Então, todas as variáveis aleatórias são normalmente diustribuı́das.

8. Sejam as variáveis aleatórias X1 , X2 , . . . , Xn independentes e igualmente distribuı́das com


variancia finita. Então, a distribuição de probabilidades destas variáveis é normal se, e
somente se,
Xn Xn
Sn = Xk e Yn = (Xk − n−1 Sn )2 ,
k=1 k=1

são independentes.

Exercı́cios:

1. A resistência à compressão de amostras de cimento pode ser modelada por uma distribuição
normal com média de 6.000 quilogramas por centı́metro quadrado (6.000 Kg/cm2 ) e um
desvio padrão de 100 quilogramas por centı́metro quadrado (100 Kg/cm2 ).

(a) Qual é a probabilidade da resistência da amostra ser menor do que 6.250 Kg/cm2 ?
(b) Qual é a probabilidade da resistência da amostra estar entre 5.800 e 5.900 Kg/cm2 ?
(c) Que resistência é excedida por 95% das amostras?

2. Seja X ∼ N (15, 16). Encontre (a) P {X ≤ 12}, (b) P {10 ≤ X ≤ 17}, (c) P {|X −15| ≥ 0.5}
e (d) P {10 ≤ X ≤ 19|X ≤ 17}.

3. Seja X ∼ N (−1, 9). (a) Encontre x tal que P {X ≥ x} = 0.38 e (b) encontre x tal que
P {|X + 1| < x} = 0.4.

4
1.1 Distribuição normal multivariada
Faremos nesta seção uma introdução à distribuição de probabilidades normal bi-variada e mul-
tivariada e investigaremos algumas das mais importantes propriedades.
Diz-se que o vetor de variáveis aleatórias tem função de densidade normal bi-variada se a
função de densidade conjunta é da forma
1
f (x, y) = p exp{−Q(x, y)/2}, (2)
2πσ1 σ2 1 − ρ2
onde σ1 > 0, σ2 > 0, |ρ| < 1 e Q é uma forma quadrática, isto é,
"µ ¶2 µ ¶µ ¶ µ ¶2 #
1 x − µ1 x − µ1 y − µ2 y − µ2
Q(x, y) = − 2ρ + ·
1 − ρ2 σ1 σ1 σ2 σ2

Neste caso, {E}{X} = µ1 , Var{X} = σ12 ,{E}{Y } = µ2 , Var{Y } = σ22 e corr{X, Y } = ρ. A


função definida acima é chamada de função de densidade normal conjunta.
µ1 = 0, µ2 = 0, σ1 = 1, σ2 = 1, ρ = 0

0.15

0.10
z

0.05
10

5
0.00
−10 0
−5 y
0 −5
x 5
10 −10

1  1 (x1 − µ1)2 x1 − µ1 x2 − µ2 (x2 − µ2)2


f (x) = exp − , − 2ρ + 

2 π σ21 σ22 (1 − ρ2) 2(1 − ρ2)  σ 2
σ1 σ2 σ22 
 1

Figura 3: Densidade normal bi-variada, marginais independentes.

A função de densidade multivariada é uma estensão da expressão em (2) ‘a situação em


que Y é um vetor n × 1, no qual cada componente é normalmente distribuı́da possivelmente
correlacionadas.
A forma desta função é
1
f (y) = n/2
|Σ|−1/2 exp{−(y − µ)> Σ−1 (y − µ)/2}·
(2π)
Mencionaremos algumas considerações e propriedades importantes:
1. Se X eY são variáveis aletórias com função de densidade conjunta segundo definida acima
então as densidades marginais são, respectivamente, N (µ1 , σ12 ) e N (µ2 , σ 2 ) e ρ é o coeficiente
de correlação entre X e Y .

5
2. Se X eY são variáveis aletórias com função de densidade normal bi-variada, então X e Y
são independentes se, e somente se, ρ = 0.

3. Seja Z = X + Y , onde X ∼ N (µ1 , σ12 ) e Y ∼ N (µ2 , σ22 ) e Corr{X, Y } = ρ.


Então

E{Z} = E{X} + E{Y }, Var{Z} = Var{X} + Var{Y } + 2Cov{X, Y },

ou seja,
E{Z} = µ1 + µ2 , Var{Z} = σ12 + σ22 + 2ρσ1 σ2 ·

4. Mais geral ainda, se Y ∼ Nn (µ, Σ), então qualquer combinação linear de Y , CY , onde C
é uma matriz q × n, satisfaz CY ∼ Nn (Cµ, CΣC > ).

5. Se também Z ∼ Nn (τ, Γ) e independente de Y , então Z + Y ∼ Nn (µ + τ, Σ + Γ).

µ1 = 0, µ2 = 0, σ1 = 1, σ2 = 1, ρ = 0.8

0.25

0.20

0.15
z

0.10

0.05 10

5
0.00
−10 0
−5 y
0 −5
x 5
10 −10

1  1 (x1 − µ1)2 x1 − µ1 x2 − µ2 (x2 − µ2)2


f (x) = exp − , − 2ρ + 
2 π σ21 σ22 (1 − ρ2) 2(1 − ρ2)  σ 2
σ1 σ2 σ22 

 1

Figura 4: Densidade normal bi-variada, marginais dependentes.

Exercı́cios:
1. Considere X1 , X2 , . . . , Xn uma amostra aleatória de tamanho n da distribuição normal
N (µ, σ 2 ). Encontre a média e a variancia das seguintes funções:
P
(a) X = n1 ni=1 Xi .
(b) X1 .
X1 1
Pn
(c) 2
+ 2(n−1) i=2 Xi .

2. Seja (X, Y ) um vetor de variáveis aletórias com densidade normal bi-variada de parâmetros
µ1 = 5, µ2 = 8, σ12 = 16, σ22 = 9 e ρ = 0.6. Encontre

P {5 ≤ Y ≤ 11|X = 2}·

6
3. Seja (X, Y ) ∼ N (µ, Σ), onde µ = (1, 2) e Σ é matriz de variancia e covariancias de valores
µ ¶
4 0.5
Σ= .
0.5 1

Encontre:

(a) P (X + 2Y ≤ 4).
(b) P (X ≤ 2|Y = 1).
(c) A função de distribuição conjunta de X + 2Y e 3Y − 2X.

Referências
R Development Core Team (2008). R: A Language and Environment for Statistical Computing.
R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0.

Rao, C.R. (1973). Linear Statistical Inference and its Applications. John Wiley and Sons, second
edition.

Rohatgi, V. K. (1976). An Introduction to Probability Theory and Mathematical Statistics. John


Wiley & Sons.

Você também pode gostar