Você está na página 1de 34

Elementos de Teoria da

Probabilidade

Oscar J. P. Eboli
e J. Fernando Perez

Instituto de F
sica
Universidade de S~
ao Paulo

Fevereiro de 2004

^
APENDICE
A
Breve Introduc~ao a Teoria da
Probabilidade
A Mec^anica Qu^antica traz em sua estrutura objetos que, independente
de qualquer postulado interpretativo, s~
ao descritos em Matematica no
contexto da Teoria das Probabilidades. Os postulados interpretativos
tornam-se naturais do ponto de vista conceitual ao constatarmos esse
fato. Este ap^endice tem por objetivo sumarizar e familiarizar o leitor
com esse instrumental matematico.

A.1 Conceitos basicos


A teoria da probabilidade e o captulo da Matematica que fornece as
ferramentas conceituais para a analise de fen^omenos que em Ci^encias
Naturais s~ao classi cados como aleatorios. A palavra aleatorio e usada
para contrastar com a palavra determinstico no seguinte sentido. Consideremos um conjunto C de condic~oes sob as quais um determinado
experimento e realizado. Um determinado evento A e denominado
certo, seguro ou necess
ario se cada vez que o experimento for realizado observando-se exatamente as mesmas condic~oes C , veri car-se a
ocorr^encia do evento A. Se ao contrario sob as mesmas condic~oes C o
evento A nunca ocorre, ele e declarado impossvel. Um sistema fsico e
dito determinstico quando cada evento pode ser apenas necessario ou
impossvel.
1

^
APENDICE
A.

Breve Introdu
c~
ao 
a Teoria da Probabilidade

Exemplo:

Se um objeto apenas sob a ac~ao da forca da gravidade,


num local onde a acelerac~ao da gravidade tem o valor g , for abandonado com velocidade inicial zero e a uma altura h do solo (conjunto C
de condic~oes),pent~ao necessariamente o objeto atingira o solo com velocidade v = 2gh (evento A). De maneira geral, todos os fen^omenos
descritos no ^ambito da Mec^anica Classica, quando o conjunto C de
condic~oes fornece com precis~ao absoluta as posic~oes e velocidades iniciais de todas as partculas envolvidas bem como as forcas atuantes, s~ao
determinsticos, isto e, todo evento e necessario ou impossvel.
Ha porem fen^omenos para os quais a especi cac~ao de um conjunto
C de condic~oes pode ser insu ciente para que um determinado evento
A seja apenas necessario ou impossvel, i.e. o evento A as vezes ocorre
e as vezes n~ao. Tais fen^omenos s~ao alcunhados de aleatorios.

Exemplo: Os exemplos mais tpicos s~ao os lancamentos de um mesmo

dado ou de uma mesma moeda (conjunto C de condic~oes) e os eventos


referem-se aos resultados, por exemplo, A = dar cara no lancamento
da moeda ou dar o numero 4 no lancamento do dado. Note que se
o conjunto C de condic~oes fornecer exatamente a posic~ao inicial e velocidade inicial de todos os pontos dos solidos envolvidos ent~ao esses
dois fen^omenos s~ao de natureza determinstica: e so a nossa ignor^ancia
sobre as condic~oes iniciais bem como a di culdade de precisa-las de
forma absoluta que determinam o carater aleatorio desses fen^omenos.
Uma descoberta relativamente recente mostra porem que os chamados
sistemas caoticos, embora descritos no ^ambito da Mec^anica Classica e
portanto determinsticos, por apresentarem extrema sensibilidade em
relac~ao as condic~oes iniciais, devem ser tratados como aleatorios ja que
mnimas incertezas com relac~ao as condic~oes iniciais implicam num grau
imprevisibilidade quase que absoluto.

A.1.1 Espaco amostral


Dado um fen^omeno aleatorio, tal como o resultado de uma roleta ou
de um dado, de nimos o ESPAC
 O AMOSTRAL S como sendo o
conjunto de todos os resultados possveis.

A.1.

Conceitos b
asicos

Exemplos:

Para descrever o resultado do lancamento de uma moeda temos


um espaco amostral com 2 elementos, a saber, S0 = f 1; +1g
onde o ponto 1 representa C  cara e +1 representa K  coroa.
 claro que o conjunto S0 pode ser substitudo por qualquer conE
junto com exatamente dois elementos.

No caso do lancamento de 1 dado o espaco amostral pode ser


representado pelo conjunto S1 = f1; 2; 3; 4; 5; 6g.

Para o lancamento de 2 dados o espaco amostral e dado pelo


produto cartesiano S2 = S1  S1 = f(1; 1); (1; 2); (1; 3); : : : ; (6; 5);
(6; 6)g = fx = (x1 ; x2 ) j xi 2 S1 ; i = 1; 2g com 36 elementos.
Analogamente o lancamento de N dados pode ser descrito por
S = (S1 )N = fx = (x1 ; x2 ; : : : ; xN ) j xi 2 S1 ; i = 1; 2; :::; N g ou
por qualquer conjunto com 6N elementos.

No lancamento de 3 moedas podemos utilizar

S3 =

f(CCC ); (CCK ); (CKC ); (KCC );

(CKK ); (KCK ); (KKC ); (KKK )g

fC; K g  fC; K g  fC; K g ;


com 2 elementos, ou simplesmente S = (S ) = fx = (x ; x ; x )
j xi 2 S ; i = 1; 2; 3g. De novo, para o lancamento de N moedas
=

podemos tomar como espaco amostral o produto cartesiano S =


(S0 )N = fx = (x1 ; x2 ; : : : ; xN ) j xi 2 S0 ; i = 1; 2; : : : ; N g.

De maneira geral se S e o espaco amostral que descreve um determinado fen^omeno aleatorio, o espaco adequado para descrever
N repetic~oes dependentes ou independentes do experimento e o
produto cartesiano (S )N = fx = (x1 ; x2 ; : : : ; xN ) j xi 2 S; i =
1; 2; : : : ; N g.

O espaco amostral que representa a posic~ao num dado instante

^
APENDICE
A.

Breve Introdu
c~
ao 
a Teoria da Probabilidade

de uma partcula executando movimento Browniano pode ser descrito por S = R3 .

A vida util de l^ampadas em horas esta associada ao espaco amostral S = fx 2 R j 0 < x  5000 horasg.

A.1.2 Eventos
De nimos um EVENTO (E ) como sendo qualquer subconjunto do
espaco amostral. Nas aplicac~oes praticas um evento refere-se a algum
aspecto observavel num determinado experimento com espaco amostral
S dado.

Exemplos:

Dado S1 acima, podemos considerar os seguintes eventos:

E1 = f1; 3; 5g, isto e, o resultado e mpar.


E2 = f2; 4; 6g, isto e, o resultado e par.
E3 = f1; 2; 3; 5g, isto e, o resultado e primo.

Para o espaco S2 acima, podemos ter E1 = f(2; 2); (1; 3); (3; 1)g
= f(x1 ; x2 ) 2 S2 j x1 + x2 = 4g, isto e, soma 4 em 2 lancamentos.

No lancamento de tr^es moedas S3 : F1 = f2 ou mais carasg =


f(CCC ); (CCK ); (CKC ); (KCC )g correspondendo a propriedade de haver pelo menos 2 \caras " em 3 lancamentos da moeda.
Alternativamente o conjunto F1 pode ser descrito atraves de F1 =
fx = (x1 ; x2; x3 ) 2 S3 jx1 + x2 + x3  1g.

Duas pessoas combinam de se encontrar em um determinado local


no intervalo de tempo que vai das 2 ate as 3 horas da tarde, com a
condic~ao de que uma so espera pela outra por no maximo 10 minutos. Supondo que as pessoas chegar~ao aleatoriamente ao local

A.2.

Probabilidades

dentro do intervalo de tempo combinado, o espaco amostral adequado pode ser descrito como S4 = [0; 60]2 = fx = (x1 ; x2 ) j xi 2
[0; 60]; i = 1; 2g. O evento E correspondente a ocorr^encia do
encontro e dado por

E = fx 2 S4 j jx1

x2 j < 10g :

 conveniente introduzir dois eventos triviais:


E

E = S  evento certo pois sempre ocorre;


E = ; (vazio)  evento impossvel visto que nunca ocorre.
Mais ainda, dados dois ou mais eventos E e F , podemos gerar novos
eventos atraves das operac~oes usuais de conjuntos: E [ F , E \ F ,
E nF . Assim, dado um evento E , de nimos o seu evento complementar
E c = S nE:

De nic~ao:

dizemos que dois eventos E e F s~ao eventos mutua-

mente exclusivos se E \ F = ;.

Exemplos:

Em S1 os eventos E1 e E2 acima, s~ao mutuamente exclusivos dado


que E1 \ E2 = ;.

Em S3 de nindo F2 = fKKK g, segue que F1 e F2 s~ao mutuamente exclusivos ja que F1 \ F2 = ;.

A.2 Probabilidades
Existem fen^omenos aleatorios que apresentam uma caracterstica notavel: dado o conjunto C de condic~oes, embora elas sejam insu cientes
para que um determinado evento A seja certo ou impossvel, repetindose o experimento N vezes observa-se que a frac~ao

nA
;
N

^
APENDICE
A.

Breve Introdu
c~
ao 
a Teoria da Probabilidade

onde nA e o numero de vezes em que o evento A ocorreu, tende a


estabilizar-se quando N cresce, convergindo para um numero que denotaremos por
nA
pA = Nlim
:
!1 N
Quando um fen^omeno aleatorio apresenta esta notavel propriedade para
todo evento A, dizemos que esse sistema e probabilstico ou estocastico
e que o numero pA e a probabilidade do evento A. Para um tal sistema
o numero pA representa a frequ^encia de ocorr^encia do evento A .
Essas considerac~oes juntamente com as propriedades de frequ^encias
motivam a introduc~ao de de nic~ao abaixo.

De nic~ao: A cada evento E de um espaco amostral S associamos um


numero real P(E ), chamado probabilidade, o qual satisfaz as seguintes
propriedades:
1. 0  P(E )  1 ;
2. P(S ) = 1 ;
3. Se os eventos
E ; i = 1; 2; ::: s~ao mutuamente exclusivos ent~ao
P i
P([i Ei ) = i P(Ei ).

Exemplos:

No lancamento de um dado honesto, a probabilidade de uma dada


face e 1=6, i.e. para o espaco amostral S1 se E = fxg e um
conjunto com um unico elemento x 2 S1 , ent~ao P(E ) = 16 . A
probabilidade de um evento qualquer e obtida a partir destas
utilizando a propriedade (3) acima.1

Uma classe muito grande de exemplos pode ser descrita atraves


de espacos amostrais nitos, i.e., S e uma colec~ao nita

S = fx1 ; :::; xN g
1 Exerc
cio:

Mostre este fato, e compute a probabilidade do evento associado


ao resultado ser primo.

A.2.

Probabilidades

de elementos. Nesse caso a probabilidade P(E ) de um evento


qualquer E  S pode, como no exemplo acima, ser completamente de nida a partir de uma colec~ao de N numeros fp1 ; :::; pN g
satisfazendo

pi  0 ,
onde
e

N
X

pi = 1 ;

i=1

P(xi ) = pi
P(E ) =

X
xi 2E

pi :

Por exemplo, se todos os resultados possveis xi tem a mesma


frequ^encia de ocorr^encia temos
1
pi = ;

em cujo caso a probabilidade de um evento E e dada por

P(E ) =

nE
;
N

onde nE e o numero de elementos no conjunto E .

No exemplo das 3 moedas lancadas independentemente, i.e. para


o espaco amostral S3 a probabilidade de uma sequ^encia x 2 S3 e
px = 1=8.

Consideremos o lancamento de dois dados que e descrito pelo


espaco amostral S2 . A probabilidade de no segundo lancamento
sair 2 ou 3, i.e. a probabilidade do evento E = fx j x2 2 f2; 3gg
e dada por P(E ) = 31 . Justi que esse resultado intuitivamente
obvio a partir da de nic~ao de P(E ).

Considere o espaco amostral S4 = [0; 60]2 introduzido acima para


descrever o problema do encontro de suas pessoas. A probabilidade de um evento qualquer F  S4 e dada pela raz~ao
area de F
:
P(F ) =
area de S4

^
APENDICE
A.

Exerccio:

Breve Introdu
c~
ao 
a Teoria da Probabilidade

Calcule a probabilidade P(E ) de ocorrer o encontro.

De maneira geral a escolha aleatoria de um numero real no intervalo S5 = [a; b], onde a < b, tem a probabilidade do numero estar
em E  S5 dada por

P(E ) =

jE j ;
b a

onde jE j e o comprimento do conjunto E .

A.2.1 Propriedades da probabilidade


Pode-se demonstrar2 que a de nic~ao dada para a probabilidade P conduz as seguintes propriedades:
1. P() = 0

(Dica: use S = S [  e o axioma (3) )

2. P(E c ) = 1

P(E )

(Use que S = E + E c ; E \ E c = )

3. P(E [ F ) = P(E ) + P(F )

P(E \ F )

4. P(E [ F ) = P(E ) + P(E c \ F )

A.2.2 Distribuic~oes de probabilidade


Para espacos amostrais contnuos, como nos dois exemplos anteriores,
a situac~ao mais tpica e quando S  Rn e a probabilidade de eventos e de nida atraves de uma func~ao  : S ! R com as seguintes
propriedades:
a) R(x)  0, para todo x = (x1 ; :::; xn ) 2 S e
b) S  (x) dn x = 1 :
A probabilidade de evento E

 S e ent~ao expressa atraves de

P(E ) =
2 Demonstre

estas propriedades!

 (x) dnx :

A.2.

Probabilidades

Por essa raz~ao a func~ao  e denominada de densidade de probabilidade.

Exerccio: Determine as densidades de probabilidade nos dois exemplos anteriores.


Exemplos:

Na reta real, S = R algumas densidades de probabilidade frequentes s~ao:


1. Distribuic~ao gaussiana, de nida atraves de 2 par^ametros  >
0 e x0 2 R

 (x) =

p1

"

2 

exp

(x

x0 )
2 2

2. Distribuic~ao de Cauchy com par^ametro > 0

 (x) =

1
;
 x2 + 2

3. Distribuic~ao exponencial com par^ametro > 0

 (x) =

se x > 0
:
0 se x  0
x

Exerccio: Veri que que as 3 func~oes  acima de nem densidades de


probabilidade.

Se uma partcula em R3 parte da origem no instante t = 0 e executa um movimento Browniano num meio com constante de difus~ao D, a probabilidade da partcula no instante t  0 encontrarse no conjunto E  R3 e dada atraves da densidade de probabilidade


1
~x2
:
t (~x) =
3 exp
4tD
(4tD) 2

Exerccio:

Veri que que a func~ao t tem as propriedades caractersticas de uma densidade de probabilidade.

^
APENDICE
A.

10

Breve Introdu
c~
ao 
a Teoria da Probabilidade

A.2.3 Distribuic~oes mistas


Espacos amostrais contnuos podem tambem acomodar densidades de
probabilidade concentradas em pontos, com isso sendo possvel tratar
espacos amostrais discretos atraves de densidades de probabilidade. Por
exemplo, consideremos o espaco discreto Sd = fa1 ; a2 ; :::; an j ai 2 Rg,
com probabilidades P(ai ) = pi  0, que satisfazem
n
X

pi = 1 :

i=1

Ent~ao, a func~ao generalizada de nida no espaco amostral S = R

 ( x) =

n
X

pi (x ai )

i=1

pode ser usada para de nir probabilidades de eventos E


de

P(E ) =
=

 R, atraves

dx (x)

X
i2E

pi ;

o que esta de acordo com o que vimos anteriormente. Neste caso dizemos que a probabilidade esta concentrada nos pontos ai ; i = 1; : : : ; n,
pois P(E ) = 0 se o conjunto E n~ao contiver nenhum dos pontos
a1 ; : : : ; an .

Exerccio:

Veri que que a func~ao generalizada  de ne uma densidade de probabilidade e que P(E ) tem as propriedades de probabilidade.
Em espacos amostrais contnuos podemos acomodar superposic~oes
de densidades contnuas com densidades concentradas em um conjunto
contavel de pontos. Vejamos isto atraves de alguns exemplos.

Exemplos:

Considere S = R e

 (x) = 1 (x) + 2 (x)

A.2.

Probabilidades

11

onde  0;  0 , + = 1 com 1 e 2 sendo densidades de


probabilidade. Ent~ao,  tambem e uma densidade de probabilidade; veri que! Se 1 for por exemplo a densidade

1 =

n
X

pi (x ai ) ;

i=1

como acima e 2 for uma distribuic~ao contnua, como por exemplo


a gaussiana, de Cauchy ou qualquer outra dada por uma func~ao
positiva integravel, tem-se ent~ao uma densidade mista

P(E ) =

X
i2E

pi +

Z
E

2 (x) dx :

No exemplo do movimento Browniano a densidade t que e contnua para t > 0, entretanto, no limite t ! 0, produz a densidade
discreta
0 (~x) = lim
t = (~x) ;
t!0
consistente com a condic~ao de que a partcula estava na origem
em t = 0; justi que esta a rmativa! Sugest~ao: veri que antes
que o mesmo efeito ocorre para as distribuic~oes gaussiana e de
Cauchy nos limites  ! 0 e ! 0, respectivamente.

A.2.4 Eventos Independentes


Em um fen^omeno aleatorio dois eventos s~ao ditos independentes se
ocorr^encia ou n~ao ocorr^encia de um deles n~ao afetar a ocorr^encia do
outro. Tipicamente tem-se em mente exemplos tais como no lancamento
de 2 dados, onde um dos eventos refere-se somente ao resultado do
primeiro dado e outro somente ao resultado do segundo dado. Do ponto
de vista formal temos

De nic~ao:

Em um espaco de probabilidade com espaco amostral

S e com probabilidade P, dois eventos E e F s~ao independentes se


P(E \ F ) = P(E )  P(F ).

^
APENDICE
A.

12

Breve Introdu
c~
ao 
a Teoria da Probabilidade

Exemplos:

No lancamento de 3 moedas os eventos E = cara na primeira


= fx 2 S3 jx1 = 1g e F = coroa na segunda = fx 2 S3 jqx2 =
+1g = s~ao independentes. Por outro lado, os eventos G = fx 2
S3 j x1 + x2 = 0g e H = fx 2 S3 j x1 x2 = 0g n~ao independentes.
Veri que estas a rmativas.

Exemplos tpicos de eventos independentes s~ao produzidos da


seguinte forma:
1. Considere dois espacos amostrais nitos: S = fx1 ; :::; xn g
e R = fy1 ; :::; ym g com probabilidades de nidas a partir
dos numeros pi = Pfxi g, i = 1; :::; n e qj = Pfyj g, j =
1; :::; m e formemos o espaco amostral produto T = S 
R = f(xi ; yj ); i = 1; :::; n; j = 1; :::; mg com probabilidade
de nida atraves de

pij = Pf(xi ; yj )g = pi qj :
Nessas condic~oes os eventos E = A  R e F = S  B s~ao
independentes qualquer que sejam A  S e B  R.
2. Considere dois espacos amostrais S1 e S2 contnuos, por
exemplo S1 = S2 = R e duas densidades 1 e 2 em R.
A func~ao
 (x1 ; x2 ) = 1 (x1 ) 1 (x2 )
de ne ent~ao uma densidade de probabilidade em S1  S2 =
2
Nessas condic~oes os eventos E = A  S2 e F = S1  B
s~ao independentes.

R.

Exerccio. Veri que a independ^encia dos eventos E e F nos dois


exemplos acima.

Menos trivial do que os casos acima descritos e o seguinte exemplo. Considere em S = R2 a densidade gaussiana
1
 (x1 ; x2 ) = exp
2

x21 + x22
2

A.3.

Vari
aveis Aleat
orias

13

e mostre que os eventos E = fx = (x1 ; x2 ) j (x1 + x2 ) 2 Ag


e E = fx = (x1 ; x2 ) j (x1 x2 ) 2 B g, onde A; B  R s~ao
conjuntos arbitrarios, s~ao independentes.

A.3 Variaveis Aleatorias


Em fen^omenos aleatorios e natural associar a cada resultado possvel de
um experimento um numero real. Isto e feito de nindo-se uma variavel
aleatoria f , a qual e uma func~ao no espaco amostral S .

f :S!R;
x 2 S ! f (x) 2 R :

Exemplos:

No caso do lancamento de um dado,


S1 = f1; :::; 6g as func~oes


i.e.

no espaco amostral

f1 (x) = x ;
f2 (x) = x2 ;

que descrevem respectivamente o resultado de um experimento e


o quadrado do resultado s~ao variaveis aleatorias.

No lancamento de 3 moedas,
(S0 )3 as func~oes
8
<
:

i.e.

para o espaco amostral S =

f1 (x) = x1 ; f2 (x) = x2 ; f3 (x) = x3 ;


g (x) = 13 (x1 + x2 + x3 ) ;
h (x) = 31 (x21 + x22 + x23 ) ;

com x = (x1 ; x2 ; x3 ) 2 S , de nem variaveis aleatorias, onde fi


corresponde ao resultado do i-esimo lancamento, g a media dos
resultados dos 3 lancamentos e h a media dos quadrados dos resultados dos 3 lancamentos.

^
APENDICE
A.

14

Breve Introdu
c~
ao 
a Teoria da Probabilidade

No lancamento de N moedas, S = (S0 )N podemos de nir de


forma analoga as variaveis aleatorias
8
<
:

fn (x) = xn ; n = 1; :::; N
P
g (x) = N1 (x1 + ::: + xN ) = N1 PNn=1 xn
h (x) = N1 (x21 + ::: + x2N ) = N1 Nn=1 x2n

com as mesmas interpretac~oes do caso N = 3:

Um exemplo de variavel aleatoria em um espaco de probabilidade


e a func~ao indicatriz E de um evento E , de nida por

E (x) =

1 se x 2 E
0 se x 2
=E :

No caso do movimento Browniano em R3 podemos de nir por


exemplo as seguintes variaveis aleatorias:

fi (~x) =p
xi para i = 1; 2; 3 ;
r (~x) = x21 + x22 + x23 ;
g (~x) = r (~x)2 = x21 + x22 + x23 ;
que representam respectivamente as coordenadas da partcula, a
dist^ancia e o quadrado da dist^ancia da partcula a origem.

A.3.1 Distribuic~ao de probabilidades


Consideremos um espaco amostral nito, i.e. S = fxi ; i = 1; 2; : : : ; N g
com probabilidades de nidas a partir dos numeros pi = Pfxi g; i =
1; : : : ; N e uma variavel aleatoria f com valores no conjunto imagem
f (S )  fa1 ; a2 ; :::; aK g, onde K  N pois podemos ter f (xi ) = f (xj )
embora xi 6= xj . Podemos ent~ao de nir probabilidades no conjunto
imagem fa1 ; a2 ; :::; aK g atraves de

qj = Pff 1 (aj )g , j = 1; :::; K

A.3.

Vari
aveis Aleat
orias

15

os numeros qj representam as probabilidades dos eventos Ej =


fx 2 S j f (x) = aj g, ou seja, a probabilidade da func~ao f assumir o
valor aj . Por isso escrevemos tambem

i.e.

qj = Pff = aj g :

A colec~ao fq1 ; : : : ; qK g e a
aleatoria f . Note que

distribui
c~
ao de probabilidades

da variavel

qj  0 e que
Kqj = 1 ;

X
j =1

logo, de nindo probabilidades no conjunto imagem f (S )  fa1 ; : : : ; aK g.

Exemplos:

No espaco amostral S1 , correspondente a um dado, a variavel


aleatoria f2 de nida acima tem um conjunto imagem


1
9
25
f2 (S1 ) = a1 = ; a2 = ; a3 =
4
4
4

possuindo a seguinte distribuic~ao de probabilidade


1
q1 = q2 = q3 = :
3

Para o lancamento de tr^es moedas S = (S0 )3 , e as variaveis


aleatorias f1 e g de nidas acima temos f1 (S ) = fa1 = 1; a2 =
+1g; e as probabilidades
1
2
1
; b3 = + 31 ; b4 = +1g; com
3

q1 = Pff = a1 g = q2 = Pff = a2 g = ;
e g (S ) = fb1 = 1; b2 =

q1 = Pff
q2 = Pff
q3 = Pff
q4 = Pff

= a1 g = 81 ;
= b2 g = 38 ;
= b3 g = 38 ;
= b4 g = 18 :

16

^
APENDICE
A.

Breve Introdu
c~
ao 
a Teoria da Probabilidade

Caso contnuo
Consideremos agora um espaco amostral S contnuo no qual temos
uma probabilidade P de nida. Dada uma variavel aleatoria f em S ,
i.e. uma fun
c~ao com imagem A contida em R, podemos de maneira
analoga ao que foi feito no caso de espacos amostrais nitos de nir uma
distribuic~ao de probabilidade Pf em R atraves da formula

Pf (A) = P(f 1 (A)) = P (fx 2 S j f (x) 2 Ag) ;

Pf (A) e a probabilidade da func~ao f tomar valores em A, e por


isso escrevemos tambem

i.e.

Pf (A) = P(f

2 A) :

Exemplo:

Consideremos em R as variaveis aleatorias f1 (x) = x e


f2 (x) = x e consideremos em R a probabilidade P. Podemos ent~ao
calcular
Pf1 (A) = P(A) ;
2

Pf (A) = P(x2 2 A) :
Se por exemplo a probabilidade P for de nida por uma densidade  e
A = [0; a] onde a > 0 ent~ao
2

Pf ([0; a]) =
1

Pf ([0; a]) =
2

a
0

 (x) dx ;

Z pa
0

 (x) dx :

De maneira geral a distribuic~ao de probabilidade de uma variavel


aleatoria f pode ser dada por uma densidade f de nida por

Pf (A) = P(f

2 A) =

f (x) dx :

A func~ao f e a densidade de probabilidade da variavel aleatoria f ,


sendo f (x) dx a probabilidade de a variavel f tomar valores entre x e
x + dx . A densidade f tem as propriedades:

A.3.

Vari
aveis Aleat
orias

17

f (x)

sultando que

0;

f (x) dx = 1 :

Exemplo:

Nos dois exemplos acima podemos calcular f1 e f2 , re-

f (x) = (x) ;
1

f (x) =

p1 x (x) se x  0
:
0 se x < 0
2

De nic~ao: Dizemos que uma variavel aleatoria f e discreta se o conjunto f (S ) de valores que ela pode tomar for um conjunto enumeravel.
Quando os valores assumidos por uma variavel aleatoria f formam
um conjunto n~ao enumeravel dizemos que f e uma variavel aleatoria

.
No caso de uma variavel aleatoria f discreta temos a opc~ao de considerar o conjunto imagem f (S ) = fai ; i = 1; 2; : : : g como feito no
caso de um espaco nito e de nir uma distribuic~ao de probabilidade
qi = P(f = ai ), ou ent~ao considerar o conjunto imagem f (S ) como um
subconjunto de R e de nir a sua densidade de probabilidade utilizando
cont
nua

f (x) =

qi (x ai ) :

Exemplo:

Considere a variavel aleatoria

f :S!R;
que assume somente os valores inteiros n~ao negativos k = 0; 1; : : : . f
descreve, por exemplo, o numero de vezes que ocorre determinado fato.
Caso facamos a escolha

qk = P(f = k) =

e  k
k!

^
APENDICE
A.

18

Breve Introdu
c~
ao 
a Teoria da Probabilidade

onde  > 0, dizemos que a variavel aleatoria f tem uma distribuic~ao


de Poisson com densidade .3 Esta variavel aleatoria tambem pode ser
caracterizada por

f (x) =

1
X
k=1

e  k
(x k ) :
k!

Consideremos simultaneamente duas variaveis aleatorias f1 e f2 num


espaco amostral, ou seja, consideremos a probabilidade de simultaneamente f1 e f2 assumirem valores em conjuntos A1 e A2 respectivamente.
Essas probabilidades determinam probabilidades Pf1 ;f2 em R2 atraves
da seguinte formula.


Pf ;f (A1  A2 ) = P f1 1 (A1 ) \ f2 1 (A2 ) = P (f1 2 (A1 ) ; f2 2 (A2 ))


1

Analogamente obtemos a distribuic~ao (f1 ;f2 (x1 ; x2 )) de probabilidade


conjunta de nida pela relac~ao

Pf ;f (B ) =
1

Z Z
B

f ;f (x1 ; x2 ) dx1 dx2 :


1

A func~ao f1 ;f2 tem as propriedades de uma densidade de probabilidade


em R2 , e f1 ;f2 (x1 ; x2 ) dx1 dx2 e a probabilidade de f1 estar entre x1 e
x1 + dx1 e de f2 estar entre x2 e x2 + dx2 .

De nic~ao:

Em um espaco de probabilidade com espaco amostral S


e probabilidade P, duas variaveis aleatorias f1 e f2 s~ao ditas independentes se os eventos E1 = f1 1 (A1 ) e E2 = f2 1 (A2 ) s~ao independentes,
i.e. P(E1 \ E2 ) = P(E1 )  P(E2 ), qualquer que seja a escolha dos
conjuntos A1 e A2  R. Em outras palavras se

P(f1 2 (A1 ) ; f2 2 (A2 )) = P(f1 2 A1 )  P(f2 2 (A2 )) ;


ou ainda, todos os eventos que se referem somente a variavel aleatoria
f1 s~ao independentes de todos os eventos que referem somente a variavel
que a coleca~o de numeros qk realmente de nem uma distribuica~o de
probabilidades.
3 Veri que

A.4.

Momentos

19

aleatoria f2 . Se f1 e f2 s~ao independentes ent~ao a distribuic~ao conjunta


f1 ;f2 satisfaz a propriedade de fatorizac~ao

f ;f (x1 ; x2 ) = f (x1 ) f (x2 ) :


1

Exemplo: Consideremos o espaco amostral S = R

gaussiana de probabilidade

1
(x1 ; x2 ) = exp
2

x21 + x22
2

com a distribuic~ao

As variaveis aleatorias f1 = x1 e f2 = x2 s~ao independentes. Mais


ainda, as variaveis aleatorias f3 = x1 + x2 e f4 = x1 x2 tambem o s~ao.
Veri que estas a rmativas!

A.4 Momentos
De niremos alguns par^ametros, chamados momentos, que servem para
caracterizar uma distribuic~ao de probabilidade discreta ou contnua de
uma variavel aleatoria.

A.4.1 Media

A media, ou esperanca matematica, denotada por hf i, da variavel


aleatoria f , de nida em um espaco amostral S com probabilidade P, e
de nida da seguinte maneira:
a) Se S for um conjunto enumeravel, nito ou in nito, S = fx1 ;
x2 ; : : : g com P(xi ) = pi , ent~ao

hf i =

X
i1

f (xi )pi :

De um ponto de vista heurstico, e razoavel esperar que este par^ametro estime a media dos valores obtidos para a variavel aleatoria em
uma sequ^encia grande de \sorteios" repetidos. Esse tipo de a rmativa
sera mais esclarecida quando discutirmos a \lei dos grandes numeros ".

^
APENDICE
A.

20

Breve Introdu
c~
ao 
a Teoria da Probabilidade

Uma maneira alternativa para calcular e somando-se sobre os possveis valores f e n~ao sobre os pontos no espaco amostral. Assim suponha
que variavel aleatoria f possa assumir os valores no conjunto ( nito ou
in nito) fyk ; k = 1; 2; : : : g com probabilidades qk = P(f = yk ). A
express~ao acima pode ent~ao ser escrita da seguinte forma:

hf i =

X
i 1

f ( xi ) p i =

Ora

X
ijf (xi )=yk

e portanto

hf i =

X
i1

X
k1

2
4yk

X
ijf (xi )=yk

pi 5 :

pi = qk ;

f (xi )pi =

X
k1

yk qk :

Exemplos:

Consideremos o lancamento de um dado, i.e. S1 = f1; :::; 6g; pi =


1
e as variaveis aleatorias f1 = i e f2 = (i hf1 i)2 . Podemos ent~ao
6
calcular

hf i =
1

6
X
1

1
6

7
2

i = (1 + 2 + 3 + 4 + 5 + 6) = ;

i=1

hf i =
2

6
X
1

i=1

7
2

2

1
=
3

 2

1
2

1
+
3

 2

3
2

1
+
3

 2

5
2

No calculo de hf2 i as duas formulas correspondem as duas maneiras


possveis de calcular o valor medio, como descrito acima.

3

No lancamento de 3 moedas, i.e. S = (S0 )3 com px = 12 para


todo x = (x1 ; x2 ; x3 ) 2 S , podemos calcular o valor medio das

A.4.

Momentos

21

func~oes fi , g e h de nidas anteriormente:

hfii = Px2S

1
2

3

xi =

1
2

(+1) +

1
2

( 1) = 0 ;

hg i = 0 ;
hhi = 1 :
b) Se a variavel aleatoria estiver de nida num espaco amostral S
contnuo, como por exemplo S = Rn (x = (x1 ; : : : ; xn )), e se a probabilidade for de nida atraves de uma densidade de probabilidade  (x),
ent~ao o valor medio da variavel aleatoria f : S ! R e dado por

hf i =

S =Rn

f (x)  (x) dn x :

A exemplo do que foi feito no caso de um espaco discreto, a media da


variavel aleatoria f pode tambem ser calculada atraves da distribuic~ao
de probabilidades dos valores da func~ao f , integrando-se sobre o conjunto (H ) dos valores possveis de f ponderado adequadamente pela
densidade de probabilidade f (y ):

hf i =

f (x)  (x) d x =
n

S =Rn

yf (y ) dy :

Essa formula pode ser trivialmente veri cada para func~oes do tipo

f=

N
X
i=1

ci Ei ;

, combinac~oes lineares de func~oes indicatrizes de eventos Ei , i =


1; : : : ; N . O caso geral e obtido passando-se ao limite N ! 1.
i.e.

Exemplos:

Se uma variavel aleatoria f tem uma distribuic~ao uniforme concentrada no intervalo [0; 1], i.e.

f (x) =

1 se x 2 [0; 1]
0 se x 2
= [0; 1]

^
APENDICE
A.

22

ent~ao

Breve Introdu
c~
ao 
a Teoria da Probabilidade

hf i =

dx x f (x) =

1
0

1
2

dx x = :

Se uma variavel aleatoria tem uma distribuic~ao gaussiana, f (x)


(x x0 )2
= p 1 e 22 , e facil ver que
2

hf i =

dx x f (x) = x0 :

De maneira geral, se f (x) for uma func~ao simetrica por re ex~ao


em torno do ponto x0 , ou seja,

f (x) = f ( x + 2x0 )
ent~ao hf i = x0 . Justi que!

Se f exibir uma distribuic~ao exponencial

f (x) =
onde  > 0, ent~ao

, se x  0
0 , se x < 0

e

x

hf i = 1 :

Propriedades da media

Se k e uma constante e f e g s~ao variaveis aleatorias ent~ao temos que


1. hkf i = khf i;
2. hf + g i = hf i + hg i;
3. Se f e g s~ao variaveis aleatorias independentes ent~ao

hfgi = hf ihgi ;
4

Exerccio: Demonstre estas propriedades.

A.4.

Momentos

23

ou seja, a media do produto de variaveis aleatorias independentes e igual


ao produto das medias. Veri quemos essa propriedade no caso em que
f e g s~ao variaveis discretas, onde f admite valores fxi ; i = 1; :::g com
probabilidades fpi ; i = 1; :::g e g admite valores fyi; i = 1; :::g com
probabilidades fqj ; j = 1; :::g, respectivamente. Assim

hfgi =

XX
i1 j 1

(xi yj ) P(f = xi ; g = yj ) ;

como f e g s~ao variaveis aleatorias independentes temos que

P(f = xi ; g = yj ) = P(f = xi )P(g = yj ) = qi pj :


Portanto,

hfgi =

XX
i1 j 1

(xi qi ) (yj pj ) =

X
i1

xi qi

X
j 1

yj pj = hf ihg i :

Para o caso de variaveis com distribuic~oes contnuas use o fato de que


se f e g s~ao variaveis aleatorias independentes, ent~ao a func~ao de distribuic~ao conjunta f;g (x; y ) e dada atraves de f;g (x; y ) = f (x) g (y ).

A.4.2 Moda
A moda e de nida como sendo o ponto de maior probabilidade, no caso
discreto, ou de maior densidade de probabilidade, no caso contnuo.

Exemplos:

Para a distribuic~ao Gaussiana f (x) = p21 e


assume o valor x0 .

Para a distribuic~ao exponencial f (x) =  e

x

(x

x0 )
2 2

a moda

a moda vale zero.

Observac~ao: Note a partir do segundo exemplo acima que em geral

a moda n~ao e igual a media.

^
APENDICE
A.

24

Breve Introdu
c~
ao 
a Teoria da Probabilidade

A.4.3 Vari^ancia
Um bom indicador de como uma variavel aleatoria f \ utua" em torno
de sua media hf i e o seu desvio padr~ao f , cujo quadrado f2 e chamado
de vari^ancia de f , a qual e de nida atraves de

hf i) :

f2 = (f

Mais explicitamente, para variaveis contnuas sua express~ao e dada por

f =

dx f (x) (x

hf i) ;
2

enquanto que para variaveis discretas ela toma a forma

f2 =

X
i1

hf i) pi :

(xi

Podemos ainda utilizar as propriedades da media (hf i) para reescrever


f2 , obtendo que5

f2 = f 2

2f hf i + hf i2 = f 2

hf i :
2

Exemplos:

No caso do lancamento de um dado e da variavel aleatoria f = i


temos que

f2 =
=

6
X
1

i=1

6
X
1

i=1

91
=
6
5

Exerccio: Mostre esta relaca~o.

hxi)

(i

i2


!2

1X
i
6 i=1

21
6

2

35
:
12

A.4.

Momentos

25

Para uma variavel contnua com distribuic~ao uniforme entre (0; 1),
sua vari^ancia e dada por

f =

1
2

dx x

2

1
1
=
:
4 12

1
3

Para uma variavel com distribuic~ao exponencial

f =
2

Z 1
0

dx x

2

e

x

2

No caso de uma variavel contnua com distribuic~ao Gaussiana


(x x0 )2
f (x) = p21  e 22 , a vari^ancia e dada por

f =
2

(x

p x) e

dx

 interessante notar que


E

P (   x  ) =




2 

dx

p1

2

(x

x0 )2
2 2

=:

x2

2 2

= 0:6826 :

De maneira mais geral, podemos estimar para a > 0 a probabilidade P(x > a) atraves de
1
P(x > a) = p
2 


= p
e
2 a

x>a
a2
2 2

dx e

x2
2 2

p1
2 

x
dx e
a
x>a

x2

2 2

Propriedades da vari^ancia
Partindo da de nic~ao da vari^ancia podemos demonstrar as seguintes
propriedades. Se k e uma constante e f e g s~ao variaveis aleatorias
independentes, ent~
ao
1. k2 = 0;

26

^
APENDICE
A.

Breve Introdu
c~
ao 
a Teoria da Probabilidade

2. f2g = f2 + g2 ;


2
3. kf
= k2 f2 ;

4. (2f k) = f2 .


Uma consequ^encia notavel das propriedades da vari^ancia e o fato de
que se considerarmos uma colec~ao ff1; ; f2 ; : : : g variaveis aleatorias independentes e igualmente distribudas, em particular com medias iguais
a hfi i = m e vari^ancias iguais a f2i =  2 , ent~ao a vari^ancia da soma

SN =

N
X

fi ;

i=1

e dada por

S2 N =
ou seja, o desvio padr~ao SN =

hSN i =

N
X
i=1

f2i = N 2 ;

N . Isto mostra que embora a media

N
X
i=1

hfii = Nm ;

cresca proporcionalmente a N , as utuac~oes comopmedidas pelo desvio


padr~ao SN crescem apenas proporcionalmente a N !

Momentos de uma distribuic~ao


A informac~ao sobre a media e a vari^ancia de uma variavel aleatoria e, em
geral, de pouca valia como ingrediente para caracterizar completamente
a sua distribuic~ao de probabilidade, pois ha in nidades de distribuic~oes
de probabilidade com mesmas medias e vari^ancias.
A media hf i e a media do quadrado hf 2 i de uma variavel aleatoria
f s~ao apenas casos particulares dos chamados momentos de f : para
n = 1; 2; : : : , o n-esimo momento de f e o valor medio de f n, i.e.
hf ni. O conhecimento de todos os momentos hf ni = an; n = 1; 2; : : :

A.5.

Fun
c~
ao Caracter
stica de uma Vari
avel Aleat
oria

27

permite calcular o valor medio de qualquer func~ao F (f ) que admita


uma expans~ao convergente serie de pot^encias. De fato, se

F (f ) =
ent~ao

hF (f )i =

n f n ;

n hf n i =

n an :

Exemplo:

Considere uma variavel aleatoria f com uma distribuic~ao


uniforme no intervalo [0; 1]: Neste caso

hf i =
n

1
0

xn dx =

1
:
n+1

Mais ainda, se por exemplo F (f ) = ef ent~ao


Z 1
1
X
1 1
hF (f )i = n! n + 1 = exdx = e
0
n=0

1:

O conhecimento de todos os momentos de uma variavel aleatoria


possibilita uma completa reconstruc~ao desta, i.e. podemos n~ao so obter
as probabilidades, mas tambem os valores que a variavel aleatoria assume! Para entendermos isso, consideremos o caso de uma variavel
aleatoria que assume um conjunto nito de valores distintos fxk ; k =
1; : : : ; N g com probabilidades pk . Podemos determinar as respectivas
probabilidades pk = P(f = xk ) e os valores xk a partir do conhecimento
dos momentos hf n i = an uma vez que as igualdades

an =

N
X
k=1

xnk pk

podem ser consideradas como um sistema de equac~oes para determinar


os valores de pk e xk , para k = 1; : : : ; N .

A.5 Func~ao Caracterstica de uma Variavel Aleatoria


Podemos determinar todos os momentos hf ni e a propria distribuic~ao
de probabilidade f de uma variavel aleatoria f a partir da func~ao

28

^
APENDICE
A.

Breve Introdu
c~
ao 
a Teoria da Probabilidade

caracterstica da variavel aleatoria f de nida por

Cf (t)  eitf ;
onde t e uma variavel real. Caso f seja uma variavel aleatoria contnua
temos que
Z

Cf (t) =

eitx f (x) dx ;

enquanto que para variaveis discretas

Cf (t) =

pk eitxk :

A func~ao Cf tambem e chamada de func~ao geratriz dos momentos


da variavel aleatoria ja que podemos calcular o n-esimo momento de f
atraves da derivada n-esima de Cf (t) ponto t = 0

hf i = in @tn
Exemplo:

1 @ n Cf

t=0

Considere a distribuic~ao gaussiana

 (x) =

p1 e
2

(x

x0 )
2 2

Sua func~ao caracterstica Cf (t) e dada por

Cf (t) = eitx e
0

1 2 2
 t
2

Teorema Importante:

A func~ao caracterstica Cf (t) determina


completamente a distribuic~ao de probabilidade f da variavel aleatoria
atraves da express~ao

f (x) =

itx

2

Cf (t) dt ;

a qual e a transformada de Fourier de Cf (t).

A.6.

A Lei dos Grandes N


umeros

29

A.5.1 Propriedades da func~ao caracterstica


A func~ao caracterstica Cf (t) possui as seguintes propriedades:
1. Se k e uma constante e f e uma variavel aleatoria, ent~ao a func~ao
caracterstica da variavel aleatoria kf e dada por

Ckf (t) = Cf (kt) :


2. Se f e g , s~ao variaveis aleatorias independentes ent~ao

Cf +g (t) = Cf (t) Cg (t) :


Em particular, se ff1 ; : : : ; fN g s~ao variaveis aleatorias independentes e igualmente distribudas, i.e. f1 =    = fN , ent~ao

Cf +:::+fN (t) = [Cf (t)]N :


1

A.6 A Lei dos Grandes Numeros


Um fen^omeno aleatorio foi de nido como sendo de natureza probabilstica se ao serem efetuadas N ensaios com o mesmo conjunto C
de condic~oes, a frequ^encia relativa de ocorr^encia de um determinado
evento E , nE =N tende a estabilizar-se para grandes valores de N em
um valor P(E ), ou seja,

nE
N

! P(E ) ;

e esse valor e identi cado com a probabilidade do evento.


A teoria da probabilidade e capaz de adequadamente expressar essa
propriedade. De fato, consideremos o espaco amostral S0 que descreve
um determinado fen^omeno. Para sermos mais concretos podemos considerar, por exemplo, o lancamento de um dado S0 = f 1; +1g. Se
considerarmos N repetic~oes independentes do lancamento, o espaco
amostral relevante e dado por S = (S0 )N = fx = (x1 ; : : : ; xN ); xi 2 S0 g
com probabilidade px = 21N . Intuitivamente esperamos que a frequ^encia
relativa de ocorr^encia de \caras" i.e. xi = 1 estabilize-se em 21 , pois

^
APENDICE
A.

30

Breve Introdu
c~
ao 
a Teoria da Probabilidade

esse foi o valor adotado para de nir px =


consideremos a variavel aleatoria

fN (x) =
onde

i (x) =

N
1 X

1
2N

! Para investigar esse fato,

i (x) ;

i=1

1 se xi = 1
:
0 se xi = +1

A variavel aleatoria representa exatamente a frequ^encia relativa de


ocorr^encia de \caras" em N tentativas. O que esperamos, de acordo
com o que foi dito acima, e que fN (x) ! 21 , em palavras, a variavel
aleatoria deve convergir para uma constante! Note inicialmente que a
media de fN e dada por
hfN i = 12 ;
e que a sua vari^ancia e dada por6

f2N =

1
N 2
 =
:
2 i
N
2N

O fato relevante e que a vari^ancia f2N ! 0 quando N ! 1, o que


signi ca que a variavel fN esta convergindo para uma constante! Para
fazer uma a rmativa ainda mais precisa vamos inicialmente deduzir
uma importante, pelo numero de aplicac~oes praticas, desigualdade devida a Chebyschev. Se f e uma variavel aleatoria ent~ao, se a > 0:

x f (x) dx 

 a

ou seja,

x2 >a2

x2 >a2

x2 f (x) dx

f (x) dx = a2 P(jf j  a) ;

P(jf j  a) 

hf i :
a
2

essas a rmativas, notando que as variaveis i , s~ao mutuamente


independentes.
6 Veri que

A.7.

Teorema Central do Limite ou Import^


ancia da Gaussiana 31

Em particular para uma variavel f de media zero,

P(jf j  a) 

f2
:
a2

Retornando ent~ao a nossa variavel fN , podemos aplicar a ultima desigualdade a variavel gN  fN hfN i, que tem media zero e com
vari^ancia g2N = f2N , para obter

P(jfN

2

hfN ij  a)  afN
2

2a2 N

! 0 quando N ! 1 :

Esse limite mostra exatamente a consist^encia interna da teoria da probabilidade nos seus aspectos interpretativos: e a lei dos grandes numeros
em ac~ao.
Repetindo todos os passos da discuss~ao acima podemos apresenta
vers~ao muito mais geral do limite acima obtido.

Teorema: Sejam i (i  1) variaveis aleatorias independentes em um


espaco amostral S com medias e vari^ancias iguais hi i = m e 2 i =  2
P
e seja tambem fN = N1 N
ao,
i=1 i . Ent~

P(jfN

mj  a) 

f2N
2
=
a2
a2 N

! 0 quando N ! 1 ;

o que signi ca que para grandes valores de N os desvios da media


tornam-se cada vez mais improvaveis.

A.7 Teorema Central do Limite ou Import^ancia da


Gaussiana
Da sec~ao anterior conclumos que a variavel aleatoria

fN =

N
1 X

i ;

i=1

onde i (i  1) s~ao variaveis aleatorias independentes e igualmente


distribudas, em particular com medias e vari^ancias iguais hi i = m e

32

^
APENDICE
A.

Breve Introdu
c~
ao 
a Teoria da Probabilidade

2 i =  2 , converge \ em probabilidade" para o valor medio comum m,


isto e

P(jfN

mj  a) ! 0 quando N

!1:

Queremos agora obter uma estimativa mais precisa de como a variavel fN utua em torno do seu valor medio, para N grande. Essa
informac~ao nos e fornecida pelo chamado Teorema Central do Limite,
que diz que para N grande essas utuac~oes tem uma distribuic~ao gaussiana com vari^ancia  2 .

fN

m=

N
X

i

Nm

' p1 G ;
N

i=1

ou equivalentemente,

gN

 N (fN m) = p1

N
X

i

Nm

i=1

! G quando N ! 1 ;

onde G e uma variavel aleatoria com uma distribuic~ao Gaussiana com


media zero e vari^ancia igual a vari^ancia comum  2 = 2 i .
Uma forma matematicamente precisa de se enunciar e demonstrar
esse resultado `gravissimum" da teoria da probabilidade e atraves do
calculo da func~ao caracterstica CgN (t) da variavel gN . Por simplicidade
apenas, suponhamos que a media comum m seja nula, m = 0. Usando
as propriedades das func~oes caractersticas podemos calcular:
h

CgN (t) = CpNfN (t) = C p1 (t)

iN

t
= C( p )
N

N

onde C (t)  C1 (t) =    = CN (t) e a func~ao caracterstica comum


as variaveis aleatorias i ; i = 1; : : : ; N . O lado direito pode ser ent~ao
calculado.



t
CgN (t) = C ( p )
N

= ei

ptN 1

EN

Para N grande, podemos expandir a exponencial

i ptN 1

t
= 1 + i p 1
N

t2 2
1
1 + O
2N
N2

A.7.

Teorema Central do Limite ou Import^


ancia da Gaussiana 33

e portanto
D

EN
i pt 1
N

= 1

t2 2
1
 +O
2N
N2

N

onde usamos o fato de que hi i = 0 e 2 i =  2 . Tomando agora o


limite N ! 1, obtemos


lim CgN (t) = lim 1


N !1
N !1

1
t2  2
+O
2N
N2

N

=e

t2  2
2

; ;

em palavras: a func~ao caracterstica CgN (t) converge para a func~ao caracterstica de uma gaussiana de media zero e vari^ancia igual a vari^ancia
comum  2 . Isto implica para a distribuic~ao de probabilidade gN a
propriedade
Z

lim

N !1 E

gN (x) dx =

x2

2 2

2

dx :

Você também pode gostar