Você está na página 1de 25

Curso de Vero em Estatstica

Teoria da Probabilidade
Regis A. Ely
Mestrado em Economia Aplicada (PPGOM)
Universidade Federal de Pelotas (UFPel)

1 de maro de 2016

Resumo
Estas so as notas de aula do curso de vero em Estatstica do Mestrado em Economia
Aplicada do PPGOM. A referncia principal so os captulos de 1 a 5 de Casella, G. e Berger,
R. L. Statistical Inference. 2nd Edition. Duxbury Press, 2001. Existe uma verso traduzida
para o portugus deste livro, porm as notas de aula so baseadas na verso em ingls, ento
pode haver pequenas diferenas nos termos utilizados. Estas notas tambm contm exemplos
de aplicao dos conceitos no R. Note que as aplicaes no R, apesar de contriburem para
o entendimento do contedo, no substituem os exerccios do livro, que devem ser a fonte
primria de preparao para as avaliaes.

Sumrio
1 Teoria de Probabilidade 2
1.1 Experimento, espao amostral e eventos . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Funo de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Probabilidade condicional e independncia . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Exemplo de aplicao no R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Variveis aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Funes de distribuio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7 Funes de densidade e massa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Transformaes em variveis aleatrias 11


2.1 Distribuies de funes de variveis aleatrias . . . . . . . . . . . . . . . . . . . 11
2.2 Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Varincia e outros momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4 Funo geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3 Distribuies de probabilidade 15
3.1 Distribuies discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Distribuies contnuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4 Variveis aleatrias mltiplas 16


4.1 Distribuies conjuntas e marginais . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2 Distribuio condicional e independncia . . . . . . . . . . . . . . . . . . . . . . . 17
4.3 Mistura de distribuies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4 Covarincia e correlao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1
5 Propriedades de amostras aleatrias 20
5.1 Amostras aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.2 Estatsticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.3 Amostragem da distribuio normal . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.4 Conceitos de convergncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

6 Exemplos no R 24

1 Teoria de Probabilidade
1.1 Experimento, espao amostral e eventos
Um dos principais objetivos da estatstica tirar concluses sobre uma populao de objetos
conduzindo um experimento. Um experimento aleatrio sempre composto por uma ao e
uma observao, embora s vezes a ao, ou at mesmo a observao, esteja subentendida na
descrio do experimento. Se pudermos repetir um experimento um grande nmero de vezes
ento algumas regularidades podero ser observadas, de modo a facilitar o processo de descrever
o conjunto de resultados possveis e as probabilidades associadas a eles.

Exemplo 1.1.1. (Experimentos aleatrios)

i) Jogar dois dados e observar a soma dos nmeros obtidos;


ii) Jogar um dado justo (observao omitida: olhar para a face);
iii) Observar o tempo que uma pessoa leva para ir da sua casa at o trabalho;
iv) Observar o nmero de gols em uma partida de futebol;
v) Observar o lucro de uma empresa no ano de 2010.

Definio 1.1.2. O conjunto S, de todos os possveis resultados de um experimento chamado


espao amostral do experimento.

Exemplo 1.1.3. (Espaos amostrais do Exemplo )

i) S = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12};


ii) S = {H, T };
iii) S = (0, );
iv) S = {0, 1, 2, 3, 4, . . . , 20};
v) S = (, ).

Uma vez que definimos o espao amostral, estamos interessados em calcular probabilidades de
colees de subconjuntos especficos deste espao amostral (e.g. probabilidade dos dois dados
somarem 12).

Definio 1.1.4. Um evento qualquer coleo de possveis resultados de um experimento, ou


seja, qualquer subconjunto do conjunto S (incluindo o prprio S e o conjunto vazio ).

2
Exemplo 1.1.5. (Eventos)

i) Suponha o experimento de selecionar uma carta de um baralho e verificar seu


naipe: Ouros (O), Copas (C), Espadas (E) e Paus (P). O espao amostral ser
S = {O, C, E, P }. Alguns eventos possveis so A = {C, P } e B = {C, E, O}. Logo,
A B = {O, C, E, P }, A B = {C} e AC = {E, O}.

Dizemos que um evento A ocorre se o resultado de um experimento est no conjunto A. De-


sejamos atribuir probabilidades a eventos e no a experimentos ou espaos amostrais. Quando
atribumos uma probabilidade a um evento chamamos ele de evento aleatrio. Podemos realizar
operaes com eventos da mesma maneira que realizamos operaes com conjuntos matemticos.

Revisar teoria dos conjuntos:

1. Operaes de unio, interseo, complementar e produto cartesiano.


2. Propriedades comutativa, associativa, distributiva e leis de DeMorgan.
3. Conjuntos disjuntos (mutuamente excludentes) e parties.
4. Conjuntos finitos, enumerveis e no-enumerveis.

Quais as referncias?

Captulo 1, seo 1.1 de Casella, G. e Berger, R. L. Statistical Inference. 2nd


Edition. Duxbury Press, 2001.
Captulos 1 e 2 de Elon, L. L. Curso de anlise vol. 1. Impa, 2007.
Captulo 1, seo 1.2 de Meyer, P. L. Probabilidade: aplicaes estatstica. Ed.
LTC, 1983.
Aula 5 de Mtodos Estatsticos Bsicos

1.2 Funo de probabilidade


A noo de probabilidade pode ter vrias interpretaes distintas. Quando pensamos na pro-
babilidade de sair um nmero 6 ao jogar um dado estamos utilizando a abordagem clssica de
probabilidade, que corresponde ao nmero de resultados favorveis ao nosso evento dividido pelo
nmero de resultados possveis (1/6). Essa abordagem til somente para espaos amostrais
finitos e resultados igualmente verossmeis.

Outra abordagem possvel a frequentista, que nos diz que se repetimos um experimento um
grande nmero de vezes podemos aproximar a probabilidade de um evento pelo nmero de vezes
que ele ocorreu dividido pelo nmero de vezes que repetimos o experimento (tente jogar 100 vezes
o dado e verifique quantas vezes saiu o 6). Essa uma definio mais ampla de probabilidade,
mas ainda assim, para calcularmos ela necessrio repetir o experimento um grande nmero de
vezes, o que pode ser um empecilho.

Por outro lado, quando trabalhamos com espaos amostrais infinitos no-enumerveis, comum
utilizarmos a definio geomtrica de probabilidade, dada pela razo entre a rea do evento A e
a rea do espao amostral S.

3
Vimos que sempre atribumos probabilidades a eventos, logo, se a probabilidade uma funo, o
domnio dessa funo deve ser uma coleo de conjuntos que correspondem a todos os possveis
eventos aleatrios que podem ser gerados a partir de um experimento.

Definio 1.2.1. Uma coleo de subconjuntos de um espao amostral S chamada de sigma


lgebra (ou campo de Borel), e denotada por B, se satisfaz as seguintes propriedades:

a. B (o conjunto vazio um elemento de B).


b. Se A B ento AC B (B fechado sobre operaes de complementar).
c. Se A1 , A2 , B, ento
i=1 Ai B (B fechado sobre unies contveis).

Dizemos que o conjunto {, S} uma sigma lgebra trivial. Estamos interessados na menor sigma
lgebra que contm todos os subconjuntos de um dado espao amostral. Se o conjunto S finito
ou infinito enumervel, B ser igual a todos os subconjuntos de S, que totalizaro 2n conjuntos,
onde n o nmero de elementos de S. Quando S no-enumervel um pouco mais difcil
descrever B.

Exemplo 1.2.2. (Sigma lgebra)

i) Se S = {1, 2, 3}, ento B ter 23 = 8 conjuntos, dados por , {1}, {2}, {3}, {1, 2},
{1, 3}, {2, 3}, {1, 2, 3}.
ii) Se S = (, ) = R, ento B pode ser escolhido de modo a incluir os conjuntos
[a, b], (a, b], (a, b) e [a, b), para todos os nmeros reais a e b.

Agora que conhecemos o domnio da funo de probabilidade, podemos defin-la.

Definio 1.2.3. Dado um espao amostral S e um sigma lgebra associada B, uma funo de
probabilidade uma funo P com domnio B que satisfaz:

1. P (A) 0 for all A B.


2. P (S) = 1.
P
3. Se A1 , A2 , B forem disjuntos dois a dois, ento P (
i=1 Ai ) = i=1 P (Ai ).

As propriedades acima so conhecidas como os Axiomas de Probabilidade ou Axiomas de Kol-


mogorov. Qualquer funo que satisfaz esses axiomas dita uma funo de probabilidade. Como
vimos, existem diversas interpretaes de probabilidade, mas todas devem respeitar estes axio-
mas. Se quisermos rapidamente construir uma funo de probabilidade, o teorema abaixo nos
d uma frmula simples.

Teorema 1.2.4. Seja S = {s1 , . . . , sn } um conjunto finito e B uma sigma lgebra de subconjuntos
de S. Para quaisquer A B, defina P (A) como:
X
P (A) = pi ,
{i:si A}

onde p1 , . . . , pn so nmeros no negativos que somam 1. Ento P uma funo de probabilidade


em B. Esse teorema continua vlido se S um conjunto infinito enumervel.

Demonstrao. Basta verificar a validade dos 3 Axiomas de Probabilidade.

4
A partir dos Axiomas de Probabilidade podemos deduzir algumas propriedades teis das funes
de probabilidade.

Teorema 1.2.5. Se P uma funo de probabilidade e A, B B, ento:

a. P () = 0, onde o conjunto vazio;


b. P (A) 1;
c. P (AC ) = 1 P (A);
d. P (B AC ) = P (B) P (A B);
e. P (A B) = P (A) + P (B) P (A B);
f. Se A B, ento P (A) P (B);
g. P (A) =
P
i=1 P (A Ci ) para qualquer partio C1 , C2 , . . . ;
h. P (i=1 Ai )

P
i=1 P (Ai ) para quaisquer conjuntos A1 , A2 , . . . . (Desigualdade de Boole)

Demonstrao. Feita em aula.

Note que se aplicarmos a desigualdade de Boole para AC obtemos:


n
X
P (ni=1 AC
i ) P (AC
i ),
i=1

e usando o fato de que AC


i = (Ai )C e P (AC
i ) = 1 P (Ai ), ento:
n
X
1 P (ni=1 Ai ) n P (Ai ).
i=1

Rearranjando temos:

n
X
P (ni=1 Ai ) P (Ai ) (n 1) ,
i=1

que conhecida como a Desigualdade de Bonferroni. Esta desigualdade nos d a possibilidade


de limitar a probabilidade de um evento simultneo (interseo) em termos das probabilidades
individuais.

Nessa seo definimos os trs elementos que compem um espao de probabilidade (S, B, P ).

Definio 1.2.6. Um espao de probabilidade (S, B, P ) composto por:

i) Um conjunto no-vazio S de todos os resultados possveis de um experimento, chamado


espao amostral;
ii) Uma sigma lgebra de eventos aleatrios B, que contm todos os subconjuntos do espao
amostral;
iii) Uma funo de probabilidade P com domnio B e que satisfaz os axiomas de probabilidade.

Este o espao matemtico que trabalharemos a partir de agora.

5
Revisar anlise combinatria:

1. Regra da multiplicao e da adio;


2. Permutaes: n Pn = n!;
3. Arranjos: n Ar = (nr)! ;
n!

4. Combinaes: n
r!(nr)! ;
n!

r =
5. Permutao com elementos repetidos.

Quais as referncias?

Captulo 1, seo 1.2.3 de Casella, G. e Berger, R. L. Statistical Inference. 2nd


Edition. Duxbury Press, 2001.
Captulo 2, seo 2.3 de Meyer, P. L. Probabilidade: aplicaes estatstica. Editora
LTC, 1983.
Aula 8 de Mtodos Estatsticos Bsicos.

1.3 Probabilidade condicional e independncia


Em muitos experimentos o espao amostral pode mudar depois que obtemos nova informao.
Se nosso experimento for retirar duas cartas de um baralho e estamos interessados no evento
de obter dois ses, ao retirar a primeira carta, o espao amostral reduzido, fazendo com que
a probabilidade de se obter um s na segunda carta seja alterada. Nesse tipo de problema,
precisamos utilizar o que chamamos de probabilidade condicional.

Definio 1.3.1. Se A e B so eventos em S, e P (B) > 0, ento a probabilidade condicional de


A dado B :

P (A B)
P (A|B) =
P (B)
Note que para calcularmos P (A|B) devemos reduzir o espao amostral S para B, e ento cal-
cularmos a probabilidade de A. No caso de eventos disjuntos, em que P (A B) = 0, temos
P (A|B) = P (B|A) = 0.

Como a equao da probabilidade condicional simtrica, podemos derivar dela o seguinte


resultado.

Teorema 1.3.2. (Regra de Bayes)


Seja A1 , A2 , . . . uma partio do espao amostral, e B qualquer outro conjunto. Ento, para cada
i = 1, 2, . . . ,

P (B|Ai )P (Ai )
P (Ai |B) = P .
j=1 P (B|Aj )P (Aj )

Note que A1 , . . . , Ak uma partio do espao amostral S quando:

i) Ai Aj = para todo i 6= j;
ii) ki=1 Ai = S;

6
iii) P (Ai ) > 0 para todo i.

Nesse caso, quando o experimento realizado, um e somente um dos eventos Ai ocorre. Logo,
podemos deduzir que vale a Lei das probabilidades totais:

P (B) = P (B|A1 )P (A1 ) + + P (B|Ak )P (Ak )


A regra de Bayes utiliza este resultado no denominador.

Em alguns casos, a ocorrncia do evento B no influencia a probabilidade do evento A ocorrer,


de modo que P (A|B) = P (A). Assim, pela regra de Bayes, P (B|A) = P (B), e ento, pela
frmula da probabilidade condicional, P (A B) = P (A)P (B). Nesse caso, dizemos que A e B
so eventos estatisticamente independentes.

Teorema 1.3.3. Se A e B so eventos independentes, ento os seguintes eventos tambm so


independentes:

a. A e B C ,
b. AC e B,
c. AC e B C .

Demonstrao. Feita em aula.

Para mais de dois conjuntos devemos estender nossa definio de independncia.

Definio 1.3.4. Uma coleo de eventos A1 , . . . , An mutuamente independente se para qual-


quer subcoleo Ai1 , . . . , Aik , temos
k
Y
P (kj=1 Aij ) = P (Aij ).
j=1

Exemplo 1.3.5. (Probabilidade Condicional e Independncia)

i) Probabilidade condicional: ver exemplos 1.3.3 e 1.3.4 de Casella, G. e Berger, R.


L. Statistical Inference. 2nd Edition. Duxbury Press, 2001 e pginas 4 e 5 da Aula 7
de Mtodos Estatsticos Bsicos.
ii) Regra de Bayes: ver exemplo 1.3.6 de Casella, G. e Berger, R. L. Statistical Infe-
rence. 2nd Edition. Duxbury Press, 2001 e pgina 8 da Aula 7 de Mtodos Estats-
ticos Bsicos.
iii) Independncia: ver exemplos 1.3.8, 1.3.10, 1.3.11 e 1.3.13 de Casella, G. e Berger,
R. L. Statistical Inference. 2nd Edition. Duxbury Press, 2001 e pgina 12 da Aula 7
de Mtodos Estatsticos Bsicos.

1.4 Exemplo de aplicao no R


O software estatstico R possui um pacote chamado prob em que podemos realizar aplicaes
de quase todos os conceitos aprendidos at aqui. Se voc ainda no utilizou o R, um bom meio
de comear atravs do curso introdutrio da DataCamp. Voc pode encontrar uma lista de
cursos, documentao, livros, entre outros neste post. Para ilustrar a aplicao no R considere

7
o seguinte exemplo.

Exemplo 1.4.1. (Aplicao das sees 1.1, 1.2 e 1.3 no R)

Suponha que um ex-presidente da repblica tenha ido ao cassino para tentar a sorte com o
dinheiro de sua aposentadoria". Ele resolve jogar R$100.000,00 em uma roleta americana,
apostando R$90.000,00 na cor vermelha e R$10.000,00 no nmero 13. Sabendo que o
pagamento se ele acertar o nmero 35:1 e se acertar a cor 1:1, resolva os itens abaixo.

i) Defina o espao amostral S.


ii) Defina os eventos A em que ele acerta o nmero, e B em que ele acerta a cor.
iii) Defina o evento E em que sai um nmero mpar.
iv) Defina os eventos U = A B, G = B C, F = C A e H = (A B)C .
v) Qual a probabilidade de ele perder todo seu dinheiro?
vi) Qual a probabilidade de ele dobrar seu dinheiro?
vii) Qual a probabilidade de ele acertar o 13?
viii) Qual o valor esperado desta aposta?
ix) Sabendo que um nmero mpar saiu na roleta, qual a probabilidade de ele ter ganho
algo?
x) Desafio: Voc capaz de encontrar uma combinao que d valor esperado positivo
nessa roleta? Qual?

Soluo:
1 # install . packages (" prob ")
2 library ( prob )
3
4 # Item 1
5 S <- roulette ( makespace = TRUE )
6
7 # Item 2
8 A <- subset (S , num == 13)
9 B <- subset (S , color == " Red " )
10
11 # Item 3
12 numbers <- as . numeric ( as . character ( S [ ,1]) )
13 E <- S [ numbers %% 2 ! = 0 ,]
14
15 # Item 4
16 U <- union (A , B )
17 G <- intersect (B , C )
18 F <- setdiff (C , A )
19 H <- setdiff (S , U )
20
21 # Item 5 , 6 e 7
22 Prob ( H )
23 Prob ( B )
24 Prob ( A )
25
26 # Item 8

8
27 VE <- (90000.00 * 2 * Prob ( B ) ) + (10000.00 * 36 * Prob ( A ) ) - 100000.00
28
29 # Item 9
30 Prob (U , given = E )

1.5 Variveis aleatrias


Muitas vezes estamos interessados em um transformao do nosso espao amostral. Se o nosso
experimento for lanar duas moedas e observar as faces, sabemos que nosso espao amostral ser
S = {(H, H), (H, T ), (T, H), (T, T )}, mas se estivermos interessados no nmero de caras obtidas,
podemos aplicar uma funo X(s) que nos retorno o nmero de caras para cada elemento do
espao amostral S. Ento obteremos um novo espao amostral X = {0, 1, 2}.

Definio 1.5.1. Uma varivel aleatria uma funo do espao amostral S para os nmeros
reais.

A partir da funo de probabilidade original, que tem como domnio eventos em S, podemos
obter uma funo de probabilidade induzida no novo espao amostral X:

PX (X = xi ) = P ({sj S : X(sj ) = xi })
A ideia fundamental por trs das variveis aleatrias criar funes mapeiam resultados de ex-
perimentos em nmeros reais, de forma a facilitar o clculo de probabilidades. Note que a partir
de agora nos referimos a X como sendo a varivel aleatria e x como sendo um valor especfico
da mesma.

Exemplo 1.5.2. (Variveis aleatrias)

i) No experimento de jogar duas moedas, X = nmero de caras obtidas;


ii) No experimento de observar o lucro de uma empresa, X = margem do lucro, ou seja,
lucro/vendas;

As variveis aleatrias podem ser discretas ou contnuas.

Definio 1.5.3. (Varivel aleatria discreta) Uma varivel aleatria discreta se toma um
nmero finito ou enumervel de valores, isto , se existe um subconjunto finito ou enumervel
{x1 , x2 , . . . } R tal que X(s) {x1 , x2 , . . . } para qualquer s S.

Definio 1.5.4. (Varivel aleatria absolutamente contnua) Uma varivel aleatria absolu-
tamente contnua se existe uma funo f : R R com f (x) 0, tal que:
Z x
P (X x) = f (t)dx x R.

1.6 Funes de distribuio


Podemos associar uma funo de distribuio cumulativa a cada varivel aleatria.

Definio 1.6.1. (Funo de distribuio cumulativa) A funo de distribuio cumulativa (cdf)


de uma varivel aleatria X, denotada FX (x), definida por:

FX (x) = PX (X x), x

9
Quando a varivel aleatria X tem uma distribuio dada por FX (x) denotamos X FX (x).
Note que a cdf definida em termos de probabilidades, logo, ela dever respeitar algumas pro-
priedades condizentes com os axiomas de probabilidade.

Teorema 1.6.2. A funo F (x) uma cdf se e somente se as seguintes condies so verdadeiras:

a. limx F (x) = 0 e limx F (x) = 1.


b. F (x) uma funo no decrescente em x.
c. F (x) contnua direita, ou seja, para cada nmero x0 , limxx0 F (x) = F (x0 ).

Demonstrao. Feita em aula.

O fato da cdf ser contnua ou possuir saltos est relacionado ao fato de a varivel aleatria ser
contnua ou discreta.

Definio 1.6.3. Uma varivel aleatria X contnua se FX (x) uma funo contnua de x.
Uma varivel X discreta se Fx (x) possui descontinuidades.

Se utilizarmos a menor sigma lgebra contendo todos os intervalos possveis dos nmeros reais,
ento se duas variveis aleatrias tiverem a mesma cdf, elas tero as mesmas probabilidades para
cada evento.

Definio 1.6.4. Duas variveis aleatrias X e Y so identicamente distribudas se, para cada
conjunto A B, P (X A) = P (Y A).

Teorema 1.6.5. As seguintes afirmaes so equivalentes:

a. As variveis aleatrias X e Y so identicamente distribudas.


b. FX (x) = FY (x) para cada x.

Demonstrao. Feita em aula.

1.7 Funes de densidade e massa


A cdf avalia P (X x), o que faz bastante sentido para variveis aleatrias contnuas, mas se
quisermos avaliar P (X = x) ento temos a funo densidade de probabilidade (pdf) no caso
contnuo, e a funo massa de probabilidade no caso discreto.

Definio 1.7.1. A funo massa de probabilidade (pmf) de uma varivel aleatria discreta
dada por:

fX (x) = P (X = x) x

Definio 1.7.2. A funo densidade de probabilidade (pdf) de uma varivel aleatria discreta
a funo fX (x) que satisfaz:
Z x
FX (x) = fX (t)dt x

Note que de acordo com a definio de pdf, tambm vale que:

d
FX (x) = fX (x)
dx

10
Teorema 1.7.3. Uma funo fX (x) uma pdf ou pmf de uma varivel aleatria X se e somente
se:

a. fX (x) 0 x.
P
b. x fX (x) = 1 (pmf )
R
c. fX (x)dx = 1 (pdf )

Demonstrao. Feita em aula.

Exemplo 1.7.4. (Funes de distribuio)

i) Ver Exemplos 1.5.2, 1.5.4, 1.5.5, 1.5.6, 1.5.9, 1.6.2 e 1.6.4 de Casella, G. e Berger, R.
L. Statistical Inference. 2nd Edition. Duxbury Press, 2001.

2 Transformaes em variveis aleatrias


2.1 Distribuies de funes de variveis aleatrias
Se X for uma varivel aleatria com cdf FX (x), ento qualquer funo g(X) = Y tambm ser.
Assim:

P (Y A) = P (g(X) A),
Note que g(x) mapeia elementos no espao amostral de X para elementos no novo espao amostral
de Y , g(x) : X Y. Associada a g(x) tambm est a sua inversa, g 1 , denotada por:

g 1 (A) = {x X : g(x) A}.


Voltando a noo de probabilidade, podemos ver que:

P (Y A) = P (g(X) A)
= P ({x X : g(x) A})
= P (X g 1 (A))

fcil checar que essas probabilidades satisfazem os axiomas de Kolmogorov.

Se X for uma varivel aleatria discreta, ento Y tambm ser, e a pmf de Y poder ser escrita
como:
X X
fY (y) = P (Y = y) = P (X = x) = fX (x), y Y.
xg1 (y) xg 1 (y)

Note que no caso acima, fY (y) = 0 para y


/ Y.

Exemplo 2.1.1. (Transformao da distribuio binomial)

i) Ver Exemplo 2.1.1 de Casella, G. e Berger, R. L. Statistical Inference. 2nd Edition.


Duxbury Press, 2001.

11
Se X for uma varivel aleatria contnua, ento Y tambm ser, e a cdf de Y poder ser escrita
como:

FY (y) = P (Y y)
= P (g(X) y)
= P ({x X : g(x) y})
Z
= fX (x)dx
xX :g(x)y

Exemplo 2.1.2. (Transformao da distribuio uniforme)

i) Ver Exemplo 2.1.2 de Casella, G. e Berger, R. L. Statistical Inference. 2nd Edition.


Duxbury Press, 2001.

Teorema 2.1.3. Dada uma varivel aleatria X com cdf FX (x), seja Y = g(X), X = {x :
fX (x) > 0} e Y = {y : y = g(x) para algum x X }, ento:

a. Se g uma funo crescente em X , FY (y) = FX (g 1 (y)) para y Y.


b. Se g uma funo descrescente em X , e X uma varivel aleatria contnua, ento FY (y) =
1 FX (g 1 (y)) para y Y.

A partir deste teorema, podemos caracterizar tambm a pdf de Y .

Teorema 2.1.4. Seja X uma v.a. com pdf fX (x) e Y = g(X), onde g uma funo montona.
E X e Y definidas como no teorema acima. Suponha que fX (x) contnua em X e que g 1 (y)
tem uma derivada contnua em Y. Ento a pdf de Y pode ser dada por:


f (g 1 (y)) d g 1 (y) yY
X dy
fY (y) =
0 caso contrrio

Demonstrao. Feita em aula.

Note que este resultado se aplica apenas para funes montonas, porm podemos estend-lo
para partes montonas de funes que no so propriamente montonas.

Teorema 2.1.5. Seja X uma v.a. com pdf fX (x) e Y = g(X), onde g uma funo qualquer.
E X e Y definidas como no teorema anterior. Suponha que existe uma partio A0 , A1 , . . . , Ak
de mathcalX tal que P (X A0 ) = 0 e fX (x) contnua em cada Ai . Ainda, suponha que exista
funes g1 (x), . . . , gk (x), definidas em A1 , . . . , Ak respectivamente, que satisfazem:

i. g(x) = gi (x), para x Ai ,


ii. gi (x) montona em Ai ,
iii. o conjunto Y = {y : y = gi (x)para algum x Ai } o mesmo para cada i = 1, . . . , k, e
iv. gi1 (y) tem uma derivada contnua em Y, para cada i = 1, . . . , k.

12
Ento:


Pk 1 d 1

yY
i=1 fX (gi (y)) dy gi (y)
fY (y) =
0 caso contrrio

Exemplo 2.1.6. (Distribuies gama invertida, no montonas e qui-quadrada)

i) Ver Exemplo 2.1.6 de Casella, G. e Berger, R. L. Statistical Inference. 2nd Edition.


Duxbury Press, 2001.
ii) Ver Exemplo 2.1.7 de Casella, G. e Berger, R. L. Statistical Inference. 2nd Edition.
Duxbury Press, 2001.
iii) Ver Exemplo 2.1.9 de Casella, G. e Berger, R. L. Statistical Inference. 2nd Edition.
Duxbury Press, 2001.

2.2 Valor esperado


Definio 2.2.1. (Valor esperado)
O valor esperado ou mdia de um varivel aleatria g(X), denotado Eg(x), dado por:

(R
g(x)fX (x)dx se X contnua
Eg(X) =
se X discreta,
P P
xX g(x)fX (x) = xX g(x)P (X = x)

desde que a integral ou a soma existam. Se E|g(X)| = dizemos que Eg(X) no existe.

Note que o operador de expectativas um operador linear, e por isso ele guarda as seguintes
propriedades:

Teorema 2.2.2. Seja X uma v.a. e a, b, c constantes. Ento, para quaisquer funes g1 (x) e
g2 (x) que possuem valores esperados, vale que:

a. E(ag1 (x) + bg2 (X) + c) = aEg1 (x) + bEg2 (x) + c.


b. Se g1 (x) 0 para todo x, ento Eg1 (x) 0.
c. Se g1 (x) g2 (x) para todo x, ento Eg1 (X) Eg2 (X).
d. Se a g1 (x) b para todo x, ento a Eg1 (X) b.

Demonstrao. Feita em aula.

Exemplo 2.2.3. (Valor esperado)

i) Ver Exemplos 2.2.2, 2.2.3, 2.2.4, 2.2.6 e 2.2.7 de Casella, G. e Berger, R. L. Statistical
Inference. 2nd Edition. Duxbury Press, 2001.

13
2.3 Varincia e outros momentos
Definio 2.3.1. (Momentos)
O n-simo momento da varivel aleatria X, 0n dado por:

0n = EX n ,
enquanto que o n-simo momento central de X :

n = E(X )n ,
onde = 01 = EX.

Depois da mdia, o momento mais importante de uma distribuio o segundo momento central,
conhecido como varincia.

Definio 2.3.2. (Varincia)


A varincia de uma varivel aleatria X o segundo momento central, V arX = E(X EX)2 .
A raz quadrada positiva da varincia conhecida como o desvio-padro.

Teorema 2.3.3. Se X uma varivel aleatria com varincia finita, ento para quaisquer
constantes a e b,

V ar(aX + b) = a2 V arX

Demonstrao. Feita em aula.

Exemplo 2.3.4. (Varincia)

i) Ver Exemplos 2.3.3 e 2.3.5 de Casella, G. e Berger, R. L. Statistical Inference. 2nd


Edition. Duxbury Press, 2001.

2.4 Funo geradora de momentos


Definio 2.4.1. (Funo geradora de momentos)
Seja X uma varivel aleatria com cdf FX . A funo geradora de momentos (mgf) de X, denotada
MX (t), dada por:

MX (t) = EetX ,
desde que este valor esperado exista para t em alguma vizinhana de 0.

Note que pela definio de valor esperado, temos que:

Z
MX (t) = etx fX (x)dx se X contnua,

X
MX (t) = etx P (X = x) se X discreta
x

Para entender como esta funo gera momentos, observe o seguinte resultado:

14
Teorema 2.4.2. Se X tem mgf MX (t), ento:
t=0
n (n) dn
EX = MX (0) = n MX (t) .
dt
Ou seja, o n-simo momento igual a n-sima derivada de MX (t) avaliada em t = 0.
Demonstrao. Feita em aula.

3 Distribuies de probabilidade
A referncia principal para esta parte o captulo 3, sees 3.1, 3.2, 3.3 e teorema 3.6.1 de
Casella, G. e Berger, R. L. Statistical Inference. 2nd Edition. Duxbury Press, 2001.

3.1 Distribuies discretas


Uma distribuio X discreta se o conjunto X for enumervel. Vimos as seguintes distribuies
discretas, alm de seus valores esperados, varincia, e em alguns casos a funo geradora de
momentos:

i) Uniforme discreta
ii) Hipergeomtrica
iii) Binomial e Bernoulli
iv) Poisson
v) Negativa binomial
vi) Geomtrica

Vimos tambm algumas relaes entre variveis aleatrias discretas. Uma delas foi o uso da
Poisson como uma aproximao da binomial. A outra foi o fato de que a distribuio binomial
negativa inclui a distribuio de Poisson como um caso limite.

3.2 Distribuies contnuas


Uma distribuio X contnua se o conjunto X for infinito no-enumervel. Vimos as seguintes
distribuies contnuas, alm de seus valores esperados, varincia, e em alguns casos a funo
geradora de momentos:

i) Uniforme
ii) Gama
iii) Qui-quadrada
iv) Exponencial
v) Weibull
vi) Normal
vii) Lognormal

Tambm vimos algumas relaes entre distribuies de probabilidade contnuas, como por exem-
plo o fato das distribuies qui-quadrada e exponencial serem casos especiais da distribuio
gama.
Fechamos esta parte com a Desigualdade de Chebychev e alguns resultados associados a ela.

15
4 Variveis aleatrias mltiplas
4.1 Distribuies conjuntas e marginais
Uma varivel aleatria uma funo do espao amostral S para os nmeros reais. Um vetor
aleatrio consiste em vrias variveis aleatrias.

Definio 4.1.1. (Vetor aleatrio)


Um vetor aleatrio n-dimensional uma funo do espao amostral S para o Rn .

Um vetor aleatrio bidimensional denotado (X, Y ), e pode ser discreto ou contnuo.

Definio 4.1.2. (Vetor aleatrio bidimensional discreto)


Seja (X, Y ) um vetor aleatrio bidimensional discreto. Ento a funo fX,Y (x, y), do R2 no
R, definida por fX,Y (x, y) = P (X = x, Y = y) chamada de funo massa de probabilidade
conjunta ou pmf conjunta de (X, Y ).

Note que esta funo define completamente a distribuio de probabilidade do vetor aleatrio
(X, Y ). Dessa forma, podemos us-la para calcular a probabilidade de qualquer evento definido
em termos de (X, Y ), ou seja, para qualquer conjunto A R2 , temos:
X
P ((X, Y ) A) = f (x, y)
(x,y)A

Seja g(x, y) uma funo definida em todos os valores (x, y) do vetor aleatrio discreto (X, Y ),
ento g(X, Y ) tambm ser um vetor aleatrio discreto, e seu valor esperado ser dado por:
X
Eg(X, Y ) = g(x, y)f (x, y)
(x,y)R2

Se g1 (x, y) e g2 (x, y) so funes e a, b, c constantes, ento:

E(ag1 (X, Y ) + bg2 (X, Y ) + c) = aEg1 (X, Y ) + bEg2 (X, Y ) + c


O vetor bivariado discreto (X, Y ) com pdf conjunta f (x, y) deve ter certas propriedades:

i) Para cada (x, y), f (x, y) 0.


ii) 2
P
(x,y)R2 f (x, y) = P ((X, Y ) R ) = 1.

Teorema 4.1.3. (Funo massa de probabilidade marginal)


Seja (X, Y ) um vetor aleatrio discreto com pmf conjunta fX,Y (x, y). Ento as pmfs marginais
de X e Y , fX (x) = P (X = x) e fY (y) = P (Y = y), so dadas por:

X
fX (x) = fX,Y (x, y)
yR
X
fY (y) = fX,Y (x, y).
xR

Demonstrao. Feita em aula.

Note que as distribuies marginais de X e Y no determinam univocamente a funo de dis-


tribuio conjunta de (X, Y ), pois podem haver vrias distribuies conjuntas com as mesmas
distribuies marginais.

16
Definio 4.1.4. (Vetor aleatrio bidimensional contnuo)
Uma funo f (x, y) do R2 para o R chamada de funo densidade de probabilidade conjunta
do vetor aleatrio bidimensional contnuo (X, Y ) se, para cada A R2 ,
Z Z
P ((X, Y ) A) = f (x, y)dxdy
A

Se g(x, y) for uma funo real, ento o valor esperado de g(X, Y ) definido como:
Z Z
Eg(X, Y ) = g(x, y)f (x, y)dxdy

As pdfs marginais de X e Y so dadas por:

Z
fX (x) = f (x, y)dy, < x <
Z

fY (y) = f (x, y)dx, < y <

Note que para f (x, y) ser uma pdf conjunta de um vetor aleatrio bidimensional contnuo (X, Y ),
ela deve satisfazer:

a. f (x, y) 0 para todo (x, y) R2 ;


R R
b. f (x, y)dxdy = 1.

Ao invs das pdf conjunta, podemos caracterizar as probabilidades atravs da cdf conjuntas, que
ser dada por:

F (x, y) = P (X x, Y y) (x, y) R2
Para o caso contnuo, essa funo ser dada por:
Z x Z y
F (x, y) = f (s, t)dtds,

2 F (x,y)
de modo que xy = f (x, y).

Exemplo 4.1.5. (Distribuies conjuntas e marginais)

i) Ver Exemplos 4.1.2, 4.1.4, 4.1.5, 4.1.7, 4.1.9, 4.1.11 e 4.1.12 de Casella, G. e Berger,
R. L. Statistical Inference. 2nd Edition. Duxbury Press, 2001.

4.2 Distribuio condicional e independncia


Definio 4.2.1. (Pmf e pdf condicional)
Seja (X, Y ) um vetor aleatrio bivariado discreto ou contnuo com pmf ou pdf conjunta f (x, y)
e marginais fX (x) e fY (y). Para qualquer x tal que P (X = x) = fX (x) > 0, a pmf ou pdf
condicional de Y dado X = x a funo de y denotada por f (y|x) e definida por:

f (x, y)
f (y|x) = P (Y = y|X = x) = .
fX (x)

17
A pmf ou pdf condicional de X definida de maneira anloga. Note que f (y|x) 0 para todo
y pois f (x, y) 0 e fX (x) > 0. Tambm note que, no caso discreto:
P
y f (x, y) fX (x)
X
f (y|x) = = =1
y
fX (x) fX (x)

No caso contnuo essa igualdade tambm vlida, basta substituir a soma por uma integral.
Se g(Y ) for uma funo de Y , ento o valor esperado condicional de g(Y ) dado X = x dado
por:

X
E(g(Y )|x) = g(y)f (y|x)
y
Z
E(g(Y )|x) = g(y)f (y|x)dy

Esses valores esperados herdam todas as propriedades do operador de expectativas. Note que
E(g(Y )|X) uma varivel aleatria que depende dos valores de X, enquanto que E(g(Y ))
apenas uma constante.

Definio 4.2.2. (Variveis aleatrias independentes)


Seja (X, Y ) um vetor aleatrio bivariado com pdf ou pmf conjunta f (x, y) e marginais fX (x) e
fY (y). Ento X e Y so ditas variveis aleatrias independentes se, para cada x R e y R,

f (x, y) = fX (x)fY (y).

Essa definio de independncia pode ser aplicada para qualquer funo das variveis aleatrias,
inclusive para o valor esperado. Note que se X e Y so independentes, ento:

fX (x)fY (y)
f (y|x) = = fY (y)
fX (x)
Assim, o conhecimento de X no nos d nenhuma informao adicional sobre Y . Uma maneira
rpida de verificar a independncia de duas variveis aleatrias atravs do seguinte teorema:

Teorema 4.2.3. Seja (X, Y ) um vetor aleatrio bivariado com pdf ou pmf conjunta f (x, y).
Ento X e Y so variveis aleatrias independentes se e somente se existe funes g(x) e h(x)
tais que, para cada x R e y R,

f (x, y) = g(x)h(y)

Teorema 4.2.4. Seja X e Y variveis aleatrias independentes com funes geradoras de mo-
mento MX (t) e MY (t). Ento a funo geradora de momento da varivel aleatria Z = X + Y
dada por:

MZ (t) = MX (t)MY (t)

Demonstrao. MZ (t) = E et(X+Y) = E(etX etY ) = (E etX )(E etY ) = MX (t) MY (t)

Teorema 4.2.5. Sejam X N (, 2 ) e Y N (, 2 ) variveis aletrias independentes e


normalmente distribudas. Ento a varivel aleatria Z = X + Y tem uma distribuio N ( +
, 2 + 2 ).

18
Exemplo 4.2.6. (Distribuio condicional e independncia)

i) Ver Exemplos 4.2.2, 4.2.4, 4.2.6, 4.2.8, 4.2.9, 4.2.11 e 4.2.13 de Casella, G. e Berger,
R. L. Statistical Inference. 2nd Edition. Duxbury Press, 2001.

4.3 Mistura de distribuies


Em geral uma varivel aleatria tem apenas uma distribuio, porm em alguns casos temos
variveis aleatrias compostas por duas distribuies diferentes. Ao invs de elaborar uma funo
de distribuio complicada para modelar estes casos, podemos pensar o experimento em termos
de hierarquia, o que nos leva a uma mistura de distribuies.

Definio 4.3.1. (Mistura de distribuies)


Uma varivel aleatria X tem uma distribuio mista se X depende de um valor que tambm
tem uma distribuio de probabilidade.

Um importante resultado associado a mistura de distribuies a lei das expectativas totais.

Teorema 4.3.2. (Lei das expectativas totais)


Se X e Y so quaisquer duas variveis aleatrias cujos valores esperados existem, ento:

EX = E(E(X|Y ))

Demonstrao. Feita em aula.

Teorema 4.3.3. (Identidade da varincia condicional)


Para quaisquer duas variveis aleatrias X e Y que possuem valores esperados bem definidos:

V arX = E(V ar(X|Y )) + V ar(E(X|Y ))

Demonstrao. Feita em aula.

Exemplo 4.3.4. (Mistura de distribuies)

i) Ver Exemplos 4.4.1, 4.4.2, 4.4.5, 4.4.6, 4.4.8, 4.2.11 e 4.2.13 de Casella, G. e Berger,
R. L. Statistical Inference. 2nd Edition. Duxbury Press, 2001.

4.4 Covarincia e correlao


Se duas variveis aleatrias guardam uma relao de dependncia entre elas, seria interessante
calcular estatsticas que nos mostram a magnitude dessa dependncia. Para isso, temos as noes
de covarincia e correlao.

Definio 4.4.1. (Covarincia)


A covarincia de X e Y um nmero definido por:

Cov(X, Y ) = E((X X )(Y Y )) = EXY X Y

19
Definio 4.4.2. (Correlao)
A correlao de X e Y (ou coeficiente de correlao) um nmero definido por:

Cov(X, Y )
XY = .
X Y
Note que estamos denotando EX = X , EY = Y , V arX = X 2 e V arY = 2 . Os valores da
Y
covarincia e correlao estaro bem definidos desde que 0 < X
2 < e 0 < 2 < . As duas
Y
medidas variam conjuntamente, porm a correlao nos d um valor padronizado entre 1 e 1,
podendo ser mais amplamente utilizada para se comparar relaes entre conjuntos diferentes de
variveis aleatrias.

Teorema 4.4.3. Se X e Y so variveis aleatrias independentes, ento Cov(X, Y ) = 0 e


XY = 0.

Demonstrao. Feita em aula.

Note o a volta deste teorema no necessariamente vlida, ou seja, Cov(X, Y ) = 0 no implica


independncia.

Teorema 4.4.4. Se X e Y so quaisquer duas variveis aleatrias e a e b so constantes, ento:

V ar(aX + bY ) = a2 V arX + b2 V arY + 2abCov(X, Y ).


Se X e Y so variveis aleatrias independentes, ento:

V ar(aX + bY ) = a2 V arX + b2 V arY.

Demonstrao. Feita em aula.

Teorema 4.4.5. Para quaisquer variveis aleatrias X e Y ,

a. 1 XY 1.
b. |XY | = 1 se e somente se existe nmeros a 6= 0 e b tais que P (Y = aX + b) = 1. Se XY = 1,
ento a > 0, e se XY = 1, ento a < 0.

5 Propriedades de amostras aleatrias


5.1 Amostras aleatrias
Definio 5.1.1. (Amostra aleatria)
As variveis aleatrias X1 , . . . , Xn so chamadas de amostra aleatria de tamanho n de uma
populao dada por f (x) se X1 , . . . , Xn so variveis aleatrias mutuamente independentes e a
pmf ou pdf marginal de cada Xi a mesma funo f (x). Dizemos ento que X1 , . . . , Xn so
variveis aleatrias independente e identicamente distribudas (iid) com pmf ou pdf f (x).

Se X1 , . . . , Xn so iid, ento a pdf ou pmf conjunta ser dada por:


n
Y
f (x1 , . . . , xn ) = f (x1 )f (x2 ) . . . f (xn ) = f (xi ).
i=1

Se a pdf ou pmf populacional so paramtricas utilizamos a notao f (x|), e ento podemos


utilizar diferentes valores de para observar como a amostra aleatria se encaixa em diferentes
distribuies populacionais.

20
Um meio de se construir uma amostra aleatria a partir de uma populao finita escolher valores
com probabilidades iguais (1/N ) utilizando reposio. Assim, podemos garantir que a nossa
amostra aleatria, visto que o processo de amostragem independente. Se fizermos o mesmo
processo mas sem reposio, ento as variveis aleatrias X1 , . . . , Xn no sero mutuamente
independentes, porm para N grande essa amostra se aproximar de uma amostra aleatria.

5.2 Estatsticas
Definio 5.2.1. (Estatstica)
Seja X1 , . . . , Xn uma amostra aleatria de tamanho n de uma populao, e T (x1 , . . . , xn ) uma
funo real cujo resultado um nmero ou um vetor e o domnio inclui o espao amostral
de (X1 , . . . , Xn ). Ento a varivel ou vetor aleatrio Y = T (X1 , . . . , Xn ) chamada de uma
estatstica. A distribuio de probabilidade da estatstica Y chamada de distribuio amostral
de Y .
Note que uma estatstica obtida a partir de uma amostra aleatria e no pode ser uma funo
dos parmetros de uma distribuio. Duas estatsticas mais comumente utilizadas a mdia
amostral e a varincia amostral.
Definio 5.2.2. A mdia amostral a mdia aritmtica dos valores de uma amostra aleatria,
e denotada por:
n
= X1 + + Xn = 1
X
X Xi .
n n
i=1
Definio 5.2.3. A varincia amostral uma estatstica definida por:
n
1 X 2.
S2 = (Xi X)
n1
i=1

O desvio-padro amostral definido por S = S 2 .
= (x1 + + xn )/n. Ento:
Teorema 5.2.4. Seja x1 , . . . , xn quaisquer nmeros e x
a. mina i=1 (xi a)2 = ni=1 (xi x
Pn
)2 ,
P

)2 = ni=1 x2i n
b. (n 1)s2 = ni=1 (xi x x2 .
P P

Demonstrao. Feita em aula.


Teorema 5.2.5. Seja X1 , . . . , Xn uma amostra aleatria de uma populao com mdia e
varincia 2 < . Ento:
a. E X = ,
b. V arX = 2 ,
n
c. ES 2 = 2 .
Demonstrao. Feita em aula.
Os resultados dos itens a e c so exemplos de estatsticas no viesadas, ou seja, a estatstica X

um estimador no viesado de , e a estatstica S um estimador no viesado de . Note o
2 2

uso de n 1 na varincia amostral.


Teorema 5.2.6. Seja X1 , . . . , Xn uma amostra aleatria de uma populao com mgf MX (t).
Ento a mgf da mdia amostral :

MX (t) = [MX (t/n)]n .

21
5.3 Amostragem da distribuio normal
Teorema =
X1 , . . . , XnPuma amostra aleatria de uma distribuio N (, 2 ), X
Pn 5.3.1. Seja
2 n 2
(1/n) i=1 Xi e S = [1/(n 1)] i=1 (Xi X) . Ento:

e S 2 so variveis aleatrias independentes,


a. X
tem uma distribuio N (, 2 /n),
b. X
c. (n 1)S 2 / 2 tem uma distribuio qui-quadrada com n 1 graus de liberdade.

X
Se X1 , . . . , Xn for uma amostra aleatria de uma N (, 2 ), sabemos que a quantia / distri-
n
buda como N (0, 1). Porm, na maioria das vezes, no conhecida, de modo que gostaramos

X
de saber a distribuio de S/ para fazer inferncia sobre . W. S. Gosset (Student) observou
n
que:

X )/(/n)
(X
= p ,
S/ n S 2 / 2
de modo que o numerador uma q varivel aleatria com distribuio N (0, 1), e o denominador
corresponde a uma distribuio Xn1
2 /(n 1), independente do numerador.

Definio 5.3.2. Seja X1 , . . . , Xn uma amostra aleatria com distribuio N (, 2 ). A quantia


)/(S/n) tem uma distribuio t de Student com n 1 graus de liberdade. Em geral,
(X
uma varivel aleatria T tp tem pdf dada por:

( p+1
2 ) 1 1
fT (t) = p , < t <
( 2 ) (p) (1 + t /p)(p+1/2)
1/2 2

Se Tp uma varivel aleatria com distribuio tp , ento:

ETp = 0, se p > 1,
p
V arTp = , se p > 2.
p2
De maneira anloga, a distribuio F aparece ao retirarmos razes de varincias.

Definio 5.3.3. Seja X1 , . . . , Xn uma amostra aleatria de uma populao N (x , x2 ), e seja


Y1 , . . . , Ym uma amostra aleatria de um populao independente N (Y , Y2 ). A varivel aleatria
F = (SX 2 / 2 )/(S 2 / 2 ) tem uma distribuio F com n 1 e m 1 graus de liberdade. Em
X Y Y
geral, se F X (p, q), ento:

( p+q
 p/2
2 ) p x(p/2)1
fF (x) = , < x <
( 2 )( 2q )
p
q [1 + (p/q)x](p+q)/2

Se X tq , ento X 2 F1,q . Note tambm que se F Fn1,m1 , ento:


m1
EFn1,m1 =
m3

22
5.4 Conceitos de convergncia
Um dos artifcios mais utilizados em inferncia permitir que o tamanho da nossa amostra
aleatria se aproxime do infinito e ento investigar o comportamento de estatsticas que esta-
mos interessados. Um dos conceitos mais fracos de convergncia a ideia de convergncia em
probabilidade.

Definio 5.4.1. (Convergncia em probabilidade)


Uma sequncia de variveis aleatrias X1 , X2 , . . . , converge em probabilidade para a varivel
aleatria X se, para cada  > 0,

lim P (|Xn X| ) = 0,
n

ou equivalentemente,

lim P (|Xn X| < ) = 1.


n

Frequentemente estamos interessados em situaes em que a varivel aleatria limite uma


constante e a sequncia de variveis aleatrias so mdias amostrais. Nesse caso, podemos
utilizar a lei fraca dos grandes nmeros.

Teorema 5.4.2. (Lei fraca dos grandes nmeros)


SejamP n =
X1 , X2 , . . . variveis aleatrias iid com EXi = e V arXi = 2 < . Defina X
n
(1/n) i=1 Xi . Ento, para cada  > 0,

n | < ) = 1,
lim P (|X
n
n converge em probabilidade para .
ou seja, X

Demonstrao. Feita em aula.

Assim, a lei fraca dos grandes nmeros nos diz que sob algumas condies, a mdia amostral se
aproxima da mdia populacional quando n . Essa propriedade chamada de consistncia
do estimador da mdia.

Teorema 5.4.3. Suponha que X1 , X2 , . . . converge em probabilidade para uma varivel aleatria
X e que h uma funo contnua. Ento h(X1 ), h(X2 ), . . . converge em probabilidade para h(X).

Definio 5.4.4. (Convergncia quase certa)


Uma sequncia de variveis aleatrias X1 , X2 , . . . , converge quase certamente para uma varivel
aleatria X se, para cada  > 0,

P ( lim |Xn X| < ) = 1.


n

Teorema 5.4.5. (Lei forte dos grandes nmeros)


SejamP n =
X1 , X2 , . . . variveis aleatrias iid com EXi = e V arXi = 2 < . Defina X
n
(1/n) i=1 Xi . Ento, para cada  > 0,

n | < ) = 1,
P ( lim |X
n
n converge quase certamente para .
ou seja, X

23
Definio 5.4.6. (Convergncia em distribuio)
Uma sequncia de variveis aleatrias X1 , X2 , . . . converge em distribuio para uma varivel
aleatria X se:

lim FXn (x) = FX (x)


n

para todos pontos x onde FX (x) contnua.

Teorema 5.4.7. Se uma sequncia de variveis aleatrias X1 , X2 , . . . converge em probabilidade


para uma varivel aleatria X, a sequncia tambm converge em distribuio para a varivel
aleatria X.

Uma estatstica cujo comportamento de amostras grandes importante a mdia amostral. Ao


investigar a sua distribuio limite chegamos a duas verses do chamado Teorema do Limite
Central.

Teorema 5.4.8. (Teorema do Limite Central)


Seja X1 , X2 , . . . uma sequncia de variveis aleatrias iid com mgfs existentes na vizinhana de 0.
Seja EXi = e V arXi = 2 > 0 (finitas pela existncia da mgf ). Defina X n = (1/n) Pn Xi .
i=1
Seja Gn (x) a cdf de n(X n )/. Ento, para qualquer x, tal que < x < ,
Z x
1 2
lim Gn (x) = ey /2 dy,
n 2

ou seja, n(Xn )/ tem uma distribuio limite igual a normal padronizada.

Teorema 5.4.9. (Forma Forte do Teorema do Limite Central)


Seja X1 , X2 , . . . umaPsequncia de variveis aleatrias iid com EXi = e 0 < V arXi = 2 < .
Defina X n = (1/n) n Xi . Seja Gn (x) a cdf de n(X n )/. Ento, para qualquer x, tal
i=1
que < x < ,
Z x
1 2
lim Gn (x) = ey /2 dy,
n 2

ou seja, n(Xn )/ tem uma distribuio limite igual a normal padronizada.

Exemplo 5.4.10. (Amostra Aleatrias)

i) Ver Exemplos 5.1.2, 5.1.3, 5.1.8, 5.3.5, 5.3.7, 5.5.3 e 5.5.16 de Casella, G. e Berger,
R. L. Statistical Inference. 2nd Edition. Duxbury Press, 2001.

6 Exemplos no R

1 x = rnorm (100)
2
3 # Central measures
4 mean ( x )
5 median ( x )
6 mean (x , trim = 0.05)
7 summary ( x )
8
9 # Spread measures

24
10 range ( x )
11 sd ( x )
12 var ( x )
13 mad ( x )
14 IQR ( x )
15
16 # Other moments
17 # install . packages (" e1071 ")
18 library ( e1071 )
19 skewness ( x )
20 kurtosis ( x )
21
22 # Graphs of distribution
23 plot ( x )
24 boxplot ( x )
25 hist ( x )
26
27 # Multivariate data
28 y = 3 * x + 4 + rnorm (100)
29 plot (x , y )
30 cov (x , y )
31 cor (x , y )
32 reg <- lm ( y ~ x )
33 summary ( reg )
34
35 # Discrete random variables
36 dices <- sample (6 , size = 10 , replace = TRUE ) # uniform - tossing 10
dices
37 dices
38 dbinom (2 , size = 4 , prob = 1 / 2) # pdf binomial
39 pbinom (2 , size = 4 , prob = 1 / 2) # cdf binomial
40 dhyper (3 , 100 , 200 , 10) # pdf hypergeometric - type help ( dhyper ) for help
41 phyper (3 , 100 , 200 , 10) # cdf hypergeometric
42 dpois (4 , 5 / 3)
43 ppois (4 , 5 / 3)
44 dnbinom (2 , 5 , 1 / 2) # prob de 2 fracassos ate obter 5 sucessos
45 pnbinom (2 , 5 , 1 / 2)
46 dgeom (2 , 1 / 2) # prob de obter 2 fracassos ate que o primeiro sucesso
ocorra
47 pgeom (2 , 1 / 2)
48
49 # Continuous random variables
50 help ( dunif )
51 help ( dgamma )
52 help ( dchisq )
53 help ( dexp )
54 help ( dweibull )
55 help ( dnorm )
56 help ( dlnorm )

25

Você também pode gostar