Escolar Documentos
Profissional Documentos
Cultura Documentos
Curso: Engenharia
Disciplina: Probabilidade e Estatística III
Professor: Marcelo Rubens
Eventos exaustivos - Eventos são (coletivamente) exaustivos quando a união desses eventos
eqüivale à população ou espaço amostral.
Nesta definição devemos observar que P(A) é uma função de valor real com as seguintes
propriedades:
• 0 ≤ P(A) ≤ 1 para todo A∈Ω;
1
• Se A, B, C, ... constituem uma coleção exaustiva de eventos, ou seja, Ω={A, B, C, ...}
então: P(A ou B ou C ou ...)=1;
• Se A, B, C, ... são eventos mutuamente exclusivos, então: P(A ou B
ou C ou ...)=P(A)+P(B)+P(C)+...;
• Se A, B, C, ... são eventos mutuamente exclusivos e exaustivos, então: P(A ou B
ou C ou ...)=P(A)+P(B)+P(C)+...=1
Seja Ω={a1, a2, ..., an}, onde ai, i=1, 2, ..., n são pontos amostrais. Ω é um espaço
equiprovável se P(a1)=P(a2)=...=P(an)=p, ou seja, se todos os pontos amostrais de Ω tiverem
mesma probabilidade. Como a soma das probabilidades deve ser um, então:
P(1 ou 2 ou 3 ou 4 ou 5 ou 6)=P(1)+P(2)+...+P(6)=1/6+1/6+1/6+1/6+1/6+1/6=1
nA
P(A) = lim
n →∞ n
2
1.4 - DEFINIÇÃO BAYESIANA DE PROBABILIDADE
3
1.6 - VARIÁVEIS ALEATÓRIAS
Uma variável cujo valor seja determinado pelo resultado de um experimento aleatório chama-
se variável aleatória (va). As variáveis aleatórias são geralmente indicadas pelas letras
maiúsculas X, Y, Z, etc..., e os valores assumidos por elas são indicados por letras minúsculas
x, y, z, etc.
Uma variável aleatória pode ser discreta ou contínua. Uma va discreta assume um
conjunto de valores enumeráveis podendo ser finito ou infinito. Por exemplo, no experimento
de lançamento de dois dados, cada um numerado de 1 a 6, se definirmos a variável aleatória X
como a soma dos números que aparecem no lado superior dos dados, então X poderá assumir
um dos seguintes valores: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, ou 12. Portanto X é uma variável
aleatória discreta.
Uma va continua, por outro lado, é a que pode assumir qualquer valor em algum
intervalo de valores. Assim, a altura de uma pessoa é uma variável aleatória contínua, já que na
faixa de, digamos, 1,60m a 2,00m ela pode assumir qualquer valor dependendo da precisão da
medida, p.ex.: 1,876m.
Definindo matematicamente: uma V.A. é uma função que atribui um valor real a cada
ponto pertencente ao espaço amostral (ou estados da natureza). Por exemplo:
Ω → ℜ
A função X : é V.A. se o evento (X ≤ x) tiver probabilidade definida ∀x ∈ ℜ .
ω → x
Dado o espaço amostral Ω , a função
Ω → ℜ n
X = (X 1 , X 2 ,..., X n ) :
ω → x = (x 1 ,..., x n )
é uma V. A. n-dimensional se o evento (Χ 1 ≤ x 1 ;...; Χ n ≤ x n ) tiver probabilidade definida
∀x ∈ ℜ n .
Mostra-se que cada Xi ∈ X é uma V.A. unidimensional e qualquer subconjunto de m
< n variáveis ∈ X é uma V.A. m-dimensional (Meyer, pg.110).
Define-se função de distribuição de uma V.A. n-dimensional X à função:
FX (x ) = Ρ(Χ 1 ≤ x 1 ;...; Χ n ≤ x n ) , que pela definição de V.A. está definida ∀x ∈ ℜ n .
Dentre as propriedades de FX (x ) destaca-se (em geral decorrentes da definição de
probabilidade):
1. FX (x ) ∈[0 ,1]
2. FX (+ ∞; + ∞; ...; + ∞) = 1
3. FX (x ) é não decrescente
4
1.6.1 - FUNÇÃO DE PROBABILIDADE (va discreta)
Assuma que o conjunto de valores que define o espaço amostral de uma variável aleatória
discreta X, seja Rx={x1, x2, ...}. Então a função de probabilidade de X será a função Px(x) que
satisfaz as condições:
1) Px(x)=P(X=x), se x ∈ Rx
Px(x)=0 se x ∉ Rx;
2) 0 ≤ Px(x) ≤ 1;
3) ∑ Px ( x) = 1
x∈R x
4) FX (a ) = ∑ Px (x )
x ≤a
Suponha que o experimento que define a va discreta X ocorra em conjunto com o experimento
que define a va discreta Y cujo espaço amostral seja Ry={y1, y2, ...}, de maneira análoga
definimos a função de probabilidade conjunta Pxy(X=x e Y=y):
1) Pxy(x,y)=P(X=x e Y=y), se x ∈ Rx e y ∈ Ry
Pxy(x,y)=0 se x ∉ Rx ou y ∉ Ry;
2) 0 ≤ Pxy(x,y) ≤ 1;
3) ∑ ∑ Pxy ( x, y) = 1
x∈R x y∈R y
Px ( x ) = ∑ Pxy ( x, y) e Py ( y) = ∑ Pxy ( x, y)
y∈R y x∈R x
5
TABELA 1
Pxy(x,y) X
-2 0 2 3 Py(y)
Y 3 0,27 0,08 0,16 0,00 0,51
6 0,00 0,04 0,10 0,35 0,49
Px(x) 0,27 0,12 0,26 0,35 1
Pxy ( x , y)
Px|y ( x | y) = P(X = x | Y = y) ≡
Py ( y)
Pxy ( x , y)
Py|x ( y | x ) = P(Y = y | X = x ) ≡
Px ( x )
Exemplos:
Px| y (2 | 3) = 0 ,16
0 , 51 = 0,3137 e Py|x (6 | 2) = 0 ,10
0 , 26 = 0,3846
X Px|y(x|Y=3)
Y Py|x(y|X=2)
-2 0,5294
3 0,6154
0 0,1569
2 0,3137 6 0,3846
soma 1
3 0,0000
soma 1
∑ Px|y (x | Y = y) = 1 e ∑ Py|x ( y | X = x ) = 1
x∈R x y∈R y
1) Px1 x2 ... xn(x1, x2, ..., xn) = P(X1=x1 e X2=x2 e .... e Xn=xn) se x ∈ R x
Px1 x2 ... xn(x1, x2, ..., xn) = 0 caso contrário
6
2) 0 ≤ Px1 x2 ... xn(x1, x2, ..., xn) ≤ 1;
3) ∑ ∑ ∑ Px x ...x
1 2 n
( x 1 , x 2 ,..., x n ) = 1
x1∈R x1 x 2∈R x 2 x n ∈R x n
4) FX (a 1 , a 2 ,..., a n ) = ∑ ∑ ∑ Px x ...x
1 2 n
( x 1 , x 2 ,..., x n )
x1 ≤a1 x 2 ≤a 2 x n ≤a n
2) f(x) ≥ 0;
∞
3) ∫ f (x)dx = 1.
−∞
a
4) FX (a ) ∫ f ( x )dx
−∞
5) P(a ≤ x ≤ b) = FX (b) − FX (a )
d
Obs.: f ( x ) = FX ( x )
dx
2) f(x,y) ≥ 0;
7
∞ ∞
3) ∫ ∫ f ( x, y)dxdy = 1
−∞ −∞
a b
4) FXY (a , b) = ∫ ∫ f (x, y)dxdy
−∞ −∞
∞ ∞
f (x ) = ∫ f ( x, y)dy e f ( y) = ∫ f ( x, y)dx
−∞ −∞
f ( x , y) f ( x , y)
f ( x | y) ≡ e f (y | x) ≡
f ( y) f (x )
1. f X (x ) ≥ 0
+∞ +∞ +∞
2. ∫ ∫ ... ∫ f X (x )dx 1dx 2 ...dx n = 1
−∞ −∞ −∞
x1 x 2 xn
3. FX (x ) = ∫ ∫ ... ∫ f X (µ1 , µ 2 ,...µ n )dµ1dµ 2 ...dµ n
−∞ −∞ −∞
∂n
Obs.: f X (x ) = FX (x )
∂x 1∂x 2 ...∂x n
8
1.7 - CARACTERÍSTICAS DAS VARIÁVEIS ALEATÓRIAS
TABELA 2
Pxy(x,y) X
1 2 3 Py(y)
Y 1 1/6 1/6 1/6 1/2
2 1/6 1/6 1/6 1/2
Px(x) 1/3 1/3 1/3
É uma medida que fornece a tendência central dos valores de uma variável aleatória (caso
univariado), definida como:
∞
E (X) = ∫ xf (x)dx - va contínua
−∞
Exemplos:
Com os dados da tabela 1 temos: E(X)=(-2)(0,27)+(0)(0,12)+(2)(0,26)+(3)(0,35)=1,03
Com os dados da tabela 2 temos: E(X)=(1)(0,33...)+(2)(0,33...)+(3)(0,33...)=2
9
ℜn → ℜ
Generalizando a definição para o caso multivariado aplicado à função g ( X) :
x → g ( x )
E[g (X)] = ∑ ∑ ∑ g ( x )PX ( x ) para o caso discreto
x1∈R x1 x 2∈R x 2 x n ∈R x n
+∞ +∞ +∞
E[g (X)] = ∫ ∫ ... ∫ g( x )f X (x )dx1dx 2 ...dx n para o caso contínuo
−∞ −∞ −∞
3) Se a1, a2, ..., an forem constantes numéricas e X1, X2, ..., Xn variáveis aleatórias:
E(a1X1+a2X2+...+anXn)=a1E(X1)+a2E(X2)+...+anE(Xn);
4) Se X1, X2, ..., Xn variáveis aleatórias independentes ⇒ E(X1X2 ... Xn)= E(X1)E(X2)...E(Xn)
OBS.: A volta não é necessariamente verdadeira. Há exemplos onde
E(X1X2)=E(X1)E(X2) ⇒ / X1, X2 VAs indep
Seja X uma variável aleatória e E(X)=µ. A variância é uma medida que indica a dispersão dos
valores da va X em torno da média, definida como:
VAR(X)=σx2=E[(X-µ)2]
1) VAR(X)=E(X2)-E(X)2≥0;
4) Se a1, a2, ..., an forem constantes numéricas e X1, X2, ..., Xn variáveis aleatórias
independentes: VAR(a1X1+a2X2+...+anXn)=a12VAR(X1)+a22VAR(X2)+...+an2VAR(Xn)
10
1.7.4 - COVARIÂNCIA
COV(X,Y)=E[(X-µx)(Y-µy)]
Quando seu sinal e positivo podemos afirmar que, na média, existe uma tendência para
que quando os valores de X estiverem acima da sua média (µx) - valores grandes -, Y também
estará acima da sua média (µy) e quando valores de X estiverem abaixo da sua média - valores
pequenos -, Y também estará abaixo da sua média. Quando seu sinal é negativo, a conclusão
será invertida, ou seja, valores grandes de X acontecem quando Y tende a ser pequeno e vice
versa. Quando seu valor é nulo, se X é grande ou pequeno, nada podemos concluir com relação
a Y.
1) COV(X,Y)=COV(Y,X)=E(XY)-µxµy;
6) VAR(X+Y)=VAR(X)+VAR(Y)+2COV(X,Y);
7) VAR(X-Y)=VAR(X)+VAR(Y)-2COV(X,Y);
8) Se a1, a2, ..., an forem constantes numéricas e X1, X2, ..., Xn variáveis aleatórias, então:
n n n −1 n
VAR (∑ a i X i ) = ∑ a i2 VAR (X i ) + 2 ∑ ∑ a i a jCOV(X i , X j )
i =1 i =1 i =1 j=i +1
Exemplos: Sejam duas populações (ou variáveis aleatórias) X e Y com N elementos cada. Se
cada elemento dessas populações tiver igual probabilidade (1/N), então:
N
N
1 N
∑ Xi
E (X) = µ x = ∑ (X i ⋅ N ) = ∑ X i =
1 i =1
=X
i =1 N i =1 N
N
∑ Yi
i =1
E (Y) = µ y = =Y
N
11
N
∑ X i Yi
i =1
E (XY) =
N
N
n ∑ (X i − X) 2
VAR (X) = E[(X − µ) 2 ] = E[(X − X) 2 ] = ∑ [(X i − X) 2 ⋅ N1 ] = i =1
= σ 2x
i =1 N
N
∑ ( Yi − Y) 2
i =1
VAR ( Y) = = σ 2y
N
N
∑ (X i − X)(Yi − Y)
i =1
COV (X, Y) = E[(X − µ x )(Y − µ y )] = = = E (XY) − E(X )E(Y )
N
12
1.8.2 - DISTRIBUIÇÃO QUI-QUADRADO
É outro caso particular da fdp Gama: Gama(k/2,1/2) onde k é chamado de graus de liberdade
da distribuição. Apresenta importantes aplicações na inferência estatística clássica e na
inferência não paramétrica. Alguns valores dessa distribuição encontram-se tabelados em livros
sobre o assunto.
( x −µ )2
1 −
f ( x) = e 2σ2 , x é número real
σ 2π
2
9
6
3
0
7
4
1
8
5
2
9
17
34
51
68
85
10
11
13
15
17
18
20
22
23
25
27
28
13
Propriedades da distribuição normal:
x−µ
2. Se X ~ Normal(µ,σ2) então Z = ~ Normal(0,1) (padronização)
σ
Se X1, X2, ..., Xn são variáveis aleatórias independentes com médias µ1, µ2, ...,µn e
n
variâncias σ12, σ22, ..., σn2 respectivamente, então a distribuição de Y = ∑ X i tende a uma
i =1
n n
distribuição Normal com média E (Y) = ∑ µ i e variância VAR(Y) = ∑ σ i2 quando n→∞.
i =1 i =1
1) Sejam Z1, Z2, ..., Zk variáveis normais padronizadas (Normal(0,1)) independentes. Então, a
k
quantidade Z = ∑ Z 2i tem distribuição Qui-quadrado (χ 2k ) com k graus de liberdade.
i =1
Z1
2) Sejam Z1 ~ Normal(0,1) e Z2 ~ χ 2k independentes, então a transformação t = têm
Z2 / k
distribuição t de Student (tk) com k graus de liberdade.
Esta distribuição também é simétrica e converge para a distribuição Normal quando
k→∞. Também a encontramos tabelada em muitos livros.
Z1 k 1
3) Sejam Z1 ~ χ 2k1 e Z2 ~ χ2k2 independentes , então a transformação F = segue a
Z2 k 2
distribuição F de Fisher (Fk1 ,k 2 ) com k1 e k2 graus de liberdade. É comum encontrá-la
tabelada em livros.
14