Você está na página 1de 12

©Ana Pires, IST, Outubro de 2000

©Ana Pires, IST, Outubro de 2000

b) Fabrico de peças cilíndricas Capítulo 5 - Distribuições conjuntas de probabilidades e complementos 5.1 Duas variáveis aleatórias discretas. Distribuições conjuntas, marginais e condicionais. Independência Nos Capítulos 3 e 4 estudou-se a distribuição de Em relação a uma mesma experiência podem ser consideradas várias variáveis aleatórias. Exemplos: a) Transmissão/recepção de sinais em que cada um é classificado como: alta, média ou baixa qualidade. Considerem-se as v.a. X - nº de sinais de alta qualidade Y - nº de sinais de baixa qualidade Trata-se de duas variáveis discretas. 1 Definição: Dadas duas variáveis aleatórias discretas, chama-se função de probabilidade conjunta a f XY ( x, y ) = P( X = x,Y = y ) , tal que (2)
 

X - comprimento da peça Y - diâmetro da peça Trata-se de duas variáveis contínuas.

probabilidade de v.a. (discretas ou contínuas), consideradas isoladamente. Para duas ou mais v.a. o seu comportamento simultâneo é estudado usando as chamadas distribuições de probabilidade conjuntas.

(1) f XY ( x, y ) ≥ 0 , ∀( x,y )

∑ ∑ f ( x, y) = 1
XY x y

2

©Ana Pires, IST, Outubro de 2000

©Ana Pires, IST, Outubro de 2000

Exemplo: Lançamento de dois dados perfeitos. Seja X - nº de vezes que sai a face 6 Y - nº de vezes que sai a face 5 P( X = 0,Y = 0) = x=0,1,2 y=0,1,2

Organização da função de probabilidade conjunta em tabela: Y\X 0 1 2 Gráfico:
3 y 2 1/36

0 16/36 8/36 1/36

1 8/36 2/36 0

2 1/36 0 0

4 4 × 6 6 4 1 P( X = 1,Y = 0) = × × 2 = P( X = 0,Y = 1) 6 6 1 1 P( X = 1,Y = 1) = × × 2 6 6 1 1 P( X = 2,Y = 0) = × = P( X = 0,Y = 2) 6 6
P( X = 1,Y = 2) = 0 = P( X = 2,Y = 1)

P( X = 2,Y = 2) = 0
1 8/36 2/36

∑ ∑ P( X = x,Y = y) = 1
x=0 y=0

2

2

0

16/36 0

8/36 1

1/36 2 x

3

3

4

y) x 25/36 10/36 1/36 1 Nota: dada uma função de probabilidade conjunta. y) y Estas probabilidades podem ser acrescentadas à tabela da função de probabilidade conjunta: Y\X 0 1 2 P( X = x ) 0 16/36 8/36 1/36 25/36 1 8/36 2/36 0 10/36 2 1/36 0 0 1/36 P( Y = y ) f Y ( y) = P(Y = y ) = ∑ f XY ( x. y ) f X ( x) Exemplo (cont. a função de probabilidade condicionada de Y dado X=x (tal que f X ( x ) > 0 ) é f Y |x ( y) = P(Y = y| X = x ) = e verifica (2) ¡ f XY ( x. Por exemplo: P( X = 0) = f XY (0. IST. y) x y 5 6 ©Ana Pires.p.a.  e Y ~ Bin 2. conjunta f XY ( x. IST. ∀ y ∑ f ( y) = 1 Y |x y (tem as propriedades de uma f. y) y=0 2 1 1 Nota: verificar que X ~ Bin 2.0) + f XY (0. 7 8 .p.p. Outubro de 2000 ©Ana Pires. E( X ) . Outubro de 2000 ©Ana Pires. marginais:   E( X ) = µ X = ∑ xf X ( x ) = ∑ x  ∑ f XY ( x. y) . discretas X e Y com f.a. E(Y ) e V (Y ) podem ser calculados usando a f.©Ana Pires. discretas com função de probabilidade conjunta f XY ( x. as funções de probabilidade marginais de X e Y são f X ( x ) = P( X = x ) = ∑ f XY ( x. Outubro de 2000 A partir da tabela podem calcular-se também as probabilidades (chamadas marginais) para X ou Y. V ( X ) . IST. y) =  y  x x = ∑ ∑ xf XY ( x.) Definição: O valor esperado condicionado de Y dado X=x é E(Y| x ) = µ Y |x = ∑ yf Y |x ( y) y e a respectiva variância condicionada é V (Y| x ) = ∑ ( y − µ Y |x ) f Y |x ( y) 2 y Nota: Definições semelhantes para X dado Y=y.   6  6 (diz-se que X e Y são identicamente distribuídas) Definição: Se X e Y forem v.p.): Y|X=1 8 36 8 P(Y = 0| X = 1) = = 10 36 10 2 36 2 P(Y = 1| X = 1) = = 10 36 10 0 P(Y = 2| X = 1) = =0 10 36 E(Y| X = 1) = 0 × Y|X=0 16 36 16 = 25 36 25 8 36 8 P(Y = 1| X = 0) = = 25 36 25 1 36 1 P(Y = 2| X = 0) = = 25 36 25 P(Y = 0| X = 0) = E(Y| X = 0) = 0 × 16 8 1 10 +1× +2× = 25 25 25 25 8 2 2 +1× = 10 10 10 (1) f Y |x ( y) ≥ 0 .1) + f XY (0. IST. Outubro de 2000 Definição: Dadas as v. conjunta ou as f. y) .2) = = ∑ f XY (0.

y) = f X ( x ) f Y ( y). representada por f XY ( x. Distribuições conjuntas. A definição de independência coincide com a que foi dada para as variáveis discretas mas em que f XY ( x. conjunta f XY ( x.a.): Serão X e Y independentes? Não. y ) .a. IST. define-se para duas variáveis aleatórias contínuas a função de densidade de probabilidade conjunta. Outubro de 2000 Definição: Dadas duas v. marginais e condicionais. IST. porque. as funções de densidade de probabilidade marginais de X e Y são dadas por f X ( x) = f Y ( y) = +∞ −∞ +∞ Definição: O valor esperado condicionado de Y dado X=x é E(Y| x ) = µ Y |x = +∞ −∞ ∫ f ( x. a função de densidade de probabilidade condicionada de Y dado X=x (tal que f X ( x) > 0 ) é f ( x.p. D e f i n i ç ã o : A função de densidade de Exemplo (cont. conjunta f XY ( x. f Y ( y) . (2) −∞ ∫ f ( y)dy = 1 Y |x (3) P(Y ∈ B| X = x ) = ∫ f Y |x ( y)dy B 11 12 . P( X = 2. y ) .a. ∀ y +∞ −∞ ∫ (y − µ ) Y |x f Y |x ( y )dy Nota: Definições semelhantes para X dado Y=y. IST. y ) ≥ 0 ∀( x. IST.©Ana Pires.d. contínua foi necessário introduzir o conceito de função de densidade de probabilidade.y ) +∞ +∞ (2) −∞ −∞ ∫ ∫ f ( x. f Y |x ( y) e f X|y ( x ) são funções de densidade de probabilidade. Outubro de 2000 ©Ana Pires.2 Duas variáveis aleatórias contínuas.p. se uma das seguintes condições se verificar então as outras também se verificam e as v. ∀ x. então P( X ∈ A e Y ∈ B ) = P( X ∈ A ) × P( Y ∈ B ) 9 probabilidade conjunta para duas v.Y ) ∈ R) = ∫∫ f XY ( x. com f. Definição: Dadas duas v.d. contínuas. discretas X e Y. satisfaz: (1) f XY ( x.a. contínuas. y)dx Definição: Dadas duas v. X e Y. y)dxdy = 1 XY R (3) P(( X. Outubro de 2000 O conceito de independência de acontecimentos pode ser estendido a variáveis aleatórias. ∀ x. Independência Do mesmo modo que para caracterizar uma v. X e Y. y com f Y ( y) > 0 5. com f. contínuas. y)dy XY XY ∫ yf ( y)dy Y |x 2 e a respectiva variância condicionada é V (Y| x ) = +∞ −∞ ∫ f ( x. y )dxdy ∀ região R 10 ©Ana Pires.a.a. f X ( x ) . X e Y. y) . y com f X ( x ) > 0 f X|y ( x ) = f X ( x ). ∀ x. por exemplo.Y = 2) = 0 ≠ P( X = 2) P(Y = 2) Consequência da definição de independência: Se X e Y são independentes. y f Y |x ( y) = f Y ( y ). y ) f Y |x ( y) = XY f X ( x) e verifica: (1) f Y |x ( y) ≥ 0. são independentes (1) (2) (3) f XY ( x. Outubro de 2000 ©Ana Pires. y ) .

Y ) + cov( Z.Y ) < 0 : y y x x Propriedades da covariância: 1) cov( X.Y ) 5) cov( X + Z. ∑ Y j  = ∑ ∑ cov Xi . Outubro de 2000 Interpretação do sinal da covariância: 5.Y ) = cov( X. X ) 3) cov( X.Y ) > 0 : Pretende-se uma medida que meça algum aspecto da variação conjunta de duas variáveis aleatórias.Y j  i =1 j =1  i =1 j =1 y x ( ) 15 16 . Definição: a covariância entre duas v. forem contínuas tem-se Nota: pontos com iguais probabilidades.3 Covariância e correlação cov( X. y) x y µ x x Se ambas as v.Y ) = cov(Y. y)dxdy X Y XY 13 14 ©Ana Pires.Y ) = σ XY = E ( X − µ X )(Y − µ Y ) Se ambas as v.Y ) = E( XY ) − µ X µ Y 2) cov( X.Y ) = 0: cov( X. IST.©Ana Pires. forem discretas tem-se y µ y - + [ ] + - σ XY = ∑ ∑ ( x − µ X )( y − µ Y ) f XY ( x.a. Outubro de 2000 ©Ana Pires. é dada por cov( X. X e Y. IST. σ XY = +∞ +∞ −∞ −∞ ∫ ∫ ( x − µ )( y − µ ) f ( x. Outubro de 2000 cov( X.Y ) n n n   n 6) cov ∑ Xi . IST. Outubro de 2000 ©Ana Pires.a.. X ) = V ( X ) 4) cov( aX.a.Y ) = a cov( X. IST.

sabe-se que σ X σY 2) b) Pela demonstração anterior. Outubro de 2000 Exemplo (cont.  X Y  V +  = 0 ⇔ ρ XY = −1  σ X σY   X Y  Y X mas V  +  =0⇔ + = constante. O valor absoluto da covariância não é interpretável porque esta pode ser arbitrariamente alterada por uma mudança de escala (propriedade 4). auxiliar σ X σY 19 20 . Teorema: Se X e Y são independentes então = = E( X 2 ) 2 σX + E (Y 2 ) 2 σY σ σ = 1 + 1 + 2ρ XY ≥ 0 ⇔ ρ XY ≥ −1 2 X 2 Y 2 E( X 2 ) − µ X + 2 E (Y 2 ) − µ Y 2 2 µ µ E( XY ) µ X µ Y +2 − 2 − 2 −2 X Y = σ XσY σ X σY σ XσY σ XY = ρ XY = 0 Demonstração: Vamos admitir que X e Y são ambas discretas (seria semelhante para ambas contínuas. IST. IST.Y ) = XY V ( X )V (Y ) σ X σ Y 1) −1 ≤ ρ XY ≤ 1. Outubro de 2000 Demonstração: 1) a) Considere-se a v.Y ) = − =− 36 9 18 Significado: em média há uma tendência para y decrescer quando x cresce e vice-versa.Y .. X e Y é 1/36 0 0 16 2 E( XY ) = 0 × 0 × +.Y 2) a) ρ XY = 1 sse Y = aX + b com a > 0 b) ρ XY = −1 sse Y = aX + b com a < 0 18 ©Ana Pires. Outubro de 2000 ©Ana Pires.a. ∀ X..+1 × 1 × +. IST. IST.a.): Calcular a covariância entre X e Y Y\X 0 1 2 0 16/36 8/36 1 8/36 2/36 2 1/36 0 Medida cujo sinal dá a mesma indicação mas que é adimensional e cujo valor absoluto já é interpretável: Definição: A correlação ou coeficiente de correlação entre duas v.+2 × 2 × 0 = 36 36 2 = 36 1 1 1 X e Y ~ Bin 2. auxiliar ρ XY ≥ −1 X Y + . substituindo os integrais por somatórios) +2 E( XY ) − µ X µ Y = σ XσY b) ρ XY ≤ 1 Repetir a demonstração anterior Y X − com a v. o σ X σY  σ X σY  2  X Y  V +  ≥ 0. 17 ρ XY = Propriedades: σ cov( X. ∀ X.  ⇒ E( X ) = E(Y ) = 2 × =  6 6 3 2 1 1 logo cov( X..a. por outro lado  σ X σY  2  X  X Y  Y     X Y  V +  = E  +   −  E +  =  σ X σY   σ X σ Y     σ X σ Y     que demonstra o resultado.. Outubro de 2000 ©Ana Pires.©Ana Pires.

.+c p E X p = E (c1 X1 + c2 X2 ) − E(c1 X1 + c2 X2 ) = 2 2 2 2 = E(c12 X12 + c2 X2 + 2c1c2 X1 X2 ) − (c1µ1 + c2 µ 2 ) = 2 2 2 = c12 E( X12 ) + c2 E( X2 ) + 2c1c2 E( X1 X2 ) − [ ] [ ] ( ) ( ) 2 2 2 = c12 E( X12 ) − µ12 + c2 E( X2 ) − µ 2 + [ ] [ 2 2 − c12 µ12 − c2 µ 2 − 2c1c2 µ1µ 2 = + 2c1c2 E( X1 X2 ) − µ1µ 2 [ ] ] c.. mas X e Y não são independentes.. Outubro de 2000 Valor esperado duma combinação linear: 1) E(c1 X1 + c2 X2 ) = c1 E( X1 ) + c2 E( X2 ) Demonstração: E(c1 X1 + c2 X2 ) = ∑ ∑ (c1 x1 + c2 x2 ) f ( x1 . X2 . X p e p constantes c1 . X1 . x2 ) + c2 ∑ ∑ x2 f ( x1 . y) = x y = ∑ ∑ xyf X ( x ) f Y ( y) = x y Tem-se E( X ) = E(Y ) = 0 e E( XY ) = 0 .a. y) = f X ( x ) f Y ( y).. x2 ) = x1 x2 Variância duma combinação linear: 1) V (c1 X1 + c2 X2 ) = 2 = c12V ( X1 ) + c2 V ( X2 ) + 2c1c2 cov( X1 . Outubro de 2000 Exemplo: X e Y são independentes sse f XY ( x. IST.c p ... 23 24 . IST.+c p X p é uma combinação linear de X1 . X2 ) Demonstração: V (c1 X1 + c2 X2 ) = = c1 ∑ ∑ x1 f ( x1 ..q. isto é σ XY = 0 . X2 .. 21 22 ρ XY = σ XY = 0 não implica X e Y independentes ©Ana Pires...d..+c p X p = = c1 E( X1 ) + c2 E( X2 )+...4 Combinações lineares de variáveis aleatórias D e f i n i ç ã o : dadas p v.. Y = c1 X1 + c2 X2 +. pelo que    =  ∑ xf X ( x )  ∑ yf Y ( y ) = E( X ) E(Y )  y  x  pelo que σ XY = 0 e ρ XY = 0 Muito importante: a proposição inversa não é verdadeira. 5. x2 ) = x1 x2 x1 x2 = c1 E( X1 ) + c2 E( X2 ) 2) Generalização de (1) E c1 X1 + c2 X2 +.. y Y\X -1 0 1 P( X = x ) -1 0 1/12 0 1/12 0 1/6 1/2 1/6 5/6 1 0 1/12 0 1/12 P( Y = y ) 1/6 2/3 1/6 1 logo E( XY ) = ∑ ∑ xyf XY ( x.c2 .. Outubro de 2000 ©Ana Pires. ∀ x.©Ana Pires.. IST. X p .. Outubro de 2000 ©Ana Pires.. IST.

X j ( ) binomial a) Se X1 ~ Bin(n1 .n 26 N o t a : o mesmo acontece se as v.. p) ... então 2 2 c1 X1 + c2 X2 ~ N (c1µ1 + c2 µ 2 . então  k  X1 +. ou seja. p   i =1 independentes. p) . forem independentes duas a duas.. Outubro de 2000 2) Generalização de (1) V c1 X1 +.+ Xn ~ Bin(n.+c p X p = ∑ ci2V ( Xi ) + i =1 Casos especiais de somas de variáveis aleatórias: I) Propriedade reprodutiva da distribuição i j ( ) p + 2∑ 3) Caso particular de 2) p i =1 j =i +1 ∑c c p cov Xi . independentes... p) . p) e X1 e X2 forem independentes... i = 1. p) ( X1 + X2 representa o número de sucessos em n1 + n2 provas de Bernoulli independentes com Se cov Xi ..+c p X p = ∑ ci2V ( Xi ) i =1 ( ) ( ) p P(sucesso) constante e igual a p) b) (Generalização) Se Xi ~ Bin(ni . então X1 + X2 ~ Bin(n1 + n2 . X j = 0.. X2 ~ N (µ 2 . IST.. σ 2 ) e X1 e X2 forem independentes. X2 ~ Poisson(λ 2 ) e X1 e X2 forem independentes. uma vez que. Outubro de 2000 II) Propriedade reprodutiva da distribuição de Poisson a) Se X1 ~ Poisson(λ 1 ) ..c12 σ12 + c2 σ 2 ) IV) Mudança de escala na distribuição exponencial Se X ~ Exp(λ ) e c > 0 . forem não correlacionadas duas a duas tem-se V c1 X1 +. x > 0 28 27 . k .+ Xk ~ Poisson ∑ λ i   i =1  λ uma vez que para X ~ Exp(λ ) . X2 ~ Bin(n2 . independentes... Outubro de 2000 ©Ana Pires. k .. ©Ana Pires... FX ( x ) = 1 − e − λ x .a. IST. como já se viu.+ Xk ~ Bin ∑ ni .. III) Propriedade reprodutiva da distribuição Normal 2 Se X1 ~ N (µ1 .. então   k X1 +.. nesse caso as covariâncias duas a duas são nulas.©Ana Pires. então X1 + X2 ~ Poisson(λ 1 + λ 2 ) (Este caso pode ser visto como um limite do caso I)a)) b) (Generalização) Se Xi ~ Poisson(λ i ) . Outubro de 2000 ©Ana Pires.a. i = 1. então Y = cX ~ Exp Demonstração: Seja para y > 0 y FY ( y) = P(Y ≤ y ) = P(cX ≤ y) = P X ≤  =  c − y y = FX   = 1 − e c  c λ  c i = 1. então X1 +... p) 25 Caso particular: Xi ~ Ber( p) = Bin(1. IST. σ12 ) . IST. ∀i ≠ j . se as v.

Por exemplo para X ~ N (µ . X) ≤ 0. mas podem ser muito pessimistas.. relativas a uma qualquer v. IST. IST... σ 2 ) .111 ≤ 0. Outubro de 2000 ©Ana Pires. X. Outubro de 2000 ©Ana Pires.25 ≤ 0.5 2 3 4 P( X − µ ≥ cσ ) (qq v. verifica-se 1 P( X − µ ≥ cσ ) ≤ 2 c (só é útil para c > 1 ).0456 = 0..063 * Excepto para Probabilidades. podem ser determinados exactamente e Proposição: Para qualquer v. σ 2 ) = 0. independentes e identicamente distribuídas com valor esperado µ e variância σ 2 .063 ≤ 0.C.6 Teorema do Limite Central Este teorema justifica a grande utilidade e 1.a.a.444 c 1. auxiliar Y..25 ≤ 0. IST. T. com os parâmetros µ e σ : comparados com aqueles: P( X − µ ≥ cσ ) X ~ N (µ .L. X1 . X) ≤ 0. Xn nas mesmas condições e n grande verifica-se n    b − nµ   a − nµ  P a < ∑ Xi < b ≅ Φ  − Φ   σ n   σ n    i =1 ( X − µ )2 ≥ ( X − µ )2 Y Logo e ( X − µ ) Y ≥ c 2 σ 2Y 2 ⇔ σ 2 ≥ c 2 σ 2 P( X − µ ≥ cσ ) ⇔ ⇔ P( X − µ ≥ cσ ) ≤ 1 c2 E ( X − µ ) ≥ c 2 σ 2 E (Y ) ⇔ 2 31 32 . discreta ou contínua.©Ana Pires. tem-se  n  ∑ Xi − nµ   lim P i =1 ≤ z  = Φ( z ) n→∞ σ n     Consequência: Para X1 ..111 ≤ 0. IST.0001 P( X − µ ≥ cσ ) (qq v.. caso contrário Tem-se E(Y ) = 1 × P(Y = 1) = P( X − µ ≥ cσ ) .a.. se X − µ ≥ cσ Y= 0. por outro lado como y = 0 ou y = 1 . com valor esperado µ e desvio padrão σ .a..5 2 3 4 ≤ 0.a.444 probabilidades. Outubro de 2000 5. Erros e Estatística 29 30 ©Ana Pires. definida da seguinte forma 5.: Se para todo o inteiro positivo n. Xn forem v. importância da distribuição normal.0027 = 0.1336 = 0.a. Outubro de 2000 Demonstração: Considere-se a v. Exemplo: c 1.5 Desigualdade de Chebychev* Esta desigualdade permite relacionar Estes valores são úteis se não conhecermos a distribuição da variável. e pela definição de Y. real. então para cada z .

45 Resposta: n ≅ 443 36 . V ( Xi ) = σ 2 e X1 .34) − Φ( −1. Outubro de 2000 Observações: • A demonstração do teorema exige algumas ferramentas matemáticas avançadas.   12   10   −10  P( −10 < T n < 10) ≅ Φ  − Φ n 12   n 12    Tn = ∑ Ei Como Φ( −x ) = 1 − Φ( x )  10    10   Φ  − 1 − Φ n 12   = 0. 33 ¢ Exemplo: Suponha-se que ao adicionar números reais cada número é arredondado previamente para o inteiro mais próximo.L. X1 .erro na parcela i T .erro total T = ∑ Ei i =1 2 b) Quantos números podem ser somados (n) para que 1500   n P ∑ Ei < 10 ≅ 0.95) = 1.5] (esta suposição é razoável se desconhecermos à partida tudo sobre os referidos números reais e admitirmos que também eles se distribuem uniformemente e independentemente nalgum intervalo) a) Qual é a probabilidade de que..9 ⇔   n 12     10  ⇔ Φ  = 0.079 ⇔ n = 12 × 6. Xn podem ser discretas ou contínuas.L. • Como E( Xi ) = µ ..1802 35 ⇔ n 12 = 6. ao adicionar 1500 números.5. conclui-se que Tn ~ N  0. Outubro de 2000 Considerem-se as v. Admita-se que os erros de arredondamento são v.C. Ei ..0. Outubro de 2000 ©Ana Pires. IST. IST..645 n 12 n (0. conclui-se que T = ∑ Ei ~ N (0.34)) = = 1 − (0..95 ⇔  n 12  10 = Φ −1 (0.a. • Geralmente considera-se n grande se n ≥ 30 . o valor absoluto do erro seja superior a 15? Pode afirmar-se que o valor absoluto do erro está certamente compreendido entre 0 e 750.9   i =1 n 12 i =1 a n Pelo T.34 ≤   125 ≅ 1 − (Φ(1..a. pode ser justificada por este teorema.125) a i =1 1500 E (T n ) = 0 V (T n ) = Logo P( T > 15) = 1 − P( T ≤ 15) = 1 − P( −15 ≤ T ≤ 15) = T 15   15 = 1 − P − ≤ ≤ =  125 125 125  T   ≤ 1.5 − (−0.C.9099 − 0. independentes e identicamente distribuídas com distribuição uniforme contínua no intervalo [-0. Xn são v. mas este valor é muito pessimista.©Ana Pires.a.34 ≅ = 1 − P −1.5)) = 1 Tem-se E( Ei ) = 0 e V ( Ei ) = 12 12 1500 E(T ) = 1500 × 0 = 0 V (T ) = = 125 12 Pelo T. 34 ©Ana Pires. IST. A aproximação das distribuições Binomial e Poisson à distribuição normal (ver Capítulo 4). IST. Outubro de 2000 ©Ana Pires.0901) = 0.a..0792 = 443.. independentes tem-se  n   n  E  ∑ Xi  = nµ e V  ∑ Xi  = nσ 2  i =1   i =1  pelo que   n  n  Xi − nµ ∑ ∑ Xi − nµ     i =1 E  i =1  = 0 V  = 1 ∀n σ n  σ n        • • As v.

4 Relative Frequency 0.5]). Outubro de 2000 Pode-se "observar" o T.L.10 0.00 -2 Em seguida construímos o histograma das frequências relativas das 1000 observações de T − nµ Tn Sn = n = σ n n 12 e sobreposmo-lhe a densidade da distribuição N (0.05 0.1 0. Repetimos este processo 1000 vezes (isto pode ser feito em computador).3 Relative Frequency -3 -2 -1 0 s5 1 2 3 0.15 0. IST. Temos então uma observação de Tn .5. Para isso seleccionamos totalmente ao acaso e de modo independente n números reais num dado intervalo e fazemos a diferença para o inteiro mais próximo (isto é equivalente a seleccionar aleatoriamente n "erros" ao acaso no intervalo [-0. IST.20 0.25 -1 0 s1 1 2 38 ©Ana Pires. Outubro de 2000 n=5 n = 10 Histogram of s5 0. (Uma explicação é que a distribuição de partida é simétrica e contínua) 39 40 . IST. em "acção": Exemplo: Vamos realizar a experiência do exercício anterior.1) 37 0. Outubro de 2000 ©Ana Pires.0 0. IST.0 0.©Ana Pires.2 0. Resultados: n=1 Histogram of s1 0.4 Histogram of s10 0.3 -3 -2 -1 s10 0 1 2 3 A aproximação parece boa mesmo só com n = 10.30 Relative Frequency 0.C.1 0.0. em seguida somam-se os n erros. Outubro de 2000 ©Ana Pires.2 0.

Vamos repetir o procedimento descrito no exemplo anterior.4 0. Outubro de 2000 ©Ana Pires. para cada n.1 0. Outubro de 2000 n=5 n = 20 Histogram of se5 0.3 Relative Frequency -2 -1 0 1 se5 2 3 4 0. 41 0 2 4 se1 6 8 10 42 ©Ana Pires.0 0.©Ana Pires. IST.3 0.2 0.4 0. IST. por exemplo.1 0. Ou seja. intervalo de tempo entre chegadas num processo de Poisson com taxa λ = 1 .a. A v.1 0. Outubro de 2000 ©Ana Pires. IST. Outubro de 2000 Experimentemos com outra distribuição: E x e m p l o : Seja Xi ~ Exp(1) . IST.0 0.5 representa o intervalo de tempo até à n-ésima 1000 observações de Sn = ( µ = E( Xi ) = 1 Tn − nµ Tn − n = σ n n σ 2 = V ( Xi ) = 1) Em seguida construímos o histograma das frequências relativas das 1000 observações de Sn e sobreposmo-lhe a densidade da distribuição N (0.2 0. Tn = ∑ Xi chegada.0 0.3 -2 -1 0 se20 1 2 3 43 44 .4 Histogram of se20 Relative Frequency 0. obtemos n £ Resultados: n=1 i =1 Histogram of se1 0.1) .2 0.6 Relative Frequency 0.

IST.3 Relative Frequency Relative Frequency 0.1 0.0 0.4 Histogram of se40 0.3 -2 0 se30 2 4 -2 0 se40 2 4 Aqui temos de ter n maior para que a aproximação comece a ser razoável.2 0.0 0. IST.©Ana Pires. 45 46 .2 0.1 0. Outubro de 2000 ©Ana Pires. Outubro de 2000 n = 30 n = 40 Histogram of se30 0.