Escolar Documentos
Profissional Documentos
Cultura Documentos
07 de Março de 2018
1 / 247
MP
Informações Sobre o Curso
Horário
2 / 247
MP
Informações Sobre o Curso
Avaliação
3 / 247
MP
Informações Sobre o Curso
4 / 247
MP
Informações Sobre o Curso
Programação
5 / 247
MP
Informações Sobre o Curso
Bibliografia
Livro-texto
Peyton Z. Peebles Jr., “Probability, Random Variables and Random
Signal Principles”, 4th Edition, McGraw Hill, New York, NY, 2000.
6 / 247
MP
Informações Sobre o Curso
Bibliografia
Outras referências:
José P. A. e Albuquerque, José M. P. Fortes, Weiler A. Finamore,
“Probabilidade, Variáveis Aleatórias e Processos Estocásticos”,
1a Edição, Editoras Interciência e PUC-Rio, Rio de Janeiro, RJ, 2008.
Barry R. James, “Probabilidade: Um Curso em Nível Intermediário”,
3a Edição, IMPA, Rio de Janeiro, RJ, 2006.
Steven Kay, “Intuitive Probability and Random Processes Using
MATLAB® ”, 1st Edition, Springer, New York, NY, 2006.
7 / 247
MP
Informações Sobre o Curso
Ementa
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
8 / 247
MP
Informações Sobre o Curso
Ementa
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
8 / 247
MP
Informações Sobre o Curso
Ementa
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
8 / 247
MP
Informações Sobre o Curso
Ementa
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
8 / 247
MP
Informações Sobre o Curso
9 / 247
MP
Probabilidade
Sumário
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
10 / 247
MP
Probabilidade
Motivação
Introdução
Essência × acidente
Mecanicismo newtoniano × mecânica quântica
Probabilidade lida com
cálculos de chance de algo ocorrer
predição de comportamentos médios
regularidade estatística
É comum que seja inviável/inadequado usar um modelo em que causas
e efeitos sejam totalmente previsíveis (tenham natureza determinística)
11 / 247
MP
Probabilidade
Motivação
Problema
200 terminais telefônicos são ligados a uma central A. Deseja-se determinar
o número de circuitos que devem ser instalados entre a central A e uma
outra central B para que se possa atender o tráfego gerado em A e
destinado a B.
12 / 247
MP
Probabilidade
Motivação
13 / 247
MP
Probabilidade
Motivação
14 / 247
MP
Probabilidade
Motivação
Problema
Um fabricante de peças garante que o número de unidades defeituosas em
cada lote vendido não ultrapassa 5% do número total. De cada 1000 peças
recebidas o comprador resolve examinar 20 peças. Supondo que encontre 2
peças defeituosas, alguém lhe sugere que rejeite o lote. Outra pessoa porém
lembra de todos os inconvenientes relacionados à rejeição (e.g. atraso),
ponderando que, afinal, o lote inteiro teria até 50 peças defeituosas.
15 / 247
MP
Probabilidade
Motivação
16 / 247
MP
Probabilidade
Motivação
Descrição
Em um sistema de comunicações digitais, o sinal a ser transmitido é
inicialmente transformado em uma sequência de bits. O transmissor associa
ao bit 0 um determinado sinal (ou ausência de sinal) e ao bit 1 um outro
sinal (pulso retangular, por exemplo). Os próprios circuitos eletrônicos que
transmitem estes sinais desde o transmissor até o receptor adicionam ruído
aos mesmos. O receptor deseja reconstruir a sequência transmitida de bits.
Ele pode, por exemplo, amostrar o sinal recebido no ponto médio do
intervalo correspondente a cada dígito e então decidir por 0 ou 1.
17 / 247
MP
Probabilidade
Motivação
18 / 247
MP
Probabilidade
Conjuntos
Definições de Conjuntos
19 / 247
MP
Probabilidade
Conjuntos
Definições de Conjuntos
20 / 247
MP
Probabilidade
Conjuntos
Igualdade: A = B
A B
21 / 247
MP
Probabilidade
Conjuntos
Diferença: A − B ou A \ B
A B
22 / 247
MP
Probabilidade
Conjuntos
Complementaridade: A é o complemento de A
Note que A = S \ A
23 / 247
MP
Probabilidade
Conjuntos
União: A ∪ B
A B
Generalizações:
N
[
União finita: An = A1 ∪ A2 ∪ · · · ∪ AN
n=1
∞
[ [
União (infinita) enumerável: An = An = A1 ∪ A2 ∪ · · ·
n=1 n∈N
[
União não-enumerável: Ai , onde I é um conjunto não-enumerável
i∈I
24 / 247
MP
Probabilidade
Conjuntos
Interseção: A ∩ B
A B
25 / 247
MP
Probabilidade
Conjuntos
Lei comutativa
A∩B =B∩A
A∪B =B∪A
Lei distributiva
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
26 / 247
MP
Probabilidade
Conjuntos
Lei associativa
(A ∪ B) ∪ C = A ∪ (B ∪ C) = A ∪ B ∪ C
(A ∩ B) ∩ C = A ∩ (B ∩ C) = A ∩ B ∩ C
Lei de De Morgan
A∪B =A∩B
A∩B =A∪B
27 / 247
MP
Probabilidade
Probabilidade
Definições Básicas
Visão geral
Contexto:
Experimento aleatório → tentativa → resultado
Ingredientes fundamentais:
Espaço amostral + eventos aleatórios + medida de probabilidade
28 / 247
MP
Probabilidade
Probabilidade
Definições Básicas
Experimento aleatório
Procedimento (hipotético) através do qual se produz um resultado outrora
impossível/inviável de prever de forma determinística
Tentativa
Uma realização (hipotética) particular de um experimento aleatório
Resultado
Produto de uma tentativa de um experimento aleatório
29 / 247
MP
Probabilidade
Probabilidade
Definições Básicas
Espaço amostral S
Conjunto de todos os resultados possíveis
discreto finito
contı́nuo infinito
Um dado fenômeno (físico) pode admitir diferentes espaços amostrais
Tudo depende de como o experimento aleatório foi definido
O que se entende por resultado do experimento deve ser explicitado
O espaço amostral deve ser tal que não o seja mais detalhado do que
necessário nem omita aspectos importantes do fenômeno (físico) que
está sendo modelado
30 / 247
MP
Probabilidade
Probabilidade
Definições Básicas
Evento
Qualquer subconjunto de S, i.e. um elemento de 2S (partes de S)
discreto finito
contı́nuo infinito
Modela também o interesse em um conjunto de resultados individuais
Elemento de um evento será denotado por s (resultado individual)
Às vezes, há interesse na “não-ocorrência” de um evento
Eventos complementares & eventos mutuamente exclusivos
Evento aleatório é um evento para o qual atribui-se probabilidade
No caso discreto, é comum que “evento = evento aleatório”
É comum trabalhar com o conjunto das partes aqui
No caso contínuo, nem todos eventos admitem probabilidade
Paradoxo de Banach-Tarski
Mas isso não se constitui um problema na prática
Os eventos que não admitem medida não são de “interesse prático”
Porém, não se pode trabalhar com o conjunto das partes aqui
31 / 247
MP
Probabilidade
Probabilidade
Definições Básicas
Evento
Álgebra A é uma classe de subconjuntos de S que satisfaz
se A ∈ A ⇒ A ∈ A (fechamento para complemento)
se A, B ∈ A ⇒ A ∪ B ∈ A (fechamento para união)
Como consequência, toda álgebra A de subconjuntos de S é tal que
se A, B ∈ A ⇒ A ∩ B ∈ A
se A, B ∈ A ⇒ A \ B ∈ A
∅∈A
S∈A
N
[
se An ∈ A ∀n ∈ {1, 2, · · · , N } ⇒ An ∈ A
n=1
σ-álgebra Aσ é uma álgebra de subconjuntos de S tal que
∞
[
se An ∈ Aσ ∀n ∈ N ⇒ An ∈ Aσ (fechamento para união contável)
n=1
32 / 247
MP
Probabilidade
Probabilidade
Definições Básicas
Evento
Manipular conjuntos de resultados é fundamental para a teoria aqui
σ-álgebra é fechada relativamente a todas as operações de interesse
Sendo assim, a σ-álgebra é o segundo ingrediente fundamental
Os eventos aleatórios são elementos da σ-álgebra em questão
No caso discreto, usualmente tem-se Aσ = 2S
No caso contínuo, dependerá do problema particular
Em R, utiliza-se a σ-álgebra de Borel, que é a “menor” σ-álgebra que
contém todos os intervalos (conjuntos que sabemos medir!)
33 / 247
MP
Probabilidade
Probabilidade
34 / 247
MP
Probabilidade
Probabilidade
Axiomas da Probabilidade
35 / 247
MP
Probabilidade
Probabilidade
Eventos Particulares
Evento:
impossível: A = ∅ ⇒ P (A) = 0
certo: A = S ⇒ P (S) = 1
possível com P (A) = 0 (ex.: evento discreto em espaço contínuo)
incerto com P (A) = 1 (ex.: complemento do anterior)
36 / 247
MP
Probabilidade
Probabilidade
Modelo probabilístico
Parte da definição de um experimento aleatório e é constituído de
Um conjunto não-vazio de resultados possíveis, o espaço amostral
Uma σ-álgebra de eventos aleatórios
Uma probabilidade definida na σ-álgebra em questão
Satisfaz 3 axiomas
É coerente com a regularidade estatística ←→ frequência relativa
37 / 247
MP
Probabilidade
Probabilidade
Probabilidade conjunta de A e B
P (A ∩ B) = P (A) + P (B) − P (A ∪ B)
38 / 247
MP
Probabilidade
Probabilidade
Probabilidade Condicional
Note que
Se A ∩ B = ∅ (mutuamente exclusivos) e P (B) > 0, então P (A|B) = 0
Se B ⊂ A e P (B) > 0, então P (A|B) = 1
39 / 247
MP
Probabilidade
Probabilidade
Probabilidade composta de A1 , A2 , · · · , AN
P (A1 ∩A2 ∩· · ·∩AN ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩A2 )· · ·P (AN |A1 ∩· · ·∩AN −1 )
40 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Selecionar 3 cartas de um baralho, uma seguida da outra, ao acaso e sem
reposição. Qual é a probabilidade de tirar 3 reis?
41 / 247
MP
Probabilidade
Probabilidade
Exemplo
42 / 247
MP
Probabilidade
Probabilidade
Probabilidade total de A
N
[ \
Se Bn = S, Bm Bn = ∅ (partição do espaço amostral), então
n=1 m6=n
N
X
P (A) = P (A|Bn )P (Bn )
n=1
43 / 247
MP
Probabilidade
Probabilidade
Teorema de Bayes
Regra de Bayes
N
[ \
Se Bn = S, Bm Bn = ∅ (partição do espaço amostral), então
n=1 m6=n
de transição a priori
z }| { z }| {
P (A|Bn ) P (Bn )
P (Bn |A) =
| {z } P (A)
a posteriori
44 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Um móvel tem três gavetas iguais. Em uma gaveta há duas bolas brancas,
em outra há duas bolas pretas, e na terceira há uma bola branca e outra
preta. Na escuridão, a Pequena Anta abre uma gaveta ao acaso, retira uma
bola ao acaso e fecha a gaveta novamente. Já na claridade, descobre que a
bola que retirou da gaveta é branca. Qual é a probabilidade de que a
segunda bola que restou na gaveta também seja branca?
45 / 247
MP
Probabilidade
Probabilidade
Exemplo
46 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Sabe-se que 0,75% da população brasileira hospeda uma determinada
bactéria em seu organismo. O teste para detectá-la resulta positivo para
99% dos pacientes que realmente possuem a bactéria, e resulta negativo
para 95% dos pacientes que não possuem a bactéria. Considere um cidadão
brasileiro selecionado ao acaso. Se seu teste resultou positivo, calcule a
probabilidade de que ele realmente hospede a bactéria em seu organismo.
Comente sobre o resultado obtido.
47 / 247
MP
Probabilidade
Probabilidade
Exemplo
P (T P |D)P (D)
P (D|T P ) =
P (T P )
0,99 × 0,0075
=
0,99 × 0,0075 + 0,05 × 0,9925
≈ 0,1301 ≈ 13%
48 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
A figura abaixo é usada para caracterizar o canal de um sistema de
comunicação digital, através do qual se envia uma mensagem X (entrada do
canal) que pode assumir valores binários no conjunto {0, 1} e que
disponibiliza na sua saída (saída do canal) um valor binário Y ∈ {0, 1}. A
probabilidade de observar um valor zero na entrada do canal,
P ({X = 0}) = π0 , é conhecida, bem como as seguintes probabilidades de
transição (do canal):
Exemplo
Problema
O valor de Y observado na saída do canal é utilizado por um processador
que, de acordo com uma regra de decisão determinística, sempre associa
a cada um dos valores (Y = 0 e Y = 1) uma estimativa X̂ ∈ {0, 1} do bit
transmitido que deu origem àquela saída Y do canal. Considere que a
regra de decisão utilizada pelo processador se baseia no critério da
máxima probabilidade a posteriori que, em poucas palavras, consiste
em atribuir a X̂ o valor de X com maior probabilidade de ocorrer dado que
o evento {Y = 0} ou que o evento {Y = 1} tenha ocorrido. Assuma que
p > 21 , q > 12 e qπ0 < (1 − π0 )(1 − p).
1 Especifique a regra de decisão de máxima probabilidade a
posteriori, ou seja, que valor deve ser atribuído a X̂ quando Y = 0 e
quando Y = 1. Justifique detalhadamente.
2 Encontre a probabilidade de cometer um erro na decisão, ou seja,
P ({X̂ 6= X}).
P ({Y = 0}|{X = 0})
0 0
X X
=1
}) P ({
Y =
1}|{
Y
}|{
=0 X
=0
{Y })
P(
1 P ({Y = 1}|{X = 1}) 1 50 / 247
MP
Probabilidade
Probabilidade
Exemplo
1
P ({Y = 0}|{X = 0})P ({X = 0}) qπ0
P ({X = 0}|{Y = 0}) = =
P ({Y = 0}) qπ0 + (1 − p)(1 − π0 )
P ({Y = 0}|{X = 1})P ({X = 1}) (1 − p)(1 − π0 )
P ({X = 1}|{Y = 0}) = =
P ({Y = 0}) qπ0 + (1 − p)(1 − π0 )
P ({Y = 1}|{X = 0})P ({X = 0}) (1 − q)π0
P ({X = 0}|{Y = 1}) = =
P ({Y = 1}) (1 − q)π0 + p(1 − π0 )
P ({Y = 1}|{X = 1})P ({X = 1}) p(1 − π0 )
P ({X = 1}|{Y = 1}) = =
P ({Y = 1}) (1 − q)π0 + p(1 − π0 )
51 / 247
MP
Probabilidade
Probabilidade
Exemplo
52 / 247
MP
Probabilidade
Probabilidade
Eventos Independentes
53 / 247
MP
Probabilidade
Probabilidade
54 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Sejam A1 , A2 , A3 eventos independentes. Demonstre que A1 é independente
de A2 ∪ A3 .
55 / 247
MP
Probabilidade
Probabilidade
Exemplo
56 / 247
MP
Probabilidade
Probabilidade
Eventos Múltiplos
Generalização
Experimento combinado: S = S1 × S2 × · · · × SN
Elemento de um evento: ênupla (s1 , s2 , . . . , sN )
Evento: A1 × A2 × · · · × AN , com An ∈ An ⊂ 2Sn , ∀n ∈ {1, 2, · · · , N }
(sub-)experimentos independentes ⇒ eventos independentes:
P (A1 × A2 × · · · × AN ) = P (A1 )P (A2 ) . . . P (AN )
57 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Um par de dados de seis faces honestos é utilizado em um jogo em que
ambos os dados são lançados simultaneamente e os números das faces
voltadas para cima são anotados. O jogador 1 ganha se a soma dos números
é menor ou igual a seis e pelo menos um dos dados mostra o número
quatro. O jogador 2 ganha quando a soma é maior ou igual a cinco e pelo
menos um dos dados mostra o número quatro. Determine:
1 Um espaço amostral adequado para tal experimento aleatório.
2 O evento que indica quando o jogador 1 ganha.
3 A probabilidade de o jogador 1 ganhar.
4 O evento que indica quando o jogador 2 ganha.
5 A probabilidade de o jogador 2 ganhar.
58 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Um par de dados de seis faces honestos é utilizado em um jogo em que
ambos os dados são lançados simultaneamente e os números das faces
voltadas para cima são anotados. O jogador 1 ganha se a soma dos números
é menor ou igual a seis e pelo menos um dos dados mostra o número
quatro. O jogador 2 ganha quando a soma é maior ou igual a cinco e pelo
menos um dos dados mostra o número quatro. Determine:
6 O evento que indica quando os jogadores 1 e 2 ganham.
7 A probabilidade de ambos os jogadores ganharem.
8 A probabilidade de o jogador 1 ganhar, dada a informação de que o
jogador 2 ganhou.
9 A probabilidade de o jogador 2 ganhar, dada a informação de que o
jogador 1 ganhou.
59 / 247
MP
Probabilidade
Probabilidade
Exemplo
60 / 247
MP
Probabilidade
Probabilidade
Exemplo
4 A2 =
{(1, 4), (4, 1), (2, 4), (4, 2), (4, 3), (3, 4), (4, 4), (4, 5), (5, 4), (6, 4), (4, 6)}.
|A2 | 11
5 P (A2 ) = |S|
= 36
.
6 A3 = A1 ∩ A2 = A1 , pois A1 ⊂ A2 .
7 P (A3 ) = P (A1 ).
P (A1 ∩A2 ) P (A1 ) 4
8 P (A1 |A2 ) = P (A2 )
= P (A2 )
= 11
.
P (A1 ∩A2 ) P (A1 )
9 P (A2 |A1 ) = P (A1 )
= P (A1 )
= 1.
61 / 247
MP
Probabilidade
Probabilidade
Tentativas de Bernoulli
62 / 247
MP
Probabilidade
Probabilidade
Tentativas de Bernoulli
63 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Considere o experimento “jogar 2 dados honestos e verificar a soma dos
resultados”. Repete-se o experimento 5 vezes.
1 Qual a probabilidade de exatamente 3 jogadas terem soma igual a 9?
2 Qual a probabilidade de pelos menos 1 jogada ter soma igual a 9?
64 / 247
MP
Probabilidade
Probabilidade
Exemplo
65 / 247
MP
Probabilidade
Probabilidade
Exemplo
Problema
Considere o experimento “jogar 3 dados”, e o resultado “saírem 3 dados
iguais”. Repete-se o experimento 10 vezes.
1 Qual a probabilidade do resultado ocorrer mais de 8 vezes se sabemos
que ocorreu mais de 9 vezes?
2 Qual a probabilidade do resultado ocorrer mais de 9 vezes se sabemos
que ocorreu mais de 8 vezes?
66 / 247
MP
Probabilidade
Probabilidade
Exemplo
1 1
Probabilidade do resultado favorável: p = 6 × 6×6×6
= 36
.
1 Note que A = {k > 9} ⊂ B = {k > 8}. Logo,
P (B|A) = P (A)/P (A) = 1.
2 P (A|B) = P (A)/P (B), onde
10 1
P (A) = 1 × 10
0 36
10 1 10 1
P (B) = 35 × 10 + 1 × 10 ,
9 36 0 36
67 / 247
MP
Variável Aleatória
Sumário
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
68 / 247
MP
Variável Aleatória
Impulso e Degrau Unitários
Impulso unitário
δ(x) = 0, x 6= 0
Z 0+
Definição:
δ(x)dx = 1
−
Z0 ∞
Amostragem: φ(x)δ(x − x0 )dx = φ(x0 )
−∞
Degrau unitário
0, x<0
Definição: u(x) =
1, x≥0
Z x
du(x)
u(x) = δ(ξ)dξ ou = δ(x)
−∞
dx
69 / 247
MP
Variável Aleatória
Variável Aleatória
Variável Aleatória
106 CHAPTER 5. DISCRETE RANDOM VARIABLES
Figure 5.1: Mapping of the outcome of a coin toss into the set of real Figure 5.2: Discrete random variable as X(si)
numbers. a one-to-one mapping of a countably infinite
sample space into set of real numbers.
a succession of M coin tosses, we might be interested in the total number of heads
observed. With the defined mapping of
• X
0 Si = tail
X(Si) =
1 52 = head
Sx = {xi,X2,xs,...} • X
S = {51,52,53,.. .} 70 / 247
MP
Variável Aleatória
Variável Aleatória
Definição e propriedades:
CDF = Cumulative Distribution Function: FX (x) = P {X ≤ x}
1 FX (−∞) = 0
2 FX (∞) = 1
3 0 ≤ FX (x) ≤ 1
4 FX (x1 ) ≤ FX (x2 ), se x1 < x2 (monótona não-decrescente)
5 P {x1 < X ≤ x2 } = FX (x2 ) − FX (x1 )
6 FX (x+ ) = FX (x) (contínua pela direita)
7 Para X discreta:
N
P N
P
FX (x) = P {X = xn }u(x − xn ) = P (xn )u(x − xn )
n=1 n=1
71 / 247
MP
Variável Aleatória
Variável Aleatória
Definição e propriedades:
dFX (x)
PDF = Probability Density Function: fX (x) =
dx
1 fX (x) ≥ 0
Z ∞
2 fX (x)dx = 1
−∞
Z x+
3 FX (x) = fX (ξ)dξ
−∞
Z x+
2
4 P {x1 < X ≤ x2 } = fX (x)dx
x+
1
5 Para X discreta:
N
P N
P
fX (x) = P {X = xn }δ(x − xn ) = P (xn )δ(x − xn )
n=1 n=1
72 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
2
Gaussiana ou Normal: X ∼ N X, σX
(x−X)2
1 −
2σ 2
fX (x) = p e X
2
2πσX
Usualmente resulta da composição de efeitos aleatórios independentes
Ex.: ruído num resistor na saída de um amplificador
Versões normalizadas: Z x
1 ξ2
Normal padrão: F (x) = √ e− 2 dξ
−∞ 2π
x−X
Note que F (−x) = 1 − F (x) e que FX (x) = F
σX
Função Q: Q(x) = 1 − F (x)
√
Função erro: erf(x) = 1 − 2Q 2x
√
Função erro complementar: erfc(x) = 2Q 2x
73 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
4\
si
<v 2
o 1
o • f:ILt*^T^ . • l , , | t Tl J l Tj
-21-
-3
-4
-5
10 15 20 25 30
Trial number
( a ) / ^ = 0,^2 = 1 (b) /i = 0,0-2 = 1
10 15 20
Trial number
(c)Ai = 2,cr2 = l {d)f, = 2,a^ = l
Distribuições Contínuas
298 CHAPTER 10. CONTINUOUS RANDOM VARIABLES
Exemplos de PDFs gaussianas e realizações das VAs correspondentes
4Y
si
o 1
o . 1 tftT.tT,^^i^.t^Ttl .f I;
o_i
-21-
-3^
-4\
-5
10 15 20 25 30
Trial number
0.5 5
4
0.4 3
a; 2
:o.3^
8 ' [..TII
liTl
-§ 0 :
0.2
0.1
o_i
-2 i^;l:i l;'*|]i
-3
-5 10 15 20 25 30
Trial number
Distribuições Contínuas
306 CHAPTER 10. CONTINUOUS RANDOM VARIABLES
306 CHAPTER 10. CONTINUOUS RANDOM VARIABLES
Exemplo de CDF gaussiana (normal padrão)
0.5
0.4
0.4
•* I
0.2 [
•* I
o.n
0.2 [
o.n
-4 -3 -2 -1 0 1
X
Figure
(a) Shaded area10.17:
= $(1)Definitions of ^(x) and Q{x) functions.
(b) Shaded area = Q(l)
76 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
77 / 247
MP
Variável Aleatória
Some examples of the evaluation of the CDF are given next.
A
Variável Aleatória
Distribuições Contínuas
10.6.1 Uniform
Using (10.6) we have
VARIABLES
PDF (esquerda, VA X ∼ U (1, 3)) & CDF (direita, VA Xa<x<b
∼ U (1, 2))
1 x>b.
0.6 An example is shown in Figure
0.6 10.14 for a = 1 and 6 = 2.
1.2[
0.5 ^ 1 0.5
1 1 : : :
^0.41-I i i : .: ; ^ 0 . go.4
81-
i
1 1 : : :
51,0.3 ^HO.S
i : 1 : : : 1
0.2 h^ f 1 • . : 0.41-0.2
i i ; : :
o.nr •
1 1 ; : :
0.2 0.1
Distribuições Contínuas
Exponencial: X ∼ exp(a, b)
(x−a)
e− b 10.6. CUMULATIVE DISTRIBUTION FUNCTIONS 3
fX (x) = u(x − a), b>0
b
so that
Ex.: potência de sinal refletido em avião, recebido
0 por radar
x<0
Fx{x) =
1 — exp(—Aa;) a; > 0.
10.An example 1 in Figure
is RANDOM
shown 10.15 for AX= ∼
1.
294 PDF (VACHAPTER
X ∼ exp(0,CONTINUOUS
1), exp(0, 2
VARIABLES
)) & CDF (VA exp(0, 1))
Distribuições Contínuas
De Laplace
q
1
− 2
σ2
|x−X |
X
fX (x) = p e
2
2σX
Exs.: modelo para amplitude de sinais de fala
80 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
,JT..I^.IIIIJI.1 I
0_1 jliU
-2^
-3[
-5
0 10 15 20 25 30
Trial number
"^1
0.8 h Sh
a; 2h
S 1
iJ.r:,T.::r
0.6 h
.J
H nil
II
o 1r
0.4 F
o_i
0.2 h
-si
-AY
-5^ 10 15 20 25 30
Trial number
(c)a^=4 (d) a' =4
Distribuições Contínuas
De Rayleigh
2
2(x − a) − (x−a)
fX (x) = e b u(x − a), b>0
b
Exs.: erro em sistemas de medida; envoltória de ruído após passa-faixa
82 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
Gama: X ∼ Γ(α, λ)
(
λα
Γ(α)
xα−1 e−λx , x≥0
fX (x) = , onde λ > 0 e α > 0
0, x<0
Z ∞
Função gama (fator de normalização): Γ(z) = tz−1 e−t dt
0
Propriedades:
Γ(z + 1) = zΓ(z)
Γ(N )= (N − 1)! para N ∈ N
√
Γ 21 = π
1
Γ(1, λ) ≡ exp 0, λ
(exponencial é um caso particular da gama)
83 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
B 1 A = : ^ 1t
0.5 h
X = 1
- 2 - 1 0 1 2 3 4 5
X
(a) A = 1 (b) a = 2
T{N) = {N-l)r{N-l)
= {N-l){N-2)r{N-3) (let z = N-2now)
= {N-1){N-2)...1 = {N-1)\ 84 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
Chi-Quadrado de ordem N : X ∼ χ2N ≡ Γ N
2
, 1
2
N x
x 2 −1 e− 2 ,
( 1
N x≥0
fX (x) = 2 2 Γ( N
2 )
0, x<0
Ex.: soma dos quadrados de N VAs independentes com PDF N (0, 1)
85 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Contínuas
86 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Discretas
Binomial
N
X N
fX (x) = pk (1 − p)N −k δ(x − k)
k
k=0
Exs.: jogos de azar; detecção por radar/sonar
87 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuições Discretas
De Poisson
∞
X bk
fX (x) = e−b δ(x − k), b>0
k!
k=0
Exs.: unidades defeituosas na produção;
chamadas telefônicas num dado intervalo
N →∞
Binomial com : N = Np = b
p→0
N
num intervalo T , taxa λ = ⇒ b = λT
T
88 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuição Condicional
Funções associadas:
P ({X ≤ x} ∩ B)
FX (x|B) = P {X ≤ x|B} =
P (B)
dFX (x|B)
fX (x|B) =
dx
CDF e PDF têm as mesmas propriedades de antes
89 / 247
MP
Variável Aleatória
Variável Aleatória
Distribuição Condicional
90 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
Problema
Uma variável aleatória (VA) gaussiana X tem média zero e variância
unitária. Descreva analiticamente a PDF da VA X restrita ao intervalo
(−1, 1), isto é fX (x| − 1 < X < 1), e esboce seu gráfico.
91 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
92 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
Problema
A tensão na entrada do receptor de um sistema de comunicação binária
digital é modelada por uma variável aleatória X. Quando o bit 1 é
transmitido, X é gaussiana com média m (em V) e variância σ 2 (em V2 );
quando o bit 0 é transmitido, X é gaussiana com média −m e variância σ 2 .
A probabilidade de que o bit 1 seja transmitido é 40%.
1 Determine as expressões de FX (x|T 0) e FX (x|T 1) em função de m e σ,
onde T 0 e T 1 são os eventos que indicam as transmissões dos bits 0 e 1,
respectivamente.
93 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
94 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
Problema
A tensão na entrada do receptor de um sistema de comunicação binária
digital é modelada por uma variável aleatória X. Quando o bit 1 é
transmitido, X é gaussiana com média m (em V) e variância σ 2 (em V2 );
quando o bit 0 é transmitido, X é gaussiana com média −m e variância σ 2 .
A probabilidade de que o bit 1 seja transmitido é 40%.
2 O receptor decide se chegou um bit 0 ou um bit 1 com base no valor
95 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
96 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
Problema
A tensão na entrada do receptor de um sistema de comunicação binária
digital é modelada por uma variável aleatória X. Quando o bit 1 é
transmitido, X é gaussiana com média m (em V) e variância σ 2 (em V2 );
quando o bit 0 é transmitido, X é gaussiana com média −m e variância σ 2 .
A probabilidade de que o bit 1 seja transmitido é 40%.
3 Encontre o limiar ótimo λo que minimiza a probabilidade de erro de bit
do item b.II) em função de m e σ.
97 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
portanto, temos:
σ2
λo ≈ 0,2027
m
98 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
Problema
A tensão na entrada do receptor de um sistema de comunicação binária
digital é modelada por uma variável aleatória X. Quando o bit 1 é
transmitido, X é gaussiana com média m (em V) e variância σ 2 (em V2 );
quando o bit 0 é transmitido, X é gaussiana com média −m e variância σ 2 .
A probabilidade de que o bit 1 seja transmitido é 40%.
4 O parâmetro m está ligado à potência do sinal transmitido, e o
parâmetro σ 2 , à potência do ruído do canal de comunicação. O
projetista do sistema tem controle sobre o primeiro (que idealmente
deve ser minimizado), mas não sobre o segundo. Suponha que σ 2 = 2
V2 . Encontre o menor valor do parâmetro m para garantir que a
probabilidade de X ≤ 0 seja menor que 0,2%, caso tenha sido
transmitido um bit 1. Esboce as PDFs fX (x|T 0) e fX (x|T 1) no mesmo
gráfico, marcando sobre ele o limiar ótimo.
99 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
100 / 247
MP
Variável Aleatória
Variável Aleatória
Exemplo
0.35
0.3
PDFs de X dado T0 e dado T1
0.25
Limiar
0.2
0.15
0.1
0.05
0
−10 −8 −6 −4 −2 0 2 4 6 8 10
X=x (em V)
101 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Média Estatística
Valor esperado de X
Z ∞
Definição: E[X] = X = x fX (x)dx
−∞
N
X
Para variável aleatória discreta: E[X] = xi P (xi )
i=1
Z ∞
Generalização: E[g(X)] = g(x) fX (x)dx
−∞
Z ∞
Média condicional: E[X|B] = x fX (x|B)dx
−∞
Rb
x fX (x)dx
Se B = {a < X ≤ b}: E[X|a < X ≤ b] = Ra b
a X
f (x)dx
102 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Momentos
em torno da origem:
Definição: mn = E[X n ]
m1 = X: média
m2 = X 2 : valor quadrático médio
103 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
Problema
Uma caixa contém 4 bolas numeradas de 1 a 4. Uma pessoa retira uma
bola e a devolve, retira outra e a devolve, continuando esse processo até
retirar uma bola que já foi retirada anteriormente. Seja N uma variável
aleatória que indica o número total de retiradas necessárias para obter essa
repetição.
1 Para cada n ∈ {2, 3, 4, 5}, determine P (N = n).
2 Determine a expressão de fN (n).
3 Determine a expressão de FN (n).
4 Calcule N .
5 Calcule o desvio-padrão da variável aleatória N .
6 Calcule a probabilidade de N ser menor ou igual a 4.
104 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
1
4 1 1 8
P (N = 2) = × = =
4 4 4 32
4 3 2 3 12
P (N = 3) = × × = =
4 4 4 8 32
4 3 2 3 9
P (N = 4) = × × × =
4 4 4 4 32
4 3 2 1 4 3
P (N = 5) = × × × × =
4 4 4 4 4 32
2
105 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
8 × 2 + 12 × 3 + 9 × 4 + 3 × 5
N= ≈ 3,2188
32
5 Calculemos primeiramente N 2 :
8 × 22 + 12 × 32 + 9 × 42 + 3 × 52
N2 = ≈ 11,2188.
32
2 2
Portanto, σN = N 2 − N ≈ 11,2188 − (3,2188)2 ≈ 0,8584. Logo, o
desvio-padrão da VA N é σN ≈ 0,9265.
6 Basta calcularmos FN (4). Sendo assim,
8 + 12 + 9
FN (4) = ≈ 90,62%.
32
106 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Função característica
Definição: ΦX (ω) = E[ejωX ], ω∈R
n
d ΦX (ω)
Uso: mn = (−j)n dω n
ω=0
107 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Desigualdades Úteis
108 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
Problema
Seja X uma variável aleatória binomial com PDF
N
X N
fX (x) = pk (1 − p)N −k δ(x − k), N ≥ 2, p > 0.
k
k=0
109 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
Note que
N
X N
MX (ν) = (peν )k (1 − p)N −k = [peν + (1 − p)]N .
k
k=0
Portanto,
2 2
de forma que σX = X 2 − X = N p(1 − p), o que responde o item (b).
110 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
−peν − (1 − p) + eν = 0 ⇔ ν = 0.
111 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
112 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
Problema
A tensão sobre um resistor é modelada como uma variável aleatória E
uniformemente distribuída entre 5 e 10 V. Sabendo que a potência (em
Watts) dissipada no resistor é
E2
W = ,
r
com r = 1000 Ω, determine:
1 A PDF fE (e).
2 O valor esperado E.
3 A PDF fW (w).
2
4 O valor esperado W . Compare o valor obtido com E /r.
5 O desvio-padrão da variável aleatória W .
113 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
114 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
1 1
temos que, para w ∈ [ 40 , 10
],
√ √ r
fE ( rW ) fE (− rW ) 1/5 10
fW (w) = p w
+ p w
= p w
= ,
| | |− | w
250 250 250
√
uma vez que fE (− rW ) = 0. Portanto,
r
10 1 1
h i
fW (w) = u w− −u w− .
w 40 10
4
Z +∞ Z 1 r
10 10
W = wfW (w)dw = w dw
−∞ 1 w
40
+∞ 10
e2 1 e2
Z Z
= fE (e)de = de
−∞
r 5
5 1000
1 10 1000 − 125
= e3 = ≈ 0,0583.
15000 5 15000
115 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
2
Note que E /r = (7)2 /1000 ≈ 0,0563. Isso ocorre porque, embora a
potência seja uma função da tensão, há distorções durante a conversão
entre as PDFs de E e W .
5 Calculemos primeiramente W 2 :
Z +∞ Z 1 r
2
10
2 10
W2 = w fW (w)dw = w dw
−∞ 1 w
40
1
√ √ 2 5/2 10
1
Z
10
= 10 w3/2 dw = 10 w ≈ 0,0039.
1 5 1
40
40
116 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
Problema
Uma partícula de massa não-nula deixa a origem com uma velocidade
vetorial com magnitude v > 0 e ângulo Θ.
g
v ⇥
0
D
v2
D= sen(2Θ)
g
da origem, onde g > 0 é a aceleração da gravidade. Assuma que Θ é uma
variável aleatória uniforme entre 0 e π2 .
117 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
Problema
g
v ⇥
0
D
118 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
2
π
1 fΘ (θ) = π
u(θ) − u θ − 2
π
2 Θ= 4
π π
v2 v2 2 v2 1 2v 2
R
3 E[D] = g
E[sen(2Θ)] = g π 0
2
sen(2θ)dθ = g π
[−cos(2θ)]02 = πg
4 Note que d = T (θ) e q
2v 2 v2
2 v2
2
T 0 (θ) = g
cos(2θ) = ±2 g
− g
sen2 (2θ), de forma que, para
q 2
v2
θ entre 0 e π
2
, temos T 0 (T −1 {d}) = 2 g
− d2 ou
q
v2 2
T 0 (T −1 {d}) = −2
π
g
− d2 . Portanto, para θ entre 0 e 2
, temos d
2
v
variando de 0 a g
e
2 2
π π 2
fD (d) = q + q = q 2 ,
v2 2 v2 2 v2
− d2
− π
−2 − d2
2 d 2
g g g
119 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
Exemplo
s vg2
v2 2
2v 2
Z
g 2d 2 v2
E[D] = q dd = − − d2 =
v2 2
π g πg
0 π g
− d2 0
π
v4 v4 1 v4
R
6 E[D2 ] = g2
E[sen2 (2Θ)] = g2 π
2
0
[1 − cos(4θ)]dθ = 2g 2
2
⇒ σD =
v4 π 2 −8
g2 2π 2
120 / 247
MP
Variável Aleatória
Operações sobre Variável Aleatória
121 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Construção
Mapeamento de cada resultado de um experimento aleatório
em mais de um valor real: s → (X(s), Y (s))
Múltiplas variáveis aleatórias (X(s) e Y (s)) descritas conjuntamente
Se A = {X ≤ x} e B = {Y ≤ y},
A ∩ B = {X ≤ x, Y ≤ y} é evento conjunto
Extensível para qualquer ordem N : s → (X1 (s), X2 (s), . . . , XN (s))
122 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Definições e propriedades
CDF conjunta: FX,Y (x, y) = P {X ≤ x, Y ≤ y}
FX,Y (−∞, −∞) = FX,Y (−∞, y) = FX,Y (x, −∞) = 0
FX,Y (∞, ∞) = 1
0 ≤ FX,Y (x, y) ≤ 1
FX,Y (x, y) é não-decrescente em x e y
P {x1 < X ≤ x2 , y1 < Y ≤ y2 } =
FX,Y (x2 , y2 ) + FX,Y (x1 , y1 ) − FX,Y (x1 , y2 ) − FX,Y (x2 , y1 ) ≥ 0
123 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Definições e propriedades
CDFs marginais:
FX,Y (x, ∞) = FX (x)
FX,Y (∞, y) = FY (y)
variáveis aleatórias discretas:
N M
X X
FX,Y (x, y) = P (xn , ym )u(x − xn )u(y − ym )
n=1 m=1
extensão para N variáveis:
FX (x) = FX1 ,X2 ,...,XN (x1 , x2 , . . . , xN ) = P {X1 ≤ x1 , X2 ≤ x2 , . . . , XN ≤ xN }
124 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
125 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
126 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Distribuição Condicional
Condição pontual
Rx Rx
−∞
fX,Y (ξ, y)dξ −∞
fX,Y (ξ, y)dξ
FX (x|Y = y) = FX (x|y) = R ∞ =
fX,Y (x, y)dx fY (y)
−∞
fX,Y (x, y)
fX (x|Y = y) = fX (x|y) =
fY (y)
variáveis aleatórias discretas:
N
X
FX (x|yk ) = P (xi |yk )u(x − xi )
i=1
N
X
fX (x|yk ) = P (xi |yk )δ(x − xi )
i=1
P (xi , yk )
P (xi |yk ) =
P (yk )
127 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Distribuição Condicional
Condição intervalar
FX,Y (x,yb )−FX,Y (x,ya ) FX,Y (x,yb )−FX,Y (x,ya )
FX (x|ya < Y ≤ yb ) = FX,Y (∞,yb )−FX,Y (∞,ya )
= FY (yb )−FY (ya )
R yb R yb
fX,Y (x,y)dy fX,Y (x,y)dy
fX (x|ya < Y ≤ yb ) = R yb Rya∞ = yRa yb
fX,Y (x,y)dxdy fY (y)dy
ya −∞ ya
128 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Independência Estatística
129 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Independência Estatística
Soma de variáveis aleatórias independentes
Para duas VAs independentes, com Y = X1 + X2 , tem-se:
Z ∞ Z y−x2
FY (y) = P {X1 ≤ y − X2 } = fX1 ,X2 (x1 , x2 )dx1 dx2
−∞ −∞
Z ∞ Z y−x2
= fX2 (x2 ) fX1 (x1 )dx1 dx2
−∞ −∞
⇓
Z ∞
fY (y) = fX2 (x2 )fX1 (y − x2 )dx2
−∞
A extensão para X1 , X2 , . . . , XN é:
N
X
Y = Xn ⇒ fY (y) = (fX1 ∗ fX2 ∗ · · · ∗ fXN )(y)
n=1
130 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Exemplo
Problema
O último ônibus do BRT chega no Terminal Aroldo Melodia (Fundão) e
para por 5 min antes de prosseguir. O instante de chegada do ônibus,
contado a partir das 22h30, pode ser modelado por uma variável aleatória
X (em minutos). Considere que o instante de chegada de um estudante da
UFRJ no terminal em questão, também contado a partir das 22h30, seja
uma variável aleatória Y (em minutos) e que a distribuição conjunta de tais
variáveis seja
fX,Y (x, y) = 0,06e−(0,15x+0,4y) u(x)u(y).
131 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Exemplo
R∞
1 fX (x) = −∞
fX,Y (x, y)dy = 0,15e−0,15x u(x) e fY (y) = 0,4e−0,4y u(y).
2 fX (x|Y = y) = fX,Y (x, y)/fY (y) = fX (x) e
fY (y|X = x) = fX,Y (x, y)/fX (x) = fY (y).
3 Sim, pois fX,Y (x, y) = fX (x)fY (y).
R 20
4 Basta calcular P {X < 20} = 0
0,15e−0,15x dx = 1 − e−3 ≈ 0,95.
132 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Exemplo
Problema
O último ônibus do BRT chega no Terminal Aroldo Melodia (Fundão) e
para por 5 min antes de prosseguir. O instante de chegada do ônibus,
contado a partir das 22h30, pode ser modelado por uma variável aleatória
X (em minutos). Considere que o instante de chegada de um estudante da
UFRJ no terminal em questão, também contado a partir das 22h30, seja
uma variável aleatória Y (em minutos) e que a distribuição conjunta de tais
variáveis seja
fX,Y (x, y) = 0,06e−(0,15x+0,4y) u(x)u(y).
133 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Exemplo
5 Tal horário será 22h30min +ymax , onde ymax pode ser calculado a
partir de P {X + 5 > ymax } ≥ 0,5. Portanto, ymax ≤ 9,62 min, ou seja,
o horário máximo seria 22 horas e 39,62 minutos.
R ∞ R x+5
6 Basta calcular P {X + 5 ≥ Y } = 0 0
fX,Y (x, y)dydx ≈ 0,963.
7 Note que W = X + Y , onde Y = −Y e fY 0 (y 0 ) = fY (−y 0 ). Note
0 0
134 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Exemplo
Problema
O último ônibus do BRT chega no Terminal Aroldo Melodia (Fundão) e
para por 5 min antes de prosseguir. O instante de chegada do ônibus,
contado a partir das 22h30, pode ser modelado por uma variável aleatória
X (em minutos). Considere que o instante de chegada de um estudante da
UFRJ no terminal em questão, também contado a partir das 22h30, seja
uma variável aleatória Y (em minutos) e que a distribuição conjunta de tais
variáveis seja
fX,Y (x, y) = 0,06e−(0,15x+0,4y) u(x)u(y).
135 / 247
MP
Variável Aleatória
Variáveis Aleatórias Múltiplas
Exemplo
8 Tem-se
0, w<0
fW (w | W ≥ 0) = .
fW (w)/P {W ≥ 0} = 0,15e−0,15w , w≥0
R∞ 1
9 W |W ≥ 0 = 0
wfW (w | W ≥ 0)dw = 0,15
≈ 6,66 min.
136 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Momentos conjuntos
Valor esperado
Z ∞ Z ∞
E[g(X1 , · · · , XN )] = ··· g(x1 , . . . , xN )fX1 ,...,XN (x1 , . . . , xN )dx1 . . . dxN
−∞ −∞
137 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Momentos conjuntos
138 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Função característica
ΦX1 ,...,XN (ω1 , . . . , ωN ) = E[ejω1 X1 +···+jωN XN ]
∂ n1 +···+nN ΦX1 ,...,XN (ω1 , . . . , ωN )
mn1 ,...,nN = (−j)n1 +···+nN nN
∂ω1n1 · · · ∂ωN
139 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
TCL
N
X
Sendo YN = Xn , com Xn independentes, lim YN → gaussiana
N →∞
n=1
Também se aplica para certos casos de variáveis aleatórias dependentes
Condições conjuntamente suficientes:
2
σX > B1 > 0
n
E[|Xn − Xn |3 ] < B2 > 0
Caracteriza aproximadamente a CDF, mas não necessariamente a
PDF. Ex.: caso discreto
Utilidade: N elevado
O erro aumenta longe da média
140 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Exemplo
Problema
2
Considere uma variável aleatória X com média X e variância σX = 1.
Dispõe-se de N amostras de X, denotadas por x1 , x2 , · · · , xN , obtidas
independentemente. Estime o valor necessário de N para que a média
amostral
N
P
xn
n=1
x̂ =
N
esteja numa faixa de ±0,098 em torno de X com 95% de segurança, isto é,
ˆ − X| ≤ 0,098] = 0,95.
P [|X
141 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Exemplo
Pelo Teorema Central do Limite, a PDF f ˆ (x̂) pode ser aproximada por uma
X
ˆ ˆ
PDF gaussiana, já que X é uma soma de VAs i.i.d., em que X = X e
σ 2ˆ = σX
2 /N = 1/N . Logo,
X
ˆ
(x−X) 2
1 − 2(1/N )
f ˆ (x̂) ≈ p e .
X 1
2π N
ˆ
Para facilitar, note que Y = X − X é uma VA gaussiana com média zero e
variância 1/N . Queremos calcular N tal que
P [|Y | ≤ 0,098] = P [−0,098 ≤ Y ≤ 0,098] = 0,95. Como
P [−0,098 ≤ Y ≤ 0,098] = P [Y ≤ 0,098] − P [Y ≤ −0,098] e como
P [Y ≤ −0,098] = 1 − P [Y ≤ 0,098], então
P [|Y | ≤ 0,098] = 2P [Y ≤ 0,098] − 1 = 0,95 ⇔ P [Y ≤ 0,098] = 0,975. Uma vez que
!
0,098 − 0 √
P [Y ≤ 0,098] = FY (0,098) = F p = F (0,098 N ) = 0,95,
1/N
√
então, pela tabela da normal padrão, temos 0,098 N ≈ 1,96 ⇔ N ≈ 400.
142 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
N variáveis gaussianas
−1
(x−X)T C (x−X)
X
fX (x) = √ 1
e− 2
(2π)N |CX |
143 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Transformações
Quaisquer: Y = T(X)
Princípio: FX (x) −→ FY (y)
Se T é inversível, isto é, X = T−1 (Y): ∂X1 ∂X1
∂Y ··· ∂YN
1
. ..
fY (y) = fX (x = T−1 (y))|J(y)|, J(Y) = .. .
∂X ∂XN
N
∂Y1
··· ∂YN
Lineares: Y = TX
Se X tem vetor de médias X e matriz de covariâncias CX :
Y = TX
CY = TCX TT
No caso de X gaussiana, isso determina completamente Y
144 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Simples
Possível modelo: Z = X + jY com fX,Y (x, y)
Z ∞ Z ∞
Valor esperado: E[g(Z)] = g(z)fX,Y (x, y)dxdy
−∞ −∞
Média: Z = X + jY
2
Variância: σZ = E[|Z − Z|2 ]
145 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Múltiplas
Duas variáveis:
Zm = Xm + jYm
com fXm ,Ym ,Xn ,Yn (xm , ym , xn , yn )
Zn = Xn + jYn
Zm e Zn independentes:
fXm ,Ym ,Xn ,Yn (xm , ym , xn , yn ) = fXm ,Ym (xm , ym )fXn ,Yn (xn , yn )
∗
Correlação: RZm Zn = E[Zm Zn ]
∗
RZm Zn = Zm Zn : Zm e Zn descorrelacionadas
RZm Zn = 0: Zm e Zn ortogonais
Covariância: CZm Zn = E[(Zm − Zm )∗ (Zn − Zn )]
CZm Zn = 0: Zm e Zn descorrelacionadas
146 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Nome:Exemplo
Problema
• Questão 2: As variáveis aleatórias X1 e X2 com PDF conjunta fX1 ,X2 (x1 , x2 ) são
transformadas nas variáveis aleatórias Y1 = aX1 + bX2 e Y2 = cX1 + dX2 . A
transformação é inversı́vel.
Exemplo
MODELOS PROBABILÍSTICOS EM ENGENHARIA
Prof. Luiz Wagner – 2013/1
TESTE 5
• Questão 2:
! ! !
Y1 a b X1
(a) =
Y2 c d X2
! ! !
X1 1 d b Y1
(b) =
X2 ad bc c a Y2
d b
ad bc ad bc 1
(c) J = c a =
ad bc
ad bc ad bc ✓ ◆
1 dy1 by2 cy1 + ay2 148 / 247
MP
Variável Aleatória
Operações sobre Variáveis Aleatórias Múltiplas
Questão 1: Na variável complexa Z = M ej⇥ , M e ⇥ são variáveis aleatórias reais
• Exemplo
mutuamente independentes, com M = 0 e M 2 , ⇥ e 2 conhecidos. Calcule 2 em
⇥ Z
função desses parâmetros.
Problema
• Questão 2: As variáveis aleatórias X1 e X2 com PDF conjunta fX1 ,X2 (x1 , x2 ) são
transformadas nas variáveis aleatórias Y1 = aX1 + bX2 e Y2 = cX1 + dX2 . A
transformação é inversı́vel.
• Questão 2:
! ! !
Y1 a b X1
(a) =
Y2 c d X2
! ! !
X1 1 d b Y1
(b) =
X2 ad bc c a Y2
d b
ad bc ad bc 1
(c) J = c a =
ad bc
ad bc ad bc ✓ ◆
1 dy1 by2 cy1 + ay2
fY1 ,Y2 (y1 , y2 ) = fX1 ,X2 , .
|ad bc| ad bc ad bc
• Questão 3:
(a) calcule a em função dos momentos dados para que as novas variáveis sejam:
I. ortogonais.
II. descorrelacionadas.
(b) X1 e X2 independentes garantem Y1 e Y2 descorrelacionadas?
151 / 247
MP d b
Variável Aleatória
ad bc ad bc 1
(c) J =
Operações sobre Variáveis Aleatórias Múltiplas
c a =
ad bc
Exemplo ad bc ad bc ✓ ◆
1 dy1 by2 cy1 + ay2
fY1 ,Y2 (y1 , y2 ) = fX1 ,X2 , .
|ad bc| ad bc ad bc
• Questão 3:
152 / 247
MP
Tópicos de Estatística
Sumário
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
153 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Estatística
Definição
Contexto: N Variáveis aleatórias i.i.d. Xn , n ∈ {1, . . . , N }
(por exemplo, N amostras independentes de fX (x))
g(X) é uma estatística se não depende de parâmetros desconhecidos
Exemplos:
N
1 X
X
b= Xn é uma estatística
N
n=1
N
1 X
2
σc
X = (Xn − X)2 não é uma estatística
N
n=1
154 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Estimação
Nomenclatura
Um estimador obtém estimativas
a partir de dados observados (observações aleatórias/amostras
aleatórias) X
Um estimador paramétrico pressupõe um modelo
e resume o problema à estimação de seus parâmetros
Ex.: Estimar uma PDF gaussiana a partir de amostras da distribuição
Um estimador não-paramétrico é geral
Ex.: Estimar uma PDF qualquer a partir de amostras da distribuição
155 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Definições
Estimador Θ b = g(X) obtém estimativas θb = g(x)
a partir de observações/amostras/realizações x
b é uma variável aleatória com amostras θb
Θ
156 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Exemplos
157 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Estimadores Populares
158 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Critérios de qualidade
Polarização:
b(Θ b] − θ
b ) = E[Θ
b(Θ) diz se o estimador acerta na média (se é acurado).
b
MSE – Mean Square Error:
b − θ)2 ] = b2 (Θ
b ) = E[(Θ
MSE(Θ b ) + σ2
Θ
b
σ 2 diz se as estimativas são pouco espalhadas (se o estimador é preciso).
Θ
b
MSE(Θ
b ) dá o erro total, combinando os dois aspectos.
Consistência:
b − θ| ≥ ) = 0, ∀ > 0 ou
b é consistente se lim P (|Θ
Θ
N →∞
b − θ| < ) = 1, ∀ > 0
lim P (|Θ
N →∞
Por Chebyshev, mostra-se que um estimador não polarizado com
lim σ 2 = 0 é consistente
N →∞ Θ
b
159 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Estimação de Intervalo
Limites de Confiança
Hipótese: O estimador não é polarizado.
h i
b− ∆ ∆
Calcula-se que θ está no intervalo Θ 2
,Θ
b+ 2
com P % de probabilidade
Diz-se que ∆ é o intervalo de P % de confiança das estimativas
160 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Exemplo
Problema
Sabe-se que a variável aleatória (VA) discreta X possui distribuição de
Poisson
∞
X θk
fX (x) = e−θ δ(x − k) , com θ > 0.
k!
k=0
161 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Exemplo
e−θ θ x
1 P {X = x | θ} = x!
2
P
N xn
Y e−N θ θ n
P {X = x | θ} = P {Xn = xn | θ} = Q
n
xn !
n=1
3 Basta maximizar P {X = x | θ} em termos de θ. Como
P
−N θ+ xn ln θ
∂P {X = x | θ} ∂ e n
1
= Q
∂θ x !
n n
∂θ
P
−N θ+ xn ln θ
P
e n
n
xn
= Q −N + ,
n
xn ! θ
então
n o
∂P X = x | θbML P
xn
N
n 1 X
= 0 ⇔ −N + =0⇒Θ
b ML = Xn
∂θ θbML N
n=1
162 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Exemplo
Problema
Sabe-se que a variável aleatória (VA) discreta X possui distribuição de
Poisson
∞
X θk
fX (x) = e−θ δ(x − k) , com θ > 0.
k!
k=0
163 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Exemplo
4 Não, pois
N N ∞ ∞
1 X 1 X θk θk
h i X X
E Θ
b ML = E[Xn ] = X = X = e−θ k = e−θ k
N N k! k!
n=1 n=1 k=0 k=1
∞
−θ
X θl
= θe = θ.
l!
l=0
| {z }
=eθ
5 Sim, pois, uma vez que ele não é polarizado, basta olharmos para σ 2
ΘML
b
dado por
N N
1 XX σ 2 N →∞
h i
2 b ML − X)2 =
σΘ = E (Θ E[(Xn − X)(Xm − X)] = X −→ 0.
b ML N2 N
n=1 m=1
164 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Exemplo
Problema
6 Se em vez de constante, θ é uma amostra da variável aleatória Θ, então
é possível buscar um estimador Θ
b MAP que maximiza
P {X = x | θ} fΘ (θ)
fΘ (θ|x) = .
P {X = x}
encontre Θ
b MAP e forneça uma explicação “intuitiva” sobre o porquê de,
neste caso, θbMAP < θbML .
165 / 247
MP
Tópicos de Estatística
Estatística e Estimadores
Exemplo
1
6 1 Neste caso, fΘ (θ) = M [u(θ) − u(θ − M )] de tal forma que maximizar
fΘ (θ|x) equivale a maximizar P {X = x | θ} pois os demais termos não
dependem de θ. Portanto, Θ b ML = Θb MAP .
2
P
−N θ−λθ+ xn ln θ
∂ e n
∂fΘ (θ|x) λ
= Q ,
∂θ P {X = x} n xn ! ∂θ
então
P N
∂fΘ (θbMAP |x) x
n n b MAP = 1
X
= 0 ⇔ −N − λ + =0⇒Θ Xn .
∂θ θbMAP N +λ
n=1
De fato, como λ > 0, temos θbMAP < θbML sempre. Isso era esperado pois,
diferentemente do caso uniforme em que não há preferências a priori
entre valores de θ (entre 0 e M ), no caso exponencial, faixas de valores
de θ maiores possuem probabilidade a priori menor de ocorrência do que
faixas de valores de θ menores. Ou seja, valores menores de θ são
preferíveis a priori e essa preferência é parametrizada por λ (quanto
maior for esse valor, mais preferência a valores menores de θ). Portanto,
o resultado obtido já era esperado, do ponto de vista “intuitivo”.
166 / 247
MP
Processo Aleatório
Sumário
1 Probabilidade
2 Variável Aleatória
3 Tópicos de Estatística
4 Processo Aleatório
167 / 247
MP
Processo Aleatório
Processo Aleatório
Construção e terminologia
Dados os resultados s de um experimento aleatório, constrói-se:
variável aleatória X(s) = X com valores reais x;
processo aleatório X(s, t) = X(t) com funções reais x(t).
Um conjunto de x(t) = ensemble.
Cada x(t) = [membro de ensemble, função-amostra ou realização]
do processo.
Cada X(s, ti ) = X(ti ) é uma variável aleatória com valores x(ti ).
168 / 247
MP
Processo Aleatório
Processo Aleatório
Classificações
Generalização
Processo aleatório X(t) (tempo contínuo t)
Sequência aleatória X[n] (tempo discreto n)
Conforme a amplitude x:
contínuo/a
discreto/a
Conforme a preditibilidade:
determinístico/a = x(t) ou x[n] preditível por suas amostras passadas
não-determinístico/a = x(t) ou x[n] impreditível por suas amostras
passadas
169 / 247
MP
Processo Aleatório
Processo Aleatório
Exemplo
Problema
Considere a grandeza D que descreve o número de dias em que houve mais
que 5 mm de precipitação de chuva, a cada mês m, em cada local
(aleatoriamente escolhido) sobre o hemisfério sul da Terra.
1 O modelo probabilístico mais adequado para isso é na forma de um
processo aleatório ou de uma sequência aleatória? Explique sua
resposta.
2 O modelo escolhido no item anterior deve ser tornado contínuo ou
discreto? Explique sua resposta.
3 Esboce 2 ou 3 realizações do modelo como exemplos.
170 / 247
MP
Processo Aleatório
Processo Aleatório
Exemplo
171 / 247
MP
Processo Aleatório
Processo Aleatório
Descrição Estatística
172 / 247
MP
Processo Aleatório
Processo Aleatório
Descrição Estatística
173 / 247
MP
Processo Aleatório
Processo Aleatório
Independência Estatística
174 / 247
MP
Processo Aleatório
Processo Aleatório
175 / 247
MP
Processo Aleatório
Processo Aleatório
176 / 247
MP
Processo Aleatório
Processo Aleatório
Estacionariedade
de processo aleatório
de 1a . ordem:
fX (x1 ; t1 ) = fX (x1 ; t1 + ∆), ∀t1 , ∆
fX (x1 ; t) independe de t
Consequência: X(t) = X
de 2a . ordem:
fX (x1 , x2 ; t1 , t2 ) = fX (x1 , x2 ; t1 + ∆, t2 + ∆), ∀t1 , t2 , ∆
fX (x1 , x2 ; t, t + τ ) independe de t, ∀τ
Consequência: RXX (t, t + τ ) = RXX (τ )
..
.
de La . ordem
177 / 247
MP
Processo Aleatório
Processo Aleatório
Estacionariedade
de processo aleatório
no sentido estrito (SSS – strict-sense stationarity): ∀L
no sentido amplo (WSS – wide-sense stationarity):
X(t) = X
RXX (t, t + τ ) = RXX (τ )
X(t) e Y (t) WSS
conjunta no sentido amplo:
RXY (t, t + τ ) = RXY (τ )
178 / 247
MP
Processo Aleatório
Processo Aleatório
Estacionariedade
de sequência aleatória
de 1a . ordem:
fX (x1 ; n1 ) = fX (x1 ; n1 + ∆), ∀n1 , ∆
fX (x1 ; n) independe de n
Consequência: X[n] = X
de 2a . ordem:
fX (x1 , x2 ; n1 , n2 ) = fX (x1 , x2 ; n1 + ∆, n2 + ∆), ∀n1 , n2 , ∆
fX (x1 , x2 ; n, n + k) independe de n, ∀k
Consequência: RXX [n, n + k] = RXX [k]
..
.
de La . ordem
179 / 247
MP
Processo Aleatório
Processo Aleatório
Estacionariedade
de sequência aleatória
no sentido estrito (SSS – strict-sense stationarity): ∀L
no sentido amplo (WSS – wide-sense stationarity):
X[n] = X
RXX [n, n + k] = RXX [k]
X[n] e Y [n] WSS
conjunta no sentido amplo:
RXY [n, n + k] = RXY [k]
180 / 247
MP
Processo Aleatório
Processo Aleatório
Médias temporais
em processos aleatórios
Z T
1
Definição: A[f (t)] = lim f (t)dt
T →∞ 2T
−T
Média temporal de realização do processo X(t): x = A[x(t)]
Calculada sobre todas as realizações, X é uma variável aleatória.
E[X ] = E[A[X(t)]] = A[E[X(t)]] = A[X(t)]
Autocorrelação temporal de realização do processo X(t):
rxx (τ ) = A[x(t)x(t + τ )]
Calculada sobre todas as realizações, Rxx (τ ) é uma variável aleatória.
E[Rxx (τ )] = E[A[X(t)X(t+τ )]] = A[E[X(t)X(t+τ )]] = A[RXX (t, t+τ )]
Correlação temporal cruzada de realizações dos processos X(t) e Y (t):
rxy (τ ) = A[x(t)y(t + τ )]
181 / 247
MP
Processo Aleatório
Processo Aleatório
Médias temporais
em sequências aleatórias
N
1 X
Definição: A[f [n]] = lim f [n]
N →∞ 2N + 1
n=−N
182 / 247
MP
Processo Aleatório
Processo Aleatório
Ergodicidade
Conceito
A propriedade da ergodicidade autoriza a substituição de E[·] por A[·].
Há diversos níveis de ergodicidade.
183 / 247
MP
Processo Aleatório
Processo Aleatório
Processo Ergódico
para a média:
2
Processo X(t) com X é ergódico para a média se X = x ⇔ σX = 0.
Se X(t) é WSS, é ergódico para a média:
Z 2T
1 τ
⇔ lim CXX (τ ) 1 − dτ = 0.
T →∞ T 2T
0 Z ∞
se CXX (0) < ∞, lim CXX (τ ) → 0 e |CXX (τ )|dτ < ∞.
|τ |→∞
−∞
184 / 247
MP
Processo Aleatório
Processo Aleatório
Processo(s) Ergódico(s)
para a correlação:
Processo X(t) com RXX (τ ) é ergódico para a autocorrelação se
2
RXX (τ ) = rxx (τ ) ⇔ σR xx (τ )
= 0.
Dois processos X(t) e Y (t) são ergódicos para a correlação cruzada se
RXY (τ ) = rxy (τ ).
As condições para isso recaem sobre momentos de 4a. ordem.
185 / 247
MP
Processo Aleatório
Processo Aleatório
Sequência Ergódica
para a média:
2
Sequência X[n] com X é ergódica para a média se X = x ⇔ σX = 0.
Se X[n] é WSS, é ergódica para a média:
M
1 |k|
X
⇔ lim CXX [k] 1 − = 0.
M →∞ 2M + 1 2M + 1
k=−M
∞
X
se CXX [0] < ∞, lim CXX [k] → 0 e |CXX [k]| < ∞.
|k|→∞
k=−∞
186 / 247
MP
Processo Aleatório
Processo Aleatório
Sequência(s) Ergódica(s)
para a correlação:
Sequência X[n] com RXX [k] é ergódica para a autocorrelação se
2
RXX [k] = rxx [k] ⇔ σR xx [k]
= 0.
Duas sequências X[n] e Y [n] são ergódicas para a correlação cruzada se
RXY [k] = rxy [k].
As condições para isso recaem sobre momentos de 4a. ordem.
187 / 247
MP
Processo Aleatório
Processo Aleatório
Exemplo
Problema
Considere a grandeza D que descreve o número de dias em que houve mais
que 5 mm de precipitação de chuva, a cada mês m, em cada local
(aleatoriamente escolhido) sobre o hemisfério sul da Terra.
1 Você acha razoável atribuir estacionariedade ao modelo? Argumente.
2 Você acha razoável atribuir ergodicidade ao modelo? Argumente.
188 / 247
MP
Processo Aleatório
Processo Aleatório
Exemplo
189 / 247
MP
Processo Aleatório
Processo Aleatório
Exemplo
Problema
As baterias AAA de 1,5 V da Tabajara Ltda. apresentam em circuito
aberto uma tensão b constante em seus terminais, que pode ser modelada
estatisticamente como uma variável aleatória B com densidade de
probabilidade fB (b) uniforme entre 1,62 e 1,66 V. Suponha que as baterias
foram fabricadas há um tempo “infinito”, e que em circuito aberto elas não
sofram descarga. Considere o processo aleatório B(t) que modela a tensão
em circuito aberto de cada bateria, aleatoriamente escolhida, ao longo do
tempo.
(a) Escreva a PDF fB (b; t).
(b) Escreva a PDF fB (b1 , b2 ; t1 , t2 ).
(c) Quão estacionário é o processo? Justifique.
(d) O processo é ergódico para a média? Justifique.
(e) Calcule E[B(t)] e A[b(t)].
(f) Calcule RBB (t, t + τ ) e rbb (τ ).
190 / 247
MP (e) Não. Locais diferentes podem ter comportamentos diferentes (mais chuvosos
Processo Aleatório
uns, menos chuvosos outros), não garantindo equivalência entre as realizações
Processo Aleatório
que compõem o processo.
Exemplo
• Questão 2:
1
(a) fB (b; t) = fB (b) = (u(b − 1,62) − u(b − 1,66)).
0,04
(b) fB (b1 , b2 ; t1 , t2 ) = fB1 (b1 )fB2 (b2 |b1 ) = fB (b1 )δ(b2 − b1 )
1
= (u(b1 − 1,62) − u(b1 − 1,66))δ(b2 − b1 ) ou
0,04
fB (b1 , b2 ; t1 , t2 ) = fB2 (b2 )fB1 (b1 |b2 ) = fB (b2 )δ(b1 − b2 )
1
= (u(b2 − 1,62) − u(b2 − 1,66))δ(b1 − b2 ).
0,04
(c) Quaisquer distribuições conjuntas das variáveis aleatórias referentes a n ins-
tantes de tempo serão iguais, já que cada realização é constante no tempo.
Portanto, o processo é SSS.
(d) Não. Realizações diferentes podem apresentar médias temporais diferentes,
aleatoriamente distribuı́das entre 1,62 e 1,66 V.
1,62 + 1,66
(e) E[B(t)] = = 1,64 V,
2
A[b(t)] = A[b] = b.
! 1,66 1 2 1 1,663 − 1,623
(f) RBB (t, t + τ ) = b db = ≈ 2,69 V2 ,
1,62 0,04 0,04 3
rbb (τ ) = b2 .
" # " #
2π 2π
• Questão 3: X[n] = acos n Y [n] = bcos 2 n ,
N N
(a) fX,Y (x,
$ y; n1 , n2 ) = " # %
1 πn1 191 / 247
MP
Processo Aleatório
Processo Aleatório
192 / 247
MP
Processo Aleatório
Processo Aleatório
2
Obs.: RXX [n, n] = X 2 [n] e CXX [n, n] = σX [n].
193 / 247
MP
Processo Aleatório
Processo Aleatório
Estimação de correlação
Hipótese: Ergodicidade
Z T
1
RXY (τ ) ≈ rxy (τ ) ≈ x(t)y(t + τ )dt, T ↑
2T −T
N
1 X
RXY [k] ≈ rxy [k] ≈ x[n]y[n + k], N ↑
2N + 1
n=−N
194 / 247
MP
Processo Aleatório
Processo Aleatório
PDF e propriedades
fX (x1 , . . . , xN ; t1 , . . . , tN ) ou fX (x1 , . . . , xN ; n1 , . . . , nN ) =
1 T −1
√ 1 e− 2 (x−X) CX (x−X)
(2π)N |CX |
195 / 247
MP
Processo Aleatório
Processo Aleatório
Definições
Descreve a contagem de ocorrências de um evento
com taxa média de ocorrência λ ao longo do tempo t → é discreto.
Exs.: chegada de cliente num banco, ocorrência de raio numa área,
emissão de elétron por um material fotossensível etc.
X(t < 0) = −(contagem entre t e 0)
Convenção: X(0) = 0
X(t > 0) = contagem entre 0 e t
Condições de validade do modelo:
Não ocorrem eventos simultâneos.
Seus tempos de ocorrência são independentes.
196 / 247
MP
Processo Aleatório
Processo Aleatório
PDF
de 1a . ordem:
∞
X (λt)k e−λt
fX (x; t) = δ(x − k)
k!
k=0
de 2a . ordem, t1 < t2 (→ k1 ≤ k2 ):
∞ ∞
X X (λt1 )k1 [λ(t2 − t1 )]k2 −k1 e−λt2
fX (x1 , x2 ; t1 , t2 ) = δ(x1 −k1 )δ(x2 −k2 )
k1 !(k2 − k1 )!
k1 =0 k2 =k1
197 / 247
MP
Processo Aleatório
Processo Aleatório
Definição e estacionariedade
Z(t) = X(t) + jY (t), sendo X(t) e Y (t) processos aleatórios reais.
Z(t) é estacionário quando X(t) e Y (t) são conjuntamente
estacionários.
Z(t) é WSS quando X(t) e Y (t) são conjuntamente WSS.
Zi (t) e Zj (t) são conjuntamente WSS quando
cada um é WSS
RZi Zj (t, t + τ ) = RZi Zj (τ )
198 / 247
MP
Processo Aleatório
Processo Aleatório
Momentos
Média: E[Z(t)] = E[X(t)] + jE[Y (t)]
Autocorrelação: RZZ (t, t + τ ) = E[Z ∗ (t)Z(t + τ )]
Se Z(t) é WSS, E[Z(t)] = Z e RZZ (t, t + τ ) = RZZ (τ ).
Autocovariância:
CZZ (t, t + τ ) = E[(Z(t) − E[Z(t)])∗ (Z(t + τ ) − E[Z(t + τ )])]
Correlação cruzada: RZi Zj (t, t + τ ) = E[Zi∗ (t)Zj (t + τ )]
Se RZi Zj (t, t + τ ) = 0 ∀t, τ , então Zi (t) e Zj (t) são ortogonais.
Covariância cruzada:
CZi Zj (t, t + τ ) = E[(Zi (t) − E[Zi (t)])∗ (Zj (t + τ ) − E[Zj (t + τ )])]
Se CZi Zj (t, t + τ ) = 0 ∀t, τ , então Zi (t) e Zj (t) são descorrelacionados.
199 / 247
MP
Processo Aleatório
Processo Aleatório
Definição e estacionariedade
Z[n] = X[n] + jY [n], sendo X[n] e Y [n] sequências aleatórias reais.
Z[n] é estacionária quando X[n] e Y [n] são conjuntamente
estacionárias.
Z[n] é WSS quando X[n] e Y [n] são conjuntamente WSS.
Zi [n] e Zj [n] são conjuntamente WSS quando
cada uma é WSS
RZi Zj [n, n + k] = RZi Zj [k]
200 / 247
MP
Processo Aleatório
Processo Aleatório
Momentos estatísticos
Média: E[Z[n]] = E[X[n]] + jE[Y [n]]
Autocorrelação: RZZ [n, n + k] = E[Z ∗ [n]Z[n + k]]
Se Z[n] é WSS, E[Z[n]] = Z e RZZ [n, n + k] = RZZ [k].
Autocovariância:
CZZ [n, n + k] = E[(Z[n] − E[Z[n]])∗ (Z[n + k] − E[Z[n, n + k]])]
Correlação cruzada: RZi Zj [n, n + k] = E[Zi∗ [n]Zj [n, n + k]]
Se RZi Zj [n, n + k] = 0 ∀n, k, então Zi [n] e Zj [n] são ortogonais.
Covariância cruzada:
CZi Zj [n, n + k] = E[(Zi [n] − E[Zi [n]])∗ (Zj [n, n + k] − E[Zj [n, n + k]])]
Se CZi Zj [n, n + k] = 0 ∀n, k, então Zi [n] e Zj [n] são
descorrelacionadas.
201 / 247
MP
Processo Aleatório
Transformada de Fourier
Transformada de Fourier
202 / 247
MP
Processo Aleatório
Transformada de Fourier
Transformada de Fourier
Propriedades
Linearidade
Simetria
Deslocamento no tempo
Deslocamento na frequência
Escalamento
Diferenciação no tempo [tempo contínuo]
Diferenciação na frequência
Convolução no tempo
Modulação
Integração / soma no tempo
Parseval
Dualidade [tempo contínuo]
203 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Ideias
Descrever um processo aleatório na frequência: F[x(t)]?
Resultado: processo aleatório cuja variável ordenada é ω?
Problemas:
dificuldade de garantir existência de F [x(t)];
pouca utilidade de um espectro aleatório.
Autocorrelação carrega informação das componentes periódicas:
boa representante.
204 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
E[|X̃T (jω)|2 ]
SXX (jω) = lim
T →∞ 2T
Z ∞
1
Note que PXX = SXX (jω)dω
2π −∞
205 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Propriedades
Propriedades de SXX (jω):
SXX (jω) ≥ 0 (real)
SXX (−jω) = SXX (jω), se X(t) real
SẊ Ẋ (jω) = ω 2 SXX (jω)
206 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
207 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Caracterização
Caso “passa-baixas”: R∞
ω 2 SXX (jω)dω
Largura de faixa WRMS : 2
WRMS = −∞
R∞
−∞
SXX (jω)dω
Caso “passa-faixa”:
R ∞
ωSXX (jω)dω
Centroide: ω 0 = R0 ∞
0
SXX (jω)dω
R∞
WRMS
2
0
(ω − ω 0 )2 SXX (jω)dω
Largura de faixa WRMS : = R∞
2 SXX (jω)dω
0
208 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Motivação
Soma de dois processos: W (t) = X(t) + Y (t)
Autocorrelação:
RW W (t, t+τ ) = RXX (t, t+τ )+RY Y (t, t+τ )+RXY (t, t+τ )+RY X (t, t+τ )
Densidade espectral de potência: SW W (jω) =
SXX (jω) + SY Y (jω) + F[A[RXY (t, t + τ )]] + F[A[RY X (t, t + τ )]]
O que seriam F[A[RXY (t, t + τ )]] e F[A[RY X (t, t + τ )]]?
Densidades espectrais de potência cruzada?
209 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
210 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Propriedades
SXY (jω) = SY∗ X (jω)
Para X(t) e Y (t) reais:
SXY (jω) = SY X (−jω)
<[SXY (jω)] é par
=[SXY (jω)] é ímpar
Se X(t) e Y (t) são ortogonais, SXY (jω) = 0
Se X(t) e Y (t) são descorrelacionados com X e Y ,
SXY (jω) = 2πX.Y δ(ω)
211 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
212 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
213 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Modulação
214 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
215 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
216 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
2
Usualmente, WSS: RN N [k] = σN δ[k]
Frequentemente, assume-se que instantes distintos são i.i.d.
2
PN N = σN
217 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Exemplo
Problema
Considere o processo aleatório
X(t) = Acos(2πF t + Φ),
218 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Exemplo
(a)
RXX (t, t + τ ) = E[A2 cos(2πF t + Φ)cos(2πF t + 2πF τ + Φ)]
EA [A2 ]
= E[cos(4πF t + 2πF τ + 2Φ) + cos(2πF τ )]
2
EA [A2 ]
= EF EΦ [cos(4πF t + 2πF τ + 2Φ)] + EΦ [cos(2πF τ )]
2 | {z } | {z }
=0 =cos(2πF τ )
2 2
sen(2πf0 τ ) A + σA
= = RXX (τ )
2πf0 τ 2
(b)
SXX (jω) = F [RXX (τ )]
( 2
2
A +σA
= 4f0
, −2πf0 < ω < 2πf0
0, caso contrário
219 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Exemplo
(c) Note que E[X(t)] = EA,F [EΦ [X(t)]] = EA,F [0] = 0 e que
RXX (t, t + τ ) = RXX (τ ) do item (a). Portanto, X(t) é WSS.
(d) A média temporal de uma realização x(t) (um cosseno) é sempre nula,
coincidindo portanto com E[X(t)] = 0. Logo, X(t) é ergódico para a média.
(e)
RXX (t, t + τ ) = E[X ∗ (t)X(t + τ )] = E[A2 ]E[ej2πF τ ]
2 2 sen(πf0 τ ) jπf0 τ
= (A + σA ) e = RXX (τ )
πf0 τ
( 2
2
A +σA
SXX (jω) = F [RXX (τ )] = f0
, 0 < ω < 2πf0
0, caso contrário
220 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Exemplo
Problema
Desenhe a densidade espectral de potência, SXX (ejΩ ), da sequência
aleatória
221 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Exemplo
2
k = ±1: E[X[n]X[n ± 1]] = bσN
demais valores de k: E[X[n]X[n + k]] = 0
Note que RXX [n, n + k] = RXX [k]. Logo,
X
SXX (ejΩ ) = RXX [k]e−jΩk = (1 + b2 )σN
2 2
+ 2bσN cos(Ω),
k
222 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Exemplo
Problema
X[n] é sequência aleatória gaussiana com média zero e autocorrelação
RXX [k] = 2−|k| .
1 Podemos afirmar que X[n] é SSS? Justifique detalhadamente.
2 Podemos afirmar que X[n] é ruído branco? Justifique detalhadamente.
223 / 247
MP
Processo Aleatório
Processo Aleatório – Descrição Espectral
Exemplo
224 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
R ∞a entrada x(t):
Resposta
y(t) = −∞ x(τ )h(t, τ )dτ , h(t, τ ) = L[δ(t − τ )] = resposta ao impulso
No caso invariante no tempo:
Z ∞
h(t, τ ) = h(t − τ ), y(t) = x(τ )h(t − τ )dτ = (h ∗ x)(t)
−∞
Na frequência: Y (jω) = H(jω)X(jω), H(jω) = resposta na frequência
225 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
226 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Características espectrais:
SXY (jω) = SXX (jω)H(jω)
SY X (jω) = SXX (jω)H(−jω)
SY Y (jω) = SXX (jω)|H(jω)|2 (SLIT real ⇒ H(−jω) = H ∗ (jω))
227 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
228 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Definições
Processo “passa-faixa”:
SN N (jω) concentrado em “faixa de passagem” de largura W
que não inclui ω = 0.
Processo limitado em faixa:
passa-faixa com SN N (jω) = 0 fora da “faixa de passagem”.
Processo de faixa estreita:
limitado em faixa com W ω0 , ω0 ∈ “faixa de passagem”.
229 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
230 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Y [n] = (h ∗ X)[n]
No tempo discreto, é mais comum encontrar modelos com
sequências não-estacionárias e sistemas complexos.
Y [n] = (X ∗ h)[n]
∞
X
RXY [n1 , n2 ] = RXX [n1 , n2 − k]h[k]
k=−∞
∞
X
RY Y [n1 , n2 ] = RXY [n1 − k, n2 ]h∗ [k]
k=−∞
2
Se X[n] = N [n] é ruído branco com σN , e h[n] tem comprimento L,
L−1
X
E[|Y [n]|2 ] = σN
2
|h[l]|2 .
l=0
231 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
232 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Exemplo
Problema
Esta questão trata do problema de estimação linear ótima. Deseja-se prever o
valor da amostra x[n] utilizando uma combinação linear de I amostras passadas
mais recentes do mesmo sinal real. A estimativa tem a forma
I
X
x̂I [n] = ai x[n − i].
i=1
233 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Exemplo
X X
2 2 2 2
∆I [n] = X [n] − 2 ai X[n]X[n − i] + ai X [n − i]
i i
XX
+2 ai aj X[n − j]X[n − i]
i j>i
⇓
X X XX
2 2
E ∆I [n] = RXX [0] − 2 ai RXX [i] + ai RXX [0] + 2 ai aj RXX [j − i]
i i i j>i
⇓
∂E ∆2I [n] X
= 0 ⇔ −2RXX [l] + 2al RXX [0] + 2 ai RXX [i − l] = 0, ∀l ∈ {1, . . . , I}
∂al
i6=l
⇓
−1
a1,o RXX [0] RXX [1] ··· RXX [I − 1] RXX [1]
··· RXX [I − 2]
a2,o = RXX [1] RXX [0]
RXX [2]
.. .
. .. .
.
.
. ..
. . . . . .
aI,o RXX [I − 1] RXX [I − 2] ··· RXX [0] RXX [I]
234 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Exemplo
Problema
Na figura abaixo, X(t) e N (t) são processos aleatórios conjuntamente WSS.
SLIT
W (t) = X(t) + N (t) h(t) Y (t)
H(j!)
235 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Exemplo
Problema
Mostre que:
1 E ∆2 (t) = RXX (0) − 2RXY (t0 ) + RY Y (0) (expressão básica do MSE).
Z∞
2
1 jωt0 2
2 E ∆ (t) = SXX (jω) − 2SXW (jω)H(jω)e + SW W (jω)|H(jω)| dω
2π
−∞
(MSE na frequência).
3 se H(jω) = A(ω)ejB(ω) e SXW (jω) = C(ω)ejD(ω) , então as respostas de fase e de
amplitude ótimas são
C(ω)
Bo (ω) = −ωt0 − D(ω), Ao (ω) = .
SW W (jω)
Dica: determine primeiro Bo (ω) usando (b) e utilize o resultado para encontrar
Ao (ω).
4 se X(t) e N (t) são descorrelacionados, e o ruído N (t) possui média zero, então
SXX (jω) −jωt0
Ho (jω) = e .
SXX (jω) + SN N (jω)
236 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Exemplo
1 Como X(t) e N (t) são processos aleatórios conjuntamente WSS, então W (t) é
WSS e como o filtro é SLIT, então Y (t) é WSS. Portanto,
2
2 2
E ∆ (t) =E X (t − t0 ) − 2X(t − t0 )Y (t) + Y (t) = RXX (0) − 2RXY (t0 ) + RY Y (0)
2
Z∞
1
RXX (0) = SXX (jω)dω
2π
−∞
Z∞ Z∞
1 jωt 1 jωt0
RXY (t0 ) = SXY (jω)e 0 dω = SXW (jω)H(jω)e dω
2π 2π
−∞ −∞
Z∞ Z∞
1 1 2
RY Y (0) = SY Y (jω)dω = SW W (jω)|H(jω)| dω
2π 2π
−∞ −∞
⇓
Z∞
2
1 jωt0 2
E ∆ (t) = SXX (jω) − 2SXW (jω)H(jω)e + SW W (jω)|H(jω)| dω
2π
−∞
237 / 247
MP
Processo Aleatório
Sistemas Lineares com Entradas Aleatórias
Exemplo
238 / 247
MP
Processo Aleatório
Introdução a Processos de Markov
Processos de Markov
Conceito
Um processo é de Markov se conhecer seu passado
não afeta a expectativa de seu futuro quando se conhece seu presente.
Sendo tn−1 < tn ,
P {X(tn ) ≤ xn |X(t), ∀t ≤ tn−1 } = P {X(tn ) ≤ xn |X(tn−1 )}
Sendo t1 < t2 < · · · < tn ,
P {X(tn ) ≤ xn |X(tn−1 ), . . . , X(t1 )} = P {X(tn ) ≤ xn |X(tn−1 )}
239 / 247
MP
Processo Aleatório
Introdução a Processos de Markov
Sequências de Markov
Propriedades
fX (xn ; n|xn−1 , . . . , x1 ; n − 1, . . . , 1) = fX (xn ; n|xn−1 ; n − 1)
= PDF de transição
Regra da cadeia:
fX (x1 , . . . , xn ; 1, . . . , n) =
fX (xn ; n|xn−1 ; n − 1) · · · fX (x2 ; 2|x1 ; 1)fX (x1 ; 1)
E[X[n]|xn−1 , . . . , x1 ; n − 1, . . . , 1] = E[X[n]|xn−1 ; n − 1]
Revertida no tempo, continua de Markov:
fX (xn ; n|xn+1 , . . . , xn+k ; n + 1, . . . , n + k) = fX (xn ; n|xn+1 ; n + 1)
Sendo n1 < n2 < n3 ,
fX (xn1 , xn3 ; n1 , n3 |xn2 ; n2 ) = fX (xn3 ; n3 |xn2 ; n2 ) fX (xn1 ; n1 |xn2 ; n2 )
240 / 247
MP
Processo Aleatório
Introdução a Processos de Markov
Sequências de Markov
Cálculo recursivo
Equação de Chapman-Kolmogorov:
Para n1 < n2 < n3 , Z
∞
fX (xn3 ; n3 |xn1 ; n1 ) = fX (xn3 ; n3 |xn2 ; n2 ) fX (xn2 ; n2 |xn1 ; n1 )dxn2 .
−∞
Toda a estatística de X[n] pode ser determinada
a partir de fX (xn ; n) e fX (xn ; n|xn−1 ; n − 1).
Sequência estacionária:
fX (xn ; n) e fX (xn ; n|xn−1 ; n − 1) são invariantes ao deslocamento.
Consequência: Toda a estatística de X[n] pode ser determinada
a partir de fX (x1 , x2 ; 1, 2).
Sequência homogênea:
fX (xn ; n|xn−1 ; n − 1) é invariante ao deslocamento.
Comumente: não é estacionário, mas tende a ser quando n → ∞.
241 / 247
MP
Processo Aleatório
Introdução a Processos de Markov
Cadeias de Markov
Propriedades
P
Sendo n1 < n2 , j
Πij [n1 , n2 ] = 1
P
p [k] Πij [k, n] = pj [n]
i i
P
Sendo n1 < n2 < n3 , Πij [n1 , n3 ] = n
Πin [n1 , n2 ] Πnj [n2 , n3 ]
(Chapman-Kolmogorov)
242 / 247
MP
Processo Aleatório
Introdução a Processos de Markov
Propriedades e Notação
Πij [n1 , n2 ] = Πij [m], m = n2 − n1
P
Πij [n + k] = l Πil [k] Πlj [n]
Se o número de estados é finito, notação matricial:
Π[n + k] = Π[k].Π[n]
Definindo Π[1] = Π, Π[n] = Πn
p[n] = ΠT .p[n − 1] = (ΠT )n p[0]
243 / 247
MP
Processo Aleatório
Introdução a Processos de Markov
Exemplo
Problema
Uma cadeia de Markov homogênea X[n] tem dois estados possíveis: s1 e s2 . As
probabilidades de estado são P (X[n] = s1 ) = p1 [n] e P (X[n] = s2 ) = p2 [n]. As
probabilidades de transição são P (X[n] = s2 |X[n − 1] = s1 ) = π12 [1] = 31 e
P (X[n] = s1 |X[n − 1] = s2 ) = π21 [1] = 31 .
1 O que caracteriza uma cadeia de Markov?
244 / 247
MP
Processo Aleatório
Introdução a Processos de Markov
Exemplo
5 p[n] = ΠT p[n − 1]. Basta calcular p[1] e p[2], sabendo que p[0] = [1 0]T
6 p[∞] = ΠT p[∞], lembrando que p1 [∞] + p2 [∞] = 1. Logo,
p1 [∞] = p2 [∞] = 21 .
245 / 247
MP
Appendix
Referências
Referências
P. Z. Peebles, Jr.
Probability, Random Variables, and Random Signal Principles, 4th. ed.
McGraw-Hill, 2000.
K. S. Shanmugan & A. M. Breipohl
Random Signals: Detection, Estimation and Data Analysis.
Wiley, 1988.
S. Haykin & B. Van Veen
Signals and Systems, 2nd. ed.
Wiley, 2002.
A. Papoulis & S. U. Pillai
Probability, Random Variables and Stochastic Processes, 4th. ed.
McGraw-Hill, 2002.
246 / 247
MP
Appendix
Referências
Referências
247 / 247