Você está na página 1de 122

Teoria das Filas e Aplicações

Celso C. Ribeiro
Reinaldo Vallejos

PETROBRAS
Novembro 1998
Programa
 Teoria da probabilidade
 Variáveis aleatórias
 Distribuições discretas
 Distribuições contínuas
 Variáveis aleatórias conjuntas e probabilidade
condicional
 Teoria das filas
 Cadeias de Markov discretas
...
Programa

 Cadeias de Markov de tempo contínuo
 Lei de Little
 Aplicações da Lei de Little
 Processos de nascimento e morte
 Filas M/M/1
 Filas M/M/C
 Aplicações
Teoria da probabilidade
Teoria da probabilidade

 Modelagem de fenômenos aleatórios


 quantidades não previsíveis antecipadamente
 variação inerente que deve ser considerada

 Permitir que o modelo tenha natureza


probabilística  modelo probabilístico
Teoria da probabilidade

 Experimento cujo resultado não seja previsível


antecipadamente
 Espaço amostral: S = {resultados possíveis}
 Lançamento de uma moeda: S = {cara,coroa}
 Lançamento de um dado: S = {1,2,3,4,5,6}
 Lançamento de duas moedas: Acara, Bcoroa
S = {(A,A),(A,B),(B,A),(B,B)}
 Vida útil de um carro: S = [0,)
Teoria da probabilidade

 Evento: subconjunto E do espaço amostral S


 E = {cara}, E = {coroa}
 E = {2,4,6}: resultado do lançamento é par
 E = {(A,A),(A,B)}: primeira moeda é cara
 E = [1,2): carro dura pelo menos um ano sem
completar o segundo
Teoria da probabilidade

 Eventos E e F
 Evento união: EF
 Evento interseção: EF
 Evento vazio: 
 E e F mutuamente exclusivos: EF = 
E ={cara}, F ={coroa}: ou dá cara, ou dá coroa
 Evento complementar: Ec = S\E
Teoria da probabilidade

 Espaço S, evento E
 Probabilidade P(E) do evento E:
0  P(E)  1
 P(S) = 1

 E1E2 =   P(E1E2) = P(E1) + P(E2)

 P({cara}) = P({coroa}) = 1/2


 Moeda viciada, com chance duas vezes maior de
dar cara: P({cara}) = 2/3, P({coroa}) = 1/3
Teoria da probabilidade

 P({2,4,6}) = P({2}) + P({4}) + P({6}) =


= 1/6 + 1/6 + 1/6 = 1/2
Teoria da probabilidade

 P(Ec) = 1 - P(E)
1 = P(S) = P(EEc) = P(E) + P(Ec) EF

E F
 P(E) + P(F) = P(EF) + P(EF)
P(EF) = P(E) + P(F) - P(EF)
EF =   P(EF) = P(E) + P(F) EF
 P(EFG) = P(E) + P(F) + P(G) - P(EF) - -
P(EG) - P(FG) + P(EFG)
Teoria da probabilidade

 Probabilidade condicional: probabilidade de que um


determinado evento ocorra, conhecendo-se a
ocorrência de outro

 Dois dados são lançados e todas os 36 pares de


resultados são equiprováveis. Qual é a probabilidade
da soma dos dois valores ser igual a 10?
P({4,6}) + P({5,5}) + P({6,4}) = 31/36 =1/12
Teoria da probabilidade

 Sabendo-se que a primeira observação é um 4, qual é


a probabilidade da soma dos dois valores ser igual a
10?
Resultados possíveis, sendo 4 o primeiro valor: (4,1),
(4,2), (4,3), (4,4), (4,5), (4,6)
Se o primeiro valor é 4, a probabilidade
(condicional) de cada um destes pares é 1/6
Probabilidade dos 30 pares restantes: zero
Probabilidade da soma ser igual a 10: 1/6
Teoria da probabilidade

 Probabilidade condicional do evento E dado


que o evento F ocorre:
E F
P(E|F) = P(EF)/P(F)

EF
Teoria da probabilidade

 Uma moeda é lançada 2 vezes. Qual é a


probabilidade condicional de que sejam observadas
duas caras, dado que pelo menos uma cara é
observada?

E = {(cara,cara)} = {(A,A)} cara  A


F = {(A,B),(B,A),(A,A)}
P(E|F) = P(EF)/P(F) = P({(A,A)})/ P({(A,B),
(B,A),(A,A)}) = (1/4)/(3/4) = 1/3
Teoria da probabilidade

 Uma urna contém sete bolas pretas e cinco


bolas brancas. Duas bolas são retiradas. Qual a
probabilidade de que ambas sejam pretas,
considerando-se que a primeira bola não é
devolvida para a urna após ser retirada?

F = primeira é preta E = segunda é preta


P(EF) = P(E|F) P(F) = 6/117/12 = 7/22
Teoria da probabilidade

 Uma urna contém sete bolas pretas e cinco


bolas brancas. Duas bolas são retiradas. Qual a
probabilidade de que ambas sejam pretas,
considerando-se que, neste caso, a primeira
bola é devolvida para a urna após ser retirada?

F = primeira é preta E = segunda é preta


P(EF) = P(E|F) P(F) = 7/127/12 = 49/144
Teoria da probabilidade

 Cada uma de três pessoas possui uma ficha de cor


diferente que é lançada em uma urna. Em seguida,
cada pessoa retira aleatoriamente uma ficha da
urna. Qual é a probabilidade de que ninguém
recupere sua ficha original?

Idéia: calcular a probabilidade do evento


complementar, isto é, de que pelo menos uma
pessoa recupere sua ficha original.
Teoria da probabilidade

Ei: i-ésima pessoa recupera sua ficha; i=1,2,3


P(Ei) = 1/3, i=1,2,3
P(EiEj) = P(Ej|Ei) P(Ei) = 1/21/3 = 1/6 ij
P(E1E2E3) = P(E3|E1E2) P(E1E2) = 1/6
P(E1E2E3) = P(E1) + P(E2) + P(E3) - -
P(E1E2) - P(E1E3) - P(E2E3) + +
P(E1E2E3) = 3  1/3 - 3  1/6 + 1/6 = 2/3
P(ninguém recuperar) = 1 - 2/3 = 1/3
Teoria da probabilidade

 E e F independentes: P(EF) = P(E) P(F)


 P(E|F) = P(E)
 P(F|E) = P(F)
Teoria da probabilidade

 Espaço amostral S, eventos E e F


E = ES = E(FFc) = (EF)  (EFc)
EF e EFc mutuamente exclusivos
P(E) = P((EF)(EFc)) =
= P(EF) + P(EFc) =
= P(E|F) P(F) + P(E|Fc) P(Fc) =
= P(E|F) P(F) + P(E|Fc) (1-P(Fc))
Teoria da probabilidade

 A primeira de duas urnas contém 2 bolas


brancas e 7 bolas pretas, enquanto a segunda
contém 5 brancas e 6 pretas. Uma moeda é
lançada e uma bola é retirada da primeira ou da
segunda urna, dependendo do resultado ter sido
cara ou coroa, respectivamente. Qual é a
probabilidade (condicional) de ter ocorrido
uma cara, dado que a bola retirada foi branca?
Teoria da probabilidade

Deseja-se calcular P(cara|branca)


P(cara|branca) = P(cara e branca) / P(branca) =
= P(branca|cara)  P(cara) / P(branca)
P(branca) = P(branca|cara)  P(cara) + +
P(branca|coroa)  P(coroa)
P(cara|branca) =
= 2/91/2/(2/91/2+5/111/2) = 22/67
Teoria da probabilidade

 Um teste detecta com 95% de certeza uma


determinada doença, quando ela está presente.
Entretanto, este teste aponta “falsos positivos”
em 1% das pessoas que não contraíram a
doença. Sabendo-se que 0.5% da população
estão contaminados por esta doença, qual é a
probabilidade de que determinada pessoa tenha
a doença dado que o resultado de seu teste foi
positivo?
Teoria da probabilidade

Deseja-se calcular P(doente|positivo)


P(doente|positivo) = P(doente e positivo) / /
P(positivo) =
= P(positivo|doente)  P(doente) / P(positivo)
P(positivo) = P(positivo|doente)  P(doente) + +
P(positivo|sadia)  P(sadia)
P(doente|positivo) =
0.950.05/(0.950.005+0.010.995) = 95/294
Teoria da probabilidade

 Fórmula de Bayes:
eventos F1, F2, …, Fn mutuamente exclusivos
F1  F 2  …  F n = S
P(E) = P(ES) = P(EF1) + … + P(EFn) =
= P(E|F1) P(F1) + … + P(E|Fn) P(Fn)
P(Fj|E) = P(EFj) / P(E) = P(E|Fj) P(Fj) / P(E)
P(Fj|E) = P(E|Fj) P(Fj) / / [P(E|
F1) P(F1) + … + P(E|Fn) P(Fn)]
Teoria da probabilidade

 Sabe-se que determinada carta está em uma de


três pilhas diferentes, com a mesma
probabilidade. A probabilidade da carta ser
encontrada examinando-se rapidamente a pilha
em que ela realmente está é 20%. Suponha que
a pilha 1 foi verificada, mas a carta não foi
encontrada. Qual a probabilidade da carta
efetivamente estar na pilha 1?
Teoria da probabilidade

Fi: carta está na i-ésima pilha; i=1,2,3


E: carta não encontrada na pilha 1
Deseja-se calcular P(F1|E)
P(F1|E) = P(E|F1) P(F1) /
/ [P(E|F1)P(F1)+P(E|F2)P(F2)+P(E|F3)P(F3)]
P(F1|E) = 0.81/3 / (0.81/3 + 11/3 + 11/3)=
= 0.8/2.8 = 2/7
Variáveis aleatórias
Variáveis aleatórias

 Variável aleatória: função real definida sobre o


espaço amostral
 soma dos valores obtidos após o lançamento de
dois dados
 número de caras após um certo número de
lançamentos de uma moeda
 tempo entre duas chegadas sucessivas a uma fila

 tempo de processamento de uma tarefa


Variáveis aleatórias

 Valor de uma variável aleatória (v.a.) é determinado


pela saída de um experimento  é possível
associar probabilidades aos valores que podem ser
assumidos por uma
 X: v.a. definida pela soma dos valores obtidos após o
lançamento de dois dados
P{X=1} = P{} = 0
P{X=2} = P{(1,1)} = 1/36
P{X=3} = P{(1,2),(2,1)} = 2/36 = 1/18 ...
Variáveis aleatórias

 Y: v.a. definida pelo número de caras


observadas após dois lançamentos de uma
moeda
P{Y=0} = P{(B,B)} = 1/4 Acara Bcoroa
P{Y=1} = P{(A,B),(B,A)} = 1/2
P{Y=2} = P{(B,B)} = 1/4
P{Y=0} + P{Y=1} + P{Y=2} = 1
Variáveis aleatórias

 N: v.a. definida pelo número de lançamentos de uma


moeda até aparecer a primeira cara, sendo p a
probabilidade de observar-se cara em cada lançamento
 P{N=1} = P{A} = p
P{N=2} = P{(B,A)} = (1-p)p
P{N=3} = P{(B,B,A)} = (1-p)2p

P{N=n} = P{(B,B,…,B,A)} = (1-p)n-1p
Variáveis aleatórias

 Função de distribuição acumulada (fda) ou função de


distribuição F(.) da v.a. X: F(b) = P{X  b}
- < b < +
 F(b): probabilidade de que a v.a. X assuma um valor
menor ou igual a b
 Propriedades:
 F(b) é uma função não-decrescente de b
 limbF(b) = F() =1, limb-F(b) = F(-) = 0

 p{a<Xb} = P{Xb} - P{Xa} = F(b) - F(a)


Variáveis aleatórias

 Variáveis aleatórias discretas: a v.a. assume um


número finito ou contável de valores possíveis.

 Variáveis aleatórias contínuas: a v.a. assume


valores dentro de um contínuo de valores
possíveis.
Variáveis aleatórias discretas

 Variáveis aleatórias discretas: a v.a. assume um


número finito ou contável de valores possíveis.
 Função de massa de probabilidade:
p(a) = P{X=a}
 Se X pode assumir os valores x1, x2,… então
p(xi) > 0, i=1,2,…
p(x) = 0, outros valores de x
Variáveis aleatórias discretas

 Função de distribuição acumulada:


F(a) =  p(xi)
i=1,2,…: xi  a

 Exemplo: p(1) = 1/2, p(2) = 1/3, p(3) = 1/6


0, a < 1,
F(a) = 1/2, 1  a < 2
5/6, 2  a < 3
1, 3a
Variáveis aleatórias discretas

F(a)
1
5/6

1/2

a
1 2 3
Variáveis aleatórias discretas

 Seja X uma v.a. discreta. Então, seu valor


esperado é dado por:
E[ X ]   x. p ( x)
x: p ( x ) 0
Funções de variáveis aleatórias

 g(X) função da v.a. X

 Caso discreto: E[ g ( X )]   g ( x) p( x)
x: p ( x ) 0

 Caso contínuo: E[ g ( X )]   g ( x) f ( x)dx

 Exemplo: a,b  R
E[a.X+b] = a.E[X] + b
Funções de variáveis aleatórias

 Variância da v.a. X:

2
VAR [ X ]  E[( X  E[ X ]) ]
 Pelo resultado anterior:

VAR [ X ]  E[ X 2  2 X .E[ X ]  E[ X ]2 ]
2 2
VAR [ X ]  E[ X ]  2E[ X ].E[ X ]  E[ X ]
 Logo,

VAR [ X ]  E[ X 2 ]  E[ X ]2
Funções de variáveis aleatórias

 Variância da v.a. X:

VAR [X ]  E[(X ) 2 ]  E[X ]2


VAR [X ]  E[ 2 X 2 ]  E[X ]E[X ]
2 2 2 2
VAR [X ]   E[ X ]   E[ X ]
2 2 2
VAR [X ]   (E[ X ]  E[ X ] )
2
VAR [X ]   VAR [ X ]
Funções de variáveis aleatórias

 X e Y variáveis aleatórias independentes:

E[ g ( X )h(Y )]  E[ g ( X )].E[h(Y )]
VAR [ X  Y ]  VAR [ X ]  VAR [Y ]
Distribuições discretas
Distribuição de Bernoulli
 Um experimento de Bernoulli tem somente
dois resultados aleatórios possíveis:
 sucesso
 fracasso

 A variável aleatória que corresponde ao


experimento anterior é uma variável aleatória
de Bernoulli.
 A notação de uma distribuição de Bernoulli é
Be(p), onde 0  p  1 é a probabilidade de
obter-se sucesso.
Distribuição de Bernoulli
Exemplos

 Lançamento de uma moeda


 Caso obtenha-se uma cara: sucesso
 Caso obtenha-se uma coroa: fracasso
 A direção que segue um veículo em uma bifurcação
(caminho A ou B)
 Se segue o caminho A: sucesso
 Se segue o caminho B: fracasso

(o resultado deste experimento é uma v.a. somente para um observador


externo, mas não para o condutor)
Distribuição de Bernoulli
Os resultados possíveis deste experimento podem ser
“mapeados” nos números reais, logo:
 X v.a.  Be(p) (X é uma variável aleatória discreta
do experimento de Bernoulli de parâmetro p).
 Domínio de X:
X  {0, 1}
 Função de massa de probabilidade:
P{X = 0} = P(0) = 1 - p
P{X = 1} = P(1) = p
Distribuição de Bernoulli

 Função de distribuição acumulada:

lim F ( x  h)  P(X  x)
h 0
1  p, 0  x 1
F ( x)  
1, x 1

 Valor esperado: E[ X }  p.1  (1  p ).0  p


Distribuição de Bernoulli
Gráficos
 Função de massa de probabilidade
p(X)
1

1-p
p

0 1 X
E[X]

2 X
 Função de distribuição acumulada
F(X)
1

Graficos
p

1-p
3D
0 1 X
Distribuição de Bernoulli
Parâmetros

 Considerando as funções anteriores tem-se


para Be(p):
Valor esperado E X  p
Variância VAR X  p 1  p 
Desvio padrão  p 1  p 
X

Função geradora de momento   z p  z  1  1


n-ésimo momento
E X   n
p
Distribuição de Bernoulli
Exemplo em comunicações

info
T R

 Um pacote de informações é enviado pelo transmissor ao


receptor através de uma conexão, sendo p a probabilidade
de que o pacote chegue corretamente ao receptor.
 info chega corretamente a R: X = 1
 info não chega corretamente a R: X = 0
Distribuição binomial

 Considere n experimentos independentes


identicamente distribuídos (iid), cada um com
distribuição Bernoulli de parâmetro p.

 Se a variável de interesse Y corresponde ao


número de sucessos obtidos nestes n
experimentos, então Y é conhecida como uma
variável aleatória binomial de parâmetros n e p.
Distribuição binomial

 Sejam X1, X2, …, Xn, onde as variáveis {Xi},


i=1,2,…,n são v.a.’s iid Be(p). Seja a v.a. Y
definida por sua soma:
n
Y   Xi
i 1

Y  Bi(n, p)
Distribuição binomial

 Uma distribuição binomial de parâmetros n e p se


denota Bi(n,p), onde:
 n é o número de experimentos de Bernoulli
independentes realizados.
 p é a probabilidade de obter um sucesso em
cada um dos n experimentos, 0  p  1.
Distribuição binomial
Exemplos

 Uma moeda é lançada n vezes. Se em cada


lançamento se obtém cara (sucesso) com
probabilidade p, qual é a probabilidade de que em 0
 i  n experimentos se obtenha sucesso?

 Observam-se n veículos em uma bifurcação. Cada


veículo segue o caminho A (sucesso) com
probabilidade p. Qual é a probabilidade de que 0  i
 n veículos sigam o caminho A (sucesso)?
Distribuição binomial
 Seja Y v.a.  Bi(n,p) (Y é v.a. binomial de
parâmetros n e p), onde n  N+ e 0  p  1
 Domínio de X:
Y  {0, 1, 2, …, n}
 Função de massa de probabilidade:
n  i n i
     
P{ Y i} P (i )   p (1 p) , 0 i n
i 
 Função de distribuição acumulada:
i n  j
P { Y  i }     p i  p  n  j , 0 i  n
j 0  j 
Distribuição binomial
 Valor esperado:
n n n
E[X]=  ip (i )   i  p i (1  p ) ni
i 0 i 0  i 
n n! i n i
=  p (1  p )
i 1 ( n  i )!(i  1)!
n (n  1)!
np  p ( i 1) (1  p) ni
= i 1 ( n  i )!(i  1)!

 n  1 k n 1
n 1 k
Seja k=i-1, então E[X]= np    p (1  p )
k 0  k 

n 1  n  1 k n 1 k
Como  k 0   p (1  p) 1 então, E[X]=np
 k 
Distribuição binomial
Parâmetros

 Considerando-se as funções anteriores tem-se


para Bi(n, p):

Valor esperado E Y  np
Variância VAR Y  np  1  p 
Desvio padrão Y np  1  p 
Função geradora de momento   z  p z  1 1
  n

n-ésimo momento
E Yk   (k)  1
Distribuição binomial

 Observando-se a esperança e a variância da


distribuição binomial se verifica que correspondem
à soma de v.a.’s iid com distribuição de Bernoulli.

 A transformada Z de uma fmp corresponde à sua


função geradora de momento:
 
dP(z)
P( z )   Pn z n ;   nPn  E[ X ]
n 0 dz z 1 n 0
Distribuição binomial
Gráficos

Função de massa de probabilidade


Bi(10,0.7)
Y = 1.449
0.3
P(Y = y)

0.2
E[Y]=7
0.1
0
0 5 10
E[Y]
y
2Y

Graficos
3D
Distribuição binomial
Gráficos
Função de massa de probabilidade
Bi(10,0.5)
0.3

0.2
P(X=x)

0.1

0
0 2 4 6 8 10 12
x

Função de distribuição acumulada


Bi(10,0.5)
1.5
P(X<=x)

1
0.5
0
0 2 4 6 8 10 12
x
Distribuição binomial
Gráficos
Função de massa de probabilidade
Bi(10,0.7)
0.3

0.2
P(X=x)

0.1

0
0 2 4 6 8 10 12
x

Função de distribuição acumulada


Bi(10,0.7)
1.5
P(X<=x)

1
0.5
0
0 2 4 6 8 10 12
x
Distribuição binomial
Gráficos
Função de massa de probabilidade
Bi(10,0.5)
0.3

0.2
P(X=x)

0.1

0
0 2 4 6 8 10 12
x

Função de distribuição acumulada


Bi(10,0.5)
1.5
P(X<=x)

1
0.5
0
0 2 4 6 8 10 12
x
Distribuição binomial
Gráficos
Função de massa de probabilidade
Bi(15,0.5)
0.25
0.2
P(X=x)

0.15
0.1
0.05
0
0 5 10 15 20
x

Função de distribuição acumulada


Bi(15,0.5)
1.5
P(X<=x)

1
0.5
0
0 5 10 15 20
x
Bi (10,p)

0,4

0,35

0,3

0,25

Bi (10,p) 0,2

0,15

0,1

0,05

0
0
1
2 p=0.9
3
4 p=0.6
5
i 6 p=0.3
7
8 p=0.1
9
10

Graficos
3D
Distribuição binomial

 Com relação à fmp de uma binomial tem-se que:


 valor máximo se encontra em X = E[X] = np
 estritamente decrescente para X > E[X]

 simétrica em relação a p (e.g., p = 0.1 e p = 0.9)

 Pelo teorema do limite central:


a v.a. da soma infinita de experimentos independentes
(com qualquer distribuição) tende à distribuição gaussiana
Distribuição binomial
Exemplo em comunicações
infon ... info2 info1
T R

 n pacotes de informação são enviados pelo


transmissor ao receptor através de uma
conexão. A probabilidade de cada um dos
pacotes chegar corretamente a R é igual a p.
Qual é a probabilidade de que 0  i  n pacotes
de informação enviados cheguem corretamente
ao receptor?
Distribuição binomial
Exemplo em comunicações
infon ... info2 info1
T R

n: número de pacotes enviados


p: probabilidade de cada pacote chegar
corretamente
Y = i: número de pacotes enviados que
chegarão corretamente, 0  i  n
Y v.a. ~ Bi(n,p), n {0,1,2,3, ...}
n  i 
P{ Y  i}  P (i )    p (1  p ) n i , 0 i  n
i 
Distribuição binomial
Exemplo em tolerância a falhas
 Vários computadores executam um mesmo
algoritmo. O resultado final do algoritmo se
determina por votação dos computadores, por
maioria simples. Por exemplo, se o resultado
de dois ou mais computadores coincide, então
esse é o resultado final. Cada computador tem
probabilidade de falha igual a 1-p. Para que
valores de p convém escolher 1, 3 ou 5
computadores?
Distribuição binomial
Exemplo em tolerância a falhas
n: número total de computadores
X: número de computadores funcionando
corretamente (fornecem o resultado correto)
X v.a. ~ Bi(n,p), n {1,3,5}
Por exemplo: probabilidade de sucesso do
sistema com n computadores (maioria
proporciona o resultado correto)
m = ((n-1)/2)+1: número mínimo de
computadores (n ímpar) que devem dar o
resultado correto para o sistema ter sucesso
Distribuição binomial
Exemplo em tolerância a falhas

Para n {1,3,5}:
n i
n
P ( X  m)     p (1  p) n i
i m  i 

Caso n = 1
Pe1= p
Caso n = 3

Caso n = 5
Pe3= ()3 2
2 ()
p (1-p) +
3 3
3
p

Pe5= ()5 3
3
2
()
p (1-p) +
5 4
4 ()
p (1-p) + 5 p5
5
Distribuição binomial
Exemplo em tolerância a falhas
Probabilidade de sucesso
1.2
Probabilidade de sucesso

1
do sistema

0.8
Pe1
0.6
Pe3
0.4 Pe5
0.2

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Probabilidade de sucesso de cada
computador
Distribuição geométrica

 Considere n experimentos de Bernoulli


independentes, cada um com probabilidade de
êxito p
 X v.a.  Ge(p) representando o número de
tentativas até conseguir o primeiro êxito
 Função de massa de probabilidade:
P X  n  p n    1  p  p n  1,2,...
n 1

 Função de distribuição: n
k -1
F(n)   (1-p) p
k 1
Distribuição geométrica
 Valor esperado:

E[X]=  n(1  p) n1 p
n 1

Fazendo q = 1 - p:
E[X] =  d= d  n
p  (q n ) p q
n 1 dq dq n1
= =
d  k d  q 
p qq p  
dq k 0 dq  1  q 
=
Logo, E[X]= p
1 (1  q ) 2

p
Distribuição geométrica

 Exemplo: lançar a moeda até o primeiro êxito


 Êxito = cara Fracasso = coroa
 Exemplo: número de automóveis não específicos
até que um siga o caminho A da bifurcação
 Êxito =A
Fracasso = B

Experimentos independentes
Distribuição geométrica
1
F(n)
0.9
0.8 Função de distribuição
0.7
0.6
0.5
p=0.2
0.4
0.3
0.2
Função de massa de probabilidade
0.1
0
0 5 10 15 20 25
n

1
F(n)
0.9
0.8 Função de distribuição
0.7
0.6
0.5 p=0.6
0.4
0.3
0.2 Função de massa de probabilidade
0.1
0
0 5 10 15 20 25
n
Distribuição geométrica
p(n)
0,3

0,25 0,3

0,25
0,2 p = 0.3
E[X]=3,33
0,2 p = 0.3
x=2.79
0,15
0,15

0,1 0,1

0,05
0,05

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
E[X] n
Distribuição geométrica

Função de massa para distintos valores de p


0,9
p(n)

0,8 0.1
0.5
0,7
0.9

0,6

0,5

0,4

0,3

0,2

0,1

0
1 2 3 4 5 6 7 8 9 10
n
Distribuição geométrica

0,9

0,8

0,7

0,6

0,5
P{X=n}
0,4

0,3

0,2 0.9

0,1 0.7
0.5
0 p
1 0.3
3 5 7 9 0.1
11 13 15 17
n 19
Distribuição geométrica

0,25

P{X=n} 0,2

0,15

0,1

0,05

1
0 0,8
0,6
2 3
4 5 0,4
6
7
p
8 0,2
9
10
11 0
12
n 13
14
15
Distribuição geométrica
 P{X=n} decai mais rápidamente com n quando p aumenta
 Distribuição em função de p varia com n:
 para n = 1 é una reta crescente
 para n < 7 é crescente e logo decresce

 para n 7 é decrescente

 Função de massa tem dois pontos degenerados:


p = 0: necessárias infinitas tentativas (nunca se consegue
êxito)
 p = 1: êxito sempre é conseguido na primeira tentativa.
Distribuição geométrica
Parâmetros

1
E X
p

VAR X
 1  p
p2
1
X  1  p
p
pe t
 t
1   1  p e t
Propriedade: falta de memória

 Elevador em um prédio de três andares

 Estado #n : elevador no andar n


Sem memória: estados #1 e #3
Com memória: estado #2
Propriedade: falta de memória

 Exemplo relacionado com a distribuição


geométrica, duas situações equivalentes:
Propriedade: falta de memória

 Distribuição geométrica caracterizada pela


seguinte propriedade:
P x  s  t | x > t   P x  s 

 A informação de nenhum sucesso até a


tentativa t é “esquecida” nos cálculos
subseqüentes.
Propriedade: falta de memória
Propriedade: falta de memória
P x  s  t  x  t 
 Demonstração:
P x  s  t | x  t  
P x  t 

Logo,

 P x  s  t 
P x  s  t | x  t  
P x  t 
Propriedade: falta de memória
 i 1

P x  s  t     1  p p   1  p
s+t 1
Substituindo-se
i  s t
 i 1

P x  t     1  p p   1  p
t

i  t 1

 1  p  s  t 1 s 1
Logo, P  x  s  t| x  t     1  p 
1  p  t
 i 1

P x  s    1  p p   1  p
s1
com
is

portanto P x  s  t | x > t   P x  s propriedade de


falta de memória
Protocolo Stop & Wait

 Protocolo de retransmissão mais simples


 Idéia básica: ter certeza de que cada pacote
transmitido é recebido corretamente antes de
transmitir o seguinte
 Protocolo half-duplex
 Retransmissão devido a:
 erro na recepção do pacote

 time-out
Protocolo Stop & Wait

 Numeração de pacotes:
 Se ocorre time-out no transmissor, retransmite
pacote i
 Receptor não sabe distinguir se é uma
retransmissão do pacote i ou uma primeira
transmissão do pacote i+1
 Logo, necessidade de numerar os pacotes, assim
como os acks/nacks
 Numeração módulo 2 é suficiente
Esquema físico
t I

tP
Tx Rx

t Ack

 Definições:
ti = tempo de transmissão de um pacote
tp = tempo de propagação
tout = tempo máximo de espera de um reconhecimento (ack/nack)
tproc= tempo de processamento do pacote
Caso 1
Diagrama temporal
Retransmissão por time-out
t t out t proc Tx
i
Tx
t
F1 F1 F2

A1

Rx
t
tp t proc Rx

Caso 2
Retransmissão por erro
t
ti proc Tx

Tx
t
F1 F1 F2

N1 A1

Rx
t
tp t proc Rx

Fi = transmissão do frame i
Ni = mensagem de frame i recebida com problemas
Ai = reconhecimento do frame i
Diagrama de transição de estados
Transmissor Receptor
+ : Entradas
Q2
- : Saídas
+M1 -Error
+Ack 1
Q0 Q2 +M0 Q0 -Ack

+Error
-M0 Q1 Q4
-M1
+Error -Ack Q3 +M1

+M0 -Error

Q1 Q3 Q5
+Ack 0

Q0: Espera Mensagem 0


Q0: Transmite Mensagem 0 Q1: Transmite Ack 0
Q1: Espera Ack 0 Q2: Transmite Erro
Q2: Transmite Mensagem 1 Q3: Espera Mensagem 1
Q3: Espera Ack 1 Q4: Transmite Ack 1
Q5: Transmite Erro
Tabelas de transição de estados
Transmisor Receptor
Estado Entrada Saída Prox. Estado Estado Entrada Saída Prox. Estado
Q0 - Mensagem 0 Q1 Q0 Mensagem 0 Q1
Q1 Ack 0 - Q2 Q0 Mensage m1 Q2
Q1 Erro - Q0 Q1 Ack 0 Q3
Q2 - Mensagem 1 Q3 Q2 Erro Q0
Q3 Ack 1 - Q0 Q3 Mensagem 0 Q5
Q3 Erro - Q2 Q3 Mensagem 1 Q4
Q4 Ack 1 Q0
Error: Devido a erro de bits no frame,
Q5 Erro Q3
ou erro devido a Timeout

Q0: Espera Mensagem 0


Q0: Transmite Mensagem 0 Q1: Transmite Ack 0
Q1: Espera Ack 0 Q2: Transmite Erro
Q2: Transmite Mensagem 1 Q3: Espera Mensagem 1
Q3: Espera Ack 1 Q4: Transmite Ack 1
Q5: Transmite Erro
Medidas de desempenho

 Desempenho pode ser avaliado sob dois pontos


de vista:
 do usuário:
 menor tempo de resposta
 menor buffer

 do sistema:
 máximo throughput Espaço Tempo
 menor memória Usuário Buffer tempo de
resposta
Sistema Memória Throughput
Máximo throughput

 Transmissor sempre dispõe de pacotes para


transmitir
 Time-out é o menor possível
 Tout = 2Tp + Tack
 Existem erros
 Pe > 0  existem retransmissões
I1 I2 I3 In

tT tT tT tT t
0
p p p (1-p)
Definições:
Ii = i-ésima tentativa de transmitir o pacote
tT = ti + tout = ciclo de operação
p = probabilidade de receber o pacote com erro
n = número de tentativas até transmitir um pacote
pa= probabilidade de transmissão correta na n-ésima
tentativa
tu = tempo utilizado nas n tentativas
E[t] = tempo médio de recepção com sucesso (1)
Diagrama de lógica temporal

F1 F1 F1 F1
t

p p p
Errado Errado Errado Errado

1-p 1-p 1-p


Correto Correto Correto

p: probabilidade de erro no pacote


Máximo throughput

1
Certamente,  max 
E[t ]

Por definição de valor médio (2) E[ t ]   t n p n
n1

Da figura anterior: (3) t(n)  n  t T

Como n é uma v.a. com distribuição Ge(1-p):


(4) p(n)  p n 1
(1  p)
Máximo throughput
Substituindo-se (2), (3) e (4) em (1), obtém-se:

E [ t ]   n  t  p   1  p

n 1

T
n 1

tT
Simplificando (4): E[t] 
1  p 
Por definição:
1 (1  p) (1  p) tT
max    com a  1
E[t ] tr a  ti ti
Throughput normalizado
Transmissão

p p 1-p p p 1-p T
0

Transmissão
efetiva

T
0

 1  p
    ti  1
a
lim Tempo em transmissoes efetivas
  ti 
T T
Máximo throughput

 O throughput normalizado pode ser


interpretado como a percentagem do tempo
ocupado na transmissão efetiva de pacotes

 Se o tempo para receber um ack ou um nack é


desprezível, também o é o time-out:
 a = 1   = (1- p)
max=F(p,a)

p a
a=1 : Rede da área local
a=3 : Rede com enlaces menores a 500 Km
a=10 : Rede de enlace satelital
max=F(p,a)

a=1
a=1,4
a=1,8
a=2,1
max=F(p,a)
p=0

p=0.2

p=0.4
p=0.6
Distribuição de Poisson

 X v.a. discreta com domínio  e com a


seguinte função de massa de probabilidade:
i

P  X = i  = e  ,i  0
i!
 X: distribuição de Poisson com parâmetro 

 Função de distribuição de probabilidade:


i
 
n
P  X  n  = e ,n  0
i 0 i!
Distribuição de Poisson
Função de massa de probabilidade

0,1
0,08 
P{X=i}

0,06
0,04
0,02
0
0 5 10 15 20 25 30 35 40
i
Distribuição de Poisson
Função de distribuição de probabilidade
P  X  n
1,2
1
0,8 
0,6
0,4
0,2
0
0 5 10 15 20 25 30 35 40
n
Distribuição de Poisson
1,2
 = 20
1
0,8 Fn. de distribuição
0,6
Fn. de massa
0,4
0,2
0
0 5 10 15 20 25 30 35 40
Distribuição de Poisson
Função de massa de probabilidade
0,4
0,35 
0,3
0,25

P{X=i}

0,2
0,15 
0,1
0,05
0
0 5 10 15 20 25 30 35 40
i
Distribuição de Poisson
 Valor esperado:
E[X] =  i
 ie  
i 0 i!
=
i 1
Fazendo k = i - 1:   
e 
E[X] = i 1 (i  1)!

 k
 
Como
e 
E[X] =
k  0 k!
k
  
 k 0 e
k!

Distribuição de Poisson
Parâmetros

E[X  
Var[X  
x 
 (t) e
(e t  1 )
Processo de contagem

 Processo estocástico {N(t), t  0} é de contagem se N(t)


representa o número total de eventos que ocorrem entre
(0,t]

 Por definição, N(t) satisfaz:


 N(t) 0
 N(t) assume valores inteiros
 s < t  N(s)  N(t)

 s < t  N(t) - N(s) = número de eventos durante o intervalo


(s,t]
Processo de contagem

 Número de pessoas que entraram


em um supermercado no intervalo de
tempo (0,t]

Número de veículos que entraram em


um túnel num intervalo dado

 Número de gols que um


determinado jogador fez num
determinado intervalo (0,t]
Processo de contagem

 Incrementos independentes: processo de


contagem no qual o número de eventos
ocorridos em intervalos de tempos disjuntos
são independentes

 Exemplo: o processo de contagem no intervalo


(5,10] não depende do processo de contagem
em (0,5]
Processo de contagem

Incrementos independentes

Número de pessoas que entraram em


um supermercado num intervalo de tempo

Incrementos não-independentes

 Número de nascimentos num intervalo de


tempo, quando existe controle da natalidade
Processo de contagem

 Incrementos estacionários: número de eventos


em (t1+s,t2+s] depende somente da amplitude
do intervalo (t2-t1)

 Ou seja, N(t2+s)-N(t1+s) tem a mesma


distribuição que N(t2)-N(t1), onde t2 > t1 e
s>0

0 t1 t2 s+t1 s+t2
Processo de contagem

Incrementos não-estacionários

A quantidade de ligações telefônicas é


maior em determinadas horas do dia

Incrementos estacionários

 Número de veículos que entram


em um túnel num ano
Processo de Poisson

 N(t) é um processo de Poisson se:


 N(t)é um processo de contagem
 N(0) = 0 (reset)

 Tem incrementos independentes e estacionários

 Número de eventos em qualquer intervalo


de amplitude t é distribuído como uma
variável de Poisson com média t, ou seja:
-t i
e (t )
P{N(t  s) - N(s) = i } = , i = 0,1, ; s, t  0
i!
Processo de Poisson

 A última condição implica em incrementos


estacionários
 N(t) não se refere apenas a uma variável aleatória
com uma distribuição de Poisson, mas sim que
para cada t > 0 se tem uma v.a. com uma
distribuição de Poisson de parâmetro t
(dependente de t)
 Esta coleção (infinita) de variáveis aleatórias é
conhecida como um processo de Poisson
Processo de Poisson
Tempo entre chegadas
Seqüência {Tn, n=1,2,...}, onde Tn representa
o tempo entre o evento (chegada) n e o evento n-1
Eventos (contagem do P.P.)

0 t1 t2 t3 · · · tn-1 tn

T1 T2 T3 · · · Tn

Conjunto de v.a.s com distribuição Exp()


Processo de Poisson
Tempo entre chegadas

 Evento {T1 > t } significa que não aconteceu chegada alguma do processo
de Poisson no intervalo (0,t]
P{T1 > t} = P{N(t) = 0} = e-t
 Além disso,
P{T2>t | T1=s} = P{0 eventos em (s,s+t]} = e-t

 Repetindo-se o experimento, conclui-se que Tn, n=1,2,... são v.a.


exponenciais independentes e identicamente distribuídas