Você está na página 1de 97

Teoria das filas

Introduo

Por que aparecem as filas?


No eficiente, nem racional, que cada um
disponha de todos os recursos individualmente. Por
exemplo:
que

cada pessoa disponha do uso exclusivo de uma


rua para se movimentar
que cada pessoa tenha um supermercado para o seu
abastecimento exclusivo

Recursos limitados devem ser compartilhados.

Introduo

Ao compartilhar recursos, pode acontecer que


no momento em que se queira fazer uso de um
recurso, este esteja ocupado,
necessidade

de esperar
aparecem as filas

Exemplo: nos sistemas de fluxo pode acontecer


a formao de filas

Sistemas de fluxo

Um fluxo o movimento de alguma entidade atravs de


um ou mais canais de capacidade finita para ir de um
ponto a outro.
Capacidade finita significa que o canal s pode satisfazer
a demanda a uma taxa finita.
Exemplos:
fluxo

de automveis (entidades) atravs de uma rede de


caminhos (canais)
transmisso de mensagens telefnicas (entidades) atravs
da rede (canal)

Sistemas de fluxo

Se dividem em duas classes:


Determinsticos:

sistemas no qual o comportamento


da demanda de servio totalmente previsvel, isto
, a quantidade de demanda exatamente conhecida
sobre o intervalo de interesse.
Aleatrio: no possvel predizer como vai se
comportar a demanda de servio, por exemplo, o
instante de chegada de uma demanda imprevisvel.

Sistemas de fluxo

Exemplo de fluxo determinstico:


Seja

r a taxa de chegada (constante) de pacotes em uma


rede de comutao a um buffer.
Seja c a taxa (constante) com que esses pacotes so
processados em cada n.
Se r > c, o buffer do n inundado com pacotes, j que
o nmero de pacotes em espera de servio crescer
indefinidamente.
Se r < c, se tem um fluxo estvel, o nmero de pacotes
em espera de servio finito.

Sistemas de fluxo

Exemplo de fluxo aleatrio:


Um

centro de computao em que as solicitaes de


impresso podem chegar em instantes imprevisveis.
Quando um trabalho de impresso chega, pode ser
que o servidor esteja atendendo outro e seja
necessrio esperar.
Se est desocupado, pode atender imediatamente
nova solicitao de impresso at que esta fique
completa.

Teoria das filas

Representao de uma fila


sistema
1
2

Chegadas ao
sistema

Fila
m

Servidores

Sadas do
sistema

Teoria das filas

Notao de Kendall para descrever uma fila:


A/B/C/K/m/Z

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

Alguns valores de A mais comuns:

M: denota distribuio exponencial


equivalente (M provm de Markoviano)
G: distribuio geral
D: representa um tempo fixo (determinstico)

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

Alguns valores de B mais comuns:

M: denota distribuio exponencial


equivalente (M provm de Markoviano)
G: distribuio geral
D: representa um tempo fixo (determinstico)

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

nmero de
servidores

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

K omitido quando:
nmero de
servidores

K=

nmero mximo de
clientes permitidos
no sistema

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

m se omite quando:
distribuio do
tempo entre chegadas

distribuio do
tempo de servio

m=
nmero de
servidores

tamanho da
populao
nmero mximo de
clientes permitidos
no sistema

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

disciplina
de servio
nmero de
servidores

tamanho da
populao
nmero mximo de
clientes permitidos
no sistema

Z se omite quando:
= FIFO

Teoria das filas

Notaes usadas nos sistemas de filas:


Ci :

i-simo usurio que entra ao sistema.

r i:

tempo de chegada de Ci

t i:

tempo entre as chegadas de Ci-1 e Ci (ti = ri - ri-1)

A(t):
x i:

distribuio do tempo entre chegadas = P[t it]

tempo de servio para Ci

B(x):

distribuio do tempo de servio = P[x i x]

wi :

tempo de espera na fila de Ci

se:

tempo no sistema (fila mais servio) de C i

(se = wi + xi)

Teoria das filas

Notao de filas em diagrama temporal


se
Ci-1 Ci
wi

Servidor
Fila

ri

ri+1
ti+1

Ci

Ci+1

xi
Ci

Ci+1

Ci+2

xi+1
Ci+1

xi+2
Ci+2
ri+2

ti+2
Ci+2

Tempo

Teoria das filas

Notaes usadas nos sistemas de filas (cont.)


Ek:

estado do sistema (normalmente


corresponde ao nmero de usurios no sistema)
ktaxa mdia de chegada dos usurios ao
sistema, quando este se encontra no estado k
k: taxa mdia de servio quando o sistema se
encontra no estado k

Teoria das filas

Outros parmetros de uma fila:


N(t):

nmero de usurios no sistema no instante t


L = E[k]: nmero mdio de usurios no sistema
(em estado estacionrio)
LQ: nmero mdio de usurios na fila (em
estado estacionrio).
T = E[s]: tempo mdio de permanncia de um
usurio no sistema = E[k]/ (frmula de Little)

Cadeias de Markov discretas

Cadeias de Markov discretas

Markov estabeleceu uma simples e til relao


entre as variveis aleatrias que forman
processos estocsticos

Definies

Estado: se Xn= i diz-se que o processo est no


estado i no instante n, onde {Xn, n=0,1,2...}
um processo estocstico que passa por um
nmero finito ou contvel de possveis estados.

Transio: a transio de um estado a outro


depende somente do estado atual, e no da
histria do processo

Observaes

No caso das cadeias discretas de Markov, os


instantes de tempo nos quais a transio entre um
estado e outro acontecem podem asumir apenas
valores inteiros 0, 1, 2..., n. Em outras palavras, o
tempo discretizado.

Os processos devem permanecer num estado


determinado durante um tempo que deve estar
geomtricamente distribudo.

Observaes

Propriedade Markoviana:
P{Xn+1 = j | Xn = i, Xn-1= in-1,... X0 = i0}
=P{Xn+1 = j | Xn = i} = Pij 0 0

Interpretao (sistema sem memria):


A transio de um estado para outro s depende
do estado atual, e no da histria do processo.

Cadeias de Markov discretas


Xn denota a cidade na qual encontra-se o turista ao
meio-dia no dia n
X1
Curic

X2
Rancagua

X3
Santiago

X4
Valparaso

X5
Serena

...

Me leva?

Cadeias de Markov discretas


Curic

Rancagua

Santiago

Valparaso

Serena

...

Me leva?

Cadeias de Markov discretas


Curic

Rancagua

Santiago

Valparaso

Serena

...

Me leva?

Cadeias de Markov discretas


Curic

Rancagua

Santiago

Valparaso

Serena

...

Me leva?

Cadeias de Markov discretas


Curic

Rancagua

Santiago

Valparaso

Serena

...

Continuarei mais ao
Norte?

Cadeias de Markov discretas

Da minha viagem,n posso lhes dizer que:

Nos processos de Markov, o estado atual do sistema e as


probabilidades de transio entre os diversos estados
caracterizam o comportamento futuro do sistema.

J que um processo de Markov est num estado


determinado, seu comportamento futuro no depende de
sua histria antes de chegar a esse estado.

Definies

Cadeias de Markov so processos estocsticos


{X(t)} que satisfazem:

pij: probabilidade de transio do estado i para o


estado j depende somente do estado i
P=[pij]: matriz de probabilidade de transio

Y ( i ):

tempo em que o processo permanece no


estado i, sem memria

Exemplo

Considerando-se apenas o trajeto SantiagoValparaso-Serena, tem-se graficamente:


(1)
Valpo

1/4

3/4
3/4

Santiago
(0)

1/4
1/4
Serena
1/4

(2)

1/2

(1)
Valpo

1/4

3/4
3/4

Santiago
(0)

1/4
1/4
Serena
1/4

1/2

(2)

Nmeros nos arcos do a probabilidade pij do viajante


ser recolhido por um carro

Probabilidade do viajante permanecer em Serena at o


dia seguinte 1/2

Nmeros entre parnteses usados posteriormente

Valpo

1/4

3/4
3/4

Santiago
(0)

(1)

1/4
1/4
Serena
1/4

(2)

Matriz de probabilidades de transio:


0 3 / 4 1/ 4
P 1/ 4
0 3 / 4

1 / 4 1 / 4 1 / 2

1/2

Definies

Num processo de Markov, se diz que um


estado Sj transiente se, de algum estado Sk
que pode ser alcanado desde Sj, o sistema no
pode voltar a Sj. A probabilidade de no voltar
a si mesmo existe.
1

Estados 1 e 2 so transientes

Definies

Se diz que um estado recorrente se de cada


estado Sk alcanvel a partir de Sj, o sistema
pode voltar a Sj.
1

Estados 1, 2 e 3 so recorrentes

Cadeias de Markov discretas

Exemplo 1: predio do tempo


Dois estados possveis:
0: chuva
1: no chuva
Hiptese: o tempo amanh s depende de hoje
(processo sem memria)
Chove hoje probabilidade de chover amanh =
No chove hoje probabilidade de chover amanh =

Cadeias de Markov discretas

Cadeia de Markov fica definida por:


0

1
1

Graficamente:

1
1

Cadeias de Markov discretas

Exemplo 2: transformar um processo noMarkoviano em Markoviano (s vezes


possvel)
Considere-se um elevador em um prdio de
trs andares:
Estados:
Andar 3

Andar 2
Andar 1

Cadeias de Markov discretas

Processo no-Markoviano, porque no estado 2


necessria a informao do estado anterior (1
ou 3) para saber qual ser a direo do
elevador.
Para que o processo seja Markoviano, se faz
necessria uma redefinio dos estados.

Cadeias de Markov discretas

Exemplo 2: transformar um processo noMarkoviano em Markoviano (s vezes


possvel)
Redefinio dos estados:
3: Andar 2, sentido abaixo

2: Andar 3, sentido abaixo


1: Andar 2, sentido acima
0: Andar 1, sentido acima

Cadeias de Markov discretas

Da redefinio obtm-se o novo diagrama de


1
1
estados: 1
0

0: andar 1, sentido acima


2: andar 3, sentido abaixo

1: andar 2, sentido acima


3: andar 2, sentido abaixo

Cadeias de Markov discretas

Exemplo 2.1: transformar um processo no-Markoviano


em Markoviano (s vezes possvel)
Choveu, choveu amanh chover: p=0,7
No-choveu, choveu amanh chover: p=0,5
Choveu, no choveu amanh chover: p=0,4
No choveu, no choveu amanh chover: p=0,2

Usando a definio anterior NO processo de Markov

Cadeias de Markov discretas

Exemplo 2.1: transformar um processo noMarkoviano em Markoviano (s vezes possvel)


Motivo: h contradio; precisa-se de informao no
s do dia presente, mas tambm do anterior.
Redefinio de estados: se o estado depende do tempo
de ontem e hoje ento SIM, pode ser Markoviano
Para transformar um processo no-Markoviano em
Markoviano (se possvel), devem ser redefinidos os
estados de maneira adequada.

Cadeias de Markov discretas

Exemplo 2.1: transformar um processo noMarkoviano em Markoviano (s vezes possvel)

Portanto, se so redefinidos os seguintes estados:


0: Choveu, choveu
1: No choveu, choveu
2: Choveu, no choveu
3: No choveu, no choveu

Cadeias de Markov discretas


Estados:
0: Choveu, choveu

1: No choveu, choveu

2: Choveu, no choveu

3: No choveu, no choveu

Cadeia de Markov definida pela matriz de


probabilidade de transio:

0
0

0,3
0,5

0
0

0,4
0,2

0
0

0,7
0,5

0
0

0,6
0,8

Definies

i = probabilidade estacionria de estar no estado


i
i(n) = probabilidade de estar no estado I no
instante n
i(0) = probabilidade inicial de estar no estado i

=(0, 1, 2, , n)

Por definio:

(1)

( 0)

Definies

Exemplo:

(1) (1)
0 1

( 0) ( 0)
0 1

Aplicando recursivamente:

(n)

( n 1) P

(n)

( 0) P n

ou

P00
P
10

P01
P11

Definies

Se a cadeia de Markov irredutvel e ergdica,


ento:

lim

( 0)

Pn

existe e denominada a probabilidade lmite


de P, ou autovetor esquerdo de P.

Obteno de :

Cadeias de Markov discretas

Exemplo 3: utilizando o exemplo 1, se a


probabilidade de que chover hoje 0.2 e

0.7 0.3
P

0
.
4
0
.
6

Qual a probabilidade incondicional de que


amanh chover?

Cadeias de Markov discretas


Aplicando o teorema da probabilidade total:
seja a probabilidade incondicional de que
chover amanh.
= P(amanh chover | hoje choveu) +
P(amanh chover | hoje no choveu)

02
. P00 08
. P10

0.2 0.7 0.8 0.4 0.46

Cadeias de Markov discretas

Exemplo 4: utilizando o exemplo 1

0 1
0

Se

0 1

1
1

0 1

(1 ) 0 (1 ) 1

ento a probabilidade lmite de que chover


1 0 1

0.7

0.4

0 1

4 / 7

3 / 7

Cadeias de Markov discretas


Voltando ao exemplo do turista:
Me leva?

Valpo

1/4

3/4
3/4

Santiago
(0)

(1)

1/4
1/4
Serena
1/4

(2)

1/2

Cadeias de Markov discretas


Do diagrama de estados pode obter-se a matriz
de probabilidades de transio
0 3 / 4 1/ 4
P 1/ 4
0 3 / 4

1 / 4 1 / 4 1 / 2

definindo-se a matriz de probabilidade como:


0 1 2

Cadeias de Markov discretas


Considerando-se a relao
obtm-se que

com

1
1
0 0 0 1 2
4
4
3
1
1 0 0 1 2
4
4
1
3
1
2 0 1 2
4
4
2

1 0 1 2

Cadeias de Markov discretas


Resolvendo-se as equaes obtm-se as
probabilidades em estado de equilbrio:
1
0 020
.
5
7
1
028
.
25
13
2
052
.
25

Cadeias de Markov de
tempo contnuo

Cadeias de Markov de
tempo contnuo

Definio: uma cadeia de Markov de tempo


contnuo um processo aleatrio em que, dado o
estado presente, o valor do processo no futuro no
depende do passado.

como uma cadeia de Markov discreta, com a


diferena de que o tempo de permanncia em um
estado uma varivel aleatria com distribuio
exponencial.

Cadeias de Markov de
tempo contnuo

Evoluo a partir de um estado:

ij

ik
ij

: taxa mdia de sada do estado i para o estado j


ik
: taxa mdia de sada do estado i para o estado k
Pij : probabilidade de transitar do estado i ao estado j, no
momento da transio

Cadeias de Markov de
tempo contnuo

Definio:
tij (tik):

tempo de permanncia no estado i antes de transitar para j (k), caso


passe para j(k).
tij e tik so variveis aleatrias com distribuio exponencial de parmetros
ij e ik respectivamente.
Seja

t
deduz que :

o tempo de permanncia no estado i. Do anterior se

t = min { tij , tik }

t se distribui exponencialmente
com parmetro ( ij+ ik)

Cadeias de Markov de
tempo contnuo

Propriedades:
O

tempo de permanncia em um estado


Markoviano (processo sem memria)

A escolha

do prximo estado se efetua no instante


da transio e s depende do estado atual e no do
passado, portanto Markoviano.

Cadeias de Markov de
tempo contnuo

Dado que o tempo de permanncia em


qualquer estado e a escolha do prximo estado
so Markovianos, ento tem-se uma cadeia de
Markov de parmetro contnuo.

As variveis aleatrias tempo de permanncia


no estado i e prximo estado visitado so
independentes.

Cadeias de Markov de
tempo contnuo

Definio formal:
Um processo aleatrio X(t) uma cadeia de Markov
de tempo contnuo se:

P X (t s) j | X ( s) i, X (u ) x(u ),0 u s

P X (t s ) j | X ( s ) i

Cadeias de Markov de
tempo contnuo

Exemplo : processo de Poisson


N( )
N(t+s) = j

j-i chegadas
j-i arribos

N(t): estado no instante t


N(t): nmero de chegadas
at t

N(t) = i

t+s

P{ N (t s ) j / N (t ) i , N (u ) X (u ) 0 u t}
P{ N (t s ) j / N (t ) i}
P{( j i )chegadasem(t , t s ]}

O que resolver uma cadeia de


Markov?

encontrar as probabilidades de transio de


qualquer estado i a qualquer estado j em um
dado instante.

Para resolver este problema se utilizar o


princpio do balano global

Princpio de balano global


Definies:

i i1

2 2i

i i2

...

k ki

...

1 1i

i ij

Princpio de balano global


Definies:

k: probabilidade em regime estacionrio de estar


no estado k
Outra interpretao: frao de tempo que o sistema
fica no estado k.

k
Unidad de tiempo de tempo
Unidade

Unidad de tiempo
Unidade
de tempo

Princpio de balano global


Definies:

k(t): probabilidade de estar no estado k no


instante t

lim k ( t ) k
t

ki: taxa mdia de transio do estado k para o estado i

k ki: nmero mdio de transies do


estado i, por unidade de tempo.

estado k ao

Princpio de balano global


1 ( t ) 1i t

Nmero mdio de
entradas de qualquer
estado k ao estado i
em t

...

...

k ( t ) ki t

i ( t ) i1t

i ( t ) ij t
nmero mdio de
sadas do estado i a
qualquer estado j
em t

Princpio de balano global

Nmero de entradas totais ao estado i emt:

( t ) ki t o( t )

Nmero de sadas totais desde o estado i em t:

( t )
j

ij

t o( t )

Princpio de balano global

Balano de fluxos

Entradas lquidas
nmero mdio de nmero mdio de
mdias por unidade = entradas totais por - sadas totais por
de tempo (EN)
unidade de tempo
unidade de tempo

Considerando-se o nmero de entradas lquidas


em um intervalo t, se tem que:

EN t

k i

( t ) ki i ( t ) ij t o( t )

j i

Princpio de balano global

O nmero de entradas lquidas em t pode ser interpretado como:

i t t
+

i t
Unidad de tiempo

Unidade de tempo

i t

EN t i ( t t ) i ( t ) o( t )
i ( t ) o( t )

Princpio de balano global

Usando-se novamente o balano de fluxos:

nmero de
Variao do tempo de
permanncia no estado i, = entradas totais em t
por unidade de tempo

nmero de
sadas totais
em t

Esta variao pode expressar-se em forma da


equao de diferenas:

i ( t )

k i

( t ) ki i ( t ) ij t o( t ) (1)

j i

Princpio de balano global

Dividindo por t em (1):

i ( t )

k i

( t ) ki

o( t )
(2)
i ( t ) ij
t
j i

Tomando-se o limite lim


em (2):
t 0

i ( t )

k i

( t ) ki i ( t ) ij

j i

Equao de balano global para o estado i

(3)

Princpio de balano global


Equao

de balano global para um estado i

qualquer:
i ( t )

k i

( t ) ki i ( t ) ij
j i

Pode-se

reescrever em forma vetorial da


seguinte maneira:

0i

i ( t )
0 ( t ) ... i ( t ) ... n ( t ) ij
j i
t
:

ni

Princpio de balano global


Definindo-se:

( t ) 0 ( t )
( t ) 0 ( t )

t
t

0 j

...
...

...

j 0

i0

:
n0

i (t)

n (t)

...

i ( t )
t

0i

...

...

... ij
j i

...

:
ni

...

n ( t )
t

0n

in

... nj

j n

Equaes de balano global

O conjunto das equaes de balano global pode expressar-se


em forma matricial como:

( t )
( t )Q
t
Alm disso, sempre:

(t) 1
i

Equaes de balano global

Equaes de balano global

Em estado estacionrio se tem que:


fluxo de entrada = fluxo de sada

Q 0

Equaes de balano global em estado estacionrio

Equaes de balano global

Os conjuntos de equaes anteriores servem


para resolver tanto a situao transiente como
estacionria da cadeia de Markov. Isto , nos
permite encontrar as probabilidades de
transio de qualquer estado i a qualquer
estado j num intervalo t qualquer (Pij(t)).

Exemplo: Cadeia de Markov de


dois estados

Uma mquina funciona uma quantidade de tempo


exponencialmente distribuda com mdia 1/Quando
falhase repara com a mesma distribuio em um tempo
mdio 1/. Inicialmente, a mquina encontra-se funcionando.

Deseja-se determinar a probabilidade de que a mquina esteja


funcionando em um instante t dado. Inicialmente a mquina
se encontra operacional.

Exemplo: Cadeia de Markov de


dois estados
0

1
En
Em
reparo
Reparacin

Operacional

Se

tem que :
01

Condies iniciais:

( 0) 0 ( 0)

10

1 (0) 1 0

Exemplo: Cadeia de Markov de


dois estados

Equaes de balano global estabelecem que:



( t )
0 ( t ) 1 ( t )
t

0 ( t ) 1 ( t ) 1
Forma

i ( t )

escalar da equao anterior :

k i

( t ) ki i ( t ) ij

j i

k , i, j 0,1

Exemplo: Cadeia de Markov de


dois estados

Portanto:
0 ( t )
0 ( t ) 1 ( t )
t
1 ( t )
0 ( t ) 1 ( t )
t
0 ( t ) 1 ( t ) 1

(4)
(5)
(6)

Exemplo: Cadeia de Markov de


dois estados

Resolvendo (4), (5) e (6), obtm-se:

( ) t
0 (t)

1 ( t )

e ( ) t

Exemplo: Cadeia de Markov de


dos estados

Resolvendo em estado estacionrio, obtm-se:


0 ( t ) 1 ( t )

0
t
t

0 1 0

(7)

0 1 0

(8)

0 1 1

(9)

Exemplo: Cadeia de Markov de


dois estados

Resolvendo (7), (8) e (9), obtm-se :

Observao:

Tambm pode chegar-se a este resultado atravs


das equaes em estado transiente, fazendo
tender o parmetro t a infinito.

Exemplo: Cadeia de Markov de


dois estados
Grfico de 0 com =4
0

=2

=5
=7

Exemplo: Cadeia de Markov de


dois estados
Grfico de 0 com =4
0

=7
=5

=2

Exemplo: Cadeia de Markov de


dois estados
Grfico de 1 com =4
1

=7
=5

=2

Exemplo: Cadeia de Markov de


dois estados
Grfico de 1 com =4
1

=2

=5
=7

Problema 1

Seja uma cadeia de Markov de trs estados


como se ilustra na figura:
01
10

02

20

Dado que acontece uma transio do estado 0,


determinar a probabilidade de que esta transio
seja para o estado 1.

Problema 1

Define-se:
t01:

tempo de permanncia no estado 0 antes de transitar


para o estado 1, caso transite para o
estado 1
t02: tempo de permanncia no estado 0 antes de
transitar para o estado 2, caso transite para o estado 2

A probabilidade pedida equivalente probabilidade de


que a transio para o estado 1 ocorra antes da transio
para o estado 2.

Problema 1

Portanto:

P( t 01 t 02 ) P( t 01 t 02 / t 02 s) P( t 02 s)ds
0

P( t 01 s) P( t 02 s) ds
0

(1 e 01s ) 02 e 02s ds
0

01

01 02

Problema 1

Estendendo o resultado anterior, para qualquer


nmero de estados, se tem que:

Pij
onde

ij

k i

ik

Pij: probabilidade de transitar do estado i para o


estado j, dado que acontece uma transio
ik: taxa mdia de sada do estado i para o

Problema 2

Dado que aconteceu uma transio do estado i,


qual a probabilidade de que o prximo estado
seja i ?

Sabe-se que:
Pii 1 Pij
j i

Alm disso:
Pij

ij

k i

ik

Problema 2

Portanto:
Pii 1
j i

ij

k i

1
Pii 1
ik
k i

Pii 1 1 0

ik

j i

ij

Problema 3

Dado que no instante zero o sistema est no


estado i, qual a probabilidade de permanecer
neste estado at o instante t?

P{permanecer em estado i at t} = 1 - P{sair do estado i at t}

Dado que o tempo de permanncia exponencial:


Portanto:

P{sair do estado i at t} 1 e
P{permanecer no estado i at t}

ik t
k i

ik t
k i

Você também pode gostar