ALGUMAS ANLISES
SOBRE MECANISMOS PARA
PROVER QUALIDADE DE SERVIO
EM REDES MULTIMDIA
SETEMBRO / 2006
Algumas Anlises sobre
Mecanismos para Prover
Qualidade de Servio em Redes
Multimdia
2006
FOLHA DE APROVAO
_____________________________________________________________________
Prof. Dr. Jos Marcos Cmara Brito (Orientador) - INATEL
_____________________________________________________________________
Prof. Dr. Shusaburo Motoyama (membro externo) - FEEC-UNICAMP
_____________________________________________________________________
Prof. Dr. Carlos Roberto dos Santos (membro interno) - INATEL
_______________________________________
Coordenador do Curso de Mestrado
ii
Aos meus pais e irmos que
apoiou.
iii
Agradecimentos
Em especial ao meu orientador, Prof. Dr. Jos Marcos Cmara Brito, pela sua ateno,
este trabalho.
Aos professores das demais disciplinas do Mestrado, Prof. Dr. Carlos Alberto Ynoguti,
Prof. Dr. Anilton Salles Garcia, Prof. Dr. Sandro Adriano Fasolo e Prof. Dr. Geraldo Gil
Ao Inatel, pela sua estrutura e aos seus funcionrios, pelo imenso senso de
profissionalismo e dedicao.
iv
ndice
Lista de Figuras.............................................................................................................vii
1. Introduo ................................................................................................................... 1
3. Mecanismos de Priorizao...................................................................................... 17
v
4.1.1. Mecanismo de Controle de Fluxo do TCP ................................................. 44
TCP....................................................................................................................... 46
4.2. Tail-Drop.............................................................................................................. 55
5. Simulaes ................................................................................................................. 68
6. Concluso................................................................................................................. 116
vi
Lista de Figuras
Figura 3.6 Tempo de chegada dos fluxos e seu comportamento em um esquema GPS
.............................................................................................................. 35
Figura 5.2 Simulao com trfego de voz ocupando 30% do enlace ...................... 75
Figura 5.3 Simulao com trfego de voz ocupando 60% do enlace ...................... 76
Figura 5.4 Simulao com trfego de voz ocupando 90% do enlace ...................... 77
Figura 5.5 Tamanho mdio dos pacotes para o mecanismo FIFO para 30%, 60%
vii
Figura 5.6 Trfego IP descartado no mecanismo FIFO para 30%, 60% e 90% de
Figura 5.7 Perdas para as simulaes com trfego de voz com o mecanismo CQ . 79
Figura 5.11 - Atraso para o trfego de voz para os mecanismos PQ e WFQ ............ 82
Figura 5.12 Tempo Mdio de Resposta da Pgina HTTP (p/ trfego de voz ocupando
Figura 5.13 Tempo Mdio de Resposta da Pgina HTTP (p/ trfego de voz ocupando
Figura 5.14 Tempo Mdio de Resposta da Pgina HTTP (p/ at 95% de ocupao
Figura 5.15 Tempo Mdio de Resposta da Pgina HTTP (p/ at 95% de ocupao
Figura 5.16 Tempo Mdio de Resposta da Pgina HTTP (p/ at 95% de ocupao
Figura 5.17 Atraso Mdio Fim-a-Fim para os Pacotes de Voz (p/ at 95% de
Figura 5.18 Atraso Mdio Fim-a-Fim para os Pacotes de Voz (p/ at 95% de
Figura 5.19 Atraso Mdio Fim-a-Fim para os Pacotes de Voz (p/ at 95% de
Figura 5.20 Simulao com variao dos clientes de voz mantendo em 200 os clientes
viii
HTTP ........................................................................................................................... 89
Figura 5.21 Simulao com variao dos clientes de voz mantendo em 200 os clientes
HTTP ........................................................................................................................... 90
Figura 5.26 WFQ Trfego Enviado (trfego enviado pelo Roteador_B ao Roteador_A
Figura 5.41 WFQ Queuing Delay (Q3) e WFQ Traffic Dropped (Q3)
ix
Figura 5.42 WFQ Queuing Delay (Q3) e WFQ Traffic Dropped (Q3)
x
Lista de Tabelas
xi
Lista de Abreviaturas e Siglas
CQ - Custom Queuing
IP - Internet Protocol
Standardization Sector
PQ - Priority Queuing
xii
RFC - Request for Comments
xiii
Resumo
Com a crescente demanda por utilizao de aplicaes multimdia, tais como voz e
real, novos parmetros (atraso, variao do atraso e perda) passam a ser importantes
provimento de QoS (Quality of Service Qualidade de Servio) pela rede para suportar
implementao em uma rede best effort. Dentro deste propsito, este trabalho
IP) dentro dos limites aceitveis de atraso e perda, mesmo quando o trfego de voz
congestionamento.
xiv
Abstract
With the crescent demand for the use of multimedia applications, like voice and video,
and mainly in the ones that demand interactive communications, occurring in real time,
new parameters (delay, variation of the delay and loss) start to be important for the good
operation of these applications. So, it becomes necessary the provision of QoS (Quality
of Service) by the network to support these new applications. This dissertation verifies
the efficiency of the use of the mechanisms of QoS that were studied here, showing the
viability of its use and implementation in a "best effort" network. Inside of this purpose,
this work presents the result of several simulations, where it is proven that, with the
mechanisms, the use of the applications of VoIP (Voice over IP) can be made possible
inside of the acceptable limits of delay and loss, even when the voice traffic shares a
congestion control.
xv
1. Introduo
ainda mantm sua caracterstica nativa, oferecendo um servio best effort (melhor
O servio best effort tem sido adequado para as aplicaes tradicionais, as quais podem
Com a crescente demanda por utilizao de aplicaes multimdia, tais como voz e
real, estes novos parmetros (atraso, variao do atraso e perda) passam a ser
Nos entroncamentos de uma rede, ou seja, em seus roteadores, quando vrios fluxos
1
O estabelecimento de um canal dedicado para a transmisso ou a utilizao de
protocolos que reservem recursos fim-a-fim para cada aplicao possibilitaria uma
garantia de qualidade de servio, porm sua implementao seria possvel para redes
best effort. Dentro deste propsito, este trabalho apresenta o resultado de inmeras
simulaes, onde fica comprovado que, com a utilizao adequada dos mecanismos
aplicativos de VoIP (Voice over IP) dentro dos limites aceitveis de atraso e perda,
2
mecanismos de controle de congestionamento. O captulo 5 traz as simulaes
realizadas, onde ser possvel verificar o comportamento dos trfegos de voz, HTTP e
3
2. QoS - Qualidade de Servio - Definies e Parmetros
O termo Qualidade de Servio (Quality of Service QoS) foi utilizado no modelo OSI
os requisitos das aplicaes dos usurios em relao pelo menos quatro parmetros:
largura de banda, latncia (atraso), variao do atraso (jitter) e taxa de perda de trfego
[1].
de dados com valores aceitveis de atraso, variao do atraso, banda e taxa de erro, alm
comunicao de voz e dados em uma nica rede. Existem duas razes principais para
aos usurios falar e enviar dados e imagens em uma nica sesso [4].
4
quanto quantitativas, estas principalmente na quantidade de usurios e na capacidade de
VoIP (Voice over IP), uma tecnologia de transmisso de dados de voz em uma rede IP ,
5
2.1. Atraso ou Latncia
Em termos de voz, o atraso definido como o tempo total entre o momento em que o
outro ponto pelo receptor [8] [9]. Esta latncia inclui o atraso de codificao na fonte, o
Vrios fatores contribuem para o atraso na rede. Este atraso pode ser calculado pela
propagao e transmisso [7]. Vale lembrar que alm destes fatores, associados
as contribuies dos fatores associados aos hosts de origem e destino dos pacotes: a
Atraso de encaminhamento
6
Atraso de enfileiramento
uma fila enquanto outros pacotes esto sendo servidos em uma porta de sada de um
Atraso de propagao
Atraso de Transmisso
7
Efeitos do atraso em um sistema VoIP
usurio no se preocupa com o local onde a latncia foi introduzida, sua exigncia ter
comunicao interpessoal.
de 100-150 ms. Atrasos entre 150 e 300 ms so percebidos como uma leve hesitao
falas se torna significativo se o atraso em uma direo se torna maior que 250 ms. O
pacote e seu tempo real de chegada. Por exemplo, a Figura 2.1 mostra que os pacotes P1
12 ms e 5 ms respectivamente [8].
8
Tempo
20 ms 20 ms 20 ms
Tempo de
chegada P1 P2 P3 P4
esperado
32 ms 8 ms 25 ms
Tempo de
chegada P1 P2 P3 P4
real
A principal causa do jitter so as variaes dos tempos de fila nos roteadores, ou seja,
Outra possvel causa a utilizao, por uma conexo, de enlaces de custo equivalente,
Conforme a RFC 3550 [11], a qual obsoletou a RFC 1889 [12], para uma rede IP
jitter definido como uma estimativa da variao estatstica do tempo entre chegadas
no tempo de trnsito relativo (relativ transit time) para os dois pacotes. O tempo de
timestamp RTP para este pacote i, ento para dois pacotes i e j, D pode ser expresso
9
como:
D(i,j) = (Rj - Ri) - (Sj - Si) = (Rj - Sj) - (Ri - Si) (2.1)
Recomenda-se (SHOULD conforme definido na RFC 2119 [13]) que o jitter seja
calculado continuamente para cada pacote i, usando esta diferena D entre o pacote
A Equao 2.2 representa um estimador emprico com parmetro de ganho 1/16, o que
segundo a RFC d uma boa reduo da taxa de rudo (ocasionado por picos de jitter),
Algumas aplicaes interativas, tais como voz e vdeo, so incapazes de lidar com o
jitter, pois este resulta em trancos ou numa qualidade irregular para o som ou a
jitter remanescente pode ser tratado com dejitter buffers no host de destino, que
jitter [7].
10
Dejitter Buffer
O dejitter buffer utilizado para remover os efeitos do jitter do fluxo de voz, atravs do
recebido [14]. Este mecanismo retira os efeitos do jitter, adicionando atraso e eventual
A Figura 2.2 ilustra um sistema onde o dejitter buffer introduz atrasos adicionais de
modo que todo pacote recebido tenha um atraso total de 120 ms. O pacote 1, que sofreu
atraso de 100 ms na rede, sofre um atraso adicional de 20 ms, e o pacote 2, que sofreu
A escolha do atraso para o dejitter buffer crtica. Para que o dejitter buffer seja capaz
de eliminar completamente o efeito do jitter, sua janela de atraso deve ser igual
diferena entre o mximo e o mnimo atraso na rede. Por exemplo, se o mnimo atraso
na rede de 70 ms e o mximo atraso de 130 ms, com um atraso nominal de 100 ms,
um dejitter buffer com janela de atraso de 60 ms (os atrasos introduzidos pelo buffer so
entre 0 e 60 ms) capaz de eliminar completamente o jitter, fazendo com que todos os
11
pacotes recebidos tenham atrasos idnticos de 130 ms [15]. Este princpio est ilustrado
na Figura 2.3, que mostra um exemplo de distribuio estatstica dos atrasos na rede e o
atraso total sofrido por todos os pacotes aps o dejitter buffer [16].
O dejitter buffer pode ser fixo, mantendo tamanho constante, ou adaptativo, que tem a
Probabilidade
P2
P1
Atraso
P1 : Funo Densidade de Probabilidade para o atraso
P2 : Funo Densidade de Probabilidade para o atraso aps aplicao do dejjiter buffer
2.3. Perdas
12
Um problema no enlace fsico que impea a transmisso do pacote.
n at seu destino.
esta causa de perda de pacotes. Com exceo das redes sem fio, a chance de corrupo
tambm pode ser ignorada. Conseqentemente, a principal razo para a perda de pacotes
Perda de pacotes para aplicao que no so de tempo real, tal como web e transferncia
5% [17], pode ser compensada por esquemas de recuperao dos Codecs. Por exemplo,
13
anterior e atenuando suavemente a perda no sinal [18]. A taxa mxima tolervel de
perda de pacotes usualmente fixada em 10% [17] [18] [19]. A Figura 2.4 ilustra a
relao do atraso e taxa de perda de pacotes com a qualidade de servio na rede. Quatro
nveis de QoS so definidos na figura: Tool quality (desejvel), Good quality (boa),
Perdas
20 %
Qualidade
Inaceitvel
10 % Qualidade
Potencialmente til
Qualidade
5%
Boa
Qualidade
Desejvel
14
nominal de transportar bits, ou banda nominal. A vazo (throughput) ou a banda de rede
ocupada pela mdia corresponde taxa de bits que efetivamente transportada, tendo
Um nvel inadequado de vazo para uma determinada aplicao pode causar atraso e
perda de pacotes. Uma vez que o trfego na rede IP estatstico, pacotes iro sempre
A classe de udio e vdeo interativos em tempo real permite que os usurios usem udio
/ vdeo para se comunicar entre si em tempo real. udio interativo em tempo real pela
Voz e vdeo interativos em tempo real impem rgidas limitaes ao atraso de pacote e
algum tipo de classificao dos servios na Internet em primeira e segunda classe, pela
15
qual pacotes de primeira classe teriam nmero limitado e receberiam servio prioritrio
em filas de roteadores. Esse servio de primeira classe poderia ser satisfatrio para
Todos os pacotes recebem servio igual; nenhum pacote, incluindo os pacotes de udio
e vdeo, sensveis ao atraso, recebe prioridade especial nas filas de roteadores [21].
Os roteadores tm inteligncia para tratar o encaminhamento dos fluxos que passam por
eles baseado em algum tipo de teoria das filas. Os pacotes chegam aos roteadores para
nveis adequados de atraso e perda necessrios para o trfego das aplicaes multimdia
na Internet.
16
3. Mecanismos de Priorizao
serem transmitidos, para cada enlace de sada de um roteador, o pacote a ser transmitido
Servidor
Filas de entrada
17
geralmente, gerado em rajadas, relativamente pouco sensvel a atraso, mas sensvel
a perdas. Por outro lado, trfegos em tempo real, como vdeo e voz, so sensveis a
rajadas e necessita de pouca banda, ao contrrio de vdeo, que consome muita banda e
trfego [29].
trfego, cada pacote que chega ao roteador de classificao mapeado para uma classe
especfica. Todos os pacotes que forem classificados em uma mesma classe tero o
pelo classificador da classe para o trfego pode estar associada a inmeros aspectos,
18
Protocolos da camada de rede ou transporte, tais como IP, TCP, UDP, IPX;
Endereo IP de origem;
Endereo IP de destino;
O octeto Type of Service (TOS) no cabealho do protocolo IPv4 foi designado para
O octeto Type of Service consiste de 3 (trs) campos, a saber: Precedence, TOS (Type of
As RFCs 791 [33], 1349 [34] e 1700 [35] especificam os campos do octeto Type of
19
Service do cabealho IP.
servio (Class of Service - CoS) para um pacote. So usados os 3 (trs) bits do octeto
Type of Service para este propsito. Os 8 (oito) possveis nveis de preferncia definidos
Os nveis 110 (6) e 111 (7) so reservados para roteamento e algumas mensagens de
ICMP (Internet Control Message Protocol). Ento apenas seis nveis (de rotina a
Os 4 (quatro) bits seguintes do byte Type of Service formam o campo TOS e podem ser
usados para marcar uma propriedade a ser priorizada entre custo, atraso, processamento,
20
Tabela 3.2.
datagrama IP [35].
O ltimo campo, MBZ (must be zero deve ser zero) no utilizado. O emissor do
campo DSCP (Differentiated Services Code Point) no octeto Type of Service (TOS) no
21
possveis, provendo 3 bits extras. O total de 6 bits permite 64 diferentes classes de
servio.
O campo CU (Currently Unused) do octeto TOS, que foi definido como no utilizado
definido na RFC 3168 [41] para utilizao do ECN (Explicit Congestion Notification),
O algoritmo de enfileiramento FIFO, tambm chamado FCFS (First Come, First Served
22
O algoritmo FIFO no introduz nenhum conceito de priorizao de classes de trfego e
igualitria [42].
todos os demais fluxos que estejam compartilhando a rede. Desta forma, em uma rede
banda e atraso fim a fim para nenhum fluxo [43]. No algoritmo FIFO no existe nenhum
mecanismo de QoS implementado, uma vez que inexiste neste algoritmo a possibilidade
de um fluxo furar a fila. O trfego de alta prioridade tem o mesmo tratamento que o
enlace de sada mantm uma fila distinta para cada prioridade de trfego definida e
23
O algoritmo PQ prov tratamento absolutamente preferencial ao trfego de maior
prioridade. Desta forma, um trfego de menor prioridade sempre ter a banda negada
em uma das quatro filas criadas: alta, mdia, normal e baixa, de acordo com a
classificao que lhe foi atribuda. Caso um pacote no tenha recebido uma
Em uma rede que possua banda suficiente para a aplicao VoIP e que seja importante
inferiores. Esta uma boa maneira de se garantir uma boa qualidade de transmisso de
voz, mesmo sob uma carga pesada das demais aplicaes [22]. Porm, considerando
possibilidade de se atribuir parcelas da banda para cada trfego disponvel, uma vez que
24
3.2.3. Filas Customizadas (Custom Queuing CQ)
O algoritmo CQ controla o trfego, alocando uma determinada parte da banda para cada
para cada fila, enviado a quantidade de pacotes referente parte da banda alocada,
antes de passar para a fila seguinte. Se uma fila est vazia, o algoritmo buscar pacotes
na prxima fila que contenha pacotes prontos a serem enviados. Associado a cada fila,
h um contador configurvel que estabelece quantos bytes devem ser enviados antes de
configurada no contador seja atingida. Neste momento, o pacote que est sendo
prxima fila.
O tamanho dos pacotes varia conforme a aplicao que est sendo transportada. Devido
ao fato do pacote ser a unidade mnima tratada pelo rotetador e do contador estar
configurado em quantidade de bytes, tem-se uma dificuldade para atender com preciso
Por exemplo, considere-se que um protocolo apresente pacotes de tamanho igual a 500
25
bytes, outro protocolo pacotes de 300 bytes e um terceiro pacotes de 100 bytes. Se for
configurado o contador para as trs filas com o valor de 200 bytes, buscando dividir a
banda em trs partes iguais, onde cada aplicao utilize 1/3 da banda disponvel, o
a primeira fila, este enviar um nico pacote de 500 bytes; quando atender a segunda
fila, enviar um nico pacote de 300 bytes; e ao atender a terceira fila, enviar 2 pacotes
de 100 bytes. Com esta configurao, a real diviso da banda entre as trs aplicaes
Pode-se concluir que configurar os contadores com valores baixos poder resultar em
aps uma fila ser atendida, esta demorar a ser atendida novamente, causando atraso s
em relao s bandas que se quer alocar para cada aplicao e maior ser o atraso
O mecanismo de Fair Queueing requer que cada conexo seja alocada a uma fila e que
estas filas sejam servidas em um esquema round robin. Filas vazias so saltadas, e para
um certo nmero de conexes ativas, a banda igualmente dividida entre elas [46].
O conceito de justia est associado maneira pela qual a banda compartilhada pelos
26
A noo de justia pode ter muitas interpretaes. Pode-se considerar a idia de que
todos os fluxos devem ser processados (ou servidos) da mesma maneira ou de que o
Cada um desses fluxos recebe pelo menos uma parte i desses recursos, sendo:
N
i = 1 (3.1)
i =1
Esta disciplina pode ser visualizada imaginando um fluxo contnuo de dados, separado
por classes de prioridades, sendo cada classe i servida de acordo com o peso i [47].
A Figura 3.4 representa o modelo GPS [36]. Nessa figura pode-se observar o
recebimento de trs pacotes de trs fluxos distintos (A, B e C) com seus respectivos
sada com nenhum outro fluxo, este utiliza todo o enlace (100%). Quando os fluxos A e
27
quais so iguais, e desta forma, cada um utiliza 50% do enlace. Quando o enlace
do modelo GPS, o pacote C, apesar de ser o ltimo a chegar, seria o primeiro a ter seu
envio finalizado. Isto acontece porque o modelo GPS utiliza a aproximao de fluido e
A B C
recebimento de pacotes
A B C
25% 25% 50%
envio de pacotes
Cada sesso i pode usar no mnimo a capacidade i*R, onde R a capacidade total da
Suponha-se que existam N fluxos sendo servidos por um roteador a uma taxa R e que ao
i-simo fluxo i seja atribudo o peso i, e considere-se tambm que Wi(, t) seja a
quantidade de dados servido ao fluxo i durante o intervalo (, t). No GPS, para qualquer
fluxo i na fila do roteador (backlogged) e qualquer outro fluxo j, em (, t), tem-se que
28
W i ( , t ) i
(3.2)
W j ( , t ) j
ri =
i
R (3.3)
j
B
j =1
Em um sistema GPS, todos os fluxos que utilizam uma poro da banda do enlace de
sada sempre menor que a parte que lhes atribuda so servidos sem fila, e a banda no
utilizada por estes fluxos compartilhada para os demais na proporo dos seus pesos.
Dessa forma, no GPS, cada fluxo tem sua cota garantida, e a banda no utilizada
vlido para redes no mundo real, nas quais os pacotes so recebidos como entidades
29
PGPS tambm referenciado como WFQ Weighted Fair Queuing [44].
tempo calculado para o sistema GPS no representar o tempo real de partida do pacote
no WFQ, mas ser associado ordem de sada do pacote. Por exemplo, se o pacote A
tem sua transmisso finalizada antes do pacote B em um sistema GPS, o pacote A ser
segundo), sendo K o conjunto de fluxos que compartilham este enlace e por rk, k K, a
taxa de servio (em bits por segundo) associado a cada fluxo k. Define-se Wk(t1, t2), t2 >
t1, como o servio agregado (em bits) recebido pelo fluxo k durante o intervalo de tempo
[t1, t2]. O valor de Wk(t1, t2) simplesmente igual ao tempo gasto pelo servidor com o
armazenados em t e por B(t1, t2) o conjunto de fluxos que estejam armazenados durante
todo o intervalo de tempo [t1, t2]. Para intervalos de tempo [t1, t2], nos quais ambos os
30
Em uma situao real, onde um pacote inteiro de um certo fluxo deve ser transmitido
antes do servio ser passado para atendimento de outro fluxo, o algoritmo WFQ tem
como objetivo manter a quantidade | Wk(t1, t2) / rk - Wj(t1, t2) / rj | o mais prximo de
zero possvel.
tempo virtual, v(t), est associado com o sistema de referncia GPS e mede o progresso
funo tempo virtual v(t) tem uma taxa de crescimento no tempo igual ao servio
tempo.
Matematicamente [27]
d (t , t + t ) W k (t )
v(t ) lim t 0 W k (3.5)
dt t. r k
dizer que:
W k ( t1 , t 2 )
v(t 2) v(t1) = , k B (t1 , t 2) (3.6)
rk
Onde [t1, t2] um subintervalo arbitrrio de um perodo de ocupao, onde pode ser
derivado:
R
v(t 2) v(t1) = .(t 2 t1) (3.7)
rk
kB (t 1,t 2 )
31
Conseqentemente, v(t) uma funo crescente no tempo com declive que sofre
d R
v(t ) = (3.8)
dt rk
kB ( t )
Isto significa que quando existem sesses inativas o tempo virtual avana mais rpido.
Na associao com o GPS, pode ser visto que as sesses que esto ativas obtm mais
banda.
Conforme visto, o tempo virtual v(t) uma funo linear por partes, crescente no tempo,
e com uma inclinao que muda sempre que o conjunto de fluxos em backlog B(t)
sesses em backlog. A Figura 3.5 ilustra o comportamento da funo tempo virtual v(t).
V(t)
t
Figura 3.5 Variao de v(t) no tempo
Seja Fp o instante no qual o pacote p seria enviado, ou seja, o tempo final de servio se
32
este pacote estivesse sob o modelo referencial GPS. Dessa forma, uma boa aproximao
do GPS seria o envio dos pacotes, pelo mecanismo WFQ, em uma ordem crescente de
Fp.
Para obteno do tempo virtual final (de servio) Fki, define-se pki como representando o
i-simo pacote do fluxo k; aki como seu tempo de chegada, Lki como seu tamanho e rk
Quando um pacote chega ao roteador, o algoritmo WFQ lhe atribui o tempo virtual
1
Fk = Lk + S k i = 1,2,..., kK
i i i
(3.9)
rk
e,
F k = 0,
0
kK (3.10)
onde,
S k = max(F k , v(a k ))
i i 1 i
i = 1,2,..., kK (3.11)
Ski representa o nmero de partida (start number), que o valor mximo entre o tempo
virtual final do (i-1)-simo pacote do k-simo fluxo e v(aki), que representa o valor de
Se o pacote chega em uma fila inativa, ento o nmero de partida ser o tempo virtual
corrente v(aki). Se a chegada ocorre em uma fila ativa, o nmero de partida ser o tempo
33
Sendo os pacotes servidos na ordem crescente do tempo virtual final Fki, cria-se a
equivalncia com o tempo virtual real que seriam tratados no sistema de referncia GPS.
Dessa forma, o mecanismo WFQ tem que identificar cada pacote que chega com seu
tempo virtual final para cada pacote uma operao que requer o conhecimento do
tamanho do pacote, tempo virtual final do pacote anterior, e o tempo virtual do sistema
pacotes alteram estes valores, e que pacotes podem chegar simultaneamente, este um
Obs: A equao 3.9 tambm apresentada [36] [44] [48] [49] como:
1 i
Fk = Lk + S k i = 1,2,..., kK
i i
(3.12)
k
A equao 3.12 tem a mesma funcionalidade da equao 3.9, uma vez que k e rk
Para os 3 fluxos que sero tratados pelo mecanismo WFQ, assume-se que todos os
34
pacotes so do mesmo tamanho e que a taxa de transmisso R do enlace de sada
A Figura 3.6 ilustra este cenrio e traz o comportamento do GPS para esta situao.
Fluxo 1
Fluxo 2
Fluxo 3
0 1 2 3 4 5 6 7 8 9 10 11 12 13 t
GPS
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 t
Figura 3.6 Tempo de chegada dos fluxos e seu comportamento em um esquema GPS.
35
v(t)
20
19
18
17
16
15
14
13
12
11
10
t
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
1,2 1,2 1,2 1,2,3 3 1,2,3 3 Fluxos armazenados
(backlogged) B(t)
A Tabela 3.3 apresenta o tempo t, o tempo virtual v(t) e o tempo virtual final de servio
mecanismo Weighed Fair Queueing conforme Figura 3.8. A ordem dos pacotes com o
36
t 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
v(t) 0 1,5 3 0 1,5 3 0 1,5 2,5 4,5 5,5 6,5 7,5 8,5 9,5 10,5 13,5 16,5 19,5 0
Fi1 3 3 3
Fi2 3 3 3
Fi3 4,5 7,5 10,5 13,5 16,5 19,5
i
Tabela 3.3 t, v(t) e F k para o exemplo apresentado.
WFQ
Fik 3 3 3 3 3 3 4,5 7,5 7,5 7,5 10,5 10,5 10,5 13,5 16,5 19,5
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 t
Figura 3.8 Seqncia WFQ e valores Fik dos pacotes.
representao das velocidades dos enlaces percorridos pelo fluxo i e ri a taxa mnima
garantida para o fluxo i em cada enlace que este percorre, o atraso fim-a-fim garantido
compartilhando cada um dos enlaces percorridos pelo fluxo i. Essa propriedade faz o
37
3.2.5. Variaes do Weighted Fair Queuing (WFQ)
atraso e banda.
Cada uma das variaes do WFQ apresenta alguma melhoria em relao ao WFQ, por
PGPS.
invs de utilizar uma definio abstrata analtica para o tempo virtual, adota-se como
38
tempo virtual uma quantidade que naturalmente surge no processo do algoritmo [52].
O SCFQ prope uma aproximao simples para calcular o instante de partida (tempo
final de servio) no correspondente sistema GPS. Quando um pacote chega a uma fila
de espera, o SCFQ usa como v(t) o tempo virtual final do pacote que est nesse
i
F k = max (F k , F actual ) +
i i 1 Lk i = 1,2,..., kK (3.14)
k
Quando nenhum pacote encontrado na fila, o algoritmo atribui o valor zero para v(t).
O algoritmo Start-time Fair Queuing (SFQ) foi proposto em [49] como um outro
escolher o pacote com o menor tempo virtual de incio de servio (em oposio ao
menor tempo virtual de final de servio) para transmisso no enlace de sada [44].
S k = max( F k , v(ak ))
i i 1 i
i 1 (3.15)
39
onde a identificao de finalizao do pacote definido como
i
Lk
F = Sk + i 1 (3.16)
i i
k
k
baixo e equivalente ao SCFQ, uma vez que envolve apenas a manipulao dos
O algoritmo Worst-case Fair Weighted Fair Queuing (WF2Q) proposto em [53] utiliza
tanto o tempo de partida quanto o tempo final de envio no sistema referencial GPS para
obter uma emulao mais acurada do GPS. O WF2Q seleciona o pacote com o menor
tempo virtual final no sistema referencial GPS contanto que o tempo virtual de partida
40
Quando o PGPS escolhe um pacote a ser servido no instante ts, ele seleciona, entre
GPS dentre todos os pacotes presentes no servidor, escolhe somente entre os pacotes
WF2Q, o pacote escolhido para ser servido no instante ts o pacote que terminaria o
servio primeiro no GPS e que j teria comeado a ser servido pelo GPS no instante ts
[48].
41
4. Mecanismos de Controle de Congestionamento
Management) [54].
O algoritmo de controle de fluxo na fonte reside no sistema operacional do host que est
atuando nos buffers destes dispositivos, onde esto as filas de pacotes aguardando a
Protocol).
42
pesquisadores porque sua implementao tem proporcionado considervel melhoria no
tem relao crucial com a melhoria de desempenho da rede, por meio da diminuio do
uma fila que, quando preenchida ao mximo, estoura e descarta os pacotes que chegam
a seguir.
atuando como algoritmo de controle de fluxo na fonte. Ser visto tambm a evoluo
43
4.1.1. Mecanismo de Controle de Fluxo do TCP
dados. Quando uma conexo estabelecida, cada lado da conexo aloca um buffer para
armazenar os dados que chegam e envia o tamanho desse buffer para o outro lado.
buffer. Desta forma, cada lado da conexo fica limitado a enviar, no mximo, a
A Figura 4.1 ilustra este mecanismo [55]. Nesta figura o tamanho inicial da janela no
host B 2500. Aps o recebimento do primeiro segmento, contendo 1000 bytes, o host
que igual a 1500; aps o recebimento do segundo segmento, que contm 1000 bytes, o
explicativas.
seu reenvio ao evitar o overflow do buffer de destino. Este controle se d entre os hosts
44
host A host B
(emissor) (receptor)
janela = 2500
um datagrama faz com que o protocolo TCP reenvie o segmento perdido, em funo de
45
Se o TCP do host de origem continuasse a enviar os dados, aps uma perda de um
enviar uma pequena quantidade de dados, em vez da quantidade estipulada pela janela
mecanismo implementado pelo TCP a combinao dos algoritmos slow start (partida
de congestionamento.
Congestionamento do TCP
46
sensveis a QoS tem impulsionado as pesquisas nesta rea.
Slow Start
controle de fluxo, ou seja, o emissor injetava segmentos na rede limitado somente pelo
as situaes nas quais os dois hosts se encontravam na mesma LAN (Local Area
congestionamento.
O algoritmo slow start opera com base no fato de que a taxa de envio de pacotes
O algoritmo slow start adiciona uma nova janela aos emissores TCP, a janela de
47
congestionamento (congestion window), chamada cwnd. Quando uma nova conexo
Onde SMSS (Sender Maximum Segment Size) o tamanho do maior segmento que o
que deveria ser menor ou igual a 2 segmentos (2*SMSS). A ltima atualizao, RFC
incio de conexo mais eficiente, particularmente para aquelas conexes TCP de curta
durao que prevalecem em uma busca web. Observaes no trfego web indicam uma
segmento, levar cinco intervalos RTT para a transferncia dos dados, enquanto o uso
Contudo, quatro segmentos pode ser um nmero grande para enlaces de baixa
velocidade e com limitao de buffers, nos quais uma aproximao mais robusta seria o
uso de IW com valor no superior a dois segmentos para comear o Slow Start [59].
A janela de transmisso, que define a mxima quantidade de dados que o emissor pode
48
enviar, o menor valor entre a janela de congestionamento e a janela de fluxo
pelo emissor, enquanto a janela de fluxo o controle de fluxo imposto pelo receptor. O
Durante o Slow Start, o TCP incrementa cwnd em at SMSS bytes para cada ACK
capacidade, pode ser atingida, e o roteador intermedirio associado a este enlace inicia o
muito grande.
Congestion Avoidance
49
atinja o valor patamar ssthresh (definido a seguir), implementando um crescimento
implementados juntos.
Os algoritmos congestion avoidance e slow start requerem que duas variveis sejam
fluxo do receptor.
50
ssthresh = max (FlightSize / 2, 2*SMSS) (4.2)
exponencialmente.
51
cwnd cwnd + (SMSS * SMSS / cwnd) (4.3)
Fast Retransmit
timeout do segmento. Logo, o algoritmo fast retransmit evita que o protocolo TCP tenha
para o emissor que um segmento foi recebido fora de ordem e indicar o nmero da
A Figura 4.2 ilustra o algoritmo fast retransmit. Nesta figura observa-se que o receptor
segmento 2 duplicados.
52
host A host B
(emissor) (receptor)
segmento 1
segmento 2
segmento 3
X ACK 1
ACK 2
segmento 4
segmento 5
segmento 6
ACK 2
ACK 2
ACK 2
retransmisso segmento 3
ACK 6
Fast Recovery
No algoritmo fast recovery, aps o algoritmo fast retransmit ter enviado o que
moderado.
53
O motivo para a no utilizao do slow start quando da recepo de ACKs duplicados
est baseado no fato de que apenas um segmento foi perdido. Desde que o receptor s
pode gerar ACKs duplicados quando segmentos posteriores forem recebidos, conclui-se
que o trfego entre os dois hosts ainda est fluindo e, desta forma, o protocolo TCP no
conforme segue:
3. Cada vez que um outro ACK duplicado chegar, incrementar cwnd com
de fluxo do receptor.
54
5. Quando receber o ACK deste novo segmento, atribuir para cwnd o valor de
4.2. Tail-Drop
que a fila esteja cheia, quando ento todos os pacotes que chegam so descartados e,
do estado de overflow.
fontes de trfego aumentam gradativamente suas taxas, podendo levar a uma situao de
congestionamento.
55
Pode-se notar que, em uma situao de congestionamento, o tail-drop provoca um efeito
proposto por Sally Floyd e Van Jacobson [60] no incio dos anos 90 como um
TCP.
tamanho mdio da fila em um valor que proporciona baixo atraso e alto throughput,
comum no tail-drop.
56
individuais e descartar pacotes nestes fluxos, forando as origens destes fluxos a
diminurem a taxa de envio de pacotes. A Figura 4.3 ilustra este mecanismo [31]. Nesta
figura, pode-se observar que o algoritmo RED aleatoriamente descarta pacotes de fluxos
Mltiplos X
fluxos TCP X
A conexo TCP que sofrer a perda de pacotes iniciar a reduo da sua taxa de
transmisso de bits. Pouco a pouco, muitas conexes TCP sofrero alguma perda de
em duas partes principais: uma parte responsvel pela estimativa do tamanho mdio da
fila (average queue size) e outra parte associada tomada de deciso quanto ao descarte
do pacote [63].
O tamanho mdio da fila comparado com dois valores de limiares definidos, limiar
algoritmo quanto ao descarte do pacote. Caso o valor mdio da fila esteja abaixo de
57
valor mdio da fila estiver acima de thmax, o algoritmo estar na zona de controle de
Controle de
p Congestionamento
1
Preveno de
Congestionamento
pmax
Operao
Normal
Figura 4.4 Zonas de operao do RED
O RED estima o tamanho mdio da fila para cada pacote recebido atravs de uma mdia
avg i = (1 wq ) avg i 1 + wq q ( 4 .4 )
onde o peso wq dimensiona a influncia do tamanho atual da fila (q) no clculo da nova
mudanas no tamanho da fila. Caso wq seja definido com um valor alto, o uso da mdia
58
no conseguir filtrar os congestionamentos passageiros. Por outro lado, se wq for
que se deseja suportar. Estes valores esto relacionados da seguinte forma [60]:
( L +1)
(1 w q) 1 (4.5)
L +1+ < th min
wq
Os valores timos para thmin e thmax dependem do valor desejado para o tamanho mdio
da fila (avg). Contudo, o valor desejado para o tamanho mdio da fila depende do tipo
de um valor de avg alto o suficiente para manter uma alta utilizao da rede, evitando a
subutilizao do enlace de sada do roteador. Por outro lado, um valor alto de avg,
global.
pb
pa= ( 4 .6 )
(1 count p b)
59
(avg th min ) ( 4.7 )
p b = p max
(th max th min )
onde pmax define a probabilidade mxima de descarte quando o tamanho mdio da fila
atinge thmax e count representa o nmero de pacotes desde o ltimo pacote descartado. O
parmetro pb varia linearmente entre 0 e pmax, enquanto pa, que define a real
uma vez que seleciona pacotes a serem descartados de forma aleatria, sem privilgio
ponderao dos trfegos com relao ao descarte de seus pacotes. Por exemplo, em uma
rede VoIP, o trfego de voz transportado sobre UDP, que no reage ao descarte de
sinal de voz, mas no resultar na diminuio do trfego na rede. Assim, pacotes de voz
60
fluxo ou a um grupo de fluxos so baseados na poltica de QoS que se deseja
O WRED define mltiplos valores de limiares, mnimos e mximos, a partir dos quais a
definidas. O WRED fornece limiares e pesos distintos para diferentes tipos de trfego.
Deve ser notado que bastante difcil ajustar os parmetros W(RED), ou seja, diferentes
Diretrizes apontando para as melhores formas de realizar estes ajustes ainda esto sendo
desenvolvidas [66]. O artigo [65] conclui que um baixo atraso para uma probabilidade
especfica de perda pode ser obtida atravs da utilizao de uma alta probabilidade
mxima de descarte, um baixo valor para o limiar thmin e uma diferena pequena entre
valor para o limiar thmin e uma ampla diferena entre os limiares. A escolha adequada
um trfego especfico. Por exemplo, servios em tempo real requerem baixo atraso,
61
baseia-se no fato de que a intensidade do sinal de realimentao (feedback) em relao
buffer.
Desta forma, os algoritmos AQMs rate based podem determinar a demanda de banda do
62
necessitam do backlog estabelecido para determinar e tratar o congestionamento.
rate based que indicam suas vantagens de utilizao, revelando seu potencial para
diminuir os backlogs e fornecer menor atraso e perdas aos fluxos na rede [54].
Os algoritmos REM e GREEN so 2 algoritmos AQM do tipo rate based [67] [68].
63
sinalizar a ocorrncia de congestionamento e evitar a perda dos mesmos.
O ECN, definido na RFC 3168 [41], possibilita aos algoritmos AQM uma alternativa de
O uso do ECN permite que o receptor receba o datagrama com os bits CE marcados,
evitando o atraso no aguardo da retransmisso, que seria necessrio caso fosse utilizado
So utilizados dois bits no cabealho IP para designar o campo ECN. A RFC 3168, a
qual obsoletou a RFC 2481, define dois bits que se encontravam reservados para uso
futuro, no campo TOS (Type of Service Tipo de Servio) do Protocolo IP, verso 4
(IPv4).
01 ECT(0)
64
10 ECT(1)
pacotes.
indicando que os hosts fins da conexo TCP suportam o ECN. Os dois cdigos, ECT(0)
setados pelo emissor de maneira indistinta para indicar a capacidade ECN dos hosts da
conexo TCP.
O cdigo 11, CE Congestion Experienced, setado pelo roteador que est em estado
de congestionamento.
O comportamento dos hosts em uma conexo TCP deve ser o mesmo para qualquer uma
das formas de sinalizao de congestionamento, seja por descarte de pacote, seja por
habilitado provoca no protocolo TCP do host emissor o mesmo efeito que o pacote
Da mesma forma, um roteador pode descartar um pacote not-ECT (no compatvel com
ECN) ou marcar o cdigo CE em um pacote ECT (compatvel com ECN), isto para um
65
um pacote compatvel com ECN, deve ser realizada em uma situao na qual o roteador
Em uma situao na qual o roteador esteja recebendo pacotes e sua fila estiver cheia,
este descartar pacotes, tal como faria em uma situao sem a implementao do ECN.
Caso o roteador receba um pacote com o cdigo CE j marcado, este ser encaminhado
Os bits 8 e 9 do cabealho TCP, que eram bits reservados para uso futuro, so utilizados
66
O ECN utiliza o ECT e o CE, no cabealho IP, para sinalizao entre os roteadores e os
hosts e utiliza o ECE e o CWR, no cabealho TCP, para sinalizao entre os protocolos
Para uma conexo TCP, uma tpica seqncia de eventos em uma reao ao
O cdigo ECT setado nos pacotes enviados pelo emissor para indicar que o ECN
envolvidos na conexo.
e verifica que o cdigo ECT est habilitado em um pacote que est para ser
O receptor recebe o pacote com o cdigo CE habilitado e seta o flag ECE (ECN-
O emissor seta o flag CWR no cabealho TCP do prximo pacote a ser enviado ao
67
5. Simulaes
simulaes.
Para as simulaes, realizou-se uma pesquisa para definir o comportamento tpico dos
download das pginas web) e tempos de leitura. Em outras palavras, uma sesso HTTP
da aplicao web. A pgina web pode ser vista como um objeto HTTP composto de um
ou mais arquivos HTML (Hyper Text Markup Language), juntamente com outros
elementos que possam vir a compor uma pgina web (imagens, sons, animaes, etc...)
68
[70].
Tamanho do objeto principal (main object size): pesquisado nas referncias [69],
avaliados. Trabalhos como [70], [76] e [77] relatam que a distribuio que melhor
Pareto. Outros trabalhos, como [69] e [74] atribuem a distribuio Lognormal como a
que melhor caracteriza estes parmetros, enquanto outros trabalhos, como [72] e [78]
distribuio de Pareto como a melhor opo para caracteriz-la, enquanto para o tempo
69
tempos entre requisies de leitura representam o tempo necessrio para o usurio
Com base nas referncias citadas, montou-se a Tabela 5.1, que representa a escolha da
Uma sesso FTP consiste de uma seqncia de transferncia de arquivos, separadas por
70
FTP: o tamanho do arquivo que ser transferido e o tempo de leitura do usurio (tempo
Apesar do FTP representar um importante servio, nos ltimos anos esta importncia
vem diminuindo em contrapartida ao crescimento dos downloads HTTP. Por esta razo,
A maioria dos trabalhos aponta a distribuio de Pareto ([70], [72] e [73]) para a
Com base nas referncias citadas, e particularmente na referncia [69] para o tamanho
71
5.1.3. Trfego de Voz
O trfego de voz foi configurado para representar a telefonia IP com codec G.729. O
de fala a uma taxa de 8 kbit/s [36]. Desta forma, o trfego de voz gerado de 100
codec G.729.
taxa de bits efetiva ento igual a 30400 bps (38 bytes / pacote * 8 * 100 pacotes /
segundo) [79].
5.2. Simulaes
5.2.1. Simulao 1
72
Figura 5.1 Ambiente da Simulao 1
512 Kbps, foram configuradas com os mecanismos de priorizao (FIFO, PQ, WFQ e
aproximadamente 30%, 60% e 90% do enlace, respectivamente. Para cada uma destas 3
crescente (0, 5, 10, 20, 30, 40, 50, 60, 70, 80, 90, 100, 150, 200, 300, 400 e 500) o
73
para TOS igual a 6 (Interative Voice) e a aplicao HTTP para TOS igual a 0 (Best
de voz previsto para utilizar o enlace, ou seja, 32%, 62% e 92%. A Tabela 5.3 detalha as
Para todos os mecanismos de priorizao verificados nesta simulao, cada fila foi
Nas Figuras 5.2, 5.3 e 5.4 so apresentados os resultados obtidos para o atraso mdio
fim-a-fim dos pacotes de voz (voice packet end-to-end delay) entre o servidor na
LAN_B e os clientes na LAN_A. Deve-se notar nestas figuras e nas demais figuras
deste captulo, que o parmetro foi observado em relao a utilizao do enlace, tanto
para 60 clientes HTTP, a utilizao do enlace j superior a 90% e, neste caso, pode-se
74
1,6
Atraso Mdio Fim-a-Fim para os
1,4
Pacotes de Voz (sec)
1,2
FIFO
1
PQ
0,8
WFQ
0,6
CQ
0,4
0,2
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
1,6
Atraso Mdio Fim-a-Fim para os
1,4
Pacotes de Voz (sec)
1,2
FIFO
1
PQ
0,8
WFQ
0,6
CQ
0,4
0,2
0
0 50 100 150 200 250 300 350 400 450 500
Utilizao do Enlace - Clientes HTTP
Obs.: pode-se observar que nas Figuras 5.2, 5.3 e 5.4, com a utilizao do mecanismo
FIFO, o atraso mximo para o trfego de voz se torna menor quanto maior a quantidade
fato do tamanho mximo da fila configurada para este mecanismo ser de 500 pacotes.
Uma vez que o tamanho do pacote de voz fixo e igual a 38 bytes e o tamanho do
pacote HTTP apresenta tamanho varivel entre 516 e 1500 bytes, o tamanho mximo da
75
fila em bytes varia conforme a quantidade de pacotes de voz e HTTP que ocupam a fila.
Sendo o tamanho dos pacotes de voz bem menor que os pacotes HTTP, quanto maior
for a quantidade de usurios de voz, maior ser o nmero de pacotes de voz povoando a
Figura 5.5 demonstra este comportamento. A Figura 5.6 apresenta a perda de pacotes IP
1
Atraso Mdio Fim-a-Fim para os
0,9
Pacotes de Voz (sec)
0,8
0,7
FIFO
0,6
PQ
0,5
WFQ
0,4
CQ
0,3
0,2
0,1
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
1
Atraso Mdio Fim-a-Fim para os
0,9
Pacotes de Voz (sec)
0,8
0,7
FIFO
0,6
PQ
0,5
WFQ
0,4
CQ
0,3
0,2
0,1
0
0 100 200 300 400 500
Utilizao do Enlace - Clientes HTTP
76
0,7
Atraso Mdio Fim-a-Fim para os
0,6
Pacotes de Voz (sec)
0,5
FIFO
0,4 PQ
0,3 WFQ
CQ
0,2
0,1
0
80 90 100
Utilizao do Enlace (%)
0,7
Atraso Mdio Fim-a-Fim para os
0,6
Pacotes de Voz (sec)
0,5
FIFO
0,4 PQ
0,3 WFQ
CQ
0,2
0,1
0
0 100 200 300 400 500
Utilizao do Enlace - Clientes HTTP
77
250
Tamanho Mdio dos Pacotes
200
150 30%
(bytes)
60%
100 90%
50
0
0 100 200 300 400 500
Utilizao do Enlace - Clientes HTTP
Figura 5.5 Tamanho mdio dos pacotes para o mecanismo FIFO para 30%, 60% e
900000
Interface IP. FIFO - Trfego
800000
Descartado (bits/sec)
700000
600000
30%
500000
60%
400000
90%
300000
200000
100000
0
0 50 100 150 200 250 300 350 400 450 500
Utilizao do Enlace - Clientes HTTP
Figura 5.6 Trfego IP descartado no mecanismo FIFO para 30%, 60% e 90% de
trfego de voz com nveis adequados para o atraso, e tambm apresentou descarte de
pacotes de voz (Figura 5.7), quando o trfego de voz estava consumindo 30%, 60% e
78
90% do enlace.
70000
60000
50000
30%
40000
60%
30000
90%
20000
10000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
CQ - Trfego Descartado (bits/sec)
70000
60000
50000
30%
40000
60%
30000
90%
20000
10000
0
0 50 100 150 200 250 300 350 400 450 500
Utilizao do Enlace - Clientes HTTP
Figura 5.7 Perdas para as simulaes com trfego de voz com o mecanismo CQ.
trfegos que compartilham o enlace, uma vez que sua configurao, baseada em
contador de bytes (byte count) para dimensionar o percentual do servidor para atender
cada tipo de trfego, se mostra bastante inadequado para este propsito. Nesta
79
HTTP apresenta tamanho varivel entre 516 e 1500 bytes. Desta forma, conforme
exemplificado na Seo 3.2.3, a atribuio dos pesos a cada trfego sendo dimensionada
mecanismo CQ para os dois trfegos (voz e HTTP) e se tornaria ainda pior para uma
quantidade maior de trfegos. Fica evidenciado que apesar de ter sido dimensionado o
referentes a 30%, 60% e 90% de ocupao do enlace para o trfego de voz. Vale
lembrar que para o mecanismo WFQ foram utilizados os mesmos percentuais e tambm
Para melhor verificar a atuao deste mecanismo (CQ), as Figura 5.8, 5.9 e 5.10
em 30% para o trfego de voz e 150 clientes HTTP, variando os valores do contador de
bytes (byte count) mantendo a mesma proporo da relao entre trfego de voz e
trfego HTTP, ou seja, 32% e 68% respectivamente. Nota-se que a atribuio de valores
muito pequenos para os contadores resulta em uma grande discrepncia para as bandas
gerando grande atraso para o trfego de voz. Para valores grandes, a discrepncia
caracterstica tambm influencia nas perdas do trfego de voz (Figura 5.9) e verificamos
na Figura 5.10 que o mecanismo CQ s consegue prover justia nas atribuies de cada
80
Atraso Mdio Fim-a-Fim para os
11
10
Pacotes de Voz (sec)
9
8
7
6
Voz
5
4
3
2
1
0
0 200000 400000 600000 800000 1000000
Contador de Bytes (32% Voz + 68% HTTP)
140000
CQ - Trfego Descartado
120000
100000
(bits/sec)
80000
Voz
60000
40000
20000
0
0 200000 400000 600000 800000 1000000
Contador de Bytes (32% Voz + 68% HTTP)
500000
CQ - Trfego Descartado
450000
400000
350000
(bits/sec)
300000 Voz
250000 HTTP
200000 Total
150000
100000
50000
0
0 200000 400000 600000 800000 1000000
Contador de Bytes (32% Voz + 68% HTTP)
81
Avaliando os resultados, pode-se verificar que os mecanismos PQ e WFQ mantiveram o
atraso sempre menor que 20 ms e sem nenhum descarte de pacotes. Para uma melhor
dois mecanismos. A Figura 5.11 foi extrada das Figuras 5.2, 5.3 e 5.4.
0,025
Atraso Mdio Fim-a-Fim para os
Pacotes de Voz (sec)
0,02 PQ - 30%
WFQ - 30%
0,015
PQ - 60%
WFQ - 60%
0,01
PQ - 90%
0
0 50 100 150 200 250 300 350 400 450 500
Utilizao do Enlace - Clientes HTTP
voz em relao a outros trfegos, porm para uma situao onde se pretende priorizar
mecanismo PQ no adequado. Uma adequao para esta situao seria sua utilizao
casada com o WFQ, tendo como exemplo a implementao LLQ (Low Latency
Para uma situao com inmeros trfegos, o mecanismo WFQ apresenta os recursos
82
desejada. Na simulao 2 seguinte, veremos o comportamento deste mecanismo e
pode ser observado na Figura 5.12 para o trfego de voz ocupando 30% do enlace e na
Figura 5.13 para o trfego de voz ocupando 60% do enlace. Uma vez que o trfego
priorizado o trfego de voz, natural que o atraso ir aumentar para o trfego HTTP
ocupando 90% do enlace, estes aumentos de atraso que o trfego HTTP sofre so
WFQ so nfimos e a comunicao de voz se torna vivel graas utilizao destes dois
mecanismos. As Figuras 5.14, 5.15 e 5.16, e as Figuras 5.17, 5.18 e 5.19 mostram
83
Tempo de Resposta - Pgina HTTP
100
90
80
70
FIFO
60
PQ
(sec)
50
WFQ
40
CQ
30
20
10
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
Tempo de Resposta - Pgina HTTP
100
90
80
70
FIFO
60
PQ
(sec)
50
WFQ
40
CQ
30
20
10
0
0 50 100 150 200 250 300 350 400 450 500
Utilizao do Enlace - Clientes HTTP
Figura 5.12 Tempo Mdio de Resposta da Pgina HTTP (p/ trfego de voz ocupando
30% do enlace)
84
Tempo de Resposta - Pgina HTTP
100
90
80
70
FIFO
60
PQ
(sec)
50
WFQ
40
CQ
30
20
10
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
Tempo de Resposta - Pgina HTTP
100
90
80
70
FIFO
60
PQ
(sec)
50
WFQ
40
CQ
30
20
10
0
0 50 100 150 200 250 300 350 400 450 500
Utilizao do Enlace - Clientes HTTP
Figura 5.13 Tempo Mdio de Resposta da Pgina HTTP (p/ trfego de voz ocupando
60% do enlace)
85
Tempo de Resposta - Pgina HTTP
6
4 FIFO
PQ
(sec)
3
WFQ
2 CQ
0
20 30 40 50 60 70 80 90
Utilizao do Enlace (%)
Figura 5.14 Tempo Mdio de Resposta da Pgina HTTP (p/ at 95% de ocupao
10
9
8
7
FIFO
6
PQ
(sec)
5
WFQ
4
CQ
3
2
1
0
50 60 70 80 90
Utilizao do Enlace (%)
Figura 5.15 Tempo Mdio de Resposta da Pgina HTTP (p/ at 95% de ocupao
86
Tempo de Resposta - Pgina HTTP
10
9
8
7
FIFO
6
PQ
(sec)
5
WFQ
4
CQ
3
2
1
0
85 86 87 88 89 90 91 92 93 94 95
Utilizao do Enlace (%)
Figura 5.16 Tempo Mdio de Resposta da Pgina HTTP (p/ at 95% de ocupao
0,8
Atraso Mdio Fim-a-Fim para os
0,7
Pacotes de Voz (sec)
0,6
FIFO
0,5
PQ
0,4
WFQ
0,3
CQ
0,2
0,1
0
20 30 40 50 60 70 80 90
Utilizao do Enlace (%)
Figura 5.17 Atraso Mdio Fim-a-Fim para os Pacotes de Voz (p/ at 95% de
87
0,5
Atraso Mdio Fim-a-Fim para os 0,45
Pacotes de Voz (sec) 0,4
0,35
FIFO
0,3
PQ
0,25
WFQ
0,2
CQ
0,15
0,1
0,05
0
50 60 70 80 90
Utilizao do Enlace (%)
Figura 5.18 Atraso Mdio Fim-a-Fim para os Pacotes de Voz (p/ at 95% de
0,25
Atraso Mdio Fim-a-Fim para os
Pacotes de Voz (sec)
0,2
FIFO
0,15
PQ
WFQ
0,1
CQ
0,05
0
85 86 87 88 89 90 91 92 93 94 95
Utilizao do Enlace (%)
Figura 5.19 Atraso Mdio Fim-a-Fim para os Pacotes de Voz (p/ at 95% de
WFQ configurados para 30% de reserva para o trfego de voz (Tabela 5.3), foi realizada
nova simulao, desta vez variando o nmero de clientes de voz na LAN_A (1, 2, 3, 4,
88
5, 6, 7, 8, 9, 10, 12, 14, 16, 18, 20 e 25) acessando um servidor na LAN_B, mantendo
a-fim dos pacotes de voz entre o servidor na LAN_B e os clientes na LAN_A. A Figura
3,5
Atraso Mdio Fim-a-Fim para os
3
Pacotes de Voz (sec)
2,5
FIFO
2 PQ
1,5 WFQ
CQ
1
0,5
0
1 3 5 7 9 11 13 15 17 19 21 23 25
Utilizao do Enlace - Clientes de Voz
Figura 5.20 Simulao com variao dos clientes de voz mantendo em 200 os clientes
HTTP
Nas Figuras 5.20 e 5.21 pode-se verificar que o mecanismo PQ manteve um nvel
adequado de atraso (menor que 20 ms) e nenhuma perda enquanto o nmero de clientes
de voz exigia menos que 512 Kbps, ou seja, 16 clientes de voz (512 Kbps / 30,4 Kbps =
adequado de atraso (menor que 20 ms) e nenhuma perda enquanto o nmero de clientes
de voz consumia menos que a banda reservada (163840 bps Tabela 5.3), ou seja, 5
clientes.
89
700000
Trfego Descartado (bits/sec)
600000
500000
PQ
400000
WFQ
300000
CQ
200000
100000
0
0 5 10 15 20 25
Utilizao do Enlace - Clientes de Voz
Figura 5.21 Simulao com variao dos clientes de voz mantendo em 200 os clientes
HTTP
Nesta simulao, onde foi variado o nmero de clientes de voz, fica evidenciada a
voz.
anteriormente (pgina 85 e Figura 5.5), se deve ao fato de quanto maior for a quantidade
de usurios de voz, maior ser o nmero de pacotes de voz povoando a fila, diminuindo
90
5.2.2. Simulao 2
Esta simulao tem por objetivo analisar o comportamento do mecanismo WFQ, tal
como sua utilizao com o WRED e o ECN. A Figura 5.22 apresenta o ambiente da
simulao 2.
512 Kbps, foram configuradas com os mecanismos de priorizao WFQ com tail-drop.
configurado com peso 20 e TOS 6 para o trfego de voz, peso 40 e TOS 3 para o trfego
91
Para as simulaes realizadas foram configurados de forma crescente (1, 3, 5, 10, 15,
20, 25, 30, 35, 40, 45, 50, 60, 70, 80, 90, 100, 150, 200 e 300) os clientes HTTP e FTP
deste trfego. Alm disso, a utilizao do WRED e ECN s se aplica para trfegos
Para cada fila do WFQ configurou-se o tamanho mximo de fila (maximum queue size)
para 100 pacotes, limitado a um total (buffer capacity) de 200 pacotes. Desta forma,
enquanto este valor (200 pacotes) no alcanado, uma fila pode armazenar pacotes,
independente do tamanho associado sua fila (100 pacotes). Quando o total de 200
pode ser observado na Figura 5.23, que representa o resultado da simulao (WFQ e
pelo trfego FTP, enquanto o trfego HTTP no o utiliza. Quando os 2 trfegos esto
utilizando toda a extenso de suas respectivas filas, o mecanismo atribui 100 pacotes do
92
250
WFQ - Utilizao do Buffer
(pacotes) 200
150 HTTP
FTP
100 TOTAL
50
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
250
WFQ - Utilizao do Buffer
200
(pacotes)
150 HTTP
FTP
100 TOTAL
50
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
93
WFQ - Trfego Recebido (bits/sec)
1200000
1000000
800000
HTTP
600000 FTP
TOTAL
400000
200000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
WFQ - Trfego Recebido (bits/sec)
1200000
1000000
800000
HTTP
600000 FTP
TOTAL
400000
200000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
94
600000
WFQ - Trfego Descartado
500000
400000
(bits/sec)
HTTP
300000 FTP
TOTAL
200000
100000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
600000
WFQ - Trfego Descartado
500000
400000
(bits/sec)
HTTP
300000 FTP
TOTAL
200000
100000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
95
600000
WFQ - Trfego Enviado (bits/sec)
500000
400000
HTTP
300000 FTP
TOTAL
200000
100000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
600000
WFQ - Trfego Enviado (bits/sec)
500000
400000
HTTP
300000 FTP
TOTAL
200000
100000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
Figura 5.26 WFQ Trfego Enviado (trfego enviado pelo Roteador_B ao Roteador_A
kbps, pois uma vez que o peso atribudo ao trfego HTTP foi igual a 40 e ao trfego
FTP igual a 20, e sendo no mecanismo WFQ o restante da banda compartilhado pelos
trfego HTTP ocupa 2/3 do enlace (341,3 Kbps) e o trfego FTP ocupa 1/3 do enlace
(170,7 Kbps), conforme esperado. Nota-se tambm que enquanto o trfego HTTP no
96
utiliza sua banda reservada, esta aproveitada pelo trfego FTP, demonstrando a
Para este mesmo ambiente, foi realizada nova simulao, habilitando o mecanismo de
O artigo [65], referenciado no Captulo 5 quanto escolha dos valores para thmin e th ax
especfica de perda pode ser obtida atravs da utilizao de uma alta probabilidade
mxima de descarte, um baixo valor para o limiar thmin e uma diferena pequena entre
Q3
(HTTP)
Probabilidade mxima de descarte (*1) 2
limiar thmin (minimum threshold) 50
limiar th ax (maximum threshold) 75
As Figuras 5.27, 5.28, 5.29, 5.30 e 5.31 mostram a melhoria no atraso de enfileiramento
97
3
2,5
WFQ - Q3 - Atraso de
Enfileiramento (sec)
2
Tail Drop
1,5
WRED
1
0,5
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
2,5
WFQ - Q3 - Atraso de
Enfileiramento (sec)
2
Tail Drop
1,5
WRED
1
0,5
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
98
120
WFQ - Q3 - Utilizao do Buffer
100
80
(pacotes)
Tail Drop
60
WRED
40
20
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
120
WFQ - Q3 - Utilizao do Buffer
100
80
(pacotes)
Tail Drop
60
WRED
40
20
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
99
800000
WFQ - Q3 - Trfego Recebido 700000
600000
500000
(bits/sec)
Tail Drop
400000
WRED
300000
200000
100000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
800000
WFQ - Q3 - Trfego Recebido
700000
600000
500000
(bits/sec)
Tail Drop
400000
WRED
300000
200000
100000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
100
400000
WFQ - Q3 - Trfego Descartado 350000
300000
250000
(bits/sec)
Tail Drop
200000
WRED
150000
100000
50000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
400000
WFQ - Q3 - Trfego Descartado
350000
300000
250000
(bits/sec)
Tail Drop
200000
WRED
150000
100000
50000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
101
400000
WFQ - Q3 - Trfego Enviado 350000
300000
250000
(bits/sec)
Tail Drop
200000
WRED
150000
100000
50000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
400000
WFQ - Q3 - Trfego Enviado
350000
300000
250000
(bits/sec)
Tail Drop
200000
WRED
150000
100000
50000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
contnua do tamanho mdio dos pacotes medida que o congestionamento cresce. Esta
diminuio dos pacotes em bytes aps a capacidade total do buffer ser atingida
102
do tamanho mdio dos pacotes em relao ao nmero de clientes tanto para a utilizao
do tail-drop e WRED quanto do WRED c/ ECN que ser abordado mais frente.
1600
Tamanho Mdio dos Pacotes
1400
1200
1000 Tail Drop
(bytes)
800 WRED
600 WRED c/ ECN
400
200
0
0 50 100 150 200 250 300
Utilizao do Enlace - Clientes HTTP
120000
WFQ - Q3 - Utilizao do Buffer
100000
80000
Tail Drop
(bytes)
60000 WRED
ECN
40000
20000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes FTP
Este comportamento para o tamanho mdio dos pacotes refletido na Figura 5.33
(WFQ Buffer Usage (Q3) em bytes), o qual apresenta comportamento compatvel com o
103
atraso de enfileiramento apresentado na Figura 5.27 e na Figura 5.38 que ser mostrada
frente.
Na Figura 5.34 pode-se observar que houve melhoria no tempo de resposta da pgina
sob o ponto de vista do cliente, ou seja, das estaes da LAN_A que esto acessando o
30
25
20
Tail Drop
(sec)
15
WRED
10
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
Tempo de Resposta - Pgina HTTP
30
25
20
Tail Drop
(sec)
15
WRED
10
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
104
Observa-se que esta melhoria (tempo de resposta da pgina) no representa a mesma
alguns dos trabalhos pesquisados ([61], [63], [65]), a atuao dos algoritmos RED e
105
800000
WFQ - Q3 - Trfego Recebido 700000
600000
500000
(bits/sec)
Tail Drop
400000 WRED
300000 ECN
200000
100000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
800000
WFQ - Q3 - Trfego Recebido
700000
600000
500000
(bits/sec)
Tail Drop
400000 WRED
300000 ECN
200000
100000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
106
400000
WFQ - Q3 - Trfego Descartado 350000
300000
250000
(bits/sec)
Tail Drop
200000 WRED
150000 ECN
100000
50000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
400000
WFQ - Q3 - Trfego Descartado
350000
300000
250000
(bits/sec)
Tail Drop
200000 WRED
150000 ECN
100000
50000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
107
400000
WFQ - Q3 - Trfego Enviado 350000
300000
250000
(bits/sec)
Tail Drop
200000 WRED
150000 ECN
100000
50000
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
400000
WFQ - Q3 - Trfego Enviado
350000
300000
250000
(bits/sec)
Tail Drop
200000 WRED
150000 ECN
100000
50000
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
trfego HTTP, sem nenhuma alterao do trfego enviado. Por outro lado, ao se
ECN somente realizada aps um ciclo de ida e volta (RTT), e nesta simulao existe
108
congestionamento nos dois sentidos do enlace, em funo da configurao do trfego
FTP, conforme Anexo 1. Sendo assim, com o aumento do nmero de usurios, o nvel
usurios (Figura 5.39), quando o atraso se iguala ao apresentado pelo mecanismo FIFO.
estado de congestionamento total. Neste estado, o mecanismo ora descarta, ora marca o
fim-a-fim.
aos parmetros de atraso e perda. Para uma verificao mais pontual, mostra-se nas
total ver Figura 5.39) quanto ao atraso de enfileiramento e quanto s perdas, com e
109
3
2,5
WFQ - Q3 - Atraso de
Enfileiramento (sec)
2
Tail Drop
1,5 WRED
ECN
1
0,5
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
2,5
WFQ - Q3 - Atraso de
Enfileiramento (sec)
2
Tail Drop
1,5 WRED
ECN
1
0,5
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
110
120
WFQ - Q3 - Utilizao do Buffer
100
80
(pacotes)
Tail Drop
60 WRED
ECN
40
20
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
120
WFQ - Q3 - Utilizao do Buffer
100
80
(pacotes)
Tail Drop
60 WRED
ECN
40
20
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
111
Tempo de Resposta - Pgina HTTP
35
30
25
Tail Drop
20
(sec)
WRED
15
ECN
10
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
Tempo de Resposta - Pgina HTTP
35
30
25
Tail Drop
20
(sec)
WRED
15
ECN
10
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes
112
(tempo minutos)
Figura 5.41 WFQ Queuing Delay (Q3) e WFQ Traffic Dropped (Q3) WRED s/
ECN
(tempo minutos)
Figura 5.42 WFQ Queuing Delay (Q3) e WFQ Traffic Dropped (Q3) WRED c/
ECN
113
Com a utilizao do ECN, foi possvel diminuir a taxa de descarte mdio de 38790 bps
para 494 bps enquanto o atraso de enfileiramento mdio sofreu acrscimo de 1,77 ms
ECN, dentro de certos limites, poder permitir adequao dos parmetros de perda e
parmetros.
5.2.3. Simulao 3
MSS (Maximum Segment Size) e tambm configurado com o valor definido na RFC
114
30
Tempo de Resposta Pgina
25
20 MSS-1
HTTP (sec)
MSS-2
15
MSS-4
10 MSS-RFC
0
0 10 20 30 40 50 60 70 80 90 100
Utilizao do Enlace (%)
30
Tempo de Resposta Pgina
25
20 MSS-1
HTTP (sec)
MSS-2
15
MSS-4
10 MSS-RFC
0
0 30 60 90 120 150 180 210 240 270 300
Utilizao do Enlace - Clientes FTP
115
6. Concluso
de QoS.
Com a utilizao do mecanismo WFQ foi possvel reservar com eficincia a banda
voz quando se desconhece a banda necessria a ser reservada para este trfego. Desta
forma, sua utilizao em conjunto com o mecanismo WFQ, pode fornecer flexibilidade
distribuio dos recursos de rede. Verificou-se tambm que com a utilizao do WRED
e ECN podemos refinar a QoS, permitindo ajustes para melhorias no atraso e perdas.
Apesar deste trabalho ter avaliado os mecanismos de QoS em uma pequena rede
montada para este fim, fica a perspectiva de sua utilizao em uma rede maior como a
116
Internet, que apesar de exigir maior complexidade de implementao, pode viabilizar a
Como sugesto para novos trabalhos, poderia ser realizada a anlise dos mecanismos
117
Anexo 1 Detalhamento da Configurao do Simulador
OPNET
Simulao 1
o HTTP
118
o Voz
o HTTP
119
o Voz
Configurao de QoS
o FIFO
120
o PQ
o WFQ
p/ 30%
121
p/ 60%
p/ 90%
122
o CQ
p/ 30%
p/ 60%
123
p/ 90%
Simulao 2
o HTTP
124
o FTP
o HTTP
125
o FTP
126
Configurao de QoS
127
o WFQ c/ WRED
128
o WFQ c/ WRED e ECN
129
Anexo 2 Distribuies de Probabilidades
Distribuio de Pareto
k
f ( x) = +1 ( 2.1)
x
130
Mdia:
k ( 2. 2)
E ( x) =
1
Distribuio Exponencial
x/
f ( x) =e ,x 0
( 2.3)
f ( x) = 0 , x < 0
Mdia:
E (x) = ( 2.4)
131
Referncias Bibliogrficas
[1] Uyless Black, QOS in Wide Area Networks Livro Publicao Prentice
Hall - 2000.
1998 03.
[3] Shin-Jer Yang and Hung-Cheng Chou, Adaptive QoS parameters approach to
[4] Thuan Nguyen, Ferit Yegenoglu, Agatino Sciuto and Ravi Subbarayan, Voice
[5] Katsuyoshi Lida, Kenji Kawahara, Tetsuya Takine and Yuji Oie, Performance
[6] Jeong-Soo Han, Seong-Jin Ahn and Jin-Wook Chung, Study of delay patterns
132
[7] Chuck Semeria and John W. Stewart III, Supporting Differentiated Service
(http://www.juniper.net/solutions/literature/white_papers/200019.pdf).
[8] Stefan Brunner and Akhlaq A. Ali, Voice Over IP 101 Understanding VoIP
August 2004.
(http://www.juniper.net/solutions/literature/white_papers/200087.pdf).
[9] Johnny M. Matta and Atsushi Takeshita, End-to-End Voice Over IP Quality of
PP. 2458-2462.
(http://qos.internet2.edu/wg/apps/fellowship/Docs/Internet2AppsQoSNeeds.pdf)
133
[13] RCF 2119 - S. Bradner, Key words for use in RFCs to Indicate Requirement
(http://www.inatel.br/docentes/brito/Voz_sobre_IP.pdf)
[18] Thomas J. Kostas, Michael S. Borella, Ikhlaq Sidhu, Guido M. Schuster, Jacek
(http://www.iskon.hr/FAQ/white_papers/VoiceoverIP.pdf)
134
[20] Intel Whitepaper: Overcoming Barriers to High-Quality Voice over IP
(http://www.intel.com/network/csp/pdf/8539.pdf)
[22] Martin W. Murhammer, Kok-Keong Lee, Payam Motallebi, Paolo Borghi and
(http://www.redbooks.ibm.com/redbooks/pdfs/sg242580.pdf)
[23] Nicolas Christin and Jrg Liebeherr, A QoS Architecture for Quantitative
No 6, PP. 38-45.
[24] Nicolas Christin and Jrg Liebeherr, Rate Allocation and Buffer Management
[26] Nicolas Christin and Jrg Liebeherr, Marking Algorithms for Service
135
Differentiation of TCP Traffic Computer Communications, 2004.
(http://www.ittc.ku.edu/research/thesis/documents/gayathri_chandrasekaran_the
sis.pdf)
(http://www.ittc-ku.net/publications/documents/Nyirenda-
Jere2001_SPRINT_22730_01_Impact%20of%20Traffic%20Aggregation.pdf)
(http://www.cisco.com/univercd/cc/td/doc/cisintwk/ito_doc/qos.pdf)
(http://www.cisco.com/univercd/cc/td/doc/product/software/ios122/122cgcr/fqos
_c/qcfbook.pdf)
[31] Paul Ferguson and Geoff Huston, Quality of Service - Delivering QoS on the
February 1998.
136
[32] Agilent Technologies, IP Quality of Service 2000.
(http://www.securitytechnet.com/resource/rsc-center/vendor-wp/agilent/5968-
9722E.pdf)
[34] RFC 1349 P. Almquist, Type of Service in the Internet Protocol Suite July
1992.
[35] RFC 1700 J. Reynolds and J. Postel, Assigned Numbers October 1994.
[36] Oliver Hersent, David Guide & Jean-Pierre Petit, Telefonia IP - Comunicao
[37] RFC 1455 - D. Eastlake, Physical Link Security Type of Service May 1993.
[38] RFC 1812 F. Baker, Requirements for IP Version 4 Routers Jun 1995.
June 2004.
(http://searchcio.bitpipe.com/data/document.do?res_id=1088099513_494)
[40] RFC 2474 - K. Nichols, S. Blake, F. Baker and D. Black, Definition of the
137
Differentiated Services Field (DS Field) in the IPv4 and IPv6 Headers -
December 1998.
[41] RFC 3168 - K. Ramakrishnan, S. Floyd and D. Black, The Addition of Explicit
[43] Jasleen Sahni, Pawan Goyal and Harrick M. Vin, Scheduling CBR Flows: FIFO
Systems Support for Digital Audio and Video (NOSSDAV99), June 1999. PP
13-27.
February 1999.
[46] Syed Ljlal Ali Shah, Bringing Comprehensive Quality of Service Capabilities
138
[47] Daniel Cavas Otero, Diferenciao e QoS em Redes Sem Fio Junho 2003
(http://www.garf.coppe.ufrj.br/publicacoes.htm)
[49] Pawan Goyal, Harrick M. Vin, and Haichen Cheng, Start-Time Fair Queueing:
690-704.
[50] Jrg Liebeherr, Notas de aula da disciplina ECE1545F Bridges and Routers -
November 2005.
(http://www.comm.utoronto.ca/%7Ejorg/ece1545/exercises/Ex6.pdf)
(http://poisson.ecse.rpi.edu/~harrisod/thesis.pdf)
139
Broadband Applications - IEEE INFOCOM'94 - Toronto, Canad - June 1994.
PP. 636-646.
[53] J.C.R. Bennett and H. Zhang, WF2Q: Worst-case Fair Weighted Fair Queuing
IEEE Communications Magazine December 2002. Vol. 40, No 12, PP. 44-49.
[56] RFC 2001 - W. Stevens, TCP Slow Start, Congestion Avoidance, Fast
[57] RFC 2581 - M. Allman, V. Paxson and W. Stevens, TCP Congestion Control
April 1999.
[58] RFC 3390 - M. Allman, S. Floyd and C. Partridge, Increasing TCP's Initial
[59] Geoff Huston, TCP Performance CISCO The Internet Protocol Journal
[60] Sally Floyd and Van Jacobson, Random Early Detection Gateways for
140
Congestion Avoidance IEEE/ACM Transactions on Networking August
[61] Miguel A. Labrador and Sujata Banerjee, Packet Dropping Policies for ATM
2, No 3, PP 2-14.
[62] Subrat Kar, Peyman Farjami and Rajiv Chakravorty, Issues and Architectures
for Better Quality of Service (QoS) from the Internet - Proc. NCC-2000 - 6th
http://www.comnets.rwth-
aachen.de/typo3conf/ext/cn_download/pi1/passdownload.php?downloaddata=20
7|/var/www/cnhome/downloads/publications/)
UFRJ. (http://www.gta.ufrj.br/~rezende/cursos/coe889/)
141
Model for Congestion Control Based on Random Early Detection Using Queue
(http://ducati.doc.ntu.ac.uk/uksim/uksim'04/Papers/Glamorgan-
Bradford%20papers/Lin%20Guan-%2004-07/paper04-07%20CR.pdf)
[66] XiPeng Xiao, Thomas Telkamp, Victoria Fineberg, Cheng Chen and Lionel M.
Ni, A Practical Approach for Providing QoS in the Internet Backbone - IEEE
Mechanism for Routers and Switches: Packet Arrival Rate Based Queue
Management for Class Based Scheduling Networking 2002, Pisa, Italy May
2006.
[70] Fernando Hwang, Gabriel Rocon Bianchi e Luan Ling Lee, Impacto Gerado
142
pelo Comportamento das Aplicaes (Web, FTP e E-mail) e pelo Perfil das
[71] Dirk Staehle, Kenji Leibnitz, and Phuoc Tran-Gia, Source Traffic Modeling of
[73] Fernando Hwang, Anlise dos Efeitos Gerados pelo Comportamento das
[74] Hyoung-Kee Choi and John O. Limb, A Behavioral Model of Web Traffic -
PP. 327-334.
143
[76] Bruce A. Mah, An Empirical Model of HTTP Network Traffic IEEE
INFOCOM Kobe, Japan, April 7 -12, 1997 Vol. 2, No 5C, PP. 592-600.
[78] Ajit K Jena, Adrian Popescu and Parag Pruthi, Modeling and Analysis of HTTP
(http://www.bth.se/fou/forskinfo.nsf/7172434ef4f6e8bcc1256f5f00488045/7e6b
eb9743ce33a8c1256c75006f4b6f/$FILE/final_paper.pdf).
Case Studies Network Analysis and Design - Case Study: Managing Server
Traffic.
144