QoS E TECNOLOGIAS PARA QoS - UP

Você também pode gostar

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 19

Universidade Estadual de Montes Claros _ Unimontes

Faculdades Santo Agostinho - FACET


Curso Sistemas de Informação
Comunicação de Dados

QoS - Qualidade de Serviços e Tecnologias para a QoS

Autor: Antônio Eugênio Silva

Montes Claros
Junho de 2020
2

ÍNDICE

1 QOS E TECNOLOGIAS PARA SUA IMPLEMENTAÇÃO 3

1.1 QOS- QUALIDADE DE SERVIÇOS 3


1.1.1 CARACTERIZAÇÃO DOS PARÂMETROS DE QOS 7
1.2 TÉCNICAS DE IMPLEMENTAÇÃO DE QOS 9
1.2.1 ESCALONAMENTO DE TRÁFEGO 10
1.2.2 REGULAÇÃO/CONDICIONAMENTO OU FORMATAÇÃO DE TRÁFEGO 12
1.2.3 CONTROLE DE ADMISSÃO 12
1.3 SERVIÇOS INTEGRADOS E RSVP 13
1.4 MPLS - MULTIPROTOCOL LABEL SWITCHING 16
3

1 QoS E TECNOLOGIAS PARA SUA IMPLEMENTAÇÃO

Neste trabalho são abordadas as características das diversas fontes de


tráfego e as definições e parâmetros necessários para a implementação de QoS
em redes de comunicação de dados. Também são apresentadas algumas
tecnologias utilizadas na implementação de QoS, como o Multiprotocol Label
Switching - MPLS [2] e o modelo de Serviços Integrados/RSVP (Resource
Reservation Protocol - RFC1633) [4]. Os serviços diferenciados (Diffserv) e o ATM
serão tratados em outros trabalhos.

1.1 QoS- QUALIDADE DE SERVIÇOS

A qualidade de serviço tornou-se um fator chave no desenvolvimento da


nova geração de redes. São os parâmetros de QoS que diferenciam os serviços
uns dos outros. Um determinado serviço pode ser caracterizado como possuindo
um certo grau de qualidade quando atender às exigências de um determinado
patamar de qualidade, especificado segundo um conjunto de parâmetros
mensuráveis. Assim, por exemplo, no sistema telefônico tradicional, a qualidade
do serviço é medida em termos do atraso verificado na obtenção do tom de
discagem, o atraso verificado no estabelecimento da conexão, o nível de
congestionamentos dos troncos e a qualidade do áudio. Como outro exemplo, a
Internet foi projetada segundo uma filosofia chamada de “melhor esforço” (Best
Effort), e não tinha originalmente, nenhuma intenção em assumir algum tipo de
compromisso com a qualidade dos seus serviços. Atualmente, porém, a Internet
está evoluindo rapidamente no sentido de oferecer suporte para QoS, para poder
manipular os diferentes requisitos das diversas mesclas de aplicações,
4

principalmente aplicações multimídia. A atual filosofia do “melhor esforço” da


Internet está se tornando rapidamente inaceitável, já que a qualidade dos seus
serviços está se degradando rapidamente à medida que a rede cresce.
Simplesmente, implementar enlaces com maior banda ou então, inserir nos
roteadores um número maior de buffers, não tem condições de oferecer garantias
de QoS na Internet.
Do lado das operadoras dos serviços de telecomunicação, ao projetar a nova
geração de redes com integração de serviços, vislumbram o oferecimento de um
leque de serviços de forma competitiva e criativa, com flexibilidade de preços e
requisitos de QoS garantidos ao usuário final. Para que as operadoras possam se
tornarem competitivas, deverão utilizar de forma eficiente o suporte físico de suas
redes e, ao mesmo tempo, atender às exigências de QoS dos diferentes serviços.
A rede deverá ser capaz de partilhar, de forma imparcial, a banda entre os
usuários e, ao mesmo tempo, assegurar que qualquer tráfego de um usuário não
afete a QoS de outro usuário. A rede deverá ser capaz de integrar também os
tráfegos de redes com protocolos diferentes e transportá-los de forma eficiente em
uma estrutura de rede única. Também, a rede também deverá ter condições de
suportar, tanto conexões permanentes como comutadas. As conexões
permanentes não estão sujeitas às freqüentes conexões e desconexões, porém a
capacidade do circuito muitas vezes é subutilizada. Já os circuitos comutados são
periodicamente ativados e desativados, porém a capacidade do enlace, é
eficientemente utilizada durante o tempo de duração da conexão.
Neste contexto, a nova geração de rede deve atender aos requisitos de QoS
dos usuários e, ao mesmo tempo, otimizar o uso eficiente dos recursos da rede.
Mas, o que vem a ser QoS? A recomendação E.800 do ITU-T, define Qualidade
de Serviço (QoS) como:
“O efeito coletivo do desempenho de um serviço que determina o grau de
satisfação de um usuário desse serviço”.
Esta definição associa a qualidade de serviço à percepção de cada usuário,
tornando-a subjetiva. Entretanto, sob a ótica da rede, pode-se quantificar alguns
5

parâmetros de qualidade de serviço de forma mais objetiva, embora parâmetros


como, o atraso máximo de transferência, a variação estatística do atraso (jitter), a
taxa media de transferência e a confiabilidade (taxa de erro e de perda de
pacotes), variam muito entre os diversos tipos de fontes.
Várias características podem ser consideradas na classificação de fontes de
tráfegos. A natureza do tráfego gerado dá origem a duas classes básicas: a classe
de tráfego continuo com taxa constante (CBR- Constant Bit Rate); e a classe de
tráfego com taxa variável (VBR- Variable Bit Rate), podendo ser continuo com taxa
variável ou em rajada.
Na classe de tráfego contínuo com taxa constante, a taxa média é igual a
sua taxa de pico, sendo esta taxa o único parâmetro necessário para se
caracterizar a fonte. As fontes de áudio pertencem a esta classe.
As fontes de áudio, como o sinal de voz, mesmo quando compactadas, por
exemplo, por detecção de silêncio, o sinal deve ser reproduzido no destino a uma
taxa constante, até em redes que apresentam variação do atraso (jitter), como nas
redes comutadas por pacotes, para garantir a inteligibilidade da informação. A
estratégia normalmente utilizada pelos algoritmos de compensação de jitter
baseia-se em assegurar uma reserva de pacotes antes de dar inicio ao processo
de reprodução, introduzindo um retardo inicial. O valor deste retardo está limitado
pelo máximo retardo de transferência permitido para o sinal de voz, principalmente
no caso de conversações.
Em uma conversação, cada interlocutor espera o fim da fala do outro para
iniciar a sua fala. Se o retardo de transferência for muito grande, a conversação
começa a sentir um efeito de ruptura. Retardo maior que 200 ms já começa a
incomodar os interlocutores. Os padrões de telefonia estipulam 40 ms para
distâncias continentais e de 80 ms para distâncias intercontinentais [Soares]. Já os
parâmetros de perda e erros de pacotes podem ser relativamente altos, devido ao
alto grau de redundância dos sinais de áudio. Para um fluxo de voz, em [6] é
considerado aceitável uma taxa de perda de pacotes da ordem de até 21% e um
número máximo de 2 pacotes consecutivos perdidos. O único requisito é que os
6

pacotes não sejam muito grandes, para não se perder tempo com o
empacotamento, aumentando conseqüentemente, o atraso de transferência.
Assim, o atraso e o jitter são os parâmetros mais importantes a serem
considerados em uma transmissão tipo CBR.
Para as fontes que se enquadram na classe de tráfego com taxa variável,
como as redes de computadores, onde a vazão média dos dados vai depender da
aplicação, variando desde alguns bits por segundo (bps) para aplicações de
correio eletrônico, a alguns Megabits (Mbps) por segundo em transferência de
arquivos, é necessário utilizar parâmetros como a distribuição de rajadas ao invés
da taxa média. Alguns parâmetros utilizados comumente são a duração média dos
períodos de atividade e a explosividade (burstiness) 1 da fonte. Parâmetros como
atraso e a variação estatística do atraso, exceto aplicações de tempo real, como o
controle de processos, não constituem em problemas, sendo seus requisitos
normalmente satisfeitos pelo sistema de comunicação. Quanto à tolerância a
erros, na maioria das aplicações, não se pode tolerar erro nem em um bit.
Neste item foi mostrado parâmetros que o sistema de comunicação deve
satisfazer de forma a tornar possíveis as diversas aplicações, principalmente as do
tipo CBR, com QoS. Entretanto, a disponibilidade de largura de banda (BW) é o
ponto de partida para a QoS, pois QoS não cria BW. Qualidade de serviço
somente gerencia a BW de acordo com a demanda da aplicação e de acordo com
a configuração da rede. Assim, os sistemas de comunicação devem fornecer
mecanismos para dar suporte aos diversos requisitos de tráfego para uma BW
disponível. Estes mecanismos devem permitir negociar, principalmente:
 o máximo atraso de transferência;
 a variação (jitter) de atraso;
 as taxas de erros de bits e de perdas de pacotes;
 os mecanismos de controle de fluxo e de congestionamentos.

1 Razão entre a taxa de pico e a taxa média de utilização do canal ou a razão


entre o desvio padrão e a taxa média gerada
7

1.1.1 Caracterização dos Parâmetros de QoS

A implementação de mecanismos de QoS pelas redes de comunicação, visa


dar determinadas garantias sobre alguns parâmetros, como, atraso, variação de
atraso e confiabilidade, para que, independentemente da carga na rede, o serviço
seja prestado de forma consistente e previsível. Assim, os mecanismos de QoS
implementados devem observar:
Atraso: é o intervalo de tempo que uma unidade de dados do protocolo
demora para atravessar a rede, desde o transmissor até o receptor. Consiste da
somatória dos atrasos de geração do pacote, atraso de propagação e atrasos de
processamentos e em fila dos nós. O atraso de geração do pacote é o tempo
necessário para amostrar a voz e gerar um pacote de voz que contenha a
representação da amostra. O atraso de propagação representa o tempo de
transmissão dos pacotes nos enlaces da rede e será o mesmo para todos os
pacotes. Os atrasos de processamentos em fila dos nós, englobam os tempos
gastos para classificação dos pacotes, compensação de jitter, bem como o tempo
gasto em filas nos nós intermediários da rede.
Largura de Banda - BW: é a taxa máxima de transferência de dados
sustentável entre emissor e receptor, que depende tanto da velocidade máxima do
meio físico utilizado, como da quantidade de fluxos de tráfego que partilham os
recursos do caminho entre um extremo e outro.
Confiabilidade: é a capacidade de assegurar a entrega de pacotes no
receptor tal como foram colocados na rede pelo emissor. Os principais fatores que
caracterizam a confiabilidade são a perda de pacotes e a taxa de erros de bits dos
pacotes. Embora as redes de alta velocidade trabalham com sistemas digitais cuja
taxa de erro típico é de 10-9 ou menor, um cuidado adicional deve ser tomado
quando, devido as técnicas de compressão utilizadas no áudio, um erro pode se
propagar para outros bits.
8

Variação de Atraso (Jitter): é a variação estatística dos atrasos. Esta


variação não é introduzida somente pela rede de comunicação, mas também pela
placa de áudio, no caso de voz, e pelo escalonamento das tarefas pelo sistema
operacional de rede. A definição de jitter adotada neste trabalho é a seguinte: o
valor absoluto da diferença entre os tempos de chegada (a i e aj) de dois pacotes
consecutivos menos a diferença entre seus tempos de partida (di e dj), ou seja:

Jitter = | (aj – ai) – (dj – di) | (1)

Como exemplo de parâmetro de QoS, a Tabela 1.1 mostra a classificação


para a viabilidade das aplicações de voz em função do atraso em um único
sentido dos fluxos de voz [6].

Tabela 1 – Viabilidade das aplicações de voz em função do atraso


Atraso da Voz [ms] Viabilidade
Até 150 Aceitável para a maioria das aplicações
De 151 a 400 Aceitável se os usuários estiverem conscientes
do impacto do atraso na interatividade das
aplicações
Mais de 400 Inaceitável para a manutenção de interatividade
Até 600 – Via Aceitável.
satélite Internacional

Um outro parâmetro que também deve ser avaliado na análise de


desempenho das redes de comunicação, é o comportamento relativo ao tempo de
atraso de ida e volta (round trip) dos pacotes, uma vez que, em uma rede real, o
caminho entre fonte e destino pode ser diferente do caminho de volta para a fonte.
Mesmo os caminhos sendo simétricos, eles podem ter características de
performance diferentes devido a assimetria das filas. Assim, os tempos de atraso
de ida e volta (round trip) são úteis para aplicações interativas em tempo real,
9

como o telefone (voz sobre IP), a vídeo-conferência e para aplicações que utilizam
o TCP. Este tempo de atraso e o seu jitter são parâmetros altamente percebidos
pelos usuários finais e são determinantes para a QoS.

1.2 TÉCNICAS DE IMPLEMENTAÇÃO DE QoS

Basicamente, a implementação de QoS deve ter os componentes mostrados


na Figura 1:

Figura 1 – Componentes para implementar QoS


Fonte: própria

Será apresentado brevemente cinco métodos comuns: escalonamento de


tráfego (técnicas de filas), prevenção de congestionamento,
formatação/condicionamento de tráfego, controle de admissão e reserva de
recursos (sinalização por micro fluxos).
10

1.2.1 Escalonamento de tráfego

O modo como os pacotes enfileirados são selecionados para transmissão


pelo enlace e conhecido como disciplina de escalonamento do enlace ou
técnicas de filas. Pode-se definir as técnicas de filas como a arte de administrar
filas congestionadas possibilitando BW, atraso e taxa de perda de pacote. Nela é
implementada uma política de agendamento que minimize atrasos e permita uma
alocação justa de BW para cada fluxo.
Existem basicamente duas categorias para o enfileiramento:
 Administra congestionamento - Cuida da ordenação do pacote nas filas de
saída, como o FIFO, QC (CISCO) ou CBQ, WFQ (PGPS-Generalized
Processor Sharing, Pacote a Pacote);
 Previne congestionamento – RED (Random Early Detection) e WRED
(Weighted).

Foram idealizadas diversas técnicas de escalonamento de filas para


melhorar a qualidade de serviços. Apresentamos aqui três delas: técnicas de filas
FIFO, de filas por prioridade e de filas ponderadas.

Filas (first-in, first-out) - FIFO - Primeiro a entrar/primeiro a sair


Seleciona pacotes para transmissão pelo enlace na mesma ordem em que eles
chegaram a fila de saída do enlace. Os pacotes aguardam em um buffer (fila) até
que o nó (roteador ou switch) esteja pronto para processá-los.
Resumidamente:
• não permite nenhuma implementação de prioridade;
• aplicações com alta demanda de pacotes podem prejudicar o tráfego
sensível a atrasos;
• FIFO é uma maneira rudimentar de administrar o controle de tráfego.

Filas por Prioridade


11

Pacotes que chegam ao enlace de saída são classificados em classes de


prioridade na fila de saída. A classe de prioridade de um pacote pode depender de
uma marca explicita que ele carrega em seu cabeçalho, como o valor do octeto do
campo Tipo de Serviço - TOS do cabeçalho IP (classe de serviço-IPv6), o
endereço IP de origem ou destino, do número de porta de destino ou da
combinação desses e por outro critério. Cada classe de prioridade tem em geral
sua própria fila. O escalonamento ou a disciplina de enfileiramento prioritário
transmitira um pacote da classe de prioridade mais alta cuja fila não esteja vazia.
Se existir um fluxo contínuo em uma fila de alta prioridade, os pacotes nas filas de
menor prioridade jamais terão uma chance de serem processados. Esta é uma
condição chamada inanição.

Weighted Fair Queueing - WQF (Enfileiramento justo ponderado)


Os pacotes que chegam são classificados e enfileirados por classe em suas filas
apropriadas. O escalamento no WFQ atende as classes de modo cíclico (round
Robin). As filas são ponderadas em termos de prioridade das filas; prioridade
maior significa peso maior. O sistema processa pacotes em cada fila, em rodízio,
com o número de pacotes selecionados de cada fila com base no peso
correspondente. Cada classe pode receber uma quantidade de serviço
diferenciado a qualquer intervalo de tempo. Para cada classe é atribuído um
peso. A WFQ garante que em qualquer intervalo de tempo durante o qual houver
pacotes de uma mesma classe para transmitir, a classe recebera uma fração de
serviço. No pior caso, mesmo que todas as classes tenham pacotes na fila, a
classe ainda terá garantido o recebimento de uma fração da largura de banda do
enlace. Assim, a WFQ assinala um peso para cada fluxo, o qual determina a
ordem de transmissão para os pacotes na fila. Possibilita a quebra sequências
longas de pacotes (Packet trains), inserindo pacotes de baixo tráfego. Também,
adapta-se automaticamente as mudanças da rede.

RED (Random Early Detection) e WRED (Weighted)


12

Monitora e descarta estocasticamente pacotes para evitar congestionamentos.


Projetado para trabalhar, principalmente, com o TCP em redes IP. O WRED
combina características do algoritmo RED com Precedência IP.

1.2.2 Regulação/Condicionamento ou formatação de tráfego

É um mecanismo para controlar a quantidade e a velocidade com que o tráfego é


transmitido pela rede. A regulação da taxa com a qual e permitido que um fluxo
injete pacotes na rede é um importante mecanismo de QoS. Basicamente, regula-
se a Taxa média, Taxa de pico e o Tamanho da rajada (burst), que representa
o número máximo de pacotes que podem ser enviados para dentro da rede
durante um intervalo curtíssimo de tempo.
Duas técnicas principais são utilizadas para formatar o tráfego: “balde
furado” (leaky bucket) e “balde de fichas” (token bucket). Para maiores
informações sobre essas técnicas consulte o livro Comunicação de Dados e
Redes, capitulo 24 do Forouzan.

1.2.3 Controle de Admissão

Controle de admissão refere-se ao mecanismo usado por um roteador, ou


um comutador, para aceitar ou rejeitar um fluxo, tomando como base parâmetros
predefinidos, denominados especificações de fluxo. Realiza-se medida da carga
dos recursos da rede, visando atender a QoS da nova conexão sem afetar a QoS
das conexões estabelecidas, utilizando-se do Connection Admission Control –
CAC. CAC é definido como um conjunto de ações tomadas pela rede durante a
fase de estabelecimento de conexão, a fim de determinar se uma requisição de
conexão pode, ou não, ser aceita. Antes de um roteador aceitar um fluxo para
processamento, ele verifica as especificações do fluxo para ver se sua capacidade
em termos de largura de banda, tamanho de buffer, dentre outros, e suas
13

alocações anteriores para outros fluxos são suficientes para lidar com o novo
fluxo.
As funções de condicionamentos envolvem a medição do tráfego e uma ação
subsequente, dependendo da aderência dos pacotes, anteriormente classificados,
ao perfil do tráfego contratado. A ação subsequente pode ser, por exemplo, o
descarte de pacotes e o shaping.
Portanto, o controle de admissão de tráfego tem como objetivos: proteger o
desempenho da rede contra condições de tráfego imprevistas; garantir o
desempenho de rede desejado pelo usuário; otimizar o uso dos recursos da rede,
evitando o estado de congestionamento da rede.

1.3 SERVIÇOS INTEGRADOS E RSVP

Um dos desafios mais significativos para redes baseadas em IP, que


tradicionalmente fornecem somente serviço do tipo melhor esforço, tem sido
fornecer algum tipo de garantia de serviço para diferentes tipos de tráfego,
particularmente para aplicações em tempo real multimídia, que freqüentemente,
requerem uma quantidade significativa de largura de banda reservada e o controle
de tamanho de buffers, para comportar possíveis rajadas, para serem viáveis.
Uma forma que o IETF definiu para atender a garantia de QoS foi o modelo
de Serviços Integrados (IntServ - Integrated Services Architecture) [RFC1633]. O
modelo propõe duas classes de serviços em adição ao serviço de melhor esforço,
são eles:

 serviço Garantido [5], para aplicações que requerem limites de atrasos


fixos. Esse serviço oferece uma garantia determinística à aplicação
contratante quanto a um limite no atraso fim-a-fim e nenhum descarte
de pacotes que estejam de acordo com as características de tráfego
contratadas;
14

 serviços de Carga Controlada [3], objetiva atender as aplicações que


podem tolerar atrasos ou perdas de pacotes até um determinado
limite, mantendo este limite independentemente da carga na rede.

A filosofia do modelo é habilitar a reserva de recursos para prover uma


especial QoS para uma específica fila de pacotes ou fluxo, o que torna necessário
o gerenciamento do estado de cada fluxo de forma individual pelos elementos de
rede, desde a fonte até o receptor.
O RSVP (ReSerVation Protocol) foi inventado para atender a necessidade de
um protocolo de gerência de recursos, de forma a requisitar e reservar em um
determinado caminho, a QoS requerida pelas aplicações, estando estas em
ambiente ponto-a-ponto ou multicast. O RSVP é um protocolo da Internet
reconhecido pelo IETF através da RFC 2205 [RFC2225] que permite a uma
aplicação, reservar banda dinamicamente.
A utilização de um gerenciador de recursos no contexto da rede é importante
a medida que implementa mecanismos para o tratamento particularizado do
tráfego. Para a implementação do gerenciador de recursos, dois pré-requisitos
devem ser observados:

 elementos de redes tais como roteadores, devem adequar-se aos


mecanismos de controle de qualidade de serviço para garantir a
entrega dos pacotes de dados;

 a aplicação deve estar capacitada a fornecer os parâmetros ideais


de QoS.

O RSVP não é um protocolo de roteamento, trabalhando em conjunto com


este. É usado por uma aplicação para requisitar uma qualidade de serviço
específica da rede. O protocolo atua, tanto em máquinas do usuário quanto em
roteadores, responsabilizando-se, nesse caso, a estabelecer e manter as
condições para o serviço requisitado.
15

O RSVP negocia a reserva de recursos em um único sentido de cada vez, ou


seja, de forma simplex. Com isso, ele trata distintamente receptores e
transmissores, operando juntamente com a camada de transporte.
O RSVP não realiza transporte de dados, sendo apenas um protocolo de
controle e atuando no mesmo nível de outros protocolos como o ICMP (Internet
Control Message Protocol), o IGMP (Internet Group Management Protocol) ou
protocolos de roteamento, conforme mostrado na figura 1.3. O gerenciamento
ocorre no início da comunicação, sendo reiniciado de tempos em tempos. Caberá
ao receptor a responsabilidade de requisitar uma QoS específica. O protocolo
RSVP foi feito de forma a garantir que as arquiteturas mais antigas sejam
compatíveis com o novo sistema, através do encapsulamento de seus pacotes de
controle.

ICMP IGMP RSVP

Camada Internet

Figura 2 - Camada de Atuação do Protocolo RSVP

Além das propriedades específicas que os protocolos de encaminhamento


devem fornecer para a realização da reserva em rede, outras funções devem ser
utilizadas para se chegar ao objetivo de conseguir e manter a qualidade de serviço
requisitada pelas aplicações. Assim, o RSVP atua em conjunto com outros
módulos, ditos de controle de tráfego, sendo o controle de admissão, o
classificador de pacotes e o escalonador de pacotes.
Aplicações que requerem serviços garantidos ou de carga controlada,
deverão solicitar caminho e reserva de recursos antes de transmitir dados. A
função de controle de admissão decidirá se a solicitação de reserva pode ser
garantida. Quando um roteador recebe um pacote, o classificador faz a análise
com base nos campos múltiplos e coloca o pacote em uma fila específica após a
16

análise. O escalonador de pacotes faz o escalonamento do pacote de forma a


atender sua QoS requerida.
Os problemas da arquitetura dos Serviços Integrados/RSVP, são:
 o numero das informações dos estados dos fluxos aumenta
proporcionalmente com a quantidade de fluxos, exigindo grandes
armazenamentos e processamentos nos roteadores, tornando a
arquitetura não escalar para o núcleo da Internet;
 as exigências aos roteadores são altas. Todos os roteadores deverão
implementar RSVP, controle de admissão, classificação e
escalonamento de pacotes.

1.4 MPLS - MULTIPROTOCOL LABEL SWITCHING

Quando um pacote atravessa uma rede, cada roteador decide, com base no
cabeçalho do pacote, de forma independente dos demais, qual o próximo roteador
ao qual o pacote deve ser enviado para atingir o destino, isto significa que cada
roteador analisa o cabeçalho e roda o seu próprio algoritmo de roteamento
O cabeçalho do pacote contém consideravelmente mais informações que
simplesmente a necessária para a escolha do próximo salto. A escolha do próximo
salto pode ser decomposta em duas funções. A primeira função classifica todo o
conjunto de pacotes em um conjunto de Classes de Encaminhamento Equivalente
(Forwarding Equivalence Classes – FECs), que representam todas as
possibilidades de encaminhamento de um pacote através da rede. A segunda
função mapeia cada FEC em um próximo salto, ou seja, correlaciona cada FEC
com um próximo salto, não distinguindo pacotes diferentes que sejam
classificados em um mesmo FEC. Todos os pacotes pertencentes a um mesmo
FEC seguirão um mesmo caminho ou a um conjunto de caminhos associados com
o FEC.
17

Em um envio de pacotes tradicional, um roteador considera dois pacotes


serem de um mesmo FEC se eles possuem o mesmo prefixo de destino na sua
tabela de roteamento. Todo pacote que atravessa a rede é reexaminado em cada
nó para ser assinalado o FEC.
No MPLS [2], a proposta é assinalar cada pacote para um particular FEC
apenas uma única vez, quando o pacote entra na rede. O FEC, para qual o pacote
está assinalado, é codificado em um valor de comprimento fixo (32 bits),
conhecido como “label”. Quando um pacote é enviado para o próximo salto, o
label é enviado junto. Nos subseqüentes saltos, não há análise do cabeçalho do
pacote, havendo a análise apenas do label, ou seja, o label é usado como índice
em tabela para determinar o próximo salto e o novo label. O velho label é
repassado por um novo e o pacote é enviado para o próximo salto.
Assim, o MPLS (Multiprotocol Label Switching) é um protocolo de
roteamento baseado em pacotes rotulados, onde cada rótulo representa um índice
na tabela de roteamento do próximo roteador. Pacotes com o mesmo rótulo e
mesma classe de serviço são indistinguíveis entre si e, por isso, recebem o
mesmo tipo de tratamento.
O objetivo de uma rede MPLS não é o de se conectar diretamente a
sistemas finais. Ao invés disto, ela é uma rede de trânsito, transportando pacotes
entre pontos de entrada e saída com base nos rótulos distribuídos, que
estabelecem Caminhos de Comutação de Rótulos (Label Switched Paths - LSP).
O LSP é unidirecional do transmissor até o receptor, formando uma espécie de
túnel, sendo que o pacote encapsulado pelo roteador fronteira (Edge Router –
LER) percorre toda a sua trajetória já determinada até o final do túnel, onde será
desencapsulado.
O roteador que implementa MPLS é denominado de Roteador de Comutação
de Rótulos (Label Switch Router – LSR). A distribuição dos rótulos (label) em um
domínio MPLS é feita utilizando os algoritmos convencionais implementados nos
protocolos de roteamentos, como o OSPF.
18

MPLS é dito ser multiprotocolo porque pode ser usado com qualquer
protocolo das camadas 2 e 3, como o IP, IPX, ATM e Frame Relay, apesar de
quase todo o foco estar voltado no uso do MPLS com o IP.
Este protocolo é, na verdade, um padrão que foi feito, com base em diversas
tecnologias similares desenvolvidas, por diferentes fabricantes. Ele é referido por
documentos do IETF como sendo uma camada intermediária entre as camadas 2
e 3.
Em um domínio MPLS, a classificação e o encaminhamento de pacotes são
agilizados, pois, a comutação baseada em rótulos, é mais rápida do que o
roteamento convencional, onde, a cada salto, é verificado nas tabelas de
roteamento, o endereço que mais se aproxima do endereço de destino do pacote.
Assim, o MPLS permite a integração das funcionalidades das arquiteturas dos
rotedores convencionais e dos comutadores ATM, promovendo escalabilidade em
redes como a Internet.
19

REFERÊNCIAS BIBLÍOGRAFICAS

[1] Curtis John, Hacker Andy. ATM overhead and packet latency tradeoffs White
Paper, www.nwfusion.com, April 1998.

[2] E. Rosen et al. Multiprotocol Label Switching Architecture. Internet RFC 3031,
January 2001.

[3] J. Wroclawski. Specification of the Controlled-Load Network Element Service.


Internet RFC 2211, Sept. 1997.

[4] R. Braden et al. Resource ReSerVation Protocol (RSVP) — Version 1


Functional Specification. Internet RFC 2205, Sept. 1997.

[5] S. Shenker, C. Partridge and R. Guerin. Specification of Guaranteed Quality of


Service. Internet RFC 2212, Sept. 1997.

[6] Ziviani, Artur. Voz sobre Serviços Diferenciados na Internet. Dissertação de


Mestrado – COPPE/UFRJ, Setembro 1999.

Você também pode gostar