Você está na página 1de 75

Introdução à Redes de Computadores

Av. França, 735 - Porto Alegre, RS - 90230-220


Suporte Técnico: 51 3358 0122
www.datacom.ind.br

www.datacom.ind.br - Apostila Versão 1.0


1
CONTATOS
Para contatar o suporte técnico, ou o setor de vendas:
• Suporte:
E-mail: suporte@datacom.ind.br
Fone: +55 51 3358-0122
Fax: +55 51 3358-0101
• Vendas
E-mail: comercial@datacom.ind.br
Fone: +55 51 3358-0100
Fax: +55 51 3358-0101
• Internet
www.datacom.ind.br
• Endereço
DATACOM
Av. França, 735 - Porto Alegre, RS - Brasil
CEP: 90230-220

Sistema de Gestão da Qualidade

certificado pela DQS de acordo

com ISO9001 Nº de registro (287097 QM)

Apesar de terem sido tomadas todas as precauções na elaboração deste documento, a empresa não assume
qualquer responsabilidade por eventuais erros ou omissões, bem como nenhuma obrigação é assumida por danos
resultantes do uso das informações contidas neste manual. As especificações fornecidas neste manual estão
sujeitas a alterações sem aviso prévio e não são reconhecidas como qualquer espécie de contrato.

www.datacom.ind.br - Apostila Versão 1.0


2
www.datacom.ind.br - Apostila Versão 1.0
3
Nos anos 40, os computadores eram enormes dispositivos eletromecânicos propensos a falhas. Em 1947, a invenção de
um transistor semicondutor criou várias possibilidades para a fabricação de computadores menores e mais confiáveis. Nos
anos 50, os computadores mainframe, que eram acionados por programas em cartões perfurados, começaram a ser
usados por grandes instituições. No final dos anos 50, foi inventado o circuito integrado, que combinava vários, depois
muitos e agora combina milhões de transistores em uma pequena peça de semicondutor. Durante os anos 60,
mainframes com terminais eram comuns e os circuitos integrados tornaram-se muito usados.
No final dos anos 60 e 70, surgiram computadores menores, chamados de minicomputadores, (mesmo que ainda fossem
enormes para os padrões atuais). Em 1978, a empresa Apple Computer lançou o computador pessoal. Em 1981, a IBM
apresentou o computador pessoal de arquitetura aberta. O Mac amigável, o IBM PC de arquitetura aberta e a maior
microminiaturização dos circuitos integrados conduziram à difusão do uso de computadores pessoais nos lares e
escritórios. A partir da segunda metade dos anos 80, os usuários de computador, com os seus computadores autônomos,
começaram a compartilhar dados (arquivos) e recursos (impressoras). As pessoas se perguntavam, por que não conectá-
los?
Enquanto tudo isso estava acontecendo, os sistemas telefônicos continuaram a melhorar. Especialmente nas áreas de
tecnologia de switching e de serviço de longa distância (devido às novas tecnologias como microondas e fibras ópticas),
um sistema telefônico confiável, mundial foi desenvolvido.
Tendo início nos anos 60 e continuando pelos anos 70, 80 e 90, o Departamento de Defesa americano desenvolveu
grandes e confiáveis redes de longa distância (WAN). Algumas de suas tecnologias foram usadas no desenvolvimento de
LANs, porém o mais importante foi que a WAN do Departamento de Defesa acabou se transformando na Internet.

www.datacom.ind.br - Apostila Versão 1.0


4
A informação que navega pela rede é geralmente conhecida como dados ou um pacote. Um pacote é uma
unidade de informações logicamente agrupadas que se desloca entre sistemas de computadores. Conforme
os dados são passados entre as camadas, cada camada acrescenta informações adicionais que possibilitam
uma comunicação efetiva com a camada correspondente no outro computador.
Para que os pacotes de dados trafeguem de uma origem até um destino, através de uma rede, é importante
que todos os dispositivos da rede usem a mesma linguagem, ou protocolo. Um protocolo é um conjunto de
regras que tornam mais eficiente a comunicação em uma rede. Por exemplo, ao pilotarem um avião, os
pilotos obedecem a regras muito específicas de comunicação com outros aviões e com o controle de tráfego
aéreo.
A Camada 4 no computador de origem comunica com a Camada 4 no computador de destino. As regras e
convenções usadas para esta camada são conhecidas como protocolos de Camada 4. É importante lembrar-se
de que os protocolos preparam dados de uma maneira linear. Um protocolo em uma camada realiza certos
conjuntos de operações nos dados ao preparar os dados que serão enviados através da rede. Em seguida os
dados são passados para a próxima camada onde outro protocolo realiza um conjunto diferente de
operações.
Uma vez enviado o pacote até o destino, os protocolos desfazem a construção do pacote que foi feito no
lado da fonte. Isto é feito na ordem inversa. Os protocolos para cada camada no destino devolvem as
informações na sua forma original, para que o aplicativo possa ler os dados corretamente.
Os modelos OSI e TCP/IP possuem camadas que explicam como os dados são comunicados desde um
computador para outro. Os modelos diferem no número e função das camadas. Entretanto, cada modelo
pode ser usado para ajudar na descrição e fornecimento de detalhes sobre o fluxo de informação desde uma
fonte até um destino.

www.datacom.ind.br - Apostila Versão 1.0


5
O início do desenvolvimento de redes era desorganizado em várias maneiras. No início da década de 80 houve um grande
aumento na quantidade e no tamanho das redes. À medida que as empresas percebiam as vantagens da utilização da
tecnologia de redes, novas redes eram criadas ou expandidas tão rapidamente quanto eram apresentadas novas
tecnologias de rede.
Lá pelos meados de 1980, essas empresas começaram a sentir os problemas causados pela rápida expansão. Assim como
pessoas que não falam o mesmo idioma têm dificuldade na comunicação entre si, era difícil para as redes que usavam
diferentes especificações e implementações trocarem informações. O mesmo problema ocorreu com as empresas que
desenvolveram tecnologias de rede proprietária ou particular. Proprietário significa que uma empresa ou um pequeno
grupo de empresas controla todos os usos da tecnologia. As tecnologias de rede que seguiam estritamente as regras
proprietárias não podiam comunicar-se com tecnologias que seguiam diferentes regras proprietárias.
Para tratar dos problemas de incompatibilidade entre as redes, a International Organization for Standardization (ISO)
realizou uma pesquisa nos modelos de redes como Digital Equipment Corporation net (DECnet), Systems Network
Architecture (SNA) e TCP/IP a fim de encontrar um conjunto de regras aplicáveis a todas as redes. Com o resultado desta
pesquisa, a ISO criou um modelo de rede que ajuda os fabricantes na criação de redes que são compatíveis com outras
redes.

www.datacom.ind.br - Apostila Versão 1.0


6
Para que os pacotes de dados trafeguem da origem para o destino, cada camada do modelo OSI na origem deve se
comunicar com sua camada par no destino. Essa forma de comunicação é chamada ponto-a-ponto. Durante este
processo, os protocolos de cada camada trocam informações, denominadas unidades de dados de protocolo (PDUs).
Pacotes de dados em uma rede são originados em uma origem e depois trafegam até um destino. Cada camada depende
da função de serviço da camada OSI abaixo dela. Para fornecer esse serviço, a camada inferior usa o encapsulamento para
colocar a PDU da camada superior no seu campo de dados; depois, adiciona os cabeçalhos e trailers que a camada precisa
para executar sua função. A seguir, enquanto os dados descem pelas camadas do modelo OSI, novos cabeçalhos e trailers
são adicionados. Depois que as Camadas 7, 6 e 5 tiverem adicionado suas informações, a Camada 4 adiciona mais
informações. Esse agrupamento de dados, a PDU da Camada 4, é chamado segmento.
A camada de rede, fornece um serviço à camada de transporte, e a camada de transporte apresenta os dados ao
subsistema da internetwork. A camada de rede tem a tarefa de mover os dados através da internetwork. Ela efetua essa
tarefa encapsulando os dados e anexando um cabeçalho, criando um pacote (a PDU da Camada 3). O cabeçalho tem as
informações necessárias para completar a transferência, como os endereços lógicos da origem e do destino.
A camada de enlace de dados fornece um serviço à camada de rede. Ela faz o encapsulamento das informações da
camada de rede em um diagrama (a PDU da Camada 2). O cabeçalho do quadro contém informações (por exemplo,
endereços físicos) necessárias para completar as funções de enlace de dados. A camada de enlace fornece um serviço à
camada de rede encapsulando as informações da camada de rede em um quadro.
A camada física também fornece um serviço à camada de enlace. A camada física codifica o quadro de enlace de dados
em um padrão de 1s e 0s (bits) para a transmissão no meio (geralmente um cabo) na Camada 1.

www.datacom.ind.br - Apostila Versão 1.0


7
Todas as comunicações numa rede começam em uma origem e são enviadas a um destino. As informações enviadas
através da rede são conhecidas como dados ou pacotes de dados. Se um computador (host A) desejar enviar dados para
outro computador (host B), os dados devem primeiro ser empacotados através de um processo chamado
encapsulamento.
O encapsulamento empacota as informações de protocolo necessárias antes que trafeguem pela rede. Assim, à medida
que o pacote de dados desce pelas camadas do modelo OSI, ele recebe cabeçalhos, trailers e outras informações.
Uma vez que os dados são enviados pela origem, eles viajam através da camada de aplicação em direção às outras
camadas. O empacotamento e o fluxo dos dados que são trocados passam por alterações à medida que as camadas
executam seus serviços para os usuários finais. As redes devem efetuar as cinco etapas de conversão a seguir para
encapsular os dados:

1. Gerar os dados: Quando um usuário envia uma mensagem de correio eletrônico, os seus caracteres alfanuméricos são
convertidos em dados que podem trafegar na internetwork.
2. Empacotar os dados para transporte fim-a-fim: Os dados são empacotados para transporte na internetwork. Usando
segmentos, a função de transporte assegura que os hosts da mensagem em ambas as extremidades do sistema de correio
eletrônico possam comunicar-se com confiabilidade.
3. Adicionar o endereço IP da rede ao cabeçalho: Os dados são colocados em um pacote ou datagrama que contém um
cabeçalho de pacote contendo endereços lógicos de origem e destino. Esses endereços ajudam os dispositivos da rede a
enviar os pacotes através da rede por um caminho escolhido.
4. Adicionar o cabeçalho e o trailer da camada de enlace de dados: Cada dispositivo da rede deve colocar o pacote
dentro de um quadro. O quadro permite a conexão com o próximo dispositivo da rede diretamente conectado no link.
Cada dispositivo no caminho de rede escolhido requer enquadramento de forma que possa conectar-se com o próximo
dispositivo.
5. Converter em bits para transmissão: O quadro deve ser convertido em um padrão de 1s e 0s (bits) para transmissão
no meio físico. Uma função de sincronização de clock permite que os dispositivos diferenciem esses bits à medida que
trafegam no meio físico. O meio físico das redes interconectadas pode variar ao longo do caminho usado. Por exemplo, a
mensagem de correio eletrônico pode ser originada em uma rede local, atravessar um backbone do campus e sair por um
link da WAN até alcançar seu destino em outra rede local remota.

www.datacom.ind.br - Apostila Versão 1.0


8
O padrão histórico e técnico da Internet é o modelo TCP/IP. O Departamento de Defesa dos Estados Unidos (DoD)
desenvolveu o modelo de referência TCP/IP porque queria uma rede que pudesse sobreviver a qualquer condição, mesmo
a uma guerra nuclear. Em um mundo conectado por diferentes tipos de meios de comunicação como fios de cobre,
microondas, fibras ópticas e links de satélite, o DoD queria a transmissão de pacotes a qualquer hora e em qualquer
condição. Este problema de projeto extremamente difícil originou a criação do modelo TCP/IP.
Ao contrário das tecnologias de rede proprietárias mencionadas anteriormente, o TCP/IP foi projetado como um padrão
aberto. Isto queria dizer que qualquer pessoa tinha a liberdade de usar o TCP/IP. Isto ajudou muito no rápido
desenvolvimento do TCP/IP como padrão.
Embora algumas das camadas no modelo TCP/IP tenham os mesmos nomes das camadas no modelo OSI, as camadas dos
dois modelos não correspondem exatamente. Mais notadamente, a camada de aplicação tem diferentes funções em cada
modelo.
Os projetistas do TCP/IP decidiram que os protocolos de mais alto nível deviam incluir os detalhes da camada de sessão e
de apresentação do OSI. Eles simplesmente criaram uma camada de aplicação que trata de questões de representação,
codificação e controle de diálogo.
A camada de transporte lida com questões de qualidade de serviços de confiabilidade, controle de fluxo e correção de
erros. Um de seus protocolos, o Transmission Control Protocol (TCP), fornece formas excelentes e flexíveis de se
desenvolver comunicações de rede confiáveis com baixa taxa de erros e bom fluxo.
O propósito da camada de Internet é dividir os segmentos TCP em pacotes e enviá-los a partir de qualquer rede. Os
pacotes chegam à rede de destino independente do caminho levado para chegar até lá. O protocolo específico que
governa essa camada é chamado Internet Protocol (IP). A determinação do melhor caminho e a comutação de pacotes
ocorrem nesta camada.
É muito importante a relação entre IP e TCP. Pode-se imaginar que o IP aponta o caminho para os pacotes, enquanto que
o TCP proporciona um transporte confiável.
O significado do nome da camada de acesso à rede é muito amplo e um pouco confuso. É também conhecida como a
camada host-para-rede. Esta camada lida com todos os componentes, tanto físico como lógico, que são necessários para
fazer um link físico. Isso inclui os detalhes da tecnologia de redes, inclusive todos os detalhes nas camadas física e de
enlace do OSI.

www.datacom.ind.br - Apostila Versão 1.0


9
A maior parte do tráfego na Internet origina-se e termina com conexões Ethernet. Desde seu início nos anos 70, a
Ethernet evoluiu para acomodar o grande aumento na demanda de redes locais de alta velocidade. Quando foram
produzidos novos meios físicos, como a fibra ótica, a Ethernet adaptou-se para aproveitar a largura de banda superior e a
baixa taxa de erros que as fibras oferecem. Atualmente, o mesmo protocolo que transportava dados a 3 Mbps em 1973
está transportando dados a 10 Gbps.
Com a introdução da Gigabit Ethernet, aquilo que começou como uma tecnologia de redes locais, agora se estende a
distâncias que fazem da Ethernet um padrão para MAN (Rede Metropolitana) e para WAN (Rede de longa distância). A
idéia original para Ethernet surgiu de problemas de permitir que dois ou mais hosts usem o mesmo meio físico e de evitar
que sinais interfiram um com o outro. Esse problema de acesso de vários usuários a um meio físico compartilhado foi
estudado no início dos anos 1970 na University of Hawaii. Foi desenvolvido um sistema denominado Alohanet para
permitir o acesso estruturado de várias estações nas Ilhas do Havaí à banda compartilhada de radiofreqüência na
atmosfera. Esse trabalho veio a formar a base para o método de acesso Ethernet conhecido como CSMA/CD.
A primeira rede local do mundo foi a versão original da Ethernet. Robert Metcalfe e seus colegas na Xerox fizeram o seu
projeto há mais de trinta anos. O primeiro padrão Ethernet foi publicado em 1980 por um consórcio entre a Digital
Equipment Company, a Intel, e a Xerox (DIX). Metcalfe quis que a Ethernet fosse um padrão compartilhado que
beneficiasse a todos e foi então lançada como padrão aberto. Os primeiros produtos desenvolvidos que usavam o padrão
Ethernet foram vendidos durante o início dos anos 80. A Ethernet transmitia até 10 Mbps através de cabo coaxial grosso a
uma distância de até 2 quilômetros. Esse tipo de cabo coaxial era conhecido como thicknet e era da espessura de um
pequeno dedo.
Em 1985, o comitê de padronização de Redes Locais e Metropolitanas do Institute of Electrical and Electronics Engineers
(IEEE) publicou padrões para redes locais. Esses padrões começam com o número 802. O padrão para Ethernet é 802.3. O
IEEE procurou assegurar que os padrões fossem compatíveis com o modelo da International Standards Organization
(ISO)/OSI. Para fazer isso, o padrão IEEE 802.3 teria que satisfazer às necessidades da camada 1 e da parte inferior da
camada 2 do modelo OSI. Como resultado, no 802.3, foram feitas algumas pequenas modificações em relação ao padrão
Ethernet original.
As diferenças entre os dois padrões eram tão insignificantes que qualquer placa de rede Ethernet (NIC) poderia transmitir
e receber quadros tanto Ethernet como 802.3. Essencialmente, Ethernet e IEEE 802.3 são padrões idênticos.

www.datacom.ind.br - Apostila Versão 1.0


10
O cabo de par trançado blindado (STP) combina as técnicas de blindagem, cancelamento e trançamento de fios. Cada par
de fios é envolvido por uma malha metálica. Os dois pares de fios são totalmente envolvidos por uma malha ou folha
metálica. Geralmente é um cabo de 150 Ohm. Conforme especificado para utilização nas instalações de rede Token Ring,
o STP reduz o ruído elétrico dentro dos cabos como ligação dos pares e diafonia. O STP reduz também ruídos eletrônicos
externos dos cabos, por exemplo a interferência eletromagnética (EMI) e interferência da freqüência de rádio (RFI). O cabo
de par trançado blindado compartilha muitas das vantagens e desvantagens do cabo de par trançado não blindado (UTP).
O STP oferece maior proteção contra todos os tipos de interferência externa, mas é mais caro e difícil de instalar do que o
UTP.
Cabo de par trançado não blindado (UTP) é um meio de fio de quatro pares usado em uma variedade de redes. Cada um
dos 8 fios individuais de cobre no cabo UTP é coberto por material isolante. Além disso, cada par de fios é trançado em
volta de si. Esse tipo de cabo usa apenas o efeito de cancelamento, produzido pelos pares de fios trançados para limitar a
degradação do sinal causada por EMI e RFI. Para reduzir ainda mais a diafonia entre os pares no cabo UTP, o número de
trançamentos nos pares de fios varia. Como o cabo STP, o cabo UTP deve seguir especificações precisas no que se refere a
quantas torcidas ou trançados são permitidos por metro de cabo.
A parte de uma fibra óptica através da qual os raios de luz se propagam é camada núcleo da fibra. Os raios de luz só
podem entrar no núcleo se seus ângulos estiverem dentro da abertura numérica da fibra. Da mesma maneira, uma vez
que os raios tenham entrado no núcleo da fibra, existe um número limitado de caminhos ópticos que podem ser seguidos
pelo raio de luz através da fibra. Estes caminhos ópticos são chamados modos. Se o diâmetro do núcleo da fibra for
suficientemente grande para que hajam muitos caminhos por onde a luz pode se propagar através da fibra, a fibra é
chamada fibra "multimodo". A fibra monomodo possui um núcleo muito menor que só permite que os raios de luz se
propaguem em um modo dentro da fibra. Geralmente cada cabo de fibra óptica é composto de 5 partes. As partes são: o
núcleo, o revestimento interno, um buffer, um material reforçante, e uma capa externa

www.datacom.ind.br - Apostila Versão 1.0


11
Na camada de enlace de dados, a estrutura do quadro é quase idêntica para todas as velocidades da Ethernet, desde 10
Mbps até 10.000 Mbps. No entanto, na camada física, quase todas as versões de Ethernet são substancialmente
diferentes umas das outras, com cada velocidade tendo um diferente conjunto de regras de projeto de arquitetura.
Quando a Ethernet precisa ser expandida para acrescentar um novo meio físico ou capacidade, o IEEE publica um novo
suplemento para o padrão 802.3. Os novos suplementos recebem uma ou duas letras de designação, como 802.3u. Uma
descrição abreviada (denominada identificador) também é designada para o suplemento.

A descrição abreviada consiste em:


• Um número indicando o número de Mbps transmitido.
• A palavra base, indicando que foi usada a sinalização banda base (baseband).
• Uma ou mais letras do alfabeto, indicando o tipo do meio físico usado (F = cabo de fibra ótica, T = par trançado de
cobre não blindado).

A Ethernet se vale da sinalização banda base (baseband), que usa toda a largura de banda disponível no meio físico de
transmissão. O sinal de dados é transmitido diretamente através do meio físico de transmissão.

www.datacom.ind.br - Apostila Versão 1.0


12
Na versão da Ethernet que foi desenvolvida por DIX antes da adoção da versão IEEE 802.3 da Ethernet, o Preâmbulo e o
SFD (Start Frame Delimiter) foram combinados em um único campo, apesar do padrão binário ser idêntico. O campo
denominado Comprimento/Tipo foi identificado apenas como Comprimento nas primeiras versões do IEEE e apenas como
Tipo na versão DIX. Esses dois usos do campo foram oficialmente combinados em uma versão mais recente do IEEE, pois
os dois usos do campo são comuns por toda a indústria.
O campo Tipo da Ethernet II está incorporado na definição de um quadro no padrão 802.3 atual. O nó receptor precisa
determinar qual é o protocolo de camada superior que está presente em um quadro de entrada, examinando o campo
Comprimento/Tipo. Se o valor dos dois octetos é igual ou maior que 0x0600 (hexadecimal), 1536 em decimal, então o
conteúdo do campo de dados (data field) do quadro é decodificado de acordo com o protocolo indicado. Ethernet II é o
formato de quadro Ethernet utilizado em redes TCP/IP.

www.datacom.ind.br - Apostila Versão 1.0


13
No método de acesso CSMA/CD, os dispositivos de rede com dados a serem transmitidos funcionam em modalidade de
"escutar antes de transmitir". Isso significa que, quando um nó deseja enviar dados, ele deve verificar primeiramente se os
meios da rede estão ocupados. Se o nó determinar que a rede está ocupada, o nó aguardará um tempo aleatório antes
de tentar novamente. Se o nó determinar que os meios físicos da rede não estão ocupados, o nó começará a transmitir e
a escutar. O nó escuta para garantir que nenhuma outra estação esteja transmitindo ao mesmo tempo. Depois de
completar a transmissão dos dados, o dispositivo retornará ao modo de escuta.
Os dispositivos de rede detectam a ocorrência de uma colisão pelo aumento da amplitude do sinal nos meios físicos da
rede. Quando ocorre uma colisão, cada um dos nós que está transmitindo continuará a transmitir por um curto espaço de
tempo, para garantir que todos os dispositivos identifiquem a colisão. Depois que todos os dispositivos detectaram a
colisão, um algoritmo de recuo (backoff) será invocado e a transmissão será interrompida. Os nós param então de
transmitir durante um tempo aleatório determinado pelo algoritmo de backoff. Quando este período expirar, cada um
dos nós envolvidos poderá tentar obter acesso aos meios físicos da rede. Os dispositivos envolvidos na colisão não terão
prioridade na transmissão.
Em um cabo UTP, como 10BASE-T, 100BASE-TX e 1000BASE-T, uma colisão é detectada no segmento local somente
quando uma estação detecta um sinal no par RX ao mesmo tempo que está transmitindo através do par TX. Como os dois
sinais estão em pares diferentes, não há nenhuma mudança característica no sinal. As colisões são reconhecidas em UTP
somente quando a estação está operando em half-duplex. A única diferença funcional entre a operação half e full-duplex
a esse respeito é se os pares de transmissão e recepção podem ou não ser usados simultaneamente. Se a estação não
estiver realizando uma transmissão, ela não poderá detectar uma colisão local. Se a estação conectada estiver operando
em full-duplex, a estação poderá enviar e receber simultaneamente e não deverão ocorrer colisões.

www.datacom.ind.br - Apostila Versão 1.0


14
10BASE-T exigia que cada estação emitisse um link pulse a cada 16 milissegundos, aproximadamente, enquanto a estação
não estivesse ocupada com a transmissão de uma mensagem. A autonegociação adotou este sinal e deu-lhe o novo nome
de Normal Link Pulse (NLP). Quando é enviada uma série de NLPs em um grupo para fins de Autonegociação, o grupo é
denominado rajada de Fast Link Pulse (FLP). Cada rajada de FLP é enviada num intervalo de temporização idêntico ao de
um NLP e tem a finalidade de permitir que os dispositivos 10BASE-T mais antigos operem normalmente no caso de
receberem uma rajada de FLP.
A Autonegociação é realizada pela transmissão de uma rajada de Link Pulses 10BASE-T de cada um dos parceiros
interligados. A rajada comunica as capacidades da estação transmissora ao seu parceiro interligado. Após ambas as
estações interpretarem o que a outra parte está oferecendo, cada uma alterna para a configuração de desempenho
conjunto mais alto e estabelecem um link naquela velocidade. Se algo interromper as comunicações e o link for perdido,
os dois parceiros primeiro tentarão restabelecer o link à velocidade anteriormente negociada. Se isso falhar, ou se tiver
decorrido muito tempo desde a perda do link, o processo de Autonegociação irá recomeçar. O link pode ser perdido
devido a influências externas, como falha do cabo, ou pela emissão de um reset por um dos parceiros. Autonegociação é
opcional para a maioria das implementações de Ethernet. Gigabit Ethernet exige a sua implementação, embora o usuário
possa desativá-la. A Autonegociação foi originalmente definida para implementações UTP de Ethernet e foi estendida
para funcionar com outras implementações em fibra ótica.
Existem apenas dois métodos de se obter um link full-duplex. Um método é através de um ciclo completo de
Autonegociação e o outro é pela imposição da execução do full-duplex em ambos os parceiros do link. Se um dos
parceiros do link for forçado a full-duplex, mas o outro tentar a Autonegociação, com certeza haverá uma
incompatibilidade (mismatch) no modo de operaçào. Isto resultará em colisões e erros nesse link. Além disso, se uma
extremidade é forçada a full-duplex, a outra também precisa ser forçada. A exceção a esta regra é a 10-Gigabit Ethernet,
que não suporta half-duplex.

www.datacom.ind.br - Apostila Versão 1.0


15
A história de como a Ethernet lida colisões e domínios de colisão data do ano de 1970 em pesquisas na University of
Hawaii. Enquanto tentavam desenvolver um sistema de comunicação sem-fio para as ilhas do Havaí, os pesquisadores da
universidade desenvolveram um protocolo conhecido como Aloha. O protocolo Ethernet é na realidade baseado no
protocolo Aloha.
Os dispositivos da Camada 2 segmentam ou dividem os domínios de colisão. O controle da propagação do quadro
usando um endereço MAC designado a cada dispositivo Ethernet realiza essa função. Os dispositivos da Camada 2, as
bridges e os switches, rastreiam os endereços MAC e os segmentos nos quais se encontram. Ao fazerem isso, estes
dispositivos podem controlar o fluxo do tráfego ao nível da Camada 2. Esta função aumenta a eficiência das redes ao
permitir que os dados sejam transmitidos em diferentes segmentos da rede local simultaneamente sem a colisão dos
quadros. Com a utilização de bridges e switches, o domínio de colisão é dividido em partes menores, cada um deles se
tornando seu próprio domínio de colisão.
Geralmente, uma bridge possui apenas duas portas e divide o domínio de colisão em duas partes. Todas as decisões feitas
por uma bridge são baseadas no endereçamento MAC ou da Camada 2 e não afetam o endereçamento lógico ou da
Camada 3. Assim, uma bridge divide um domínio de colisão mas não tem efeito nenhum no domínio lógico ou de
broadcast. Não importa quantas bridges existam em uma rede, a não ser que haja um dispositivo como um roteador que
funcione com o endereçamento da Camada 3, a rede inteira compartilhará o mesmo espaço de endereço lógico de
broadcast. Uma bridge criará mais domínios de colisão mas não adicionará domínios de broadcast.
Um switch é essencialmente uma bridge rápida multiportas, que pode conter dezenas de portas. Em vez de criar dois
domínios de colisão, cada porta cria seu próprio domínio de colisão. Em uma rede de vinte nós, podem existir vinte
domínios de colisão se cada nó for ligado em sua própria porta no switch. Se estiver incluída uma porta uplink, um switch
criará vinte e um domínios de colisão com um único nó. Um switch dinamicamente constrói e mantém uma tabela CAM
(Content-Addressable Memory), mantendo todas as informações MAC necessárias para cada porta.

www.datacom.ind.br - Apostila Versão 1.0


16
Para a comunicação com todos os domínios de colisão, os protocolos usam os quadros broadcast e multicast na Camada
2 do modelo OSI. Quando um nó precisa comunicar-se com todos os hosts na rede, ele envia um quadro de broadcast
com um endereço MAC de destino FF:FF:FF:FF:FF:FF. Este é um endereço ao qual a placa de rede (NIC) de cada host
precisa responder.
Os dispositivos da Camada 2 precisam propagar todo o tráfego de broadcast e multicast. O acúmulo de tráfego broadcast
e multicast de cada dispositivo na rede é conhecido como radiação de broadcast. Em alguns casos, a circulação da
radiação de broadcast poderá saturar a rede de maneira que não sobre largura de banda para os dados das aplicações.
Neste caso, novas conexões de rede não podem ser estabelecidas e as conexões existentes podem ser descartadas, uma
situação conhecida como tempestade de broadcast. A probabilidade de tempestades de broadcast aumenta com o
crescimento da rede comutada. Já que a placa de rede precisa interromper a CPU para processar cada grupo de broadcast
ou multicast a que pertence, a radiação de broadcast afeta o desempenho do host na rede.
Um switch mantém uma tabela de endereços MAC e as portas a eles associadas. O switch então encaminha ou descarta
os quadros baseados nas entradas da tabela.
A maneira pela qual um quadro é encaminhado à sua porta de destino é uma concessão entre latência e confiabilidade.
Um switch poderá começar a transferir o quadro assim que o endereço MAC de destino for recebido. A comutação feita
neste ponto é conhecida como comutação cut-through e resulta na latência mais baixa através do switch. No entanto,
não oferece nenhuma verificação de erros. Por outro lado, o switch pode receber um quadro completo antes de enviá-lo à
porta de destino. Isso dá ao software do switch a oportunidade de verificar o FCS (Frame Check Sequence) para garantir
que o quadro foi recebido com integridade antes de enviá-lo ao destino. Se o quadro for identificado como inválido, ele
será descartado nesse switch e não no destino final. Já que o quadro inteiro é armazenado antes de ser encaminhado,
este modo é conhecido como store-forward.

www.datacom.ind.br - Apostila Versão 1.0


17
Recursos da rede (ex.: capacidade de transmissão) dividida em “pedaços”
• “Pedaços” alocados às chamadas
• “Pedaço” do recurso desperdiçado se não for usado pelo dono da chamada (sem divisão)
Formas de divisão da capacidade de transmissão em “pedaços”
• Divisão em freqüência
• Divisão temporal

www.datacom.ind.br - Apostila Versão 1.0


18
Contenção de recursos:
• A demanda agregada por recursos pode exceder a capacidade disponível
• Congestão: filas de pacotes, espera para uso do link
• Armazena e reenvia: pacotes se movem um “salto” por vez
• O nó recebe o pacote completo antes de encaminhá-lo

www.datacom.ind.br - Apostila Versão 1.0


19
www.datacom.ind.br - Apostila Versão 1.0
20
Introdução
Por muitos anos, o padrão Ethernet tem sido o protocolo dominante em redes LAN; hoje, mais de 98% do
tráfego corporativo passa por interfaces Ethernet. Isto é motivado pela simplicidade, facilidade de operação,
alto grau de integração e padronização do protocolo Ethernet, o que torna esta tecnologia extremamente
atrativa em termos de custo. Por outro lado, o mesmo não acontece com as redes MAN e WAN, com as
operadoras oferecendo serviços baseados em ATM, Frame Relay e linhas privativas, todos significantemente
mais complicados e com custo mais elevado.
Atualmente, os mais importantes serviços demandados pela área corporativa e que mais tem crescido são a
interconexão das redes LAN geograficamente distribuídas e a conectividade com a internet. Em face a estes
serviços e à crescente exigência do mercado por baixos custos, as operadoras de serviços se deparam com a
necessidade de readequar suas redes metropolitanas, sendo as redes Metro Ethernet uma escolha de
destaque tanto pelo aspecto técnico quanto pelo econômico.

www.datacom.ind.br - Apostila Versão 1.0


21
O fluxo Ethernet (Ethernet flow) mostrado representa o tráfego de dados fim-a-fim entre dois equipamentos
terminais, os quais originam e terminam os quadros Ethernet. A interface que interliga a rede de um cliente à
rede de um provedor de serviços é denominada de UNI (User Network Interface). Do lado do cliente é
chamada de UNI-C (User Network Interface Client) e do lado do provedor de serviços é denominada de UNI-N
(User Network Interface Network).
Uma conexão Ethernet virtual (EVC – Ethernet Virtual Connection) é um dos conceitos mais importantes em
redes Metro Ethernet. Uma EVC pode ser considerada como uma instância da associação de duas ou mais
UNIs, com o objetivo de transportar um fluxo de dados entre dois ou mais clientes, através de uma rede
Metro Ethernet. Os EVCs ajudam a visualizar o conceito de conexões e podem ser comparados ao conceito
dos PVCs, no ATM.
Existem dois tipos de EVCs definidos pelo MEF; o ponto-a-ponto (E-LINE) e o multipontomultiponto (E-LAN).

www.datacom.ind.br - Apostila Versão 1.0


22
Os três principais fatores que motivam os provedores de serviços e os clientes a optarem por serviços
Ethernet são os seguintes:
• Facilidade de uso: os serviços Ethernet são fornecidos através de uma interface padrão altamente conhecida
e entendida, simplificando com isso a interconexão, operação, administração e gerenciamento da rede.
• Baixo custo: a alta disponibilidade e produção em alta escala dos equipamentos, com conseqüente redução
de custos. Clientes não necessitam trocar equipamentos para se conectar a rede. Muitos serviços Ethernet
permitem o cliente adicionar banda em passos de 1Mbps fazendo com que o mesmo pague somente o que
usa.
• Flexibilidade: com os serviços Ethernet gerenciados, o cliente está apto a modificar a banda em minutos ou
horas, ao invés de dias ou semanas, como quando usando outras redes. A necessidade de visita de suporte
técnico do provedor de serviços fica reduzida. Múltiplos serviços em uma única interface de serviços Ethernet
permitem que pequenos clientes passem a usufruir de maior flexibilidade de interconexão de suas redes com
clientes e fornecedores.

www.datacom.ind.br - Apostila Versão 1.0


23
Perfil por UNI: aplica-se para todos os quadros de serviço que entram na rede do
provedor através da UNI.
Perfil por EVC: aplica-se para todos os quadros de serviço que passam por um determinado EVC dentro da
UNI.
Perfil pelo identificador CoS: aplica-se a todos os quadros de serviço dentro de um EVC identificados pelos
bits de prioridade da marcação (tag) de VLAN IEEE 802.1p do cliente.
Cada atributo de Bandwidth Profile definidos acima, consiste de quatro parâmetros de tráfego que definem a
vazão (throughput) fornecida pelo serviço. Os parâmetros de tráfego são os seguintes:
CIR (Committed Information Rate): taxa média garantida e de acordo com os objetivos de desempenho
contratados (por exemplo: jitter, atraso, etc.) e especificados em um SLA (Service Level Agreement).
CBS (Committed Burst Size): definido como o número máximo de bytes permitidos para os quadros de
serviços que entram, sendo ainda contados dentro do CIR.
EIR (Excess Information Rate): taxa média, excedente ao CIR, para a qual os quadros de serviços são entregues
sem nenhuma garantia de desempenho.
EBS (Excess Burst Size): definido como o número máximo de bytes permitidos para os quadros de serviços
que entram, sendo ainda contados dentro do EIR.
Um meio prático de descrever ou marcar os quadros de serviços quando sua taxa média está
conforme ou não ao perfil definido, é através do uso de cores. Os quadros de serviço verdes são os que estão
de acordo com o SLA contratado e geralmente não podem ser descartados.
Os quadros de serviço amarelos são os que não estão de acordo com o SLA contratado, mas que tipicamente
não são imediatamente descartados. Os quadros de serviços vermelhos também não estão de acordo com os
objetivos de desempenho contratados e são imediatamente descartados.

www.datacom.ind.br - Apostila Versão 1.0


24
Qualidade dos Serviços (QoS)
- Garantir um desempenho determinístico do tráfego com qualidade similar ao das redes comutadas
tradicionais.
- Vários níveis de qualidade de serviço (SLAs) que permitam fornecer performance fim-a-fim capaz de suprir
todos os requisitos para o transporte de voz, dados e vídeo, tanto para empresas quanto para clientes
residenciais.
· Confiabilidade
- Capacidade da rede de detectar e se recuperar de falhas, com tempo de recuperação inferior a 50ms, sem
causar impacto para os usuários
- Proteção de caminho fim-a-fim.
· Escalabilidade
- Capacidade de suportar mais de 100.000 clientes, servindo com isso áreas metropolitanas e regionais.
- Escalabilidade de banda a partir de 1Mbps até 10Gbps em incrementos com baixa
granularidade.
· Gerenciamento de Serviços
- Capacidade de monitorar, diagnosticar e centralizar a gerência da rede, usando padrões que não sejam
dependentes de um fornecedor.
- Configuração rápida e fácil da rede para esta suportar novos serviços.
· Serviços Padronizados
- Serviços globais, via equipamentos padronizados.
- Não requer modificações nos equipamentos LAN dos usuários ou da rede, permitindo conectividade com as
redes existentes, como por exemplo, a rede TDM.

www.datacom.ind.br - Apostila Versão 1.0


25
www.datacom.ind.br - Apostila Versão 1.0
26
A técnica de VLAN (Virtual LAN) consiste em criar um agrupamento lógico de portas ou dispositivos de rede. As VLANs
podem ser agrupadas por funções operacionais ou por departamentos, independentemente da localização física dos
usuários. Cada VLAN é vista como um domínio de broadcast distinto. O tráfego entre VLANs é restrito, ou seja, uma VLAN
não fala com outra a não ser que se tenha um elemento de nível 3 que faça o roteamento entre as diferentes VLANs. Um
broadcast propagado por um elemento de rede pertencente a uma VLAN só vai ser visto pelos elementos que
compartilham da mesma VLAN.
As VLANs melhoram o desempenho da rede em termos de escalabilidade, segurança e gerenciamento de rede.
Organizações utilizam VLANs como uma forma de assegurar que um conjunto de usuários estejam agrupados
logicamente independentemente da sua localização física. Por exemplo, os usuários do Departamento de Marketing são
colocados na VLAN Marketing e os usuários do Departamento de Engenharia são colocados na VLAN Engenharia.
Operadoras também utilizam VLANs para oferecer segmentação dos serviços oferecidos aos seus diversos clientes.
VLANs podem ser configuradasde duas maneiras:
• Estaticamente: Através da atribuição de uma porta do switch para uma determinada VLAN. (mais usado)
• Dinamicamente: Através de protocolos dinâmicos que aprendem as VLANs.
Em termos técnicos o Switch adiciona uma etiqueta (TAG) no quadro ethernet que permite a identificação de qual VLAN
pertence o quadro dentre outros parâmetros. A especificação 802.1q define dois campos no cabeçalho ethernet de
2bytes que são inseridos no quadro ethernet a frente do campo Source Address:
• TPID (Tag Protocol Identifier) Este campo correspondente ao Ethertype do quadro comum ethernet e está associado a
um número hexadecimal específico: 0x8100*
• TCI (Tag Control Information). Este campo é composto por três sub-campos:
- PRI: (3bits) Especifica bits de prioridade definidos pelo padrão 802.1p e usados para fazer marcação de nível 2 usando
classes de serviço distintas (CoS);
- CFI: (1bit) Usado para prover compatibilidade entre os padrões Ethernet e Token Ring;
- VLAN ID: (12bits) Este campo identifica de forma única a VLAN a qual pertence o quadro ethernet. Como o campo
possui 12bits, o número de VLANs está limitado 4096**.

OBS:
* Este valor indica que o próximo campo é uma tag de vlan. A indicação 0x Indica que o próximo número é um valor
hexadecimal.
** Apesar do valor convertido (2^12) ser equivalente à 4096, os valores válidos para id de vlan vai de 1 à 4094. O
primeiro valor 0 (000000000000) é inválido para vlan e o último valor 4095 (111111111111) está reservado para futuras
implementações. Considera-se uma boa prática não usar a VLAN 1 como vlan de serviço e gerência, pois esta é a vlan
default na maioria dos switches e protocolos.
Fonte: IEEE 802.1q 1998.

www.datacom.ind.br - Apostila Versão 1.0


27
Quando o switch recebe um frame, ele verifica se o Tag de VLAN está presente neste frame. Se há um Tag de
VLAN (tagged), o frame é encaminhado diretamente ao restante das portas membros da VLAN
correspondente. Se não há um Tag de VLAN (untagged) no frame recebido, o switch então encaminha o
frame para as portas membros da VLAN de acordo com a configuração de VLAN nativa da porta.

Por default, todas as portas são membros untagged da VLAN 1. Todas as portas que não forem configuradas
como membros de uma nova VLAN, serão membros da VLAN 1 (Default VLAN). Não é possível deletar a VLAN
1.

DmSwitch3000#show vlan table id 1

Membership: (u)ntagged, (t)agged, (d)ynamic, (f)orbidden, (g)uest, (r)estricted, (a)ssignment


uppercase indicates port-channel member

VLAN 1 [DefaultVlan]: static, active

Unit 1 2 4 6 8 10 12 14 16 18 20 22 24 26 28
u u u u u u u u u u u u u u
u u u u u u u u u u u u u u
1 3 5 7 9 11 13 15 17 19 21 23 25 27

www.datacom.ind.br - Apostila Versão 1.0


28
• A opção ingress-filtering quando habilitada, faz com que pacotes com tag de vlans diferentes das
configuradas nas portas sejam descartados.
DmSwitch3000(config-if-eth-1/1)#switchport ingress-filtering

• A opção acceptable-frames-types quando habilitada define o tipo de pacote que será permitido na porta.
Caso chegue na porta um pacote diferente que configurado, este é descartado.
DmSwitch3000(config-if-eth-1/1)#switchport acceptable-frame-types <all | tagged | untagged>

Pode-se verificar o status das VLANs:


DmSwitch3000(config)#show vlan

Global VLAN Settings:


QinQ: Disabled

VLAN: 1 [DefaultVlan]
Type: Static
Status: Active
IP Address: 192.168.0.25/24
Aging-time: 300 sec.
Learn-copy: Disabled
MAC maximum: Disabled
EAPS: protected on domain(s) 1
Proxy ARP: Disabled
Members: All Ethernet ports (static, untagged)
Forbidden: (none)

www.datacom.ind.br - Apostila Versão 1.0


29
A utilização de VLANs é uma forma simples e segura de assegurar isolamento de tráfego dentro da rede. O
padrão 802.1Q define o seu funcionamento, sendo que a cada VLAN é atribuído um identificador (VLAN-ID).
Este conceito já é largamente utilizado pelas LANs existentes. Esta seria uma alternativa natural para as redes
Metro Ethernet proverem isolamento de tráfego entre os diversos clientes. Porém, a utilização do 802.1Q em
redes Metro Ethernet esbarra no problema da quantidade e administração dos VLAN-IDs.
O operador de serviços não tem como gerenciar e assegurar que cada cliente utilize um VLANID diferente
dentro da rede metropolitana. Outra questão é que o número máximo de VLANIDs é de 4096, sendo este
número limitado para as dimensões de uma rede metropolitana, além do fato de limitar o cliente na criação
de suas próprias VLANs internas, o que não é aceitável.
Para solucionar esta questão, foi criado o conceito de tunelamento de VLANs (802.1ad – Provider Bridge,
Stacked VLAN, VLAN Tunneling, QinQ). O tunelamento de VLAN trata-se de um mecanismo simples, no qual
uma VLAN (C-VLAN – Customer VLAN) é encapsulada (tunelada) dentro de outra VLAN (S-VLAN – Service
VLAN), conforme a Figura 8. Este tunelamento permite uma completa separação do tráfego do cliente. Desta
forma, o cliente tem total liberdade de gerenciar suas C-VLANs. O provedor tem à sua disposição até 4096 S-
VLANs, suportando até 4k clientes/serviços.
O formato do cabeçalho do 802.1ad é similar ao do 802.1Q, conforme mostrado na Figura 9. A
implementação da S-VLAN se dá acrescentando 4 bytes ao cabeçalho Ethernet: após os campos de MAC de
origem e destino, são inseridos 2 bytes correspondentes ao EtherType de S-VLAN (88A8 Hex) e dois bytes
correspondentes ao TCI (Tag Control Information). Diferentemente do 802.1Q, o bit 4 do primeiro byte do
campo TCI, passa a ser chamado de DEI (Drop Eligeble Indicator). A combinação dos 3 bits de prioridade mais
o bit DEI formam o conceito de PCP (Priority Code Point), que é utilizado dentro da rede como parâmetro de
descarte ou não de pacotes.

www.datacom.ind.br - Apostila Versão 1.0


30
QinQ Mode:
• external: É o padrão para as portas FastEthernet do DmSwitch 3000. No modo external, todos os frames
que forem recebidos na interface irão receber mais um Tag de VLAN. Geralmente usado nas portas de acesso.
A VLAN que o frame irá receber é a VLAN configurada como NATIVE VLAN da porta de interface e o tipo de
VLAN configurada deve ser do tipo untagged.
• internal: É o padrão para as portas GBE. No modo internal, somente os frames que forem recebidos na
interface com o valor do campo TPID diferente daquele configurado na própria interface, irão receber mais
um Tag de VLAN. O TPID são os primeiros 2 bytes no Tag de VLAN que também corresponde ao campo
ethertype nos frames untagged. O valor defaut é 0x8100. A VLAN deve ser configurada no tipo tagged e
associada nas portas onde o tráfego deverá ser comutado.

• Exemplo de configuração

DmSwitch3000(config)#vlan qinq
DmSwitch3000(config)#interface vlan 100 (s-vlan, outer-vlan)
DmSwitch3000(config-if-vlan-100)#set-member tagged ethernet 25 (Interface de ligação ao
backbone)
DmSwitch3000(config-if-vlan-100)#set-member tagged ethernet 26 (Interface de ligação ao
backbone)
DmSwitch3000(config-if-vlan-100)#set-member untagged ethernet 2 (Interface de Acesso)
DmSwitch3000(config-if-vlan-100)#interface ethernet 2
DmSwitch3000(config-if-eth-1/2)#switchport native vlan 100
DmSwitch3000(config-if-eth-1/2)#switchport qinq external

www.datacom.ind.br - Apostila Versão 1.0


31
A principal função do Spanning-Tree Protocol é permitir os caminhos com bridges/switches duplicados sem os efeitos de
latência dos loops na rede. As bridges e os switches tomam as decisões de encaminhamento para os quadros unicast com
base no endereço MAC no quadro. Se o endereço MAC for desconhecido, o dispositivo transmitirá o quadro através de
todas as portas na tentativa de alcançar o destino desejado (flooding). Ele também faz isso em todos os quadros de
broadcast.
O algoritmo Spanning Tree, implementado pelo Spanning-Tree Protocol, impede os loops calculando uma topologia de
rede spanning-tree estável. Ao criar redes tolerantes a falhas, um caminho sem loops deverá existir entre todos os nós
Ethernet na rede. O algoritmo Spanning Tree é usado para calcular um caminho sem loops. Quadros Spanning Tree,
chamados de bridge protocol data units (BPDUs), são enviados e recebidos por todos os switches na rede em intervalos
regulares e são usados para determinar a topologia spanning-tree.
Um switch usa o Spanning-Tree Protocol em todas as Ethernets e Fast Ethernets baseadas em VLANs. O Spanning-Tree
Protocol detecta e interrompe os loops colocando algumas conexões no modo de espera, que serão ativadas caso haja
uma falha na conexão ativa. Uma instância separada do Spanning-Tree Protocol é executada em cada VLAN configurada,
garantindo as topologias Ethernet que estão de acordo com os padrões da indústria através da rede.
Os estados do Spanning-Tree Protocol são os seguintes:
Bloqueando - Nenhum quadro encaminhado, BPDUs detectadas
Prestando atenção - Nenhum quadro encaminhado, prestando atenção nos quadros
Aprendendo - Nenhum quadro encaminhado, aprendendo os endereços
Encaminhando - Quadros encaminhados, aprendendo os endereços
Desativado - Nenhum quadro encaminhado, nenhuma BPDU detectada
O estado de cada VLAN é inicialmente definido pela configuração e modificado depois pelo processo Spanning-Tree
Protocol. Depois que esse estado de porta para VLAN for definido, o Spanning-Tree Protocol determinará se a porta irá
encaminhar ou bloquear os quadros. As portas poderão ser configuradas para entrar imediatamente no modo de
encaminhamento Spanning-Tree Protocol quando for feita uma conexão, em vez de seguir a seqüência usual de bloquear,
aprender e encaminhar. A capacidade de comutar rapidamente os estados de bloquear para encaminhar em vez de passar
pelos estados da porta transacionais será útil em situações onde o acesso imediato a um servidor for necessário.

www.datacom.ind.br - Apostila Versão 1.0


32
Diferenças entre os STP e o RSTP:
• Three port states: O RSTP possui apenas 3 port states, enquanto o STP possui 4 + 1 port states. Isto significa que os
estados "Blocking, Listening e Disabled" foram condensados em um único estado para o 802.1w, o "Discarding state".

• Alternative Port e Backup Port: Em situações onde temos duas ou mais portas presentes no mesmo segmento, apenas
uma delas poderá desempenhar a função de "Designated Port". As outras portas serão rotuladas "Alternative Port" e, caso
existam três ou mais portas, "Backup Port", respectivamente. A Alternative Port é uma porta que oferece um caminho
alternativo para o ROOT BRIDGE da topologia no switch não designado. Em condições normais, a Alternative Port assume
o estado de discarding na topologia RSTP. Caso a Designated Port do segmento falhe, a Alternative Port irá assumir a
função de Designated Port. Já a Backup Port é uma porta adicional no switch não designado. Ela não recebe BPDUs.
• Fast Aging: Na implementação 802.1d, somente o Root bridge poderá notificar via BPDUs eventos de mudança na
rede. Os demais switches simplesmente fazem a alteração nos campos necessários e, em seguida, efetuam o "relay" desta
BPDU para os outros switches através de suas designated ports. Isto mudou com a chegada do RSTP - 802.1w. No RSTP,
todos os switches são capazes notificar eventos de mudança na topologia em suas BPDUs e "anunciá-los" em intervalos
regulares definidos pelo hello-time. Portanto, a cada 2 segundos (Hellotime) os switches criarão os seus próprios BPDUs e
enviarão estes através de suas designated ports. Se num intervalo de 6s (3 BPDUs consecutivas) o swich não receber
BPDUs do seu vizinho, o mesmo irá assumir que o nó vizinho não faz mais parte da topologia RSTP e irá fazer o estorno
das informações de nível 2 da porta conectada ao vizinho. Isso permite a detecção de eventos de mudança mais
rapidamente do que o MAX AGE do STP 802.1d, sendo a convergência agora feita LINK by LINK.
• Edge e Non-edge ports: O RSTP define dois tipos de portas: Edge e Non-edge ports. As Edge ports são portas que
devem estar conectadas a apenas um nó de serviço. Elas são uma evolução do mecanismo de port-fast usado no STP, no
entanto, diferentemente do port-fast que bloqueia a porta ao receber BPDUs, a edge port se transforma em non-edge
ports. Non-edge ports são portas point-to-point ou portas shared, ou seja, são portas que estão conectadas ao outro
switch na outra ponta ou então a um hub respectivamente. Non-edge ports devem operar em FULL-DUPLEX
obrigatoriamente.
www.datacom.ind.br - Apostila Versão 1.0
33
O MSTP (Multiple STP) definido sobre o padrão IEEE 802.1s é uma evolução do RSTP, cujo o objetivo é
possibilitar múltiplas instâncias RSTP.
O MSTP reduz o número total de instâncias RSTP gerada pelo cálculo de uma instância para cada vlan.
Através do agrupamento de múltiplas vlans em uma única instância RSTP compartilhando a mesma topologia
lógica, o switch tem o seu overhead de BPDUs reduzido e um tempo de convergência mais rápido.
Cada instância MSTP possui um topologia lógica independente das outras instâncias MSTP. Dessa forma, o
MSTP permite o load balance das instâncias de tal maneira que o tráfego das vlans que foram mapeadas para
uma determinada instância possa usar caminhos diferentes de outras instâncias.
Uma instância MSTP corresponde a um grupo de VLANs que compartilham a mesma topologia lógica RSTP,
pertencentes a uma REGION. Por default, todas as vlans que participam do processo MSTP pertencem a Ist0
(Instância 0). É através da Ist0 que as diferentes REGIONs se comunicam trocando BPDUs. Instâncias MSTPs
não enviam BPDUs fora da REGION, somente a Ist0 faz isso. Dentro da REGION os switches trocam BPDUs
inerentes às diferentes instâncias que podem existir, cada uma delas contendo o “id” da instância de origem
além de outras informações pertinentes ao processo.
Ist0s em diferentes REGIONs são interconectadas por uma Cst (Common Spanning-Tree), permitindo assim a
comunicação entre diferentes REGIONs e a inter-operabilidade entre os padrões de protocolos STP. Assim
sendo, todas as REGIONs podem ser vistas como uma “bridge virtual” rodando uma Cst.
Para que switches estejam numa REGION, cada switch deve ter as mesmas configurações de vlans mapeadas
para suas respectivas instâncias e número de revisão. Não é vantajoso segmentar a rede em diferentes
REGIONs, pois isso acarretaria em aumento significativo do overhead de CPU e também administrativo.
A coleção de Ists em cada REGION MSTP e as Cst que interconectam as Ists são chamadas de Cist (Common
and Internal Spanning-Tree).

NOTA: O REVISION NUMBER é um decimal usado para manter o controle das atualizações MSTP em uma
REGION. Ele deve ser o mesmo em todos os switches pertencentes a mesma REGION, assim como o as
configurações de vlans mapeadas para cada instância MSTP

www.datacom.ind.br - Apostila Versão 1.0


34
www.datacom.ind.br - Apostila Versão 1.0
35
Introdução:
Muitas Redes Metropolitanas (MANs) e algumas redes locais (LANs) têm uma topologia em anel,
normalmente, utilizando para isso uma estrutura de fibras óticas. O Ethernet Automatic Protection Switching
(EAPS foi desenvolvido para atender somente as topologias em anel, normalmente utilizadas em redes
ethernet metropolitanas. Devido a grande capacidade de transmissão das redes Metro Ethernet existe a
necessidade de haver redundância/proteção do tráfego em caso de falha. O EAPS converge em até 50
milissegundos, o que é suficiente para que tráfegos sensíveis (voz, por exemplo) não percebam a falha. Esta
tecnologia não tem limite de quantidade de equipamentos no anel, e o tempo de convergência é
independente do número de equipamentos no anel.
Conceito de Operação:
Um domínio EAPS existe em um único anel Ethernet. Qualquer VLAN que será protegida é configurada em
todas as portas do domínio EAPS. Cada domínio EAPS tem um equipamento designado como “MESTRE".
Todos os outros equipamentos do anel são referidos como equipamentos "TRANSITO".
Por se tratar de uma topologia em anel, obviamente, cada equipamento terá 2 portas conectadas ao anel.
Uma porta do equipamento MESTRE é designada como “primária" enquanto a outra porta é designada como
"porta secundária". Em operação normal, o equipamento MESTRE bloqueia a porta secundária para todos os
quadros Ethernet que não sejam de controle do EAPS evitando assim um loop no anel.
Se o equipamento MESTRE detecta uma falha do anel ele desbloqueia a porta secundária permitindo assim
que os frames de dados Ethernet possam passar por essa porta.
Nos equipamentos TRANSITO, há configuração de portas primária e secundária, no entanto, o seu
funcionamento não é como no MESTRE. Nestes equipamentos as portas SEMPRE ficam transmitindo frames.
Existe uma VLAN especial denominada "Control VLAN", que pode sempre passar por todas as portas do
domínio EAPS, incluindo a porta secundária do equipamento MESTRE. Por esta VLAN passam quadros do
próprio EAPS que são utilizados tanto como mecanismo de verificação quanto mecanismo de alerta.

www.datacom.ind.br - Apostila Versão 1.0


36
Detecção de Falhas
• Alerta de Link Down: Quando um equipamento trânsito detecta um link down em qualquer uma das suas
portas do domínio EAPS, o equipamento envia imediatamente uma mensagem de link down através da
VLAN de controle para o equipamento mestre. Quando este recebe esta mensagem o estado do anel é
alterado de "normal" para o estado de “falha” e desbloqueia a porta secundária. Neste momento o
equipamento MESTRE efetuar um flush de sua tabela de MAC Addresses, e também o envia um frame de
controle para que todos os demais equipamentos do anel façam o mesmo.
• Ring Polling: O equipamento MESTRE envia um frame do tipo health-check na sua VLAN de controle com intervalo
configurável pelo usuário. Se o anel estiver concluído, o frame de health-check será recebido em sua porta secundária,
onde o equipamento mestre irá redefinir o seu timer e continuar a operação normal.
Se o equipamento MESTRE não receber o frame de health-check antes do prazo do fail-timer expirar, o estado do anel
passará de normal para estado de falha e a porta secundária será desbloqueada. O equipamento MESTRE efetua um flush
em sua tabela *FDB e envia um quadro de controle para todos os outros equipamentos, instruindo-os a limpar a suas
tabelas. Imediatamente após o flush, cada equipamento começa a aprender a nova topologia (mac learning). Este
mecanismo de ring polling fornece ao anel uma contingência em caso dos quadros de link down se perderem por algum
motivo imprevisto.
• Restauração do Anel: O equipamento mestre continua o envio periódico de frames health-check através sua porta
primária, mesmo quando operando com o anel em estado de falha. Uma vez o anel restaurado, o próximo health-check
será recebido na porta secundária do equipamento mestre. Isto fará com que o equipamento mestre volte o anel em
estado normal, logicamente bloqueando os frames que não sejam de controle em sua porta secundária, até que o mesmo
limpe sua tabela MAC, e envie um frame de controle para os equipamentos transito, instruindo-os a efetuar um flush de
suas tabelas e re-aprender a topologia.
Durante o tempo entre o equipamento de TRÂNSITO detectar que o link foi restaurado e o equipamento MESTRE detectar
que o anel foi restaurado, o porta secundária do equipamento mestre ainda está aberta (UP)– criando a possibilidade de
um loop temporário na topologia. Para evitar isso o equipamento TRÂNSITO vai colocar a porta que voltou ao normal
estado de bloqueio temporário, chamado de "pré-forwarding”. Quando o equipamento trânsito está com uma de suas
portas em estado de " pré-forwarding” somente os quadros de controle trafegam, assim que o mesmo receber um
quadro de controle instruindo-o para efetuar um flush tabela FDB, assim que o fizer, será liberado o tráfego de todas as
VLANs protegidas restaurando o estado do anel para normal.

*FDB=Forward Data Base


www.datacom.ind.br - Apostila Versão 1.0
37
As portas que conectam o switch ao anel devem ser membros tagged da VLAN de controle. O comando show
EAPS mostra o status dos domínios configurados:

DmSwitch3000#show eaps
ID Domain State M Pri Sec Ctrl Protected#
--- --------------- --------------- --- ----- ----- ------ -----------
1 Treinamento Links-Up T 1/25 1/26 4094 0

SW3-3000#show eaps detail


Domain ID: 0
Domain Name: Transit
State: Links-Down
Mode: Transit
Hello Timer interval: 1 sec
Fail Timer interval: 3 sec
Pre-forwarding Timer: 6 sec (learned) Remaining: 0 sec
Last update from: 00:04:DF:10:98:93, Eth 1/26, Sat Jan 3 21:50:05 1970
Primary port: Eth1/25 Port status: Up
Secondary port: Eth1/26 Port status: Down
Control VLAN ID: 4094
Protected VLAN group IDs: 0

www.datacom.ind.br - Apostila Versão 1.0


38
A técnica de rate-limit é usada para controlar a taxa máxima de dados enviados e recebidos em uma
interface. A limitação do tráfego de entrada e saída da rede deve ser configurada o mais próximo da origem
do tráfego.
Dentro do processo de rate-limit existem dois perfis de tráfego: “in-profile” e “out-of-profile” . O tráfego “in-
profile” corresponde ao tráfego que se encaixou nas condições de limitação da banda. Todos os pacotes in-
profile são encaminhados normalmente. Já o tráfego “out-of-profile”, corresponde ao tráfego em excesso, ou
seja, que foram além da banda limitada.
O mecanismo de rate-limit é feito em HARDWARE e possibilita uma granularidade de 64kbps até 100Mpbs ou
1Gbps dependendo da interface. A técnica de medição do tráfego consiste no uso de um modelo matemático
chamado token bucket (balde de fichas). Neste algoritmo, o balde é preenchido com fichas a uma taxa fixa
(rate-limit). A capacidade máxima do balde de fichas é determinada pelo Burst. Cada pacote transmitido
consome uma ficha do balde. Caso não haja fichas, o pacote não é transmitido, podendo ou não ser
armazenado no buffer. A taxa de saída varia de acordo com a taxa de chegada até quando o valor da taxa de
chegada for igual ou menor do que o Rate-limit. As fichas que não são consumidas são acumuladas no balde
até enchê-lo. A partir daí as fichas são perdidas. Entretanto, quando a taxa de chegada é maior do que o
Rate-limit a taxa de saída vai depender da quantidade de fichas armazenadas no balde. Enquanto houver
fichas a consumir, a taxa de saída varia de acordo com a taxa de entrada até um máximo determinado pela
velocidade do enlace. Quando não há mais fichas a consumir, o tráfego obedece a taxa de geração de fichas
(rate-limit). Logo este algoritmo permite que ocorram rajadas de tráfego com taxas superiores ao rate-limit na
saída dos dispositivos. Por padrão, o CBS pode variar de 32kbit (4K Bytes) até 4096kbit (512k Bytes).
O rate-limit também pode ser aplicado por fluxo. A configuração de rate-limit por fluxo é feita através da
criação de filtros que usam meters para monitorar a taxa máxima deste fluxo. Neste caso o tráfego excedente
poderá ser marcado com preferência de descarte ou alteração do valor do DSCP, além de poder ser
descartado ou comutado integralmente. A configuração de rate-limit por fluxo será abordada no item
Meters e Counters.

www.datacom.ind.br - Apostila Versão 1.0


39
Meter:
Os meters são associados aos filtros para limitar a taxa de determinado fluxo de pacotes. Para os pacotes que
fazem match dentro da taxa, é tomada uma ação através do comando action. Para os pacotes que excedem a
taxa configurada, pode-se tomar uma ação através do parâmetro out-action

DmSwitch3000(config)#filter new remark <text> meter <1-63> out-action [?]


permit Cause the packet to be switched
deny Discard the packet
dscp Insert Differentiated Services Code Point
drop-precedence Internally set packet to drop-precedence

www.datacom.ind.br - Apostila Versão 1.0


40
O padrão IEEE 802.1p – User Priority Bits (3 bits) – foi definido pelo IEEE para suportar QoS em LANs ethernet
802.1q. Também chamados de CoS (Class of Service), os 3 bits 802.1p são usados para marcar quadros L2
ethernet com até 8 níveis de prioridade (0 a 7), permitindo correspondência direta com os bits IP Precedence
do cabeçalho IPv4. A especificação IEEE 802.1p definiu os seguintes padrões para cada CoS:
- CoS 7 (111): network
- CoS 6 (110): internet
- CoS 5 (101): critical
- CoS 4 (100): flash-override
- CoS 3 (011): flash
- CoS 2 (010): immediate
- CoS 1 (001): priority
- CoS 0 (000): routine

www.datacom.ind.br - Apostila Versão 1.0


41
www.datacom.ind.br - Apostila Versão 1.0
42
Exemplo de configuração usando apenas 2 filas de priorização:

DmSwitch3000(config)#queue cos-map 0 priority 0 1 2 3


DmSwitch3000(config)#queue cos-map 7 priority 4 5 6 7

Na configuração acima, quando chegarem pacotes marcados com prioridades 0, 1, 2 e 3 estes serão
encaminhados para a fila 0 e para pacotes com marcação de 4, 5, 6 e 7 para a fila 7.

www.datacom.ind.br - Apostila Versão 1.0


43
www.datacom.ind.br - Apostila Versão 1.0
44
www.datacom.ind.br - Apostila Versão 1.0
45
Counter:
Os counters são associados aos filtros para realizar a contagem dos pacotes de determinado fluxo. Os
contadores são visualizados através do comando show counter

DmSwitch3000(config)#show counter [?]


id Counter by ID
filter Counter by filter ID
sort Sorting method
| Output modifiers
<enter>

SW3-3000(config)#sho counter id <1-32>


ID Remark Filter Counter Value
---- ---------------------------------- ------ --------------------------
1 1 100

www.datacom.ind.br - Apostila Versão 1.0


46
www.datacom.ind.br - Apostila Versão 1.0
47
Strict Priority:
O algoritmo SP faz o tratamento das filas de saída numa ordem sequencial: filas de maior prioridade são
sempre tratadas primeiro que filas de menor prioridade. Somente quando a fila de maior prioridade se
esvaziar e que as outras filas de menor prioridade serão tratadas.
Embora o algoritmo Strict Priority faça primeiro o escalonamento das filas de maior prioridade, quando
usado em conjunto com aplicações de fluxo contínuo, ininterrupto e de alta prioridade, o mesmo pode
negligenciar as filas de menor prioridade. No entanto é possível configurar uma banda máxima por fila.
Weighted Round Robin:
O algoritmo WRR foi criado para suprir as deficiências do algoritmo Strict Priority. O WRR irá assegurar que
todas as filas serão tratadas atribuindo às mesmas um peso (weight) que corresponde à quantidade de
pacotes trata em um intervalo de tempo.
Weighted Fair Queueing:
O WFQ garante justiça no tratamento das filas, assegurando que as filas de menor prioridade não sejam
negligenciadas em condições de congestionamento. O algoritmo assegura que uma banda mínima será
garantida para cada uma das filas em condições de congestionamento, fazendo o escalonamento do tráfego
excedente por round robin ou prioridade até o limite configurado. Quando ajustado para uma largura de
banda máxima na fila, ocorrerá o shapping do tráfego. Assim, rajadas que vão além da largura de banda
máxima especificada são armazenadas no buffer de transmissão. Caso o buffer se esgote, pacotes serão
descartados.

www.datacom.ind.br - Apostila Versão 1.0


48
www.datacom.ind.br - Apostila Versão 1.0
49
www.datacom.ind.br - Apostila Versão 1.0
50
www.datacom.ind.br - Apostila Versão 1.0
51
www.datacom.ind.br - Apostila Versão 1.0
52
www.datacom.ind.br - Apostila Versão 1.0
53
www.datacom.ind.br - Apostila Versão 1.0
54
www.datacom.ind.br - Apostila Versão 1.0
55
DmView é o Sistema Integrado de Gerência de Rede e de Elemento desenvolvido para supervisionar e
configurar os equipamentos Datacom, disponibilizando funções para gerência de supervisão, falhas,
configuração, desempenho, inventário e segurança. O DmView tem funcionalidades para gerência de diversos
tipos de redes (como PDH, SDH, Metro Ethernet). Este manual apresenta funcionalidades específicas do
DmView para gerência de redes Metro Ethernet.
Para funcionalidades gerais do DmView, que não apresentam comportamentos específicos para gerência de
redes Metro Ethernet, é recomendada a leitura do manual DmView – Manual de Operação Geral, que contêm
informações sobre funcionalidades como mapas topológicos, criação de links e recepção de eventos. Para
instalação, utilizar o documento DmView – Manual de Instalação.
 Device Information
A partir da versão 6.7 a janela Device Information foi criada para a linha Metro Ethernet de equipamentos da
Datacom, ela está acessível através do menu Fault no bayface dos equipamentos (DmSwitch 3000, DM4000 e
EDD), menu de contexto das portas do bayface e duplo clique nas portas, led de alarmes e led de fans.
 Informações sobre Portas
Exibe as informações sobre a porta de acordo com o slot selecionado e número da porta.
Na combo Slot é possível selecionar a Unit para listar suas portas
Na combo Port é possível selecionar a porta para exibir suas informações
Todas as portas e port-channels presentes no equipamento serão listados.
O label Model informa o modelo da porta.
 Informações sobre os Transceivers (SFP)
Exibe as características dos transceivers presentes nos equipamentos.
Na combo Slot é possível selecionar a Unit para listar suas portas
Na combo Port é possível selecionar a porta para exibir as informações do transceiver presente na porta
Somente as portas com transceiver serão listadas.

www.datacom.ind.br - Apostila Versão 1.0


56
Protocolo LLDP
O protocolo LLDP (Link Layer Discovery Protocol) permite visualizar informações de links conectados em um equipamento.
No DmView, o protocolo LLDP é utilizado para disponibilizar as funcionalidades de descoberta e verificação de links.
Para que a descoberta de links seja possível, e para que essas duas janelas mostrem as informações descobertas, é
necessário que o protocolo de descoberta de links (LLDP) esteja ativado em todos os equipamentos que possuam pelo
menos uma das portas dos links que se deseja descobrir.
Na janela Discovered Links são mostrados, em uma tabela, todos os links descobertos pelo equipamento. O equipamento
que está sendo analisado (A-End, na tabela), é o equipamento que estava selecionado no mapa no momento da abertura
da janela e está identificado no topo da janela, logo acima da tabela com os links. Essa tabela possui as seguintes
colunas:
A-End Unit: indica a unit do link correspondente para o device A-End
A-End Port: indica a porta do link correspondente para o device A-End
Z-End Unit: indica a unit do link correspondente para o device Z-End
Z-End Port: indica a porta do link correspondente para o device Z-End
Z-End Hostname: indica o IP do device vizinho com o qual foi descoberto o link.
Z-End Model: indica o modelo do device vizinho com o qual foi descoberto o link.
Link Name: indica o nome do link, caso exista no mapa.
Link On Map: indica se o link descoberto já existe no mapa.
Add Link: checkbox que pode ser marcado para indicar o link que devem ser adicionado no mapa.
Qunado as linhas da tabela aparecerem na cor cinza, indica que o equipamento vizinho com o qual o link foi descoberto
não está no mapa do DmView. Ao selecionar uma das linhas cinza da tabela, o botão Add Device ficará habilitado. Ao
clicar sobre Add Device será aberta a janela de adição de equipamento no DmView com o campo Hostname já preenchido
com o hostname do vizinho descoberto. Depois que o equipamento for adicionado no mapa, a linha da tabela ficará com
fundo branco e a coluna Add Link passa a mostrar o checkBox habilitado. Clicando sobre o checkbox da coluna Add Link
será aberta a seguinte janela, na qual deve ser preenchido o nome do novo link a ser adicionado.
Depois de informar o nome para o novo link, a tabela é atualizada, ou seja, o checkbox (Add Link) fica marcado,
indicando que o link está selecionado para ser adicionado e o nome informado aparece na coluna Link Name. Apesar
disso, o link ainda não foi incluído no mapa e isso é indicado na coluna Link on Map, preenchido com o valor no (Figura a
seguir). Nesse momento o botão Add Links fica habilitado e pode ser usado para adicionar no mapa todos os links que
estão marcados (na coluna Add Link) para serem incluídos.
www.datacom.ind.br - Apostila Versão 1.0
57
Verify Links
Existem duas janelas no DmView que mostram os links descobertos automaticamente por equipamentos
Metro Ethernet: Discovered Links e Verify Links. A primeira mostra todos os links descobertos e permite que
eles sejam adicionados ao mapa do DmView caso ainda não tenham sido adicionados. A segunda janela
apresenta todos os links descobertos e compara com os links existentes no mapa verificando se os links do
mapa são iguais aos links descobertos.
Para verificar os links descobertos automaticamente para um equipamento, basta selecioná-lo no mapa e
escolher no menu de contexto a opção Verify Links.
Na janela “Verify Links” é mostrada uma tabela com todos os links (do equipamento selecionado) que estão
no mapa – à esquerda – e todos os links que foram descobertos automaticamente – à direita. A cor da linha
indica o resultado da comparação entre os links descobertos e os links do mapa. A legenda de cores
mostrada abaixo da tabela explica as possíveis cores que cada linha pode ter.
A Figura mostra duas linhas na tabela e ambas na cor amarela, indicando que os dois links foram descobertos
pelo equipamento mas não estão adicionados no mapa do DmView. Para adicionar ao mapa,
automaticamente, o link descoberto pelo equipamento, deve-se utilizar a janela Discovered Links, exibida a
seguir. Para abrir essa janela, é necessário selecionar o equipamento desejado e no menu Edit (ou no menu
de contexto) escolher a opção Discover Links.

www.datacom.ind.br - Apostila Versão 1.0


58
É possível gerenciar os EDDs remotos sem a necessidade de configurá-los previamente. Basta conectar o EDD
ao equipamento e através do Dmview proceder com as configurações mostradas na figura.

Será necessário habilitar o protocolo OAM na porta onde o EDD estiver conectado.

www.datacom.ind.br - Apostila Versão 1.0


59
Adicione novamente o equipamento ao qual o EDD está conectado. Aparecerá o equipamento remoto. Clique
sobre ele e adicione o equipamento.
Adicione o link entre o EDD e o DmSwitch afim de montar a topologia. Posteriormente, será possível
aprovisionar serviços a partir do EDD.

www.datacom.ind.br - Apostila Versão 1.0


60
No provisionamento de EAPS e STP, explicados em capítulos posteriores desta apostila, são configurados
VLAN Groups no equipamento. Para isso, é necessário a definição prévia do VLAN Group na gerência. Essa
definição de um VLAN Group na gerência é chamada de profile, e existe para que os grupos possam ser
reutilizados.
As VLANs protegidas por EAPS e STP são, em geral, repetidas em diferentes topologias da rede Metro
Ethernet. Com os profiles, os grupos não precisam ser redefinidos a cada EAPS ou STP criado. O profile
precisa ser definido apenas uma vez na gerência e poderá ser utilizado quantas vezes for necessário para
indicar um grupo com as VLANs especificadas no provisionamento de EAPS e STP.
Na janela VLAN Group Profiles é apresentada uma tabela com todos os profiles definidos na gerência. Cada
profile possui apenas um nome que o identifica unicamente no DmView e um conjunto de VLANs que fazem
parte deste profile. Por padrão, a gerência possui um profile de grupo definido, que se chama All VLANs
Group. Todas as VLANs (1-4094) fazem parte deste profile.

www.datacom.ind.br - Apostila Versão 1.0


61
Os domínios L2, ou L2 Domains, agrupam os equipamentos da linha Metro Ethernet de acordo com a rede L2
na qual eles se encontram, quando os equipamentos estão operando em rede L2. Normalmente, os
equipamentos de um domínio L2 possuem algum mecanismo de proteção configurado (domínios EAPS ou
topologia STP) com VLANs pré-provisionadas nas portas internas desses recursos. A principal função dos
domínios L2 é evitar conflitos de VLAN entre diferentes circuitos Metro Ethernet, ou seja, a VLAN utilizada em
um equipamento como endpoint de um circuito não pode ser utilizada em um endpoint de outro circuito,
em qualquer equipamento que esteja no mesmo domínio L2. Os domínios L2 também influenciam
diretamente no cálculo da topologia dos circuitos Metro Ethernet, determinando quando deve
ser utilizada uma rede L3 para interligar os equipamentos. O capítulo posterior aborda circuitos Metro
Ethernet e apresenta mais detalhes sobre a importância dos domínios L2 na configuração de circuitos.
Outras duas verificações importantes são feitas em relação aos domínios L2. Um equipamento da linha Metro
Ethernet que não suporta configurações de rede L3/MPLS não pode ser utilizado em endpoints de circuitos.
Além disso, um equipamento não pode fazer parte de mais de um domínio L2 simultaneamente.

www.datacom.ind.br - Apostila Versão 1.0


62
A gerência Metro Ethernet permite o provisionamento do protocolo STP, para resiliência de redes L2. Para uso deste
recurso, é necessária licença Provisioning e o usuário deve possuir a permissão Metro Ethernet Network Provisioning.
Para criar uma topologia STP deve-se selecionar no mapa os equipamentos que farão parte da topologia e, no menu de
contexto escolher a opção STP Topology Configuration. Os links entre os equipamentos devem existir no mapa
topológico, devem ser únicos e formarem topologia em linha ou anel. Se não existir links ligando os equipamentos ou se
existir mais de um link entre os equipamentos selecionados, será mostrada mensagem indicando que não é possível criar
a topologia com os equipamentos selecionados. Nessa janela, o primeiro painel a ser preenchido é STP Global
Configuration, que possui dois campos: o primeiro campo é o nome da topologia STP provisionada e logo abaixo do
nome o usuário escolhe o tipo
de spanning-tree a ser configurado (STP, RSTP ou MSTP). Abaixo desse painel são configuradas as instâncias STP que
fazem parte da topologia. Se o tipo de topologia for STP ou RSTP, apenas uma instância pode ser definida e nesse caso a
instância deve proteger todas as VLANs. Se a escolha for por MSTP então múltiplas instâncias podem ser configuradas. O
painel de configuração de instância possui os mesmos campos para todas as instâncias
 Protected VLAN Groups: esse campo deve ser preenchido com o auxílio dos botões Add e Remove, para adicionar e
remover profiles de grupos que devem ser protegidos pela instância STP. Cada profile de grupo adicionado a este campo
representa um grupo de VLAN distinto no equipamento. Ao clicar sobre o botão Add é aberta a janela VLAN Group
Profiles, na qual deve-se escolher os grupos que se quer proteger. Nessa mesma janela é possível definir novos profiles de
grupos de VLANs.
 Mapped VLANs: Esse campo deve ser preenchido com um subconjunto das VLANs protegidas. Deve-se utilizar vírgula (,)
para separar as VLANs que se deseja mapear ou hífen (-) para indicar um intervalo de VLANs (2-4, por exemplo, é o
mesmo que 2, 3, 4). As VLANs indicadas nesse campo serão criadas no equipamento e mapeadas nas portas membro do
STP. Apenas VLANs mapeadas pelo recurso STP poderão ser usadas para a criação de circuitos Metro Ethernet sobre STP.
Existem dois botões para ajudar a preencher esse campo. O botão Copy for mapped VLANs copia as VLANs do(s) grupo(s)
protegido(s) selecionado(s) para o campo Mapped VLANs e o botão Remove unprotected VLANs remove do campo todas
as VLANs que não estão nos grupos protegidos. Ao utilizar qualquer um desses botões será apresentada mensagem ao
usuário informando quais VLANs foram inseridas ou removidas do campo Mapped VLANs. Mesmo após utilizar esses
botões, o campo pode ser editado livremente.
 Uma vez configurada a instância, ela pode ser copiada para servir como base de configuração de uma nova instância.
Para criar uma nova instância com base nos valores preenchidos na instância atual, pode-se utilizar o botão Copy instance
localizado no painel Add new instance (no canto superior direito da janela).

www.datacom.ind.br - Apostila Versão 1.0


63
O EAPS é um protocolo para proteção de tráfego em topologias Ethernet em anel. No DmView, ele pode ser
aprovisionado em anéis com equipamentos DmSwitch 3000 e DM4000 (lembrando que os links entre os equipamentos
precisam ser criados previamente no DmView).
Para criar um domínio EAPS, é necessário selecionar, no mapa topológico, um conjunto de equipamentos que forme um
anel. A janela de configuração permite a criação de 2 domínios EAPS no anel, cada um protegendo metade das VLANs,
por exemplo. Para criar apenas 1 domínio, deve-se desmarcar a opção Create 2 Domains. Nos painéis EAPS Domain 1 e
EAPS Domain 2, deve-se definir nome do domínio, os campos Hello timer e Fail timer, qual o equipamento Master, e
selecionar o grupo de VLANs a proteger. Caso ainda não exista o grupo desejado, basta clicar em NEW e definir as opções
para criar o novo grupo de VLANs. Após, clique no botão select para selecionar o grupo.
Feitas estas configurações, pode-se usar o botão Next, que levará ao passo final, em que um resumo das configurações e
portas selecionadas é exibido, e em que se pode definir as VLANs de controle a usar nos domínios.
Após a criação de 1 ou 2 domínios EAPS no anel, cada domínio é gerenciado individualmente no sistema. Os domínios
podem ser editados ou removidos a partir da opção View EAPS Domains, no menu de contexto dos equipamentos no
mapa. Abaixo opções importantes que devem ser passadas para a configuração do protocolo.
 Master device: deve-se escolher qual equipamento do anel deve ser configurado como master do domínio.
 Master´s primary port: permite selecionar a porta primária. Ao clicar em "Next", se estiverem sendo criados dois
domínios e, pela seleção de portas primárias de seus respectivos master, os dois estiverem bloqueando o mesmo link, será
exibida uma mensagem de confirmação para o usuário.
 Protected VLAN Groups: esse campo deve ser preenchido com o auxílio dos botões Add e Remove, para adicionar e
remover profiles de grupos que devem ser protegidos pelo domínio EAPS. Cada profile de grupo adicionado a este campo
representa um grupo de VLAN distinto no equipamento. Ao clicar sobre o botão Add é aberta a janela VLAN Group
Profiles na qual deve-se escolher os grupos que se quer proteger no domínio. Nessa mesma janela é possível definir novos
profiles de VLAN Groups.
 Mapped VLANs: Esse campo deve ser preenchido com um subconjunto das VLANs protegidas do domínio. Deve se
utilizar vírgula (,) para separar as VLANs que deseja mapear ou hífen (-) para indicar um intervalo de VLANs (2-4, por
exemplo, é o mesmo que 2, 3, 4). As VLANs indicadas nesse campo serão criadas no equipamento e mapeadas nas portas
de uplink. Apenas VLANs mapeadas pelo provisionamento de EAPS poderão ser usadas para a criação de circuitos Metro
Ethernet sobre EAPS. Existem dois botões para ajudar a preencher esse campo. O botão Copy for mapped VLANs copia as
VLANs do(s) grupo(s) protegido(s) selecionado(s) para o campo Mapped VLANs e o botão Remove unprotected VLANs
remove do campo todas as VLANs que não estão nos grupos protegidos. Ao utilizar qualquer um desses botões será
apresentada mensagem ao usuário informando quais VLANs foram inseridas ou removidas do campo Mapped VLANs.
Mesmo após utilizar esses botões, o campo pode ser editado livremente.
www.datacom.ind.br - Apostila Versão 1.0
64
Além da criação de anéis EAPS, o DmView também disponibiliza a importação de anéis EAPS previamente
configurados na rede, através da opção Import EAPS Domains Clicando sobre cada equipamento pertencente
ao anel configurado, clique com botão da direita do mouse. Além disso, a inserção ou remoção de
equipamentos em anéis EAPS pode ser realizada, de forma que a configuração do equipamento inserido ou
removido é realizada automaticamente pela gerência, conforme os parâmetros dos domínios EAPS em
questão.
Para adicionar um equipamento novo a um dominio de EAPS já criado, basta clicar sobre o equipamento com
o botão direito do mouse, selecionar a opção Select Device To Insert In Topology, posteriormente, clique no
link onde este equipamento será inserido e novamente clique com o botão direito do mouse e selecione a
opção Insert Device In Topology.

www.datacom.ind.br - Apostila Versão 1.0


65
Para configurar um novo circuito, selecione os equipamentos que farão parte deste, clique com o botão direito do mouse
e selecione a opção Add Metro Circuit. Para edição e remoção de circuitos existentes na rede, o acesso se dá
através do menu Tools => Search => Metro Circuits.
A janela de configuração disponibiliza várias abas para definição dos parâmetros do circuito. As abas existentes são:
General: configurações gerais de cadastro, como nome, cliente, serviço oferecido ao cliente, etc.
Endpoints: configuração dos endpoints, explicada nesta seção.
L3 Network: configurações de rede L3.
Path: visualização do caminho do circuito.
Comments: campos livres para comentários.
Pode-se visualizar a aba endpoints, com um endpoint sendo criado, e outro já salvo. As operações sobre circuitos são
executadas na base de dados e na rede através dos botões Remove e Save na parte inferior da janela.
Os botões Add, Edit e Remove podem ser usados para editar endpoints. Os botões Search e Show All podem ser usados
para facilitar a visualização quando há muitos endpoints configurados.
O botão Update Path é usado para atualizar a topologia do circuito. Sempre que for feita uma alteração nos endpoints, é
necessário requisitar a atualização da topologia através deste botão. Quando os endpoints do circuito estiverem em L2
Domains diferentes, as configurações L3 são disponibilizadas na aba L3 Network.
Na janela Endpoint Configuration, acessível a partir dos botões Add e Edit, um equipamento pode ser procurado na rede
através do botão Search. Quando a janela é acessada diretamente através de um equipamento na mapa, a configuração
de endpoint já abre com o equipamento selecionado. A interface física desejada deve ser selecionada através dos campos
Unit e Port.
O painel Config varia conforme o equipamento selecionado. Caso seja um DATACOM, no painel VLAN, pode ser
selecionado o VLAN ID e se o mesmo será associado a porta como Tagged ou Untagged. No painel QiQ, pode-se
selecionar se o modo de Double Tagging da porta deve ser External ou Internal. Caso o equipamento seja um Juniper,
configura-se o VLAN ID, e, caso se queira selecionar diretamente a porta física, pode-se desmarcar a opção Define VLAN
ID.

www.datacom.ind.br - Apostila Versão 1.0


66
Na aba Endpoints, os botões Add, Edit e Remove são utilizados para editar os endpoints. Já os botões Search e Show All
são úteis para a visualização de circuitos multiponto com muitos endpoints configurados. Ao clicar no botão Search, é
exibido um diálogo que permite filtrar os endpoints exibidos na tabela. Uma vez feita a busca, passam a ser exibidos na
base da tabela o número total de endpoints do circuito e o número de endpoints que estão sendo visualizados. Para
voltar a exibir todos os endpoints, deve-se clicar no botão Show All.
Ainda nessa aba, o botão Update Path é utilizado para atualizar a topologia do circuito. Sempre que for feita uma
alteração nos endpoints, é necessário requisitar a atualização da topologia através desse botão. A topologia do circuito,
calculada automaticamente pelo DmView, pode ser visualizada na aba Path e, quando os endpoints do circuito estiverem
em domínios L2 diferentes, as configurações L3/MPLS são disponibilizadas na aba L3 Network.
Quando a janela é acessada diretamente através de um equipamento no mapa, é exibido automaticamente o diálogo
Endpoint Configuration com o equipamento selecionado para a configuração do endpoint. Esse diálogo, que também
pode ser acessado através dos botões Add e Edit na aba Endpoints, é apresentado na figura abaixo. O botão Search desse
diálogo pode ser utilizado para a seleção do equipamento, o qual também pode ser arrastado a partir do mapa e largado
sobre o diálogo.
Os campos Unit e Port são utilizados para a seleção da porta do equipamento na qual será criado o endpoint. Ao lado do
campo Port encontra-se o botão Enable que pode ser utilizado para habilitar ou desabilitar a porta durante o processo de
ativação do circuito. O botão View Metro Ethernet Circuits permite a visualização de outros circuitos configurados na
mesma porta (a configuração de mais de um endpoint em uma mesma porta só é possível para endpoints configurados
com VLAN Membership Tagged e Double Tagging Mode Internal).

www.datacom.ind.br - Apostila Versão 1.0


67
A ferramenta para busca de circuitos Metro Ethernet permite que sejam encontrados os circuitos criados na
gerência, os quais podem ser posteriormente visualizados, editados ou removidos através da janela de
configuração de circuitos. O acesso a essa ferramenta de busca se dá através do menu Tools => Search =>
Metro Ethernet Circuits ou através do botão Search Metro Ethernet Circuits na barra de ferramentas da
Network Manager. A figura abaixo apresenta a ferramenta de busca com um circuito selecionado.

www.datacom.ind.br - Apostila Versão 1.0


68
www.datacom.ind.br - Apostila Versão 1.0
69
O MPLS (Multiprotocol Label Switching) é um protocolo de roteamento baseado em pacotes rotulados, onde
cada rótulo representa um índice na tabela de roteamento do próximo roteador. Pacotes com o mesmo
rótulo e mesma classe de serviço são indistinguíveis entre si e por isso recebem o mesmo tipo de tratamento.
O objetivo de uma rede MPLS não é o de se conectar diretamente a sistemas finais. Ao invés disto ela é uma
rede de trânsito, transportando pacotes entre pontos de entrada e saída.
Ele é chamado de multiprotocolo pois pode ser usado com qualquer protocolo da camada 3, apesar de quase
todo o foco estar voltado ao uso do MPLS com o IP.
Este protocolo é na verdade um padrão que foi feito com base em diversas tecnologias similares
desenvolvidas por diferentes fabricantes. Ele ´e referenciado pelo IETF como sendo uma camada
intermediária entre as camadas 2 e 3.

www.datacom.ind.br - Apostila Versão 1.0


70
LER (Label Edge Router)
São os roteadores de borda dentro do domínio MPLS. Também demoninado de roteador PE (Provider Edge).
Adiciona cabeçalho MPLS quando um pacote ingressa no domínio MPLS (pushing). Remove cabeçalho MPLS
quando um pacote deixa o domínio MPLS (poping) e faz o roteamento do pacote.
São os únicos pontos de entrada e saída no domínio MPLS

LSR (Label Switch Router)


Tomam decisão de encaminhamento exclusivamente baseado em labels. Inspeciona o label de entrada e
mapeia em label de saída (Incoming Label Map ou ILM) sem considerar as informacões encapsuladas. Pode
exercer a função especial de Penultimate-Hop-Poping (PHP).

LSP (Label Switch Path)


E um caminho unidirecional contínuo em um domínio MPLS. Pode ser representado por todos os nós da rede
e pela sequência de labels que são utilizados para encaminhar o tráfego entre cada nó.
Perceba que um LER, ao encaminhar um determinado tráfego de pacotes com o mesmo label de saída,
determina ainda na entrada da rede MPLS qual LSP o trafego deverá tomar.

www.datacom.ind.br - Apostila Versão 1.0


71
FEC (Forwarding Equivalent Class)
Uma Forwarding Equivalence Class (FEC) é um grupo de pacotes que são encaminhados do mesmo modo. A regra de formação de uma
FEC pode ser baseada, por exemplo, no endereço IP de destino, ou ainda na porta pela qual os pacotes foram recebidos pelo LER.
NHLFE (Next Hop Label Forwarding Entry)
Uma Next Hop Label Forwarding Entry (NHLFE) ´e utilizada para encaminhar pacotes com label MPLS.
Diferentemente do roteamento baseado no endere¸camento IP, o pr´oximo salto para um LSR representa não apenas interface de saída e
endereço MAC (para o caso de Ethernet) mas também a operação a ser executada sobre a pilha de labels MPLS que encapsula o pacote.
Elas podem ser:
• retirada do label e posterior encaminhamento via roteamento IP;
• substituição de label;
• substituição de label mais inserção de um segundo label;
FTN (FEC-to-NHLFE Map)
Para que o tr´afego seja encaminhado via um LSP, é necessário que no LER exista um mapeamento entre FEC e uma NHLFE. Assim, os
pacotes que chegam sem label MPLS são mapeados em uma FEC. Posteriormente, a tabela de FTNs é consultada para se obter uma
NHLFE, que então definirá como encaminhar o pacote após rotulá-lo com um ou mais labels MPLS.
PHP (Penultimate Hop Poping)
E um papel especial que pode ser designado ao penúltimo roteador de um LSP. Consiste em fazer a operação de remoção de label
(poping) antes de entregar os pacotes para o LER.
Permite maior escalabilidade em redes MPLS uma vez que diminui o número de ILMs necessárias em um roteador de borda.
Utiliza labels especiais:
0 (Explicit-Null)
3 (Implicit-Null).
Quando o LER escolher implicit-null, nenhum label precisa ser adicionado ao pacote (tadavia o pacote pode conter outros labels MPLS
que não devem ser removidos). O label ”3”´e um label reservado e tem significado apenas para os protocolos de divulgação de labels
(LDP, RSVP). Um pacote nunca poderá ser encaminhado com este label.
Ao utilizar explicit-null, o penúltimo roteador deve verificar se o pacote possui ou não outros labels. Caso não haja nenhum outro label, o
LSR deve incluir um cabeçaalho MPLS com label igual a ”zero”. Este label tem por finalidade propagar o valor do campo EXP até o LER
para fins de QoS.
ILM (Incoming Label Mapping)
A ILM mapea cada label de entrada a uma NHLFE. Ela é utilizada para o encaminhamento de pacotes que chegam rotulados.
Quando a ação da NHLFE for ”substituir label”, diz-se que a o LSR realiza label swapping.

www.datacom.ind.br - Apostila Versão 1.0


72
Layer 2 Virtual Private Network – L2VPN
L2VPN, também conhecido por Pseudowire Emulation End-to-End (PWE3), é um grupo de soluções usadas para transportar tráfego
ethernet de forma transparente sobre uma rede comutada por pacotes. Para os casos em que os clientes são conectados à rede MPLS
através da Metro Ethernet, os pacotes são encaminhados na rede MPLS de acordo com critérios como porta de entrada ou VLAN de
entrada no LER, considerando ou não o endereço MAC de destino dos pacotes.
A implantação dos serviços de L2VPN na rede MPLS se divide em duas etapas: provisionamento da infraestrutura MPLS (túnel ou LSP
que conecta os LERs ingress e egress), e provisionamento dos circuitos virtuais.
A criação de túneis ou LSPs fica a cargo dos protocolos RSVP e LDP, aliados ao IGP da rede (OSPF ou IS-IS). Com RSVP pode-se também
empregar mecanismos de proteção local (Fast Reroute), proteção de caminho e traffic engineering.
As L2VPNs se dividem em dois tipos: Virtual Private Wire Service (VPWS) e Virtual Private LAN Service (VPLS). Enquanto VPWS
implementa circuitos ponto-a-ponto, VPLS permite a comunicação multiponto-multiponto (e suas variações).
Numa topologia que implementa uma L2VPN existem os CEs (Custmer Edge equipment) localizados no cliente e os PEs (Provider Edge
equipement) que estão localizados na borda da rede MPLS. A conexão entre um CE e um PE se faz através de um Attachment Circuit (AC)
o qual pode ser uma VLAN através de uma rede Metro Ethernet.
Na rede MPLS, os diversos PEs envolvidos em uma instância L2VPN (seja ela VPLS ou VPWS) são interconectados dois a dois por um
Pseudo Wire (PW), um para cada VPN. Apesar de um PW poder ser entendido como um ”circuito ponto-a-ponto”entre dois PEs, ele não
deve ser confundido com um LSP. Dois PEs podem ter múltiplos PW em comum e todos trafegam sobre um LSP (criado a priori via LDP
ou RSVP). Para cada PW os PEs atribuem um VC Label - um label MPLS que é encapsulado pelos labels do LSP e que identificam para o PE
egress a VPN a qual o pacote pertence.
VPWS (Virtual Private Wire Service)
Em um PE a relação entre AC e PW é 1:1 pois VPWS implementa circuitos ponto-a-ponto apenas. Isso implica em poucos problemas de
escalabilidade uma vez que todos os pacotes recebidos por um AC são encaminhados sem distinção por um PW e vice-versa. Análise dos
pacotes é feita apenas quando existe a necessidade de priorização de tráfego, com mapeamento entre DSCP e EXP.
VPLS (Virtual Private LAN Service)
Porque VPLS implementa circuitos multiponto-multiponto, a relação entre ACs e PWs pode ser N:N. Esse caráter traz maiores problemas
de escalabilidade pois são necessários o aprendizado e manutenção de endereços MAC. Para gerenciar múltiplos ACs e PWs, cada PE
utiliza uma Virtual Forwarding Instance (VFI), única para cada instância VPLS, a qual mantém a tabela MAC da VPN. Perceba que o
destino de um determinado MAC pode ser um AC ou um PW.
Apesar de suportar VPNs multiponto-multiponto, VPNs ponto-multiponto são bastante frequentes, geralmente para atender clientes com
um site central e várias filiais. Esta configuração ameniza problemas de escalabilidade nos PEs das filiais, uma vez que neles existem
apenas um PW. Para atender estes casos e VPNs que crescem continuamente com a constante inclusão de PEs, utiliza-se Hierarchical
VPLS, ou hub-and-spoke.
H-VPLS (hub and spoke)
Em uma Hierarchical VPLS usa-se a topologia ”hub-and-spoke”. Um PE possue N PWs e é capaz de fazer o papel de hub na VPN,
mantendo uma tabela de endereçoss MAC aprendidos na VPN. Com este hub existem PEs que possuem apenas um PW e falam somente
com o hub, os quais fazem o papel de ”spoke”. Caso haja um tráfego entre dois PEs ”spoke”, ele é encaminhado através do PE de hub.
Este método é conhecido por Hierárquico pois pode-se criar uma topologia com múltiplos hubs conectados entre si, cada um agregando
múltiplos spoke. Este modelo tem maior escalabilidade em comparação com o modelo full-mesh pois ao adicionar um novo PE a uma
grande VPN, exige-se a criação de um LSP entre spoke e hub, em vez de um LSP com cada PE participante da VPN.

www.datacom.ind.br - Apostila Versão 1.0


73
Layer 3 Virtual Private Network – L3VPN
A L3VPN, também conhecida como MPLS IP VPN, é a aplicação que melhor representa a tecnologia MPLS, co
mbinando as vantagens da sinalização BGP às características de isolamento de tráfego e suporte à VRFs (VPN
Routing and Forwarding) do MPLS.
Como o próprio nome já define, possibilita a criação de VPNs baseadas em IP. Tal característica traduz-se no
compartilhamento das tabelas de roteamento
entre os PEs e CEs pertencentes à VPN, fornecendo conectividade IP entre as bordas de forma transparen
te ao core da rede.
A configuração do serviço de L3VPN se divide em 4 etapas: criação da VRF, ativação da VRF na VLAN de acess
o, configuração do MP-BGP e configuração do IBGP.

www.datacom.ind.br - Apostila Versão 1.0


74
www.datacom.ind.br - Apostila Versão 1.0
75

Você também pode gostar