Você está na página 1de 221

2

CAPITULO 01 - Introdução ao Roteamento Classless

Visão Geral

Os administradores de redes precisam antecipar e gerenciar o crescimento físico das redes.


Isso poderá levar à compra ou aluguel de outro andar do prédio para equipamentos de rede
tais como racks, patch panels, switches e roteadores. Os projetistas de redes precisam
escolher esquemas de endereçamento que permitam o crescimento. Variable-length subnet
mask (VLSM), ou seja, máscara de sub-rede de tamanho variável, é usada para criar
esquemas de endereçamento eficientes e escaláveis.

Quase todas as empresas precisam implementar um esquema de endereços IP. Muitas


organizações selecionam TCP/IP como o único protocolo para executar em suas redes.
Infelizmente, os idealizadores do TCP/IP não previram que esse protocolo acabaria
sustentando uma rede global de informações, comércio e entretenimento.

O IP versão 4 (IPv4) ofereceu uma estratégia de endereçamento que, embora fosse escalável
durante certo tempo, resultou em uma alocação ineficiente de endereços. O IPv4 poderá logo
ser substituído pelo IP versão 6 (IPv6) como o protocolo dominante da Internet. O IPv6 possui
espaço de endereçamento virtualmente ilimitado e a sua implementação já começou em
algumas redes. Ao longo das últimas duas décadas, os engenheiros modificaram o IPv4, de
modo que ele possa sobreviver ao crescimento exponencial da Internet. A VLSM é uma das
modificações que tem ajudado a preencher a lacuna entre IPv4 e IPv6.

As redes precisam ser escaláveis, já que as necessidades dos usuários evoluem. Quando uma
rede é escalável, ela pode crescer de maneira lógica, eficiente e econômica. O protocolo de
roteamento usado em uma rede ajuda a determinar a escalabilidade da rede. É importante
escolher com prudência o protocolo de roteamento. O Routing Information Protocol versão 1
(RIP v1) serve bem para redes pequenas. No entanto, ele não é escalável para comportar
redes grandes. O RIP versão 2 (RIP v2) foi elaborado para superar essas limitações.

Este módulo cobre alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Definir VLSM e descrever resumidamente as razões para a sua utilização.


• Dividir uma rede de grande porte em sub-redes de tamanhos diferentes usando VLSM.
• Definir a agregação e resumo de rotas em relação ao VLSM.
• Configurar um roteador usando VLSM.
• Identificar as características mais importantes do RIP v1 e RIP v2.
• Identificar as diferenças importantes entre RIP v1 e RIP v2.
• Configurar o RIP v2.
• Verificar, identificar e resolver problemas na operação do RIP v2.
• Configurar rotas padrão, usando os comandos ip route e ip default-network.

1.1 VLSM
1.1.1 O que é VLSM e por que ele é usado

Com o crescimento das sub-redes IP, os administradores têm procurado maneiras de usar o
seu espaço de endereços com mais eficiência. Esta página introduz uma técnica chamada
VLSM. Com VLSM, um administrador de rede pode usar uma máscara longa em redes com
poucos hosts, e uma máscara curta em sub-redes com muitos hosts.

3
Para implementar VLSM, um administrador de rede precisa usar um protocolo de roteamento
que o suporte. Os roteadores Cisco suportam VLSM com Open Shortest Path First (OSPF) IS-
IS Integrado, Enhanced Interior Gateway Routing Protocol (EIGRP), RIP v2 e roteamento
estático.

VLSM permite que uma organização utilize mais de uma máscara de sub-rede dentro do
mesmo espaço de endereço de rede. A implementação de VLSM maximiza a eficiência dos
endereços e freqüentemente é chamada de criação de sub-redes em uma sub-rede.

Os protocolos de roteamento classless exigem que uma rede utilize a mesma máscara de sub-
rede. Por exemplo, uma rede com um endereço 192.168.187.0 pode usar somente uma
máscara de sub-rede, tal como 255.255.255.0.

4
Um protocolo de roteamento que permite VLSM libera o administrador para usar diferentes
máscaras de sub-rede para redes dentro de um único sistema autônomo.

A Figura mostra um exemplo de como um administrador de rede pode usar uma máscara de 30
bits para conexões de redes, uma máscara de 24 bits para redes de usuários e até uma
máscara de 22 bits para redes de até 1000 usuários.

A próxima página tratará de esquemas de endereçamento para redes.

1.1.2 Desperdício de endereços

Esta página explicará como certos esquemas de endereçamento podem desperdiçar espaço
de endereços.

No passado, não era aconselhável usar a primeira e a última sub-redes. A utilização da


primeira sub-rede, conhecida como sub-rede zero, era desencorajada por causa da confusão
que poderia ocorrer se uma rede e uma sub-rede tivessem o mesmo endereço. Isso também
se aplicava à utilização da última sub-rede, conhecida como sub-rede all-ones (totalmente de
uns). Com a evolução das tecnologias de redes e com o esgotamento dos endereços IP, a
utilização da primeira e última sub-rede tornou-se uma prática aceitável em conjunto com
VLSM.

5
Na Figura , a equipe de gerenciamento da rede emprestou três bits da porção host de um
endereço Classe C, que foi selecionado para esse esquema de endereços. Se a equipe optar
por usar a sub-rede zero, haverá oito sub-redes utilizáveis. Cada sub-rede pode suportar 30
hosts. Se a equipe optar por usar o comando no ip subnet-zero, haverá sete sub-redes
utilizáveis com 30 hosts em cada sub-rede. Os roteadores com o Cisco IOS versão 12.0 ou
posterior usam a sub-rede zero por default.

Na Figura , os escritórios remotos Sydney, Brisbane, Perth e Melbourne podem ter 30 hosts
cada um. A equipe reconhece que será necessário endereçar os três links WAN ponto-a-ponto
entre Sydney, Brisbane, Perth e Melbourne. Se a equipe utilizar as últimas três sub-redes para
os links WAN, todos os endereços disponíveis serão utilizados e não haverá espaço para
crescimento. A equipe também terá desperdiçado os 28 endereços de host de cada sub-rede
só para endereçar três redes ponto-a-ponto. Esse esquema de endereçamento desperdiça um
terço do espaço de endereços em potencial.

Tal esquema de endereços é aceitável para uma rede local pequena. No entanto, ele gera
muito desperdício se forem usadas conexões ponto-a-ponto.

6
A próxima página explicará como VLSM pode ser usado para evitar o desperdício de
endereços.

1.1.3 Quando usar VLSM

É importante projetar um esquema de endereços que permita o crescimento e que não


desperdice endereços. Esta página examina como VLSM pode ser usado para evitar o
desperdício de endereços em links ponto-a-ponto.

Conforme indica a Figura , a equipe de gerenciamento da rede decidiu evitar o desperdício da


utilização da máscara /27 nos links ponto-a-ponto. A equipe aplica VLSM para cuidar do
problema.

Para aplicar VLSM ao problema de endereços, a equipe divide o endereço Classe C em sub-
redes de vários tamanhos. Sub-redes grandes são criadas para redes locais. Sub-redes muito
pequenas são criadas para links WAN e para outros casos especiais. Uma máscara de 30 bits
é utilizada para criar sub-redes com apenas dois endereços de host válidos. Esta é a melhor
solução para conexões ponto-a-ponto. A equipe tomará uma das três sub-redes que
anteriormente decidiu designar para links WAN e a dividirá novamente em sub-redes com uma
máscara de 30 bits.

No exemplo, a equipe tomou uma das últimas três sub-redes, a sub-rede 6, e a dividiu outra
vez em sub-redes. Desta vez, a equipe utiliza uma máscara de 30 bits.

7
As Figuras e ilustram que, depois de utilizar VLSM, a equipe dispõe de oito conjuntos de
endereços para serem usados para os links ponto-a-ponto.

A próxima página ensinará os alunos a calcular sub-redes com VLSM.

1.1.4 Cálculo de sub-redes com VLSM

VLSM ajuda a gerenciar endereços IP. Esta página explicará como usar VLSM para definir
máscaras de sub-rede que atendam aos requisitos do link ou segmento. Uma máscara de sub-
rede deve satisfazer aos requisitos de uma rede local com uma máscara de sub-rede e aos
requisitos de uma WAN ponto-a-ponto com outra.

8
O exemplo na Figura mostra uma rede que carece de um esquema de endereços.

O exemplo contém um endereço Classe B 172.16.0.0 e duas redes locais que exigem um
mínimo de 250 hosts cada uma. Se os roteadores usarem um protocolo de roteamento
classless, o link WAN precisará ser uma sub-rede da mesma rede Classe B. Os protocolos de
roteamento classful, tais como RIP v1, IGRP e EGP não suportam VLSM. Sem VLSM, o link
WAN precisaria da mesma máscara de sub-rede dos segmentos das redes locais. Uma
máscara de 24 bits de 255.255.255.0 pode suportar 250 hosts.

Um link WAN precisa apenas de dois endereços, um para cada roteador. Isso resulta em 252
endereços desperdiçados.

9
Se for usado o VLSM, uma máscara de 24 bits ainda seria aplicada nos segmentos LAN para
os 250 hosts. Uma máscara de 30 bits poderia ser usada para o link WAN, porque são
necessários apenas dois endereços de host.

A Figura mostra onde os endereços da sub-rede podem ser aplicados com base no número de
hosts exigidos. Os links WAN usam endereços de sub-rede com um prefixo de /30. Esse
prefixo comporta apenas dois endereços de host, que é exatamente o suficiente para a
conexão ponto-a-ponto entre os dois roteadores.

Na Figura , os endereços de sub-rede utilizados serão gerados quando a sub-rede


172.16.32.0/20 for dividida em sub-redes /26.

Para calcular os endereços de sub-rede usados nos links WAN, subdivida em novas sub-redes
uma das sub-redes /26 não usadas. Nesse exemplo, 172.16.33.0/26 é subdividida em novas
sub-redes com um prefixo /30. Isso fornece mais quatro bits de sub-rede e, portanto, 16 (24)
sub-redes para as WANs. A Figura ilustra como lidar com um sistema VLSM.

VLSM pode ser usado para dividir em sub-redes um endereço já dividido em sub-redes. Por
exemplo, considere o endereço de sub-rede 172.16.32.0/20 e uma rede que precisa de dez
endereços de host. Com esse endereço de sub-rede, existem 212 – 2 ou seja 4094 endereços
de host, a maioria dos quais será desperdiçada. Com VLSM, é possível dividir 172.16.32.0/20
em sub-redes para criar mais endereços de rede com um número menor de hosts por rede.
Quando 172.16.32.0/20 é dividido em 172.16.32.0/26, há um ganho de 26 ou seja 64 sub-redes.
Cada sub-rede pode suportar 26 – 2, ou seja 62 hosts.

Use as seguintes etapas para aplicar VLSM a 172.16.32.0/20:

10
Etapa 1 Escreva 172.16.32.0 em forma binária.

Etapa 2 Trace uma linha vertical entre o 20o e o 21o bits, conforme indicado na Figura . O limite
original da sub-rede foi /20.

Etapa 3 Trace uma linha vertical entre o 26o e o 27o bits, conforme indicado na Figura . O limite
original da sub-rede /20 é estendido mais seis bits à direita, o que resulta em /26.

Etapa 4 Calcule os 64 endereços de sub-rede com os bits entre as duas linhas verticais, do
menor para o maior valor. A figura mostra as primeiras cinco sub-redes disponíveis.

É importante lembrar-se de que somente sub-redes não utilizadas podem ser ainda divididas
em sub-redes. Se qualquer endereço de uma sub-rede for usado, essa sub-rede não poderá
ser dividido mais em sub-redes.

Na Figura , quatro números de sub-rede são usados nas redes locais. A sub-rede
172.16.33.0/26 não utilizada é subdividida em novas sub-redes para serem usadas nos links
WAN.

A Atividade de Laboratório ajudará os alunos a calcularem sub-redes VLSM.

A próxima página descreverá a agregação de rotas

1.1.5 Agregação de rotas com VLSM

Esta página explicará as vantagens da agregação de rotas com VLSM.

Quando VLSM for usado, é importante manter os números de sub-rede agrupados na rede
para permitir a agregação. Por exemplo, redes como 172.16.14.0 e 172.16.15.0 devem estar
perto uma da outra para que os roteadores possam transportar uma rota para 172.16.14.0/23.

11
A utilização de classless interdomain routing (CIDR) e VLSM impede o desperdício de
endereços e promove a agregação ou resumo de rotas. Sem o resumo de rotas, o roteamento
do backbone da Internet provavelmente teria entrado em colapso antes de 1997.

A Figura ilustra como o resumo de rotas reduz a carga ao longo do fluxo entre os roteadore.
Esta hierarquia complexa de redes e sub-redes de tamanhos variáveis é resumida em vários
pontos com um endereço de prefixo, até que toda a rede seja anunciada como uma só rota
agregada de 200.199.48.0/20. O resumo de rotas, ou super-rede, só será possível se os
roteadores de uma rede utilizarem um protocolo de roteamento classless tal como OSPF ou
EIGRP. Os protocolos de roteamento classless transportam um prefixo que consiste em um
endereço IP e uma máscara de bits, de 32 bits nas atualizações de roteamento. Na Figura , a
rota resumida que eventualmente chega ao provedor contém um prefixo de 20 bits comum a
todos os endereços dentro da organização. Esse endereço é 200.199.48.0/20 ou
11001000.11000111.0011. Para que o resumo funcione, os endereços precisam ser
cuidadosamente designados de maneira hieráquica de modo que os endereços resumidos
compartilhem os bits de ordem superior.

A seguir, temos regras importantes que devem ser lembradas:

• Um roteador precisa saber em detalhes os números de sub-redes a ele conectadas.


• Um roteador não precisa informar a outros roteadores sobre cada sub-rede se o
roteador puder enviar uma rota agregada para um conjunto de rotas.
• Um roteador que utiliza rotas agregadas possui um menor número de entradas na sua
tabela de roteamento.

VLSM aumenta a flexibilidade do resumo de rotas porque utiliza os bits de ordem superior
compartilhados à esquerda, mesmo que as redes não sejam contíguas.

12
A Figura mostra que os endereços compartilham os primeiros 20 bits. Esses bits estão em
vermelho. O 21o bit não é o mesmo para todos os roteadores. Portanto, o prefixo para a rota
resumida terá 20 bits de comprimento. Isso é usado para calcular o número de rede da rota
resumida.

A Figura mostra que os endereços compartilham os primeiros 21 bits. Esses bits estão em
vermelho. O 22o bit não é o mesmo para todos os roteadores. Portanto, o prefixo para a rota
resumida terá 21 bits de comprimento. Isso é usado para calcular o número de rede da rota
resumida.

A próxima página ensinará os alunos a configurar o VLSM.

1.1.6 Configurando a VLSM

Esta página ensinará aos alunos como calcular e configurar corretamente VLSM.

A seguir, temos cálculos de VLSM para as redes locais apresentadas na Figura :

13
• Endereço de rede: 192.168.10.0
• O roteador Perth precisa suportar 60 hosts. Isso significa que serão necessários pelo
menos seis bits na porção host do endereço. Seis bits resultarão em 26 – 2, ou seja, 62
possíveis endereços de host. A conexão de rede local do roteador Perth recebe a
designação da sub-rede 192.168.10.0/26.
• Os roteadores Sydney e Singapore precisam suportar 12 hosts cada um. Isso significa
que serão necessários pelo menos quatro bits na porção host do endereço. Quatro bits
resultarão em 24 – 2, ou seja, 14 possíveis endereços de host. Para a conexão de rede
local do roteador Sydney, é designada a sub-rede 192.168.10.96/28 e para a conexão
da rede local do roteador Singapore é designada a sub-rede 192.168.10.112/28.
• O roteador KL precisa suportar 28 hosts. Isso significa que serão necessários pelo
menos cinco bits na porção host do endereço. Cinco bits resultarão em 25 – 2, ou seja,
30 possíveis endereços de host. A conexão de rede local do roteador KL recebe a
designação da sub-rede 192.168.10.64/27.

A seguir, temos cálculos de VLSM para as conexões ponto-a-ponto na Figura :

• A conexão entre Perth e Kuala Lumpur requer apenas dois endereços de host. Isso
significa que serão necessários pelo menos dois bits na porção host do endereço. Dois
bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre
Perth e Kuala Lumpur recebe a designação da sub-rede 192.168.10.128/30.
• A conexão entre Sydney e Kuala Lumpur requer apenas dois endereços de host. Isso
significa que serão necessários pelo menos dois bits na porção host do endereço. Dois
bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre
Sydney e Kuala Lumpur recebe a designação da sub-rede 192.168.10.132/30.
• A conexão entre Singapore e Kuala Lumpur requer apenas dois endereços de host.
Isso significa que serão necessários pelo menos dois bits na porção host do endereço.
Dois bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre
Singapura e Kuala Lumpur recebe a designação da sub-rede 192.168.10.136/30.

14
A seguinte configuração é para a conexão ponto-a-ponto entre Singapura e KL.

Singapore(config)#interface serial 0
Singapore(config-if)#ip address 192.168.10.137 255.255.255.252
KualaLumpur(config)#interface serial 1
KualaLumpur(config-if)#ip address 192.168.10.138 255.255.255.252

Esta página conclui a lição. A próxima lição tratará de RIP. A primeira página descreve RIP v1

1.2 RIP Versão 2


1.2.1 Histórico do RIP

Esta página explicará as funções e limitações do RIP.

A Internet é uma coleção de sistemas autônomos (ASs). Cada AS possui uma tecnologia de
roteamento que pode ser diferente da utilizada em outros sistemas autônomos. O protocolo de
roteamento usado dentro de um AS é chamado Interior Gateway Protocol (IGP). Um protocolo
diferente usado para transferir informações de roteamento entre sistemas autônomos é
chamado Exterior Gateway Protocol (EGP). RIP foi projetado para funcionar como IGP em um
AS de tamanho moderado. Não é próprio para utilização em ambientes mais complexos.

15
RIP v1 é considerado um IGP classful. RIP v1 é um protocolo vetor de distância, que envia em
broadcast toda a tabela de roteamento para cada roteador vizinho a intervalos
predeterminados. O intervalo padrão é de 30 segundos. RIP usa a contagem de saltos como
métrica, sendo 15 o número máximo de saltos.

Se o roteador receber informações sobre uma rede e a interface por onde se recebe
informações pertencer à mesma rede mas em sub-rede diferente, o roteador aplicará a
máscara de sub-rede que está configurada na interface por onde a informação foi recebida.

• Para endereços Classe A, a máscara classful padrão é 255.0.0.0.


• Para endereços Classe B, a máscara classful padrão é 255.255.0.0.
• Para endereços Classe C, a máscara classful padrão é 255.255.255.0.

RIP v1 é um protocolo de roteamento muito utilizado porque virtualmente todos os roteadores o


suportam. A larga aceitação de RIP v1 deve-se à simplicidade e à compatibilidade universal
que ele oferece. RIP v1 pode executar o balanceamento de carga em até seis caminhos do
mesmo custo, com quatro caminhos como padrão.

RIP v1 tem as seguintes limitações:

• Ele não envia informações de máscaras de sub-redes nas suas atualizações.


• Ele envia atualizações como broadcast em 255.255.255.255.
• Ele não suporta autenticação.
• Ele não pode suportar VLSM ou classless interdomain routing (CIDR).

RIP v1 é de configuração simples, conforme mostra a figura

1.2.2 Características do RIP v2

Esta página tratará do RIP v2, o qual é uma versão melhorada do RIP v1. Ambas as versões
do RIP possuem as seguintes características:

• Um protocolo vetor de distância que usa uma métrica de contagem de saltos.


• Utiliza temporizadores holddown para evitar loops de roteamento – o padrão é de 180
segundos.
• Utiliza split-horizon para evitar loops de roteamento.
• Utiliza 16 saltos como métrica para distância infinita.

16
RIP v2 proporciona roteamento de prefixo, o que permite que ele envie informações sobre
máscaras de sub-rede junto com a atualização de rotas. Portanto, RIP v2 suporta a utilização
de roteamento classless no qual diferentes sub-redes dentro da mesma rede podem usar
diferentes máscaras de sub-rede, como é o caso do VLSM.

RIP v2 acomoda a autenticação nas suas atualizações. Um conjunto de chaves pode ser usado
em uma interface como verificação de autenticação. RIP v2 permite uma escolha do tipo de
autenticação a ser usada nos pacotes RIP v2. A escolha será entre texto puro e criptografia
Message-Digest 5 (MD5). Texto puro é o padrão. MD5 pode ser usado para autenticar a origem
de uma atualização de roteamento. MD5 é tipicamente usado para criptografar senhas enable
secret e não existe nenhuma reversão conhecida.

RIP v2 envia atualizações de roteamento em multicast usando o endereço Classe D 224.0.0.9,


que permite uma melhor eficiência.

1.2.3 Comparando RIP v1 com v2

Esta página apresentará mais informações sobre o funcionamento de RIP. Ela também
descreverá as diferenças entre RIP v1 e RIP v2.

RIP usa algoritmos de vetor de distância para determinar a direção e a distância para qualquer
link na internetwork. Se houver vários caminhos até um destino, o RIP seleciona aquele com o
menor número de saltos. No entanto, como a contagem de saltos é a única métrica de
roteamento usada pelo RIP, ele nem sempre seleciona o caminho mais rápido até um destino.

O RIP v1 permite aos roteadores atualizar suas tabelas de roteamento em intervalos


programáveis. O intervalo padrão é de 30 segundos. O envio contínuo de atualizações de
roteamento pelo RIP v1 significa que o tráfego na rede aumenta rapidamente. Para evitar que
um pacote entre em um loop infinito, RIP limita a contagem máxima de saltos a 15. Se a rede
de destino estiver a uma distância de mais de 15 roteadores, a rede será considerada
inalcançável e o pacote será descartado. Essa situação cria uma questão de escalabilidade ao
se processar o roteamento em redes heterogêneas de grande porte. RIP v1 utiliza split-horizon
para evitar loops. Isso significa que RIP v1 anuncia rotas por uma interface somente se as
rotas não forem aprendidas de atualizações que entraram pela mesma interface. Ele utiliza
temporizadores holddown para evitar loops de roteamento. Holddowns ignoram quaisquer
informações novas sobre uma sub-rede que indiquem uma métrica pior durante um período
igual ao temporizador holddown.

17
A Figura resume o comportamento do RIP v1 quando usado por um roteador.

RIP v2 é uma versão melhorada do RIP v1. Possui muitas das características do RIP v1. RIP
v2 também é um protocolo vetor de distância que utiliza contagem de saltos, temporizadores
holddown e split-horizon. A Figura compara e contrasta RIP v1 com RIP v2.

A primeira Atividade de Laboratório nesta página mostra aos alunos como preparar e configurar
RIP nos roteadores. A segunda Atividade de Laboratório repassa a configuração básica dos
roteadores. A Atividade com Mídia Interativa ajudará os alunos a entenderem as diferenças
entre RIP v1 e RIP v2.

18
1.2.4 Configurando RIP v2

Esta página ensinará aos alunos como configurar RIP v2.

RIP v2 é um protocolo de roteamento dinâmico que é configurado ao se nomear o protocolo de


roteamento RIP Versão 2 e, em seguida, designar números de rede IP sem especificar os
valores das sub-redes. Esta seção descreve os comandos básicos usados para configurar RIP
v2 em um roteador Cisco.

Para ativar o protocolo de roteamento dinâmico, as seguintes tarefas precisam ser


completadas:

• Selecionar um protocolo de roteamento, por exemplo, RIP v2.


• Designar os números de rede IP sem especificar os valores das sub-redes.
• Designar os endereços de rede ou de sub-rede e a máscara de sub-rede apropriada
para as interfaces.

RIP v2 usa multicasts para se comunicar com outros roteadores. A métrica de roteamento
ajuda os roteadores a encontrarem o melhor caminho para cada rede ou sub-rede.

19
O comando router inicia o processo de roteamento. O comando network causa a
implementação das três funções a seguir:

• As atualizações de roteamento são enviada por multicast através de uma interface.


• As atualizações de roteamento são processadas se entrarem pela mesma interface.
• A sub-rede diretamente conectada àquela interface é anunciada.

O comando network é necessário porque permite que o processo de roteamento determine


quais interfaces participam do envio e recebimento das atualizações de roteamento. O
comando network inicia o protocolo de roteamento em todas as interfaces que o roteador
possui na rede especificada. O comando network também permite que o roteador anuncie
essa rede.

A combinação dos comandos router rip e version 2 especifica RIP v2 como protocolo de
roteamento, enquanto o comando network identifica uma rede conectada participante.

Neste exemplo, a configuração do Roteador A inclui os seguintes itens:

• router rip – Ativa RIP como protocolo de roteamento


• version 2 – Identifica a versão 2 como a versão do RIP sendo usada
• network 172.16.0.0 – Especifica uma rede diretamente conectada
• network 10.0.0.0 – Especifica uma rede diretamente conectada.

As interfaces do Roteador A conectadas às redes 172.16.0.0 e 10.0.0.0 ou suas sub-redes


enviarão e receberão atualizações RIP v2. Essas atualizações de roteamento permitem que o
roteador aprenda a topologia da rede. Os Roteadores B e C possuem configurações RIP
semelhantes, mas com diferentes números de rede especificados.

A figura mostra outro exemplo de uma configuração de RIP v2.

20
1.2.5 Verificando RIP v2

Os comandos show ip protocols e show ip route exibem informações sobre os


protocolos e a tabela de roteamento. Esta página explica como são usados os comandos show
para verificar uma configuração de RIP.

O comando show ip protocols exibe valores referentes a informações dos protocolos de


roteamento e de temporizadores dos protocolos de roteamento associados ao roteador. No
exemplo, o roteador é configurado com RIP e envia informações atualizadas da tabela de
roteamento a cada 30 segundos. Esse intervalo é configurável. Se um roteador que executa
RIP não receber uma atualização de outro roteador dentro de 180 segundos ou mais, o
primeiro roteador marcará como inválidas as rotas servidas pelo roteador não atualizado. Na
Figura , o temporizador holddown é definido em 180 segundos. Portanto, uma atualização para
uma rota que antes estava inativa e agora está ativa poderia ficar no estado holddown até que
decorressem os 180 segundos completos.

Se não houver uma atualização após 240 segundos, o roteador removerá as entradas da
tabela de roteamento. O roteador injeta rotas para as redes listadas após a linha "Routing for
Networks". O roteador recebe rotas dos roteadores RIP vizinhos listados após a linha "Routing
for Networks". A distância padrão de 120 refere-se à distância administrativa para uma rota
RIP.

21
O comando show ip interface brief também pode ser usado para listar um resumo das
informações e do status de uma interface.

O comando show ip route exibe o conteúdo da tabela de roteamento IP. A tabela de


roteamento contém entradas para todas as redes e sub-redes conhecidas, e contém um código
que indica como essas informações foram obtidas.

Examine a saída para ver se a tabela de roteamento é populada com informações de


roteamento. Se faltarem entradas, é porque não estão sendo trocadas informações. Use o
comando EXEC privilegiado show running-config ou show ip protocols no roteador
para procurar possíveis erros de configuração do protocolo de roteamento.

A Atividade de Laboratório ensinará aos alunos como usar os comandos show para verificar as
configurações do RIP v2.

1.2.6 Identificando e Resolvendo Problemas com RIP v2

Esta página explica a utilização do comando debug ip rip.

Use o comando debug ip rip para exibir atualizações de roteamento do RIP à medida que
elas são enviadas ou recebidas. O comando no debug all ou undebug all desativa toda
a depuração.

O exemplo mostra que o roteador que está sendo diagnosticado recebeu atualizações de um
roteador no endereço de origem 10.1.1.2. O roteador no endereço de origem 10.1.1.2 enviou
informações sobre dois destinos na atualização da tabela de roteamento. O roteador que está
sendo diagnosticado também enviou atualizações, em ambos os casos com o endereço
multicast 224.0.0.9 como destino. O número entre parênteses representa o endereço de origem
encapsulado no cabeçalho IP.

Algumas vezes podem ser vistas outras saídas do comando debug ip rip que incluem
entradas como as seguintes:

RIP: broadcasting general request on Ethernet0 RIP: broadcasting general request on


Ethernet1

Esses resultados aparecem durante a inicialização ou quando ocorre um evento tal como uma
transição de uma interface ou quando um usuário limpa a tabela de roteamento manualmente.

Uma entrada, como a seguinte, é mais provavelmente causada por um pacote malformado
vindo do transmissor:

RIP: bad version 128 from 160.89.80.43

Exemplos de saídas do comando debug ip rip com seus significados aparecem na Figura .

22
1.2.7 Rotas padrão

Esta página descreverá rotas padrão e explicará como elas são configuradas.

Por default, os roteadores aprendem os caminhos para os destinos de três formas diferentes:

• Rotas estáticas – O administrador do sistema define manualmente as rotas estáticas


como próximo salto para um destino. As rotas estáticas são úteis para a segurança e
para reduzir o tráfego, já que não se conhece outra rota.
• Rotas padrão – O administrador do sistema também define manualmente as rotas
padrão como o caminho a ser seguido quando não houver rota conhecida para o
destino. As rotas padrão mantêm as tabelas de roteamento mais curtas. Quando não
existe uma entrada para uma rede de destino em uma tabela de roteamento, o pacote
é enviado para a rede padrão.
• Rotas dinâmicas – O roteamento dinâmico significa que o roteador aprende os
caminhos para os destinos ao receber atualizações periódicas de outros roteadores.

Na Figura , a rota estática é indicada pelo seguinte comando:

Router(config)#ip route 172.16.1.0 255.255.255.0 172.16.2.1

O comando ip default-network estabelece uma rota padrão nas redes que usam
protocolos de roteamento dinâmico.

23
Router(config)#ip default-network 192.168.20.0

De um modo geral, depois que a tabela de roteamento tiver sido definida para lidar com todas
as redes que precisam ser configuradas, é freqüentemente útil garantir que os demais pacotes
vão para um local específico. Essa rota é denominada rota padrão para o roteador. Um
exemplo é um roteador que está conectado com a Internet. Todos os pacotes não definidos na
tabela de roteamento irão para a interface determinada do roteador padrão.

O comando ip default-network é normalmente configurado nos roteadores que se


conectam ao roteador com uma rota padrão estática.

Na Figura , Hong Kong 2 e Hong Kong 3 utilizariam Hong Kong 4 como gateway padrão. Hong
Kong 4 usaria a interface 192.168.19.2 como gateway padrão. Hong Kong 1 rotearia para a
Internet pacotes de todos os hosts internos. Para permitir que Hong Kong 1 roteie esses
pacotes, é necessário configurar uma rota padrão como:

HongKong1(config)#ip route 0.0.0.0 0.0.0.0 s0/0

Os zeros relativos ao endereço IP e à máscara representam qualquer rede de destino com


qualquer máscara. As rotas padrão são chamadas "quad zero routes" (rotas de quatro zeros).
No diagrama, a única maneira de Hong Kong 1 poder alcançar a Internet é através da interface
s0/0.

Resumo

Esta página faz um resumo dos tópicos apresentados neste módulo.

24
Variable-Length Subnet Masks (VLSM), freqüentemente chamado "dividir uma sub-rede em
sub-redes", é usado para maximizar a eficiência do endereçamento. É um recurso que permite
que um só sistema autônomo possua redes com diferentes máscaras de sub-rede. O
administrador de rede pode usar uma máscara longa em redes com poucos hosts, e uma
máscara curta em sub-redes com muitos hosts.

É importante projetar um esquema de endereçamento que comporte o crescimento e que não


envolva o desperdício de endereços. Para aplicar VLSM ao problema de endereçamento, são
criadas sub-redes grandes para o endereçamento de redes locais. Sub-redes muito pequenas
são criadas para links WAN e para outros casos especiais.

VLSM ajuda a gerenciar endereços IP. VLSM permite a definição de uma máscara de sub-rede
que atenda aos requisitos do link ou do segmento. Uma máscara de sub-rede deve atender aos
requisitos de uma rede local com uma máscara de sub-rede e aos requisitos de uma WAN
ponto-a-ponto com outra máscara.

Os endereços são atribuídos de maneira hierárquica, para que os endereços resumidos


compartilhem os mesmos bits de ordem superior. Existem regras específicas para um roteador.
Ele precisa saber os detalhes dos números de sub-redes conectadas a ele e não precisa
informar a outros roteadores sobre cada sub-rede individual se o roteador puder enviar uma
rota agregada para um conjunto de roteadores. Um roteador que utiliza rotas agregadas possui
menor número de entradas na sua tabela de roteamento.

Se for escolhido o esquema VLSM, este precisará ser corretamente calculado e configurado.

RIP v1 é considerado um interior gateway protocol classful. RIP v1 é um protocolo vetor de


distância que envia em broadcast toda a sua tabela de roteamento para cada roteador vizinho
a intervalos predeterminados. O intervalo padrão é de 30 segundos. RIP usa a contagem de
saltos como métrica, com 15 como número máximo de saltos.

Para ativar um protocolo de roteamento dinâmico, selecione um protocolo de roteamento, tal


como RIP v2, designe os números de rede IP sem especificar valores de sub-rede e, depois,
designe os endereços de rede ou de sub-rede e a máscara apropriada de sub-rede para as
interfaces. No RIP v2, o comando router inicia o processo de roteamento. O comando
network causa a implementação de três funções: As atualizações de roteamento são
enviadas em multicast por uma interface, as atualizações de roteamento são processadas se
entrarem pela mesma interface e a sub-rede conectada diretamente àquela interface é
anunciada. O comando version 2 ativa RIP v2.

O comando show ip protocols exibe valores referentes a informações dos protocolos de


roteamento e de temporizadores dos protocolos de roteamento associados ao roteador. Use o
comando debug ip rip para exibir atualizações de roteamento do RIP à medida que elas
são enviadas ou recebidas. O comando no debug all ou undebug all desativa toda a
depuração.

25
CAPITULO 02 - OSPF com uma única área (Single-Area OSPF)

Visão Geral

As duas principais classes de IGPs são distance vector (vetor de distância) e link-state (estado
do enlace). Os dois tipos de protocolos de roteamento encontram rotas através de sistemas
autônomos. Os protocolos de roteamento distance vector e link-state usam métodos diferentes
para realizar as mesmas tarefas.

Os algoritmos de roteamento link-state, também conhecidos como algoritmos SPF (shortest


path first), mantêm um banco de dados complexo de informações sobre a topologia. Um
algoritmo de roteamento link-state mantém um conhecimento completo sobre os roteadores
distantes e sobre como eles se interconectam. Ao contrário, os algoritmos distance vector
fornecem informações não-específicas sobre as redes distantes e nenhum conhecimento sobre
os roteadores distantes.

É importante entender como os protocolos de roteamento link-state operam para configurar,


verificar e solucionar problemas. Este módulo explica como funcionam os protocolos de
roteamento link-state, ressalta suas características, descreve o algoritmo utilizado por eles e
indica suas vantagens e desvantagens.

Os primeiros protocolos de roteamento, como o RIP v1, eram todos protocolos distance vector.
Há muitos protocolos de roteamento distance vector em utilização atualmente, como RIP v2,
IGRP e o protocolo de roteamento híbrido EIGRP. Conforme as redes se tornaram maiores e
mais complexas, as limitações dos protocolos de roteamento distance vector se tornaram mais
aparentes. Os roteadores que usam um protocolo de roteamento distance vector aprendem
sobre a topologia da rede a partir das atualizações da tabela de roteamento dos roteadores
vizinhos. A utilização de largura de banda é alta, devido à troca periódica de atualizações de
roteamento, e a convergência da rede é lenta, resultando em decisões de roteamento ruins.

Os protocolos de roteamento link-state são diferentes dos protocolos distance vector. Os


protocolos link-state inundam informações sobre rotas por toda a rede, permitindo que cada
roteador tenha uma visão completa da topologia da rede. As triggered updates permitem uma
utilização eficiente da largura de banda e uma convergência mais rápida. As alterações do
estado de um link são enviadas a todos os roteadores da rede assim que elas ocorrem.

OSPF é um dos mais importantes protocolos link-state. Ele se baseia em padrões abertos, o
que significa que pode ser desenvolvido e aperfeiçoado por vários fabricantes. É um protocolo
complexo e um desafio para implementação em uma rede grande. Os princípios básicos do
OSPF são abordados neste módulo.

A configuração do OSPF em um roteador da Cisco é semelhante à configuração de outros


protocolos de roteamento. Assim, o OSPF precisa ser ativado em um roteador e as redes que
serão anunciadas pelo OSPF precisam ser identificadas. O OSPF tem diversos recursos e
procedimentos de configuração exclusivos. Esses recursos tornam o OSPF uma poderosa
opção de protocolo de roteamento, mas também fazem dele um desafio para a configuração.

Em redes grandes, o OSPF pode ser configurado para abranger muitas áreas e vários tipos de
área diferentes. A capacidade de projetar e implementar grandes redes OSPF começa com a
capacidade de configurar o OSPF em uma única área. Este módulo também discute a
configuração do OSPF com uma única área (Single-Area OSPF).

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Identificar as principais características do protocolo de roteamento link-state;

26
• Explicar como são mantidas as informações do roteamento link-state;
• Tratar do algoritmo do roteamento link-state;
• Examinar as vantagens e desvantagens dos protocolos de roteamento link-state;
• Comparar e contrastar os protocolos de roteamento link-state com os protocolos de
roteamento distance vector;
• Ativar o OSPF em um roteador;
• Configurar um endereço de loopback para definir a prioridade do roteador;
• Modificar a métrica de custo para alterar a preferência de rota do OSPF;
• Configurar a autenticação do OSPF;
• Alterar os temporizadores do OSPF;
• Descrever as etapas para criar e propagar uma rota padrão;
• Usar comandos show para verificar a operação do OSPF;
• Configurar o processo de roteamento do OSPF;
• Definir os principais termos do OSPF;
• Descrever os tipos de rede OSPF;
• Descrever o protocolo Hello do OSPF;
• Identificar as etapas básicas da operação do OSPF.

2.1 Protocolo de roteamento link-state


2.1.1 Visão geral do roteamento link-state

Os protocolos de roteamento link-state funcionam de maneira diferente dos protocolos distance


vector. Esta página irá explicar as diferenças entre os protocolos distance vector e link-state.
Estas informações são cruciais para os administradores de rede. Uma diferença essencial é
que os protocolos distance vector usam um método mais simples para trocar informações de
roteamento. A figura descreve as características tanto dos protocolos de roteamento distance
vector como link-state.

27
Os algoritmos de roteamento link-state mantêm um banco de dados complexo com as
informações de topologia. Enquanto o algoritmo distance vector tem informações não-
específicas sobre redes distantes e nenhum conhecimento sobre roteadores distantes, um
algoritmo de roteamento link-state mantém conhecimento completo sobre roteadores distantes
e sobre como eles estão interconectados.

A Atividade com Mídia Interativa irá ajudar os alunos a identificarem as diferentes


características dos protocolos link-state e distance vector.

2.1.2 Características do protocolo de roteamento link-state

Esta página irá explicar como os protocolos link-state roteiam os dados.

Os protocolos de roteamento link-state coletam informações de rota de todos os outros


roteadores da rede ou dentro de uma área definida da rede. Uma vez coletadas todas as
informações, cada roteador calcula os melhores caminhos para todos os destinos da rede.
Como cada roteador mantém sua própria visão da rede, tem menor probabilidade de propagar
informações incorretas fornecidas por algum de seus roteadores vizinhos.

• A seguir estão algumas funções do protocolo de roteamento link-state: Responder


rapidamente a mudanças na rede;
• Enviar triggered updates apenas quando ocorrer uma alteração na rede;
• Enviar atualizações periódicas, conhecidas como atualizações link-state;
• Usar um mecanismo hello para determinar se os vizinhos podem ser alcançados.

Cada roteador envia pacotes hello em multicast para ficar informado sobre o estado dos
roteadores vizinhos. Cada roteador usa LSAs para se manter informado sobre todos os
roteadores em sua área da rede. Os pacotes hello contêm informações sobre as redes que
estão conectadas ao roteador.

Na figura , P4 tem conhecimento sobre seus vizinhos, P1 e P3, na rede Perth3. Os LSAs
fornecem atualizações sobre o estado dos enlaces (links) que são interfaces nos outros
roteadores da rede.

• Os roteadores que usam protocolos de roteamento link-state têm as seguintes


características: Usam as informações de hello e os LSAs recebidos de outros
roteadores para criar um banco de dados sobre a rede;

28
• Usam o algoritmo SPF para calcular a rota mais curta para cada rede;
• Armazenam as informações da rota na tabela de roteamento.

2.1.3 Como são mantidas as informações de roteamento

Esta página irá explicar como os protocolos link-state usam os seguintes recursos:

• Os LSAs;
• Um banco de dados topológico;
• O algoritmo SPF;
• A árvore SPF;
• Uma tabela de roteamento de caminhos e portas para determinar o melhor caminho
para os pacotes.

Os protocolos de roteamento link-state foram criados para superar as limitações dos protocolos
de roteamento distance vector. Por exemplo, os protocolos distance vector somente trocam
atualizações de roteamento com vizinhos imediatos, enquanto os protocolos de roteamento
link-state trocam informações de roteamento através de uma área muito maior.

Quando ocorre uma falha na rede, por exemplo um vizinho fica inalcançável, os protocolos link-
state inundam (flood) LSAs com um endereço multicast especial para toda a área. Flooding, ou
inundar é o processo de enviar informações por todas as portas, exceto aquela em que as
informações foram recebidas. Cada roteador link-state toma uma cópia do LSA e atualiza seu
banco de dados link-state, ou topológico. Em seguida, o roteador link-state encaminha o LSA
para todos os dispositivos vizinhos. Os LSAs fazem com que todos os roteadores dentro da
área recalculem as rotas. Por esse motivo, a quantidade de roteadores link-state dentro de uma
área deve ser limitada.

Um link é o mesmo que uma interface em um roteador. O estado do link é uma descrição de
uma interface e da relação com os roteadores vizinhos. Por exemplo, uma descrição da
interface incluiria o endereço IP da interface, a máscara de sub-rede, o tipo de rede à qual está
conectada, os roteadores conectados a essa rede e assim por diante. O conjunto de link-states
forma um banco de dados de link-states, que às vezes é chamado de banco de dados
topológico. O banco de dados de link-states é usado para calcular os melhores caminhos
através da rede. Os roteadores link-state aplicam o algoritmo Dijkstra do "caminho mais curto

29
primeiro" (SPF – Shortest Path First) consultando o banco de dados de link-states. Isso cria a
árvore SPF, tendo o roteador local como raiz. Em seguida, os melhores caminhos são
selecionados a partir da árvore SPF e colocados na tabela de roteamento.

2.1.4 Algoritmos de roteamento link-state

Os algoritmos de roteamento link-state mantêm um banco de dados complexo da topologia da


rede trocando anúncios de link-state (LSAs) com outros roteadores da rede. Esta página
descreve o algoritmo de roteamento link-state.

Os algoritmos de roteamento link-state têm as seguintes características:

• São conhecidos coletivamente como protocolos SPF.


• Mantêm um banco de dados complexo sobre a topologia da rede.
• São baseados no algoritmo Dijkstra.

Os protocolos link-state desenvolvem e mantêm um conhecimento completo sobre os


roteadores da rede e sobre como eles se interconectam. Isso é obtido através da troca de
LSAs com outros roteadores da rede.

Cada roteador constrói um banco de dados topológico a partir dos LSAs que recebe. Em
seguida, o algoritmo SPF é usado para computar a facilidade de alcance dos destinos. Essa
informação é usada para atualizar a tabela de roteamento. Esse processo pode descobrir
alterações na topologia da rede causadas por falha de componentes ou crescimento da rede.

Uma troca de LSAs é acionada por um evento da rede, e não por atualizações periódicas. Isso
acelera o processo de convergência, pois não há necessidade de esperar até que uma série de
temporizadores expire para que os roteadores possam convergir.

Se a rede mostrada na figura usar um protocolo de roteamento link-state, não haverá


preocupação quanto à conectividade entre os roteadores A e D. Com base no protocolo que é
empregado e nas métricas selecionadas, o protocolo de roteamento pode discriminar entre dois
caminhos para o mesmo destino e usar o melhor deles. Na figura , há duas entradas de
roteamento na tabela para a rota do roteador A para o roteador D.

30
Nessa figura, as rotas têm custos iguais, portanto o protocolo de roteamento link-state grava
as duas rotas. Alguns protocolos link-state oferecem uma maneira de avaliar a capacidade de
desempenho das duas rotas e escolher a melhor delas. Se a rota preferencial através do
roteador C passar por dificuldades operacionais, tais como congestionamento ou falha de
componentes, o protocolo de roteamento link-state pode detectar essa alteração e rotear os
pacotes através do roteador B.

2.1.5 Vantagens e desvantagens do roteamento link-state

Esta página lista as vantagens e desvantagens dos protocolos de roteamento link-state.

Estas são as vantagens dos protocolos de roteamento link-state:

• Os protocolos link-state usam métricas de custo para escolher caminhos através da


rede. A métrica de custo reflete a capacidade dos links nesses caminhos.
• Os protocolos link-state usam triggered updates e inundações (floods) de LSAs para
relatar imediatamente alterações na topologia da rede para todos os roteadores da
rede. Isso leva a tempos de convergência curtos.
• Cada roteador tem uma imagem completa e sincronizada da rede. Por isso, é muito
difícil ocorrerem loops de roteamento.
• Os roteadores usam as informações mais atuais para tomar as melhores decisões de
roteamento.
• O tamanho dos bancos de dados de link-state pode ser minimizado com um projeto
cuidadoso da rede. Isso leva a cálculos Dijkstra menores e a uma convergência mais
rápida.
• Cada roteador, no mínimo, mapeia a topologia de sua própria área da rede. Esse
atributo ajuda a solucionar problemas que possam ocorrer.
• Os protocolos link-state suportam CIDR e VLSM.

31
Estas são algumas desvantagens dos protocolos de roteamento link-state:

• Eles exigem mais memória e maior poder do processador do que os protocolos


distance vector. Isso os torna caros para organizações com orçamentos reduzidos e
hardware mais antigo.
• Exigem um estrito projeto de rede hierárquico, para que uma rede possa ser quebrada
em áreas menores a fim de reduzir o tamanho das tabelas de topologia.
• Requerem um administrador que entenda bem os protocolos.
• Inundam a rede com LSAs durante o processo inicial de descoberta. Esse processo
pode diminuir significativamente a capacidade da rede de transportar dados. Pode
haver considerável degradação do desempenho da rede.

2.1.6 Comparação entre os roteamentos distance vector e link-state

Todos os protocolos de vetor de distância aprendem as rotas e as enviam aos vizinhos


diretamente conectados. Por outro lado, os roteadores link-state anunciam os estados de seus
links a todos os outros roteadores da área para que cada roteador possa criar um banco de
dados completo de link-states. Esses anúncios são chamados de anúncios de link-state ou
LSAs. Diferentemente dos roteadores de vetor de distância, os roteadores link-state podem
formar relacionamentos especiais com seus vizinhos e outros roteadores link-state. Isso serve
para garantir que as informações dos LSAs são trocadas de maneira correta e eficiente.

A inundação inicial de LSAs fornece aos roteadores as informações de que eles necessitam
para criar um banco de dados de link-states. As atualizações de roteamento ocorrem somente
quando a rede muda. Se não há alterações, as atualizações de roteamento ocorrem após um
determinado intervalo. Se a rede muda, uma atualização parcial é enviada imediatamente. A
atualização parcial só contém informações sobre os links que mudaram. Os administradores de
rede preocupados com a utilização do link da WAN perceberão que essas atualizações parciais
e esporádicas são uma alternativa eficiente aos protocolos de roteamento distance vector, que
enviam uma tabela de roteamento completa a cada 30 segundos. Quando ocorre uma
alteração, todos os roteadores link-state são avisados simultaneamente pela atualização
parcial. Os roteadores de vetor de distância esperam até que os vizinhos percebam a
mudança, implementem-na e lhes enviem a atualização.

32
As vantagens dos protocolos link-state em relação aos protocolos distance vector são a
convergência mais rápida e a melhor utilização da largura de banda. Os protocolos link-state
suportam CIDR e VLSM. Isso os torna uma boa opção para redes complexas e escaláveis. Na
verdade, os protocolos link-state geralmente superam em desempenho os protocolos distance
vector em redes de qualquer tamanho. Os protocolos link-state não são implementados em
todas as redes porque exigem mais memória e poder de processamento do que os protocolos
distance vector e podem sobrecarregar equipamentos mais lentos. Outro motivo para que não
sejam implementados mais amplamente é o fato de serem bastante complexos. Os protocolos
de roteamento link-state exigem administradores bem treinados para configurá-los e mantê-los
corretamente.

Esta página conclui esta lição. A próxima lição irá apresentar um protocolo de roteamento link-
state chamado OSPF. A primeira página irá oferecer uma visão geral.

2.2 Conceitos do OSPF com uma única área (Single-Area OSPF)


2.2.1 Visão geral do OSPF

Esta página irá apresentar o OSPF. OSPF é um protocolo de roteamento link-state que se
baseia em padrões abertos. Está descrito em diversos padrões da IETF (Internet Engineering
Task Force). A letra inicial O de OSPF vem de "open" e significa que é um padrão aberto ao
público e não proprietário.

O OSPF, quando comparado com o RIP v1 e v2, é o IGP preferido, visto que pode ser
escalado. O RIP é limitado a 15 saltos, converge lentamente e às vezes escolhe rotas lentas,
pois ignora fatores críticos, tais como a largura de banda, na determinação das rotas. Uma
desvantagem de usar o OSPF é que ele só suporta protocolos baseados em TCP/IP. O OSPF
superou essas limitações e é um protocolo de roteamento robusto e escalável, adequado às
redes modernas. O OSPF pode ser usado e configurado como uma única área para redes
pequenas. Também pode ser usado para redes grandes.

33
Conforme mostrado na figura , grandes redes OSPF usam um projeto hierárquico. Várias áreas
se conectam a uma área de distribuição, ou área 0, que também é chamada de backbone. A
abordagem do projeto permite extenso controle das atualizações de roteamento. A definição da
área reduz a sobrecarga de roteamento, acelera a convergência, confina a instabilidade da
rede a uma área e melhora o desempenho.

2.2.2 Terminologia OSPF

Os roteadores link-state identificam os roteadores vizinhos e então se comunicam com eles. O


OSPF tem sua própria terminologia. Os novos termos estão mostrados na figura .

O OSPF reúne informações dos roteadores vizinhos sobre o estado do link de cada roteador
OSPF. Essa informação é despejada para todos os seus vizinhos. Um roteador OSPF anuncia
os estados de seus próprios links e repassa os estados de links recebidos.

Os roteadores processam as informações sobre os link-states e criam um banco de dados de


link-states. Cada roteador da área OSPF tem o mesmo banco de dados de link-states.
Portanto, cada roteador tem as mesmas informações sobre o estado dos links e dos vizinhos
de todos os outros roteadores.

34
Em seguida, cada roteador aplica o algoritmo SPF em sua própria cópia do banco de dados.
Esse cálculo determina a melhor rota até um destino. O algoritmo SPF aumenta o custo, que é
um valor geralmente baseado na largura de banda. O caminho de menor custo é adicionado à
tabela de roteamento, que também é conhecida como banco de dados de encaminhamento
(forwarding database).

Cada roteador mantém uma lista dos vizinhos adjacentes, chamada de banco de dados de
adjacências. O banco de dados de adjacências é uma lista de todos os roteadores vizinhos
com os quais um roteador estabeleceu comunicação bidirecional. Ele é exclusivo de cada
roteador.

Para reduzir a quantidade de trocas de informações de roteamento entre vários vizinhos na


mesma rede, os roteadores OSPF elegem um roteador designado, ou designated router (DR),
e um roteador designado de backup, ou backup designated router (BDR), que atuam como
pontos focais para a troca de informações de roteamento

2.2.3 Comparação entre o OSPF e os protocolos de roteamento distance


vector

Esta página irá explicar as diferenças entre o OSPF e os protocolos distance vector tais como o
RIP. Os roteadores link-state mantêm uma imagem comum da rede e trocam informações
sobre links após a descoberta inicial ou após mudanças na rede. Os roteadores link-state não
enviam tabelas de roteamento em broadcasts periodicamente como os protocolos distance
vector. Portanto, os roteadores link-state usam menos largura de banda para a manutenção da
tabela de roteamento.

O RIP é apropriado para redes pequenas, e o melhor caminho se baseia no menor número de
saltos. O OSPF é apropriado para redes grandes que podem ser escaladas, e o melhor
caminho é determinado pela velocidade do link. O RIP e outros protocolos distance vector
usam algoritmos simples para computar os melhores caminhos. O algoritmo SPF é complexo.
Os roteadores que implementam protocolos distance vector precisam de menos memória e de
processadores menos poderosos do que os que implementam OSPF.

O OSPF seleciona as rotas com base no custo, que está relacionado à velocidade. Quanto
maior a velocidade, menor o custo OSPF do link.

35
O OSPF seleciona o caminho mais rápido sem loop a partir da árvore SPF como sendo o
melhor caminho da rede.

O OSPF garante um roteamento sem loops. Os protocolos distance vector podem causar loops
de roteamento.

Se os links estiverem instáveis, a inundação de informações de link-state pode levar a anúncios


de link-state não-sincronizados e a decisões inconsistentes entre os roteadores.

O OSPF trata os seguintes problemas:

• Velocidade de convergência;
• Suporte a VLSM (máscaras de sub-rede com tamanho variável);
• Tamanho da rede;
• Seleção de caminhos;
• Agrupamento de membros.

Em grandes redes, a convergência do RIP pode levar vários minutos, já que a tabela de
roteamento de cada roteador é copiada e compartilhada com os roteadores conectados
diretamente. Após a convergência inicial do OSPF, manter um estado convergente é mais
rápido, pois apenas as alterações da rede são despejadas para outros roteadores de uma área.

O OSPF suporta VLSMs e, por isso, é chamado de protocolo classless. O RIP v1 não suporta
VLSMs, mas o RIP v2 suporta.

O RIP considera uma rede que esteja a mais de 15 roteadores de distância como inalcançável,
pois a quantidade de saltos é limitada a 15. Isso limita o RIP a topologias pequenas. O OSPF
não tem limite de tamanho e é adequado para redes médias a grandes.

O RIP seleciona o caminho até uma rede adicionando 1 à contagem de saltos relatada por um
vizinho. Ele compara a quantidade de saltos até um destino e seleciona o caminho com a
menor distância, ou menor número de saltos. Esse algoritmo é simples e não requer um
roteador poderoso nem uma grande quantidade de memória. O RIP não leva em conta a
largura de banda disponível na determinação do melhor caminho.

O OSPF seleciona um caminho usando custo, uma métrica baseada na largura de banda.
Todos os roteadores OSPF precisam obter informações completas sobre as redes de cada
roteador para calcular o caminho mais curto. Esse algoritmo é complexo. Portanto, o OSPF
requer roteadores mais poderosos e mais memória do que o RIP.

O RIP usa uma topologia linear. Os roteadores de uma região RIP trocam informações com
todos os roteadores. O OSPF usa o conceito de áreas. Uma rede pode ser subdividida em
grupos de roteadores. Dessa maneira, o OSPF pode limitar o tráfego a essas áreas. Alterações
em uma área não afetam o desempenho em outras áreas. Essa abordagem hierárquica
permite que uma rede aumente em escala de maneira eficiente.

2.2.4 Algoritmo do caminho mais curto

Esta página irá explicar como o OSPF usa o algoritmo do caminho mais curto primeiro
(Shortest Path First) para determinar o melhor caminho até um destino.

36
Nesse algoritmo, o melhor caminho é o caminho com menor custo. O algoritmo foi
desenvolvido por Dijkstra, um cientista da computação holandês, e foi explicado em 1959. O
algoritmo considera uma rede como um conjunto de nós conectados por links ponto-a-ponto.
Cada link tem um custo. Cada nó tem um nome. Cada nó tem um banco de dados completo de
todos os links e, assim, são conhecidas todas as informações sobre a topologia física. Todos
os bancos de dados de link-states, dentro de uma determinada área, são idênticos. A tabela da
figura mostra as informações recebidas pelo nó D. Por exemplo, D recebeu informações de que
estava conectado ao nó C com um link de custo 4 e ao nó E com um link de custo 1.

Então, o algoritmo do menor caminho calcula uma topologia sem loops usando o nó como
ponto de partida e examinando as informações que tem sobre os nós adjacentes.

Na figura , o nó B calculou o melhor caminho até D. O melhor caminho até D é passando pelo
nó E, que tem custo 4. Essa informação é convertida em uma entrada de rota em B, que
encaminhará o tráfego para C. Os pacotes destinados a D vindos de B passarão de B para C,
de C para E e de E para D nessa rede OSPF.

No exemplo, o nó B determinou que para chegar ao nó F o menor caminho tem custo 5,


através do nó C. Todas as outras possíveis topologias ou terão loops ou caminhos com custos
mais altos

37
2.2.5 Tipos de rede OSPF

É necessária uma relação de vizinhança para que os roteadores OSPF compartilhem


informações de roteamento. Um roteador tentará se tornar adjacente, ou vizinho, de pelo
menos um outro roteador em cada rede IP ao qual estiver conectado. Os roteadores OSPF
determinam os roteadores se tornam adjacentes com base no tipo de rede à qual estão
conectados. Alguns roteadores podem tentar ficar adjacentes a todos os seus roteadores
vizinhos. Outros roteadores podem tentar ficar adjacentes a apenas um ou dois de seus
vizinhos. Uma vez formada uma adjacência entre vizinhos, são trocadas informações de link-
state.

As interfaces OSPF reconhecem automaticamente três tipos de redes:

• Multiacesso com broadcast, como a Ethernet;


• Redes ponto-a-ponto;
• Multiacesso sem broadcast (NBMA), como Frame Relay.

Um quarto tipo, ponto-a-multiponto, pode ser configurado manualmente em uma interface por
um administrador.

Em uma rede multiacesso, não se sabe antecipadamente quantos roteadores serão


conectados. Em redes ponto-a-ponto, somente dois roteadores podem ser conectados.

Em um segmento de rede multiacesso com broadcast, muitos roteadores podem ser


conectados. Se cada roteador estabelecesse adjacência completa com todos os outros
roteadores e trocasse informações de link-state com todos os vizinhos, haveria uma grande
sobrecarga. Se houvesse 5 roteadores, seriam necessárias 10 relações de adjacência e seriam
enviados 10 link-states. Se houvesse 10 roteadores, seriam necessárias 45 adjacências. Em
geral, para n roteadores, n*(n-1)/2 adjacências precisam ser formadas. A solução para essa
sobrecarga é eleger um roteador designado (DR). Esse roteador fica adjacente a todos os
outros roteadores no segmento de broadcast. Todos os outros roteadores do segmento enviam
suas informações de link-state para o DR. Este, por sua vez, age como porta-voz do segmento.

38
O DR envia informações de link-state para todos os outros roteadores do segmento usando o
endereço de multicast 224.0.0.5 para todos os roteadores OSPF.

Apesar do ganho de eficiência


fornecido pela eleição de um DR,
há uma desvantagem. O DR
representa um único ponto de
falha. Elege-se um segundo
roteador como roteador designado
de backup (BDR), para assumir as
funções do DR se ele falhar. Para
garantir que tanto o DR quanto o
BDR verão os link-states enviados
por todos os roteadores do
segmento, usa-se o endereço de
multicast de todos os roteadores
designados, 224.0.0.6.

Em redes ponto-a-ponto, existem apenas dois nós e não há eleição de DR nem de BDR. Os
dois roteadores se tornam completamente adjacentes um do outro.

2.2.6 Protocolo Hello do OSPF

Quando um roteador inicia um processo de roteamento OSPF em uma interface, ele envia um
pacote hello e continua a enviá-lo a intervalos regulares. As regras que regem a troca de
pacotes hello no OSPF são chamadas de protocolo Hello.

Na camada 3 do modelo OSI, os pacotes hello são endereçados ao endereço de multicast


224.0.0.5. Esse endereço significa "todos os roteadores OSPF". Os roteadores OSPF usam os
pacotes hello para iniciar novas adjacências e para garantir que os roteadores vizinhos ainda
estão funcionando. Por padrão, são enviados hellos a cada 10 segundos em redes multiacesso
com broadcast e ponto-a-ponto. Em interfaces que se conectam a redes NBMA, como Frame
Relay, o tempo padrão é de 30 segundos.

Em redes multiacesso, o protocolo Hello elege um roteador designado (DR) e um roteador


designado de backup (BDR).

Embora o pacote hello seja pequeno, ele consiste no cabeçalho do pacote OSPF. Para o
pacote hello, o campo tipo é definido como 1.

O pacote hello carrega informações sobre as quais todos os vizinhos devem concordar antes
de formar uma adjacência e trocar informações de link-state.

39
2.2.7 Etapas da operação do OSPF

Quando um roteador inicia um processo de roteamento OSPF em uma interface, ele envia um
pacote hello e volta a enviá-lo a intervalos regulares. O conjunto de regras que regem a troca
de pacotes hello no OSPF é chamado de protocolo Hello. Em redes multiacesso, o protocolo
Hello elege um roteador designado (DR) e um roteador designado de backup (BDR). O hello
carrega informações sobre as quais todos os vizinhos devem concordar para formar uma
adjacência e trocar informações de link-state. Em redes multiacesso, o DR e o BDR mantêm
adjacências com todos os outros roteadores OSPF da rede.

Roteadores adjacentes passam por uma seqüência de estados. Eles precisam estar no estado
full state para que as tabelas de roteamento sejam criadas e o tráfego seja roteado. Cada
roteador envia anúncios de link-state (LSAs) em pacotes de atualização de link-state (LSUs).
Esses LSAs descrevem os links de todos os roteadores. Cada roteador que recebe um LSA de
seu vizinho grava esse LSA no banco de dados de link-states. Esse processo é repetido para
todos os roteadores da rede OSPF.

40
Quando os bancos de dados estão completos, cada roteador usa o algoritmo SPF para calcular
uma topologia lógica sem loops para cada rede conhecida. Para construir essa topologia, usa-
se o caminho mais curto com o menor custo, selecionando-se assim a melhor rota.

A partir desse momento, as informações de roteamento são mantidas. Quando há uma


alteração no estado de um link, os roteadores usam um processo de inundação para avisar os
outros roteadores da rede sobre ela. O dead interval do protocolo Hello fornece um mecanismo
simples para determinar se um vizinho adjacente está inoperante.

2.3 Configuração do OSPF com uma única área (Single-area OSPF)


2.3.1 Configuração do processo de roteamento OSPF

O roteamento OSPF usa o conceito de áreas. Cada roteador contém um banco de dados de
link-states de uma área específica. Uma área da rede OSPF pode receber qualquer número de
0 a 65.535. Entretanto, uma única área recebe o número 0 e é conhecida como área 0. Em
redes OSPF com mais de uma área, todas as áreas precisam se conectar à área 0. A área 0
também é chamada de área backbone.

41
A configuração do OSPF requer que o processo de roteamento OSPF esteja ativado no
roteador com os endereços de rede e as informações da área especificados. Os endereços de
rede são configurados com uma máscara curinga e não com uma máscara de sub-rede. A
máscara curinga representa os links ou endereços de host que podem estar presentes nesse
segmento. O ID da área pode ser escrito como um número inteiro ou em notação decimal com
pontos.

Para ativar o roteamento OSPF, use a sintaxe do comando de configuração global:

Router(config)#router ospf id-do-processo

O ID do processo é um número usado para identificar um processo de roteamento OSPF no


roteador. Vários processos OSPF podem ser iniciados no mesmo roteador. O número pode ser
qualquer valor entre 1 e 65.535. A maioria dos administradores de rede mantém o mesmo ID
de processo em todo um sistema autônomo, mas isso não é obrigatório. Raramente é
necessário executar mais do que um processo OSPF em um roteador. As redes IP são
anunciadas da seguinte forma no OSPF:

Router(config-router)#network endereço máscara-curinga area id-da-


área

Cada rede deve ser identificada com a área à qual pertence. O endereço de rede pode ser uma
rede inteira, uma sub-rede ou o endereço da interface. A máscara curinga representa o
conjunto de endereços de host que o segmento suporta. Ela é diferente da máscara de sub-
rede, que é usada ao configurar endereços IP em interfaces.

2.3.2 Configuração do endereço de loopback e da prioridade do roteador


no OSPF

Quando o processo OSPF se inicia, o Cisco IOS usa o maior endereço IP local que esteja ativo
como o ID do roteador OSPF. Se não houver uma interface ativa, o processo OSPF não será
iniciado. Se a interface ativa ficar inoperante, o processo OSPF não tem um ID do roteador e,
portanto, pára de funcionar até que a interface fique operante novamente.

Para garantir a estabilidade do OSPF, deve haver uma interface ativa para o processo OSPF o
tempo todo. Uma interface de loopback, que é uma interface lógica, pode ser configurada para
essa finalidade. Quando se configura uma interface de loopback, o OSPF usa esse endereço
como ID do roteador, independentemente do valor. Em um roteador com mais de uma interface
de loopback, o OSPF toma o maior endereço IP de loopback como o ID do roteador.

Para criar e atribuir um endereço IP a uma interface de loopback, use os seguintes comandos:

Router(config)#interface loopback número


Router(config-if)#ip address endereço-IP máscara-de-sub-rede

É considerado prática recomendável usar interfaces de loopback para todas as rotas que
executem OSPF. Essa interface de loopback deve ser configurada com um endereço usando
uma máscara de sub-rede de 32 bits igual a 255.255.255.255. Uma máscara de sub-rede de 32
bits é chamada de máscara de host, pois a máscara de sub-rede especifica uma rede de um
host. Quando o OSPF recebe uma solicitação para anunciar uma rede de loopback, ele sempre
anuncia o loopback como uma rota de host com uma máscara de 32 bits.

42
Em redes multiacesso com broadcast, pode haver mais de dois roteadores. O OSPF elege um
roteador designado (DR) para ser o foco de todas as atualizações de link-states e de todos os
anúncios de link-states. Como o papel do DR é crucial, elege-se um roteador designado de
backup (BDR) para assumir se o DR falhar.

Se o tipo de rede de uma interface for broadcast, a prioridade padrão do OSPF é 1. Quando as
prioridades OSPF são iguais, a eleição do DR é decidida pelo ID do roteador. O roteador de
maior ID é selecionado.

O resultado da eleição pode ser determinado garantindo-se que as urnas, os pacotes hello,
contêm uma prioridade para essa interface do roteador. A interface que relata a maior
prioridade para um roteador garante que ele se torne o DR.

As prioridades podem ser definidas com qualquer valor entre 0 e 255. Um valor 0 impede que
um roteador seja eleito. Um roteador com a prioridade OSPF mais alta será escolhido para DR.
Um roteador com a segunda prioridade OSPF mais alta será o BDR. Após o processo de
eleição, o DR e o BDR retêm suas funções mesmo se forem adicionados à rede roteadores
com valores mais altos de prioridade OSPF.

Para modificar a prioridade OSPF, digite o comando de configuração da interface global ip


ospf priority em uma interface que esteja participando do OSPF. O comando show ip
ospf interface exibe o valor de prioridade da interface, assim como outras informações
importantes.

Router(config-if)#ip ospf priority número


Router#show ip ospf interface tipo número

2.3.3 Modificação da métrica de custo do OSPF

O OSPF usa o custo como métrica para determinar a melhor rota. Um custo está associado ao
lado da saída de cada interface do roteador. Os custos também estão associados a dados de
roteamento derivados externamente. Em geral, o custo do caminho é calculado usando a
fórmula [10^8/ largura de banda] , onde a largura de banda é expressa em bps. O
administrador de sistemas também pode configurar o custo por outros métodos. Quanto menor
o custo, maior a probabilidade de que a interface seja usada para encaminhar tráfego de
dados. O Cisco IOS determina automaticamente o custo com base na largura de banda da
interface. Para a operação correta do OSPF, é essencial definir a largura de banda correta da
interface.

43
Router(config)#interface serial 0/0
Router(config-if)#bandwidth 56

O custo pode ser alterado para influenciar no resultado do cálculo do custo OSPF. Uma
situação comum que requer uma alteração de custo é um ambiente com roteadores de
diferentes fabricantes. Uma alteração de custo pode garantir que o valor de custo de um
fabricante seja igual ao valor de custo de outro fabricante. Outra situação é quando se usa
Gigabit Ethernet. O custo padrão atribui o menor valor de custo (1) a um link de 100 Mbps. Em
uma situação com Ethernet de 100 Mbps e 1 Gigabit, os valores de custo padrão podem fazer
com que o roteamento tome um caminho menos desejável, a menos que sejam ajustados. O
número do custo pode ficar entre 1 e 65.535.

Use o seguinte comando de configuração da interface para definir o custo do link:

Router(config-if)#ip ospf cost número

2.3.4 Configuração da autenticação do OSPF

Por padrão, um roteador confia que as informações de roteamento estão vindo do roteador que
deveria estar enviando essas informações. Um roteador também confia em que as informações
não foram violadas ao longo da rota.

Para garantir essa confiança, os roteadores de uma área específica podem ser configurados
para autenticarem um ao outro.

Cada interface OSPF pode apresentar uma chave de autenticação que será usada pelos
roteadores que enviarem informações OSPF para outros roteadores do segmento. A chave de
autenticação, conhecida como senha, é um segredo compartilhado entre os roteadores. Essa
chave é usada para gerar os dados de autenticação no cabeçalho do pacote OSPF. A senha
pode ter até oito caracteres. Use a seguinte sintaxe de comando para configurar a autenticação
do OSPF:

Router(config-if)#ip ospf authentication-key senha

Após configurada a senha, a autenticação precisa ser ativada:

Router(config-router)#area número-da-área authentication

Com autenticação simples, a senha é enviada como texto puro. Isso significa que pode ser
facilmente decodificada se um sniffer de pacotes capturar um pacote OSPF.

É recomendável que as informações de autenticação sejam criptografadas. Para enviar


informações de autenticação criptografadas e garantir maior segurança, usa-se a palavra-
chave message-digest. A palavra-chave MD5 especifica o tipo de algoritmo hashing de
message-digest a ser usado. Além disso, há o campo de tipo de criptografia, onde 0 significa
nenhum e 7 significa proprietário.

Use a sintaxe do modo de comando de configuração da interface:

44
Router(config-if)#ip ospf message-digest-key id-da-chave md5 tipo-de-
criptografia chave

O id-da-chave é um identificador e assume um valor no intervalo de 1 a 255. A chave é uma


senha alfanumérica de até 16 caracteres. Roteadores vizinhos precisam usar o mesmo
identificador de chave com o mesmo valor de chave.

O comando a seguir é configurado no modo de configuração do roteador:

Router(config-router)#area id-da-área authentication message-digest

A autenticação MD5 cria um resumo compilado da mensagem (message digest). Um resumo


compilado de uma mensagem é composto de dados embaralhados gerado com base na senha
e no conteúdo do pacote. O roteador receptor usa a senha compartilhada e o pacote para
recalcular a mensagem. Se as mensagens coincidirem, o roteador acredita que a origem e o
conteúdo do pacote não foram violados. O tipo de autenticação identifica qual é a autenticação
que está sendo usada, se houver. No caso da autenticação message-digest, o campo de dados
de autenticação contém o ID da chave e o comprimento do resumo compilado da mensagem
(digest) que é acrescentada ao pacote. O resumo compilado da mensagem (digest) é como
uma marca d'água que não pode ser falsificada.

2.3.5 Configuração dos temporizadores do OSPF

Os roteadores OSPF precisam ter os mesmos hello intervals e os mesmos dead intervals para
trocarem informações. Por padrão, o dead interval tem quatro vezes o valor do hello interval.
Isso significa que um roteador tem quatro chances de enviar um pacote hello antes de ser
declarado morto ou inoperante (dead).

Em redes OSPF com broadcast, o hello interval padrão é de 10 segundos e o dead interval
padrão é de 40 segundos. Em redes sem broadcast, o hello interval padrão é de 30 segundos e
o dead interval padrão é de 120 segundos. Esses valores padrão resultam em uma operação
eficiente do OSPF e raramente precisam ser alterados.

Contudo, o administrador de rede pode escolher os valores destes temporizadores. Antes de


alterar os temporizadores, deve haver uma justificativa de que o desempenho da rede OSPF
será melhorado. Esses temporizadores precisam ser configurados para coincidir com os de
todos os roteadores vizinhos.

Para configurar os hello intervals e dead intervals em uma interface, use os seguintes
comandos:

Router(config-if)#ip ospf hello-interval segundos


Router(config-if)#ip ospf dead-interval segundos

2.3.6 OSPF, propagação de uma rota padrão

O roteamento OSPF garante caminhos sem loops para todas as redes do domínio. Para
alcançar redes fora do domínio, o OSPF precisa saber sobre a rede ou precisa ter uma rota
padrão. Ter uma entrada para cada rede do mundo exigiria enormes recursos de cada
roteador.

Uma alternativa prática é adicionar uma rota padrão até o roteador OSPF conectado à rede
externa. Essa rota pode ser redistribuída para cada roteador do AS através de atualizações
OSPF normais.

Uma rota padrão configurada é usada por um roteador para gerar um gateway de último
recurso. A sintaxe de configuração da rota padrão estática usa o endereço de rede 0.0.0.0 e
uma máscara de sub-rede 0.0.0.0:

45
Router(config)#ip route 0.0.0.0 0.0.0.0 [interface | próximo-salto
endereço]

Esta é denominada "rota quad-zero" ou "rota de quatro zeros", e qualquer endereço de rede se
encaixa na regra a seguir. O gateway da rede é determinado pela operação AND entre o
destino do pacote e a máscara de sub-rede.

A seguinte declaração de configuração propagará essa rota para todos os roteadores de uma
área OSPF normal:

Router(config-router)#default-information originate

Todos os roteadores da área aprenderão uma rota padrão, desde que a interface do roteador
de borda até o gateway padrão esteja ativa.

2.3.7 Problemas comuns de configuração do OSPF

Um roteador OSPF precisa estabelecer uma relação de vizinhança ou adjacência com outro
roteador OSPF para trocar informações de roteamento. Uma falha em estabelecer uma relação
de vizinhança é causada por qualquer dos seguintes motivos:

• Os hellos não são enviados pelos dois vizinhos.


• Os temporizadores de hello interval e dead interval não são iguais.
• As interfaces estão em redes de tipos diferentes.
• As chaves ou senhas de autenticação são diferentes.

46
No roteamento OSPF, também é importante garantir o seguinte:

• Todas as interfaces têm endereços e máscara de sub-rede corretos.


• As declarações network area têm as máscaras curingas corretas.
• As declarações network area colocam as interfaces na área correta.

2.3.8 Verificação da configuração do OSPF

Para verificar a configuração do OSPF, há diversos comandos show disponíveis.

A figura lista esses comandos. A figura mostra comandos úteis para solucionar problemas do
OSPF.

Resumo

protocolos distance vector é a forma como eles trocam informações de roteamento. Os


protocolos de roteamento link-state respondem rapidamente a alterações da rede, enviam

47
triggered updates somente quando ocorre uma alteração na rede, enviam atualizações
periódicas conhecidas como atualizações link-state e usam um mecanismo hello para
determinar a possibilidade de alcançar os vizinhos.

Um roteador que executa um protocolo link-state usa as informações de hello e os LSAs


recebidos de outros roteadores para criar um banco de dados sobre a rede. Ele também usa o
algoritmo SPF (Shortest Path First) para calcular a rota mais curta para cada rede.

Para superar as limitações dos protocolos de roteamento distance vector, os protocolos de


roteamento link-state usam LSAs (anúncios de link-state), um banco de dados topológico, o
algoritmo SPF, uma árvore SPF resultante e uma tabela de roteamento com caminhos e portas
para cada rede, a fim de determinar os melhores caminhos para os pacotes.

Um link é o mesmo que uma interface em um roteador. O estado do link é uma descrição de
uma interface e da relação com seus roteadores vizinhos. Com os LSAs, os roteadores link-
state anunciam os estados de seus links a todos os outros roteadores da área para que cada
roteador possa criar um banco de dados completo de link-states. Eles formam relacionamentos
especiais com seus vizinhos e com outros roteadores link-state. Isso os torna uma boa opção
para redes complexas e escaláveis. As vantagens do roteamento link-state em relação aos
protocolos distance vector são a convergência mais rápida e a melhor utilização da largura de
banda. Os protocolos link-state suportam roteamento CIDR (Classless Interdomain Routing) e
VLSM (Variable-length Subnet Mask).

O OSPF (Open Shortest Path First) é um protocolo de roteamento link-state baseado em


padrões abertos. O "Open" do OSPF significa que ele é aberto ao público e não proprietário.
Os roteadores OSPF elegem um roteador designado (DR) e um roteador designado de backup
(BDR), que atuam como focos para a troca de informações de roteamento, a fim de reduzir a
quantidade de trocas de informações de roteamento entre vários vizinhos na mesma rede. O
OSPF seleciona as rotas com base no custo, o qual, na implementação da Cisco, está
relacionado à largura de banda. O OSPF seleciona o caminho mais rápido sem loops a partir
da árvore SPF como sendo o melhor caminho da rede. OSPF garante um roteamento sem
loops. Os protocolos distance vector podem causar loops de roteamento. Quando um roteador
inicia um processo de roteamento OSPF em uma interface, ele envia um pacote hello e volta a
enviá-lo a intervalos regulares. As regras que regem a troca de pacotes hello no OSPF são
chamadas de protocolo Hello. Se houver concordância com relação a todos os parâmetros dos
pacotes hello do OSPF, os roteadores tornam-se vizinhos.

Cada roteador envia anúncios de link-state (LSAs) em pacotes de atualização de link-state


(LSUs). Cada roteador que recebe um LSA de seu vizinho grava esse LSA no banco de dados
de link-states. Esse processo é repetido para todos os roteadores da rede OSPF. Quando os
bancos de dados estão completos, cada roteador usa o algoritmo SPF para calcular uma
topologia lógica sem loops para cada rede conhecida. Para construir essa topologia, usa-se o
caminho mais curto com o menor custo, selecionando-se assim a melhor rota.

Essas informações de roteamento são mantidas. Quando há uma alteração no estado de um


link, os roteadores usam um processo de inundação para avisar os outros roteadores da rede
sobre ela. O temporizador dead interval do protocolo Hello fornece um mecanismo simples
para determinar se um vizinho adjacente está inoperante.

48
MODULO 03 – EIGRP
Visão Geral

O EIGRP é um protocolo de roteamento proprietário da Cisco que é baseado no IGRP.

O EIGRP suporta CIDR e VLSM, o que permite que os projetistas de redes maximizem o
espaço de endereçamento. Comparado ao IGRP, que é um protocolo de roteamento classful, o
EIGRP oferece tempos de convergência mais rápidos, melhor escalabilidade e um melhor
gerenciamento de loops de roteamento.

Além do mais, o EIGRP pode substituir o Novell RIP e o AppleTalk Routing Table Maintenance
Protocol (RTMP). O EIGRP serve tanto em redes IPX e AppleTalk com possante eficiência.

O EIGRP é freqüentemente descrito como um protocolo de roteamento híbrido que oferece o


melhor dos algoritmos vetor de distância e link-state.

O EIGRP é um protocolo de roteamento avançado que se vale de recursos geralmente


associados aos protocolos link-state. Alguns dos melhores recursos do OSPF, tais como
atualizações parciais e descoberta de vizinhos, são igualmente utilizados pelo EIGRP. No
entanto, o EIGRP é mais fácil de configurar que o OSPF.

O EIGRP é uma escolha ideal para redes grandes com vários protocolos baseadas
principalmente em roteadores Cisco.

Este modulo cobre as tarefas mais comuns de configuração do EIGRP. A ênfase está na
maneira em que o EIGRP estabelece relações com roteadores adjacentes, calcula rotas
primárias e de backup e responde a falhas nas rotas conhecidas para um determinado destino.

Uma rede é composta de muitos dispositivos, protocolos e meios físicos que permitem a
ocorrência de comunicação de dados. Quando um componente de rede não funciona
corretamente, isso pode afetar toda a rede. De qualquer maneira, os administradores de rede
precisam identificar e resolver rapidamente os problemas quando surgem. As seguintes são
algumas razões pelas quais ocorrem problemas nas redes:

• Comandos são utilizados incorretamente


• Listas de acesso são criadas ou colocadas incorretamente
• Roteadores, switches ou outros dispositivos de rede são configurados incorretamente
• Conexões físicas são defeituosas

Um administrador de rede deve identificar e resolver problemas de maneira metódica com a


utilização de um método geral de resolução de problemas. É freqüentemente útil procurar
primeiro problemas na camada física para depois subir através das camadas de maneira

49
organizada. Embora este módulo focalize a maneira de identificar e resolver problemas nos
protocolos de Camada 3, é importante identificar e eliminar quaisquer problemas que possam
existir nas camadas inferiores.

Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Descrever as diferenças entre o EIGRP e o IGRP


• Descrever os conceitos, tecnologias e estruturas de dados mais importantes do EIGRP
• Entender a convergência do EIGRP e a operação básica do Diffusing Update Algorithm
(DUAL)
• Realizar a configuração básica do EIGRP
• Configurar rotas EIGRP sumarizadas
• Descrever o processo utilizado pelo EIGRP para criar e manter tabelas de roteamento
• Verificar as operações do EIGRP
• Descrever o processo geral de oito etapas para identificar e resolver problemas
• Aplicar um processo lógico à identificação e resolução de problemas de roteamento
• Usar os comandos show e debug para identificar e resolver problemas com RIP
• Usar os comandos show e debug para identificar e resolver problemas com o IGRP
• Usar os comandos show e debug para identificar e resolver problemas com o EIGRP
• Usar os comandos show e debug para identificar e resolver problemas com o OSPF

3.1 EIGRP
3.1.1 Comparando o EIGRP e o IGRP

A Cisco lançou o EIGRP em 1994 como versão melhorada e escalável do seu protocolo de
roteamento de vetor de distância, o IGRP. Esta página irá explicar como o EIGRP e o IGRP se
comparam. A tecnologia de vetor de distância e as informações de distâncias utilizadas pelo
IGRP são também usadas pelo EIGRP.

O EIGRP possui propriedades de convergência melhoradas e opera com mais eficiência do


que o IGRP. Isso permite que uma rede tenha uma arquitetura melhorada, mantendo o
investimento já feito no IGRP.

As comparações entre o EIGRP e o IGRP cabem dentro das seguintes categorias principais:

• Modo de compatibilidade
• Cálculo da métrica
• Contagem de saltos
• Redistribuição automática de protocolos
• Route tagging

O IGRP e o EIGRP são compatíveis um com o outro. Esta compatibilidade proporciona uma
interoperabilidade transparente de roteadores que utilizam IGRP. Isto é importante porque os
usuários podem valer-se das vantagens de ambos os protocolos. O EIGRP oferece suporte de
vários protocolos, mas o IGRP não.

O EIGRP e o IGRP calculam suas métricas de forma um pouco diferente. O EIGRP multiplica a
métrica do IGRP por um fator de 256. Isso é porque o EIGRP utiliza uma métrica de 32 bits e o
IGRP utiliza uma métrica de 24 bits. O EIGRP pode multiplicar ou dividir por 256 para
facilmente trocar informações com o IGRP.

O IGRP possui uma contagem máxima de saltos de 255. O EIGRP tem um limite máximo de
contagem de saltos de 224. Isso é mais que suficiente para suportar redes de grande porte
apropriadamente projetadas.

50
Permitir que protocolos de roteamento tão diferentes quanto o OSPF e o RIP compartilhem
informações exige uma configuração avançada. A redistribuição ou compartilhamento de rotas
é automático entre o IGRP e o EIGRP contanto que ambos os processos usem o mesmo
número AS.

Na Figura , o RTB automaticamente redistribui rotas aprendidas por EIGRP para o AS do IGRP
e vice-versa. O EIGRP marca como externas as rotas aprendidas por IGRP ou vindas de
qualquer fonte externa porque estas rotas não são oriundas de roteadores que utilizam o
EIGRP. IGRP não pode diferenciar entre rotas internas e externas.

Note que na saída do comando show ip route para os roteadores na Figura

As rotas EIGRP são marcada com D e as rotas externas são identificadas por EX. RTA
identifica a diferença entre a rede 172.16.0.0, que foi aprendida através do EIGRP e a rede
192.168.1.0 que foi redistribuída a partir do IGRP. Na tabela RTC, o protocolo IGRP não faz tal
distinção. O RTC, que usa somente o IGRP, enxerga apenas as rotas IGRP,
independentemente do fato de que tanto 10.1.1.0 como 172.16.0.0 foram redistribuídas a partir
do EIGRP.

51
3.1.2 Conceitos e terminologia do EIGRP

Esta página irá tratar das três tabelas utilizadas pelo EIGRP para armazenar informações sobre
a rede.

Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia prontamente
disponíveis em RAM para que possam reagir rapidamente a mudanças. Como o OSPF, o
EIGRP guarda essas informações em várias tabelas e bancos de dados.

O EIGRP guarda rotas aprendidas de maneira específica. As rotas recebem um determinado


status e podem ser marcadas para fornecer outras informações úteis.

As seguintes três tabelas são mantidas pelo EIGRP:

• Tabela de vizinhos
• Tabela de topologia
• Tabela de roteamento

A tabela de vizinhos é a tabela mais importante do EIGRP. Cada roteador EIGRP mantém uma
tabela de vizinhos que lista os roteadores adjacentes. Essa tabela é comparável ao banco de
dados de adjacências utilizado pelo OSPF. Existe uma tabela de vizinhos para cada protocolo
suportado pelo EIGRP.

Quando novos vizinhos são descobertos, o endereço e a interface do vizinho são registrados.
Estas informações são armazenadas na estrutura de dados referente ao vizinho. Quando um
vizinho envia um pacote de hello, ele anuncia um hold time (tempo de retenção). O hold time é
o período de tempo em que um roteador trata um vizinho como alcançável e operacional. Se
um pacote de hello não for recebido dentro do hold time, este hold time expirará. Ao expirar o
hold time, o Diffusing Update Algorithm (DUAL), que é o algoritmo de vetor de distância do
EIGRP, recebe notificação da mudança na topologia e precisa recalcular a nova topologia.

A tabela de topologia consiste em todas as tabelas de roteamento EIGRP no sistema


autônomo. O DUAL utiliza as informações fornecidas pela tabela de vizinhos e pela tabela de
topologia e calcula as rotas de menor custo para cada destino. O EIGRP mantém estas
informações de modo que os roteadores que utilizam o EIGRP possam identificar e comutar
rapidamente para rotas alternativas. As informações que o roteador aprende do DUAL são
utilizadas para determinar a rota sucessora (successor route)que é o termo usado para
identificar a rota primária ou a melhor rota. Essas informações também são inseridas na tabela
de topologia. Os roteadores que utilizam o EIGRP mantêm uma tabela de topologia para cada
protocolo de rede configurado. Todas as rotas aprendidas para cada destino são mantidas na
tabela de topologia.

Os campos da tabela de topologia são os seguintes:

• Feasible distance (FD) – Esta é a menor métrica calculada para cada destino. Por
exemplo, a feasible distance (distância viável) até 32.0.0.0 é 2195456.
• Route source – O número de identificação do roteador que originalmente anunciou
essa rota. Esse campo só está preenchido em rotas externas à rede EIGRP. O route
tagging pode ser útil quando for utilizado roteamento baseado em diretivas. Por
exemplo, a origem da rota até 32.0.0.0 é 200.10.10.10 através de 200.10.10.10.
• Reported distance (RD) – A distância relatada por um vizinho adjacente para um
destino específico. Por exemplo, a reported distance para 32.0.0.0 é 281600 como
indicado em (2195456/281600).
• Interface information – A interface através da qual o destino pode ser alcançado.
• Route status –O status de uma rota. As rotas são identificadas como sendo passivas,
que significa que a rota é estável e pronta para ser usada, ou ativa, que significa que a
rota está no processo de ser recomputada pelo DUAL.

52
A tabela de roteamento EIGRP contém as melhores rotas até cada destino. Estas informações
são geradas a partir da tabela de topologia. Os roteadores que utilizam o EIGRP mantêm uma
tabela de roteamento para cada protocolo de rede.

Um successor route é uma rota selecionada como rota primária para alcançar um destino. O
DUAL identifica essa rota a partir das informações contidas nas tabelas de vizinhos e de
topologia e as coloca na tabela de roteamento. Podem existir até quatro successor routes para
qualquer determinado destino. Essas podem ser de custo igual ou desigual e são identificadas
como os melhores caminhos livres de loops até um dado destino.

Uma feasible successor (FS) é uma rota de reserva.

Essas rotas são identificadas ao mesmo tempo que as successor routes, mas essas rotas só
ficam guardadas na tabela de topologia. Podem ser retidas na tabela de topologia várias
feasible successors para um destino mas isso não é obrigatório.

53
Um roteador enxerga as feasible successors como próximos vizinhos, ou seja, mais perto do
destino do que ele mesmo. O custo de uma feasible successor é computado de acordo com o
custo anunciado pelo roteador vizinho até o destino. Se uma successor route se tornar inativa,
o roteador procurará uma feasible successor já identificada. Essa rota será promovida ao
status de successor route. Uma feasible successor precisa possuir um custo anunciado inferior
ao custo atual da successor route até o destino. Se uma feasible successor não for identificada
a partir das informações atuais, o roteador colocará a rota com o status Ativo e enviará pacotes
de solicitação para todos os vizinhos de modo a computar a topologia atual. O roteador pode
identificar qualquer nova successor route ou feasible successor dentre os novos dados
recebidos nos pacotes de resposta (Reply) relativos às solicitações realizadas. O roteador
então colocará um status Passivo na rota.

A tabela de topologia pode registrar informações adicionais sobre cada rota. O EIGRP
classifica as rotas como internas ou externas. O EIGRP acrescenta um route tag em cada rota
para identificar a sua classificação. As rotas internas se originam dentro do AS do EIGRP.

As rotas externas se originam fora do AS do EIGRP. As rotas aprendidas ou redistribuídas de


outros protocolos de roteamento tais como o RIP, o OSPF e o IGRP, são externas. As rotas
estáticas que se originam fora do AS do EIGRP são externas. O route tag pode ser configurado
como número entre 0 e 255 para personalizar o route tag.

3.1.3 Características do projeto do EIGRP

Esta página irá descrever algumas das características de um projeto EIGRP.

O EIGRP opera bastante diferente do IGRP. O EIGRP é um protocolo avançado de vetor de


distância, mas também age como protocolo link-state na maneira em que ele atualiza os
vizinhos e como mantêm informações de roteamento. A seguir são apresentadas as vantagens
do EIGRP sobre os protocolos de vetor de distância mais simples.

• Convergência rápida
• Utilização eficiente da largura de banda
• Suporte para VLSM e CIDR
• Suporte para várias camadas de rede
• Não depende dos protocolos roteados

54
Os protocol-dependent modules (PDMs) protegem o EIGRP contra revisões muito longas. A
evolução de protocolos roteados, tais como IP, poderão exigir um novo módulo de protocolo,
mas não necessariamente uma revisão do EIGRP propriamente dito.

Os roteadores que utilizam o EIGRP têm convergência rápida porque se valem do DUAL. O
DUAL garante uma operação livre de loops durante uma computação de rota que permita que
todos os roteadores envolvidas em uma mudança de topologia sincronizem simultaneamente.

O EIGRP envia atualizações parciais e limitadas e utiliza eficientemente a largura de banda. O


EIGRP utiliza o mínimo de largura de banda quando a rede está estável. Os roteadores que
utilizam o EIGRP não enviam as tabelas inteiras, mas enviam atualizações parciais e
incrementais. Esta operação é semelhante à do OSPF, exceto que os roteadores que utilizam o
EIGRP enviam essas atualizações parciais somente aos roteadores que precisam das
informações e não a todos os roteadores dentro de uma área. Por esta razão, são
denominadas atualizações limitadas. Em lugar de atualizações de roteamento temporizadas, os
roteadores que utilizam o EIGRP utilizam pequenos pacotes de hello para manter o contato
entre si. Embora sejam trocados regularmente, os pacotes de hello não ocupam uma grande
quantidade de largura de banda.

O EIGRP suporta IP, IPX e AppleTalk através de PDMs. O EIGRP pode redistribuir
informações IPX-RIP e IPX SAP para melhorar o desempenho geral. De fato, o EIGRP pode
assumir o papel desses dois protocolos. Os roteadores que utilizam o EIGRP recebem
atualizações de roteamento e serviços e atualizam outros roteadores apenas quando ocorrem
mudanças no SAP ou nas tabelas de roteamento. Nas redes que utilizam o EIGRP, as
atualizações de roteamento ocorrem em atualizações parciais. O EIGRP também pode
substituir o RTMP do AppleTalk. Como protocolo de roteamento de vetor de distância, o RTMP
depende de trocas periódicas e completas de informações de roteamento. Para reduzir a
utilização de recursos, o EIGRP usa atualizações event-driven para redistribuir informações de
roteamento AppleTalk. O EIGRP também usa uma métrica composta configurável para
determinar a melhor rota até uma rede AppleTalk. O RTMP utiliza a contagem de saltos, que
pode resultar em um roteamento menos que ótimo. Os clientes AppleTalk esperam receber
informações RTMP dos roteadores locais, de modo que o EIGRP para AppleTalk deve ser
executado somente em uma rede sem clientes, tal como um link WAN.

3.1.4 Tecnologias EIGRP

Esta página irá tratar de algumas das novas tecnologias introduzidas pelo EIGRP. Cada nova
tecnologia representa uma melhoria na eficiência de operação, velocidade de convergência ou
funcionalidade do EIGRP com relação ao IGRP e outros protocolos de roteamento. Essas
tecnologias se enquadram em uma das seguintes quatro categorias:

• Descoberta e recuperação de vizinhos


• Protocolo de Transporte Confiável
• Algoritmo DUAL que usa uma máquina de estado finito
• Módulos dependentes do protocolo

Os roteadores que usam os simples protocolos de vetor de distância não estabelecem relações
com seus vizinhos. Os roteadores que utilizam o RIP e o IGRP meramente enviam atualizações
por broadcast ou multicast nas interfaces configuradas. Em contraste, os roteadores que
utilizam o EIGRP ativamente estabelecem relações com seus vizinhos, de maneira muito
semelhante àquela dos roteadores OSPF.

Os roteadores que utilizam o EIGRP estabelecem adjacências conforme descrito na Figura .

55
Os roteadores que utilizam o EIGRP utilizam pequenos pacotes de hello para realizar isso. Os
pacotes de hello são enviados por default de cinco em cinco segundos. Um roteador EIGRP
supõe que, enquanto recebe pacotes de hello dos seus vizinhos conhecidos, esses vizinhos e
suas rotas permaneçam viáveis ou no estado Passivo. Quando os roteadores que utilizam o
EIGRP formam adjacências, é possível:

• Aprender dinamicamente novas rotas que se juntam à rede


• Identificar roteadores que se tornam inalcançáveis ou inoperantes
• Descobrir novamente roteadores que antes eram inalcançáveis

O Reliable Transport Protocol (RTP) é um protocolo da camada de transporte que garante a


entrega de pacotes EIGRP para todos os vizinhos. Em uma rede IP, os hosts usam TCP para
seqüenciar pacotes e assegurar a sua pronta entrega. No entanto, o EIGRP é independente de
protocolo. Isso significa que ele não depende do TCP/IP para trocar informações de
roteamento como é o caso do RIP, do IGRP e do OSPF. Para manter-se independente do
TCP, o EIGRP usa o RTP como seu protocolo proprietário da camada de transporte para
garantir a entrega de informações de roteamento. O EIGRP pode valer-se do RTP para
providenciar serviços confiáveis ou não confiáveis conforme as exigências da situação. Por
exemplo, os pacotes de hello não exigem o overhead de entrega confiável porque são
freqüentes e devem permanecer pequenos. A entrega confiável de outras informações de
roteamento podem até acelerar a convergência porque daí, os roteadores que utilizam o
EIGRP não esperam a expiração de um temporizador antes de retransmitir.

Com o RTP, o EIGRP pode enviar multicast ou unicast simultaneamente para diferentes pares.
Isso permite eficiência máxima.

O ponto forte do EIGRP é o DUAL, que é o mecanismo de cálculo de rotas do EIGRP. O nome
completo dessa tecnologia é DUAL finite-state machine (FSM). Uma FSM é uma máquina de
estados e não um dispositivo mecânico com peças que se movem. As FSMs definem um
conjunto de possíveis estados pelos quais algo pode passar, os eventos que causam tais
estados e os eventos que resultam de tais estados. Os projetistas usam FSMs para descrever
como um dispositivo, programa de computador ou algoritmo de roteamento irá reagir a um
conjunto de eventos especificados. A FSM do DUAL contém toda a lógica usada para calcular
e comparar rotas em uma rede EIGRP.

56
O DUAL rastreia todas as rotas anunciadas por vizinhos. As métricas composta de cada rota
são usadas para compará-las.

O DUAL também garante que cada caminho esteja livre de loops. O DUAL insere os
caminhos de menor custo na tabela de roteamento. Essas rotas primárias são conhecidas
como successor routes. Uma cópia das successor routes é também colocada na tabela de
topologia.

O EIGRP mantém disponíveis informações importantes sobre rotas e sobre a topologia na


tabela de vizinhos e na tabela de topologia. Essas tabelas fornecem ao DUAL abrangentes
informações sobre rotas por ocasião de algum distúrbio da rede. O DUAL usa as informações
dessas tabelas para rapidamente selecionar rotas alternativas. Se um link for desativado, o
DUAL procura uma rota alternativa, ou seja, uma feasible successor, dentro da tabela de
topologia.

Uma das melhores características do EIGRP é o seu projeto modular. Os projetos modulares
ou em camadas, são comprovadamente os mais escaláveis e adaptáveis. O suporte para
protocolos roteados, tais como IP, IPX e AppleTalk é incluído no EIGRP através de PDMs.
Teoricamente, o EIGRP pode adicionalr PDMs para uma fácil adaptação a protocolos novos ou
revisados como IPv6.

Cada PDM é responsável por todas as funções relacionadas ao seu protocolo roteado
específico. O módulo IP-EIGRP é responsável pelas seguintes funções:

• Enviar e receber pacotes EIGRP que contêm dados IP


• Notificar o DUAL sobre novas informações de roteamento recebidas
• Manter os resultados de decisões de roteamento do DUAL na tabela de roteamento IP
• Redistribuir informações de roteamento que foram aprendidas por outros protocolos de
roteamento compatíveis com IP

57
3.1.5 Estrutura de dados do EIGRP

Como o OSPF, o EIGRP se vale de diferentes tipos de pacotes para manter suas tabelas e
estabelecer relações com roteadores vizinhos. Esta página irá descrever esses tipos de
pacotes.

São cinco os tipos de pacotes EIGRP:

• Hello
• Acknowledgment
• Update
• Query
• Reply

O EIGRP depende dos pacotes de hello para descobrir, verificar e redescobrir roteadores
vizinhos. A redescoberta ocorre se os roteadores que utilizam o EIGRP não recebem pacotes
de hello dos seus vizinhos após um intervalo de retenção (hold time interval) e depois
restabelecem comunicações.

Os roteadores que utilizam o EIGRP enviam pacotes de hello a um intervalo fixo, mas
configurável, denominado intervalo de hello.

O intervalo de hello default depende da largura de banda da interface. Nas redes IP, os
roteadores que utilizam o EIGRP enviam pacotes de hello ao endereço IP multicast 224.0.0.10.

Os roteadores que utilizam o EIGRP guardam informações sobre vizinhos na tabela de


vizinhos. A tabela de vizinhos inclui o campo Sequence Number (Seq No) para registrar o
número do último pacote EIGRP recebido de cada vizinho. A tabela de vizinhos também inclui
um campo Hold Time que registra a hora em que foi recebido o último pacote. Os pacotes
devem ser recebidos dentro do intervalo de Hold Time para manter um estado Passivo. O
estado Passivo representa um status de alcançável e operacional.

Se o EIGRP não receber um pacote de um vizinho dentro do hold time, o EIGRP considerará
aquele vizinho como inativo. O DUAL então entra em cena para reavaliar a tabela de
roteamento. Por default, o hold time é três vezes o intervalo de hello, mas um administrador
pode configurar ambos os temporizadores a seu próprio critério.

O OSPF exige que os roteadores vizinhos tenham os mesmos intervalos de hello e dead
interval para se comunicar. O EIGRP não tem tal restrição. Os roteadores vizinhos aprendem
sobre cada um dos outros temporizadores respectivos através da troca de pacotes de hello.
Em seguida utilizam essas informações para formar uma relação estável independentemente
dos temporizadores desiguais. Os pacotes de hello são sempre enviados como não confiáveis.
Isto significa que nenhuma confirmação é transmitida.

Os roteadores que utilizam o EIGRP usam pacotes de confirmação (Acknowledgment) para


indicar o recebimento de qualquer pacote EIGRP durante uma troca confiável. O RTP provê
comunicação confiável entre hosts EIGRP. Uma mensagem recebida precisa ser confirmada

58
pelo destino para ser confiável. Os pacotes de confirmação (Acknowledgment), que são
pacotes de hello sem dados, são usados para esta finalidade. Diferentemente dos hellos
multicast, os pacotes de confirmação (Acknowledgment) são unicast. Confirmações podem ser
anexadas a outros tipos de pacotes EIGRP, tais como pacotes de resposta (Reply).

Os pacotes de atualização (Update) são utilizados quando um roteador descobre um novo


vizinho. Os roteadores que utilizam o EIGRP enviam pacotes de atualização (Update) em
unicast àquele novo vizinho para que possa ser adicionado à sua tabela de topologia. Poderá
ser necessário enviar mais de um pacote de atualização (Update) para comunicar todas as
informações de topologia ao vizinho recém-descoberto.

Os pacotes de atualização (Update) também são usados quando um roteador detecta uma
mudança na topologia. Nesse caso, o roteador EIGRP envia um pacote de atualização
(Update) em multicast a todos os vizinhos, alertando-os sobre a mudança. Todos os pacotes
de atualização (Update) são enviados como confiáveis.

Um roteador EIGRP usa pacotes de consulta (Query) sempre que precise de alguma
informação específica de um ou de todos os seus vizinhos. Um pacote de resposta (Reply) é
usado para responder à consulta.

Se um roteador EIGRP perder o seu sucessor e não puder encontrar um feasible successor
para uma rota, o DUAL coloca a rota no estado Ativo. É então enviado em multicast uma
consulta a todos os vizinhos na tentativa de localizar um sucessor até a rede destino. Os
vizinhos precisam enviar respostas que proporcionem informações sobre sucessores ou que
indiquem a indisponibilidade de informações. As consultas podem ser em multicast ou unicast,
mas as respostas sempre são em unicast. Os dois tipos de pacotes são enviados como
confiáveis.

3.1.6 Algoritmo EIGRP

Esta página irá descrever o algoritmo DUAL, que proporciona a convergência


excepcionalmente rápida do EIGRP. Para melhor entender a convergência com o DUAL,
considere o exemplo na Figura . Cada roteador constrói uma tabela de topologia que contém
informações sobre como rotear até o destino, Network A.

Cada tabela de topologia identifica as seguintes informações:

• O protocolo de roteamento ou o EIGRP


• O custo mais baixo da rota, que é conhecido como feasible distance (FD)
• O custo da rota conforme anunciado pelo roteador vizinho, que é conhecido como
reported distance (RD)

A coluna de Topologia identifica a rota primária denominada successor route (successor) e,


quando identificada, a rota de reserva, denominada feasible successor (FS). Note que não é
necessário haver uma feasible successor identificada.

A rede EIGRP segue uma seqüência de ações para permitir a convergência entre os
roteadores, que atualmente possuem as seguintes informações sobre a topologia:

59
• O Roteador C possui uma successor route através do Roteador B.
• O Roteador C possui uma rota feasible successor através do Roteador D.
• O Roteador D possui uma successor route através do Roteador B.
• O Roteador D não possui rota feasible successor.
• O Roteador E possui uma successor route através do Roteador D.
• O Roteador E não possui feasible successor.

As regras de seleção da rota feasible successor são especificadas na Figura .

60
O seguinte exemplo demonstra como cada roteador na topologia seguirá as regras de seleção
de feasible successor quando a rota a partir do Roteador D através do Roteador B cair.

• No Roteador D
o A rota através do Roteador B é removida da tabela de topologia.
o Esta é a successor route. O Roteador D não possui rota feasible successor
identificada.
o O Roteador D precisa computar novas rotas.
• No Roteador C
o A rota até Network A através do Roteador D está inativa.
o A rota através do Roteador D é removida da tabela.
o Esta é a rota feasible successor para o Roteador C.
• No Roteador D
o O Roteador D não possui feasible successor. Ele não pode comutar para uma
rota alternativa identificada como reserva.
o O Roteador D precisa computar a topologia da rede. O caminho até o destino,
Network A, é definido como Ativo.
o O Roteador D envia um pacote de consulta (Query) a todos os vizinhos
conectados para solicitar informações sobre a topologia.
o O Roteador C tem uma entrada anterior para o Roteador D.
o O Roteador D não tem uma entrada anterior para o Roteador E.
• No Roteador E
o A rota até Network A através do Roteador D está inativa.
o A rota através do Roteador D é removida da tabela.
o Esta é a successor route para o Roteador E.
o O Roteador E não tem uma feasible route identificada.
o Note que o custo RD do roteamento através do Roteador C é de 3. Esse é o
mesmo custo da successor route através do Roteador D.
• No Roteador C
o O Roteador E envia um pacote de consulta (Query) ao Roteador C.
o O Roteador C remove o Roteador E da tabela.
o O Roteador C responde ao Roteador D com uma nova rota até Network A.
• No Roteador D
o O status da rota até o destino, Network A, ainda está marcado como Ativo. A
computação ainda não foi concluída.

61
o O Roteador C respondeu ao Roteador D para confirmar que uma rota até o
destino, Network A, está disponível com um custo de 5.
o O Roteador D ainda espera uma resposta do Roteador E.
• No Roteador E
o O Roteador E não possui feasible successor para alcançar o destino, Network
A.
o O Roteador E, portanto, marca o status da rota até a rede destino como Ativo.
o O Roteador E precisa recomputar a topologia da rede.
o O Roteador E remove a rota através do Roteador D da tabela.
o O Roteador E envia um pacote de consulta (Query) ao Roteador C, para
solicitar informações sobre a topologia.
o O Roteador E já possui uma entrada através do Roteador C. O seu custo é de
3, o mesmo que o da successor route.
• No Roteador E
o O Roteador C responde com uma RD de 3.
o O Roteador E agora pode enviar a rota através do Roteador C como a nova
successor route com uma FD de 4 e uma RD de 3.
o O Roteador E troca o status Ativo da rota até o destino, Network A, por um
status Passivo. Note que a rota terá um status Passivo por default sempre que
estejam sendo recebidos pacotes de hello. Neste exemplo, somente as rotas
com status Ativo são marcadas.
• No Roteador E
o O Roteador E envia uma resposta (Reply) ao Roteador D para informá-lo sobre
as informações de topologia do Roteador E.
• No Roteador D
o O Roteador D recebe o pacote de resposta (Reply) do Roteador E.
o O Roteador D introduz esses dados para a rota até o destino, Network A,
através do Roteador E.
o Esta rota se torna mais uma successor route dado que o custo é idêntico
àquele do roteamento através do Roteador C e a RD é inferior ao custo FD de
5.

A convergência ocorre entre todos os roteadores que utilizam o EIGRP que utilizam o algoritmo
DUAL.

3.2 Configuração do EIGRP


3.2.1 Configurando o EIGRP

Apesar da complexidade do DUAL, a configuração do EIGRP pode ser relativamente simples.


Os comandos de configuração do EIGRP variam conforme o protocolo a ser utilizado. Alguns
exemplo desses protocolos são IP, IPX e AppleTalk. Esta página descreve a configuração do
EIGRP para o protocolo IP.

62
Siga as seguintes etapas para configurar o EIGRP para IP:

1. Use o seguinte comando para ativar o EIGRP e definir o sistema autônomo:

router(config)#router eigrp autonomous-system-number

O autonomous-system-number é usado para identificar todos os roteadores cujo lugar


é dentro da rede. Esse valor precisa ser igual para todos os roteadores pertencentes a
uma determinada rede.

2. Indique quais redes pertencem ao sistema autônomo EIGRP no roteador local através
do seguinte comando:

router(config-router)#network network-number

O network-number é o número da rede que determina quais interfaces do roteador


estão participando do EIGRP e quais redes são anunciadas pelo roteador.

O comando network configura somente as redes conectadas. Por exemplo, a rede


3.1.0.0, localizada bem à esquerda da Figura principal, não está diretamente conectada
ao Roteador A. Conseqüentemente, essa rede não faz parte da configuração do
Roteador A.

3. Ao configurar links seriais usando o EIGRP, é importante configurar o parâmetro de


largura de banda (Bandwidth) na interface. Se a largura de banda para essas interfaces
não for modificada, o EIGRP assume a largura de banda default no link em vez da
largura de banda verdadeira. Se o link for mais lento, o roteador talvez não possa
realizar a convergência, e as atualizações de roteamento poderão ser perdidas ou
poderá resultar uma seleção de caminhos que não seja ótima. Para definir a largura de
banda da interface, use a seguinte sintaxe:

router(config-if)#bandwidth kbps

O comando bandwidth é só usado pelo processo de roteamento e deve ser definido


para corresponder à velocidade da linha da interface.

63
4. A Cisco também recomenda adicionar o seguinte comando a todas as configurações
do EIGRP:

router(config-if)#eigrp log-neighbor-changes

Este comando possibilita o registro de mudanças de adjacências de vizinhos para


monitorar a estabilidade do sistema de roteamento e para ajudar na detecção de
problemas.

3.2.2 Configurando a sumarização do EIGRP

Esta página irá ensinar aos alunos como configurar manualmente endereços de sumarização.

O EIGRP faz automaticamente a sumarização das rotas no limite classful. Este é o limite onde
termina o endereço da rede, conforme definido pelo endereçamento baseado em classe. Isso
significa que embora RTC esteja conectado somente à sub-rede 2.1.1.0, ele anunciará que é
conectado à rede Classe A 2.0.0.0 inteira. Na maioria dos casos, a sumarização automática é
vantajosa porque mantém as tabelas de roteamento tão compactas como possível.

No entanto, a sumarização automática poderá não ser a opção preferida em certos casos. Por
exemplo, se houver sub-redes não contíguas, a sumarização automática precisa ser
desativada para uma operação correta do roteamento.

Para desativar a sumarização automática, use o seguinte comando:

router(config-router)#no auto-summary

64
Com o EIGRP, um endereço para sumarização pode ser manualmente configurado pela
configuração de uma rede de prefixo. Rotas sumarizadas manualmente são configuradas em
cada interface, de modo que a interface que irá propagar a sumarização das rotas precisa ser
selecionada primeiro. Depois, o endereço para sumarização poderá ser definido com o
comando ip summary-address eigrp:

router(config-if)#ip summary-address eigrp autonomous-system-number


ip-address mask administrative-distance

As rotas de sumarização EIGRP têm uma distância administrativa de 5 por default.


Opcionalmente, podem ser configuradas com um valor entre 1 e 255.

Na Figura , RTC pode ser configurado usando os comandos indicados:

RTC(config)#router eigrp 2446


RTC(config-router)#no auto-summary
RTC(config-router)#exit
RTC(config)#interface serial 0/0
RTC(config-if)#ip summary-address eigrp 2446 2.1.0.0 255.255.0.0

Portanto, RTC adicionará uma rota a sua tabela da seguinte maneira:

D 2.1.0.0/16 is a summary, 00:00:22, Null0

Note que a rota de sumarização origina de Null0 e não de uma interface real. Isso é porque
essa rota é usada para fins de anúncio e não representa um caminho que o RTC pode seguir
para alcançar a rede. No RTC, essa rota tem uma distância administrativa de 5.

O RTD não está ciente da sumarização mas aceita a rota. À rota é atribuída a distância
administrativa de uma rota EIGRP normal, que é 90 por default.

Na configuração para o RTC, a sumarização automática é desativada através do comando no


auto-summary. Se a sumarização automática não estivesse desativada, o RTD receberia
duas rotas, o endereço para sumarização manual, que é 2.1.0.0 /16, e o endereço para
sumarização automática, classful, que é 2.0.0.0 /8.

Na maioria dos casos de sumarização manual, deve ser utilizado o comando no auto-
summary.

3.2.3 Verificando o EIGRP básico

65
Esta página irá explicar como os comandos show podem ser usados para verificar
configurações do EIGRP. A Figura enumera os comandos show mais importantes para o
EIGRP e explica brevemente as suas funções.

O recurso debug do Cisco IOS também proporciona comandos de monitoramento úteis para o
EIGRP.

66
3.2.4 Criando tabelas de vizinhos

Esta página irá explicar como o EIGRP cria tabelas de vizinhos. Os alunos também irão
aprender sobre as informações armazenadas em uma tabela de vizinhos e como são
utilizadas.

Os roteadores vetor de distância simples não estabelecem relações com seus vizinhos. Os
roteadores que utlizam o RIP e o IGRP meramente enviam atualizações por broadcast ou
multicast nas interfaces configuradas. Em contraste, os roteadores que utilizam o EIGRP
estabelecem de forma ativa relações com seus vizinhos como é o caso dos roteadores OSPF.

A tabela de vizinhos é a tabela mais importante do EIGRP. Cada roteador EIGRP mantém uma
tabela de vizinhos que lista os roteadores adjacentes. Essa tabela é comparável ao banco de
dados de adjacências utilizado pelo OSPF. Existe uma tabela de vizinhos para cada protocolo
suportado pelo EIGRP.

Os roteadores que utilizam o EIGRP estabelecem adjacências com os roteadores vizinhos


usando pequenos pacotes de hello. Os pacotes de hello são enviados por default de cinco em
cinco segundos. Um roteador EIGRP supõe que enquanto recebe pacotes de hello dos seus
vizinhos conhecidos, esses vizinhos e suas rotas permanecem viáveis ou com estado passivo.
Ao formar adjacências, os roteadores que utilizam o EIGRP fazem o seguinte:

• Aprendem dinamicamente sobre novas rotas que se juntam à sua rede


• Identificam roteadores que se tornam inalcançáveis ou inoperantes
• Descobrem novamente roteadores que antes eram inalcançáveis

Os seguintes campos encontram-se em uma tabela de vizinhos:

• Neighbor address – Este é o endereço de camada de rede do roteador vizinho.


• Hold time – Este é o intervalo de espera sem receber nada de um vizinho antes de
considerar o link inalcançável. Originalmente, o pacote esperado era um pacote de
hello, mas em versões mais recentes do software Cisco IOS, qualquer pacote EIGRP
recebido após o primeiro pacote de hello renovará o temporizador.
• Smooth Round-Trip Timer (SRTT) – Este é o tempo médio que leva para enviar e
receber pacotes de um vizinho. Este temporizador é usado para determinar o
retransmit interval (RTO).
• Queue count (Q Cnt) – Este é o número de pacotes esperando em uma fila para
serem enviados. Se este campo constantemente apresentar um valor superior a zero,
poderá haver um problema de congestionamento no roteador. Um zero significa que
não há pacotes EIGRP na fila.
• Sequence Number (Seq No) – Este é o número do último pacote recebido daquele
vizinho. O EIGRP usa este campo para confirmar uma transmissão de um vizinho e

67
para identificar pacotes que estejam fora de seqüência. A tabela de vizinhos é usada
para suportar uma entrega seqüenciada e confiável de pacotes e pode ser considerada
como análoga ao protocolo TCP usado na entrega confiável de pacotes IP.

3.2.5 Descobrir rotas

Esta página irá explicar como o EIGRP armazena informações sobre rotas e topologias. Os
alunos também irão aprender como o DUAL usa estas informações para rotear dados.

Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia disponíveis
em RAM para que possam reagir rapidamente a mudanças. Como o OSPF, o EIGRP guarda
essas informações em várias tabelas ou bancos de dados.

O DUAL, o algoritmo de vetor de distância do EIGRP, utiliza as informações reunidas nas


tabelas de vizinhos e de topologia e calcula a rota de custo mais baixo até o destino. A rota
primária é denominada successor route. O DUAL, depois de calcular a successor route, coloca-
a na tabela de roteamento e uma cópia dela na tabela de topologia.

O DUAL também tenta calcular uma rota de reserva no caso da successor route falhar. Essa é
conhecida como rota feasible successor. O DUAL, depois de calcular a rota feasible successor
coloca-a na tabela de topologia. Essa rota pode evocada se a successor route até o destino se
tornar inalcançável ou não confiável.

3.2.6 Selecionar rotas

Esta página irá explicar como o DUAL seleciona uma rota alternativa na tabela de topologia
quando um link se torna inativo. Se não for encontrada uma rota feasible successor, a rota é
marcada como Ativa, ou seja, não utilizável no momento. Pacotes de consulta (Query) são
enviados aos roteadores vizinhos solicitando informações sobre a topologia. O DUAL utiliza
essas informações para recalcular rotas successor route e feasible successor até o destino.

Quando o DUAL tiver concluído esses cálculos, a successor route é colocada na tabela de
roteamento. Em seguida tanto a successor route como a rota feasible successor são colocadas
na tabela de topologia. A rota até o destino final agora passa do estado Ativo ao estado
Passivo. Isto significa que a rota está operacional e confiável.

O sofisticado algoritmo do DUAL resulta em uma convergência excepcionalmente rápida do


EIGRP. Para melhor entender a convergência com o DUAL, considere o exemplo na Figura .
Todos os roteadores construíram uma tabela de topologia que contém informações sobre como
rotear até o destino, network Z.

Cada tabela identifica o seguinte:

• O protocolo de roteamento ou o EIGRP


• O custo mais baixo da rota ou Feasible Distance (FD)
• O custo da rota conforme anunciado pelo roteador vizinho ou Reported Distance (RD)

O DUAL identifica a rota primária preferida, conhecida como successor route (Successor). O
DUAL também identificará rotas backup, se houver, conhecidas como feasible successors (FS).
Observe que não é necessário ter uma feasible successor identificada.

68
3.2.7 Mantendo tabelas de roteamento

Esta página irá explicar como o DUAL mantém e atualiza tabelas de roteamento.

O DUAL rastreia todas as rotas anunciadas pelos vizinhos usando a métrica composta de cada
rota para sua comparação. O DUAL também garante que cada caminho esteja livre de loops.

Os caminhos de custo mais baixo são inseridos pelo algoritmo DUAL na tabela de roteamento.
Essas rotas primárias são conhecidas como successor routes. Uma cópia dessas rotas é
colocada na tabela de topologia.

O EIGRP mantém disponíveis informações importantes sobre rotas e sobre a topologia na


tabela de vizinhos e na tabela de topologia. Essas tabelas fornecem ao DUAL abrangentes
informações sobre rotas por ocasião de algum distúrbio da rede. O DUAL seleciona
rapidamente as rotas alternativas, utilizando as informações nessas tabelas.

Se um link for desativado, o DUAL procura um caminho alternativo, ou seja, uma feasible
successor, dentro da tabela de topologia. Se não for encontrada uma feasible successor, a rota
é marcada como Ativa, ou seja, não utilizável no momento. Pacotes de consulta (Query) são
enviados aos roteadores vizinhos solicitando informações sobre a topologia. O DUAL utiliza
essas informações para recalcular as successor routes e feasible successor routes até o
destino.

Quando o DUAL tiver concluído esses cálculos, a successor route é colocada na tabela de
roteamento. Em seguida tanto a successor route como a rota feasible successor são colocadas
na tabela de topologia. A rota até o destino final agora passa do estado Ativo ao estado
Passivo. Isto significa que a rota está operacional e confiável.

Os roteadores que utilizam o EIGRP estabelecem e mantêm adjacências com os roteadores


vizinhos usando pequenos pacotes de hello. Os pacotes de hello são enviados por default de
cinco em cinco segundos. Um roteador EIGRP supõe que enquanto recebe pacotes de hello
dos seus vizinhos conhecidos, esses vizinhos e suas rotas permanecem viáveis ou com status
passivo.

Quando novos vizinhos são descobertos, o endereço e a interface do vizinho são registrados.
Estas informações são armazenadas na estrutura de dados referente ao vizinho. Quando um
vizinho envia um pacote de hello, ele anuncia um hold time. O hold time é o período de tempo
em que um roteador trata um vizinho como alcançável e operacional. Em outras palavras, se
não for ouvido um pacote de hello dentro do hold time, o hold time vence. Ao vencer o hold
time, o DUAL é informado sobre a mudança na topologia e precisa recalcular a nova topologia.

As novas successor routes serão colocadas na tabela de roteamento atualizada.

3.3 Identificando e Resolvendo Problemas com Protocolos de


Roteamento
3.3.1 Processo de identificação e resolução de problemas com
protocolos de roteamento

Esta página irá explicar a seqüência lógica de etapas que devem ser usadas para identificar e
resolver qualquer problema com protocolos de roteamento.

Qualquer identificação e resolução de problemas com protocolos de roteamento deve começar


com uma seqüência ou fluxo lógico do processo. Esse fluxo do processo não é uma estrutura
rígida para a identificação e resolução de problemas de uma rede. No entanto é uma base
sobre a qual um administrador de rede pode criar um processo de resolução de problemas que
se adapte a um ambiente em particular.

69
1. Quando estiver analisando uma falha da rede, faça uma descrição clara do problema.

2. Colete os fatos necessários para ajudar na determinação das causas possíveis.

3. Considere possíveis problemas baseando-se nos fatos coletados.

4. Crie um plano de ação baseando-se nos problemas em potencial restantes.

5. Implemente o plano de ação, realizando cuidadosamente cada etapa enquanto testa


para ver se o sintoma desaparece.

70
6. Analise os resultados para determinar se o problema já foi resolvido. Caso tenha sido,
então o processo está completo.

7. Se por acaso o problema não foi resolvido, crie um plano de ação baseado no
problema mais provável na lista. Volte à Etapa 4, mude uma variável de cada vez e
repita o processo até que seja resolvido o problema.

8. Uma vez identificada a causa real do problema, tente resolvê-lo.

Os roteadores Cisco providenciam vários comandos integrados para ajudar na monitoramento


e resolução de problemas de uma rede:

• Os comandos show ajudam a monitorar o comportamento de uma instalação assim


como o comportamento normal de uma rede assim como a isolar áreas problemáticas

• Os comandos debug auxiliam no isolamento de problemas de configuração e de


protocolos.
• Ferramentas de rede TCP/IP tais como ping, traceroute e telnet

71
Os comandos show do Cisco IOS encontram-se entre as ferramentas mais importantes para
entender o status de um roteador, detectar roteadores vizinhos, monitorar a rede em geral e
isolar problemas na rede.

Os comandos EXEC debug podem fornecer uma abundância de informações sobre o tráfego
nas interfaces, mensagens de erros internos, pacotes de diagnóstico específicos ao protocolo e
outros dados úteis para a identificação e resolução de problemas. Use os comando debug
para isolar problemas, não para monitorar a operação normal da rede. Use os comandos
debug apenas para procurar tipos específicos de tráfego ou de problemas. Antes de usar o
comando debug, restrinja os problemas a um subconjunto de causas mais prováveis. Use o
comando show debugging para examinar quais recursos de depuração estão ativados.

3.3.2 Identificando e resolvendo problemas de configuração do RIP

Esta página irá tratar de VLSM como o problema mais comum que ocorre nas redes RIP.
VLSM impede o anúncio de rotas RIP. Isso deve-se ao fato de que o RIP Versão 1 não suporta
VLSM. Se as rotas RIP não estão sendo anunciadas, verifique o seguinte:

• Se existem questões de conectividade de Camada 1 ou Camada 2.


• Se estão configuradas sub-redes VLSM. Sub-redes VLSM não podem ser usadas com
RIP v1.
• Se existem incompatibilidades de configurações de roteamento do RIP v1 e do RIP v2.
• Se estão faltando comandos network ou se estes foram usados incorretamente.
• Se a interface de saída está inativa.
• Se a interface da rede anunciada está inativa.

O comando show ip protocols fornece informações sobre os parâmetros e sobre o estado


atual do processo do protocolo de roteamento ativo. O RIP envia atualizações às interfaces nas
redes especificadas. Se a interface FastEthernet 0/1 fosse configurada mas a rede não fosse
adicionada ao roteamento RIP, nenhuma atualização seria enviada ou recebida através da
interface.

Use o comando EXEC debug ip rip para exibir informações sobre transações de
roteamento RIP. O comando no debug ip rip, no debug all, ou undebug all desativa
toda a depuração.

72
A Figura mostra que o roteador sendo depurado recebeu uma atualização de outro roteador no
endereço origem 192.168.3.1. Esse roteador enviou informações sobre dois destinos na
atualização da tabela de roteamento. O roteador sendo depurado também enviou atualizações.
Ambos os roteadores enviaram um broadcast para o endereço 255.255.255.255 como destino.
O número entre parênteses representa o endereço origem encapsulado no cabeçalho IP.

Na saída abaixo, aparece uma entrada que muito provavelmente foi causada por um pacote
malformado vindo do transmissor:

RIP: bad version 128 from 160.89.80.43

3.3.3 Identificando e resolvendo problemas de configuração do IGRP

Esta página ensinará aos alunos como identificar e resolver problemas com o IGRP.

O IGRP é um protocolo de roteamento avançado de vetor de distância que foi desenvolvido


pela Cisco nos anos 1980. O IGRP possui várias características que o diferenciam de outros
protocolos de roteamento de vetor de distância tais como o RIP.

73
Use o comando router igrp autonomous-system para ativar o processo de roteamento
do IGRP:

R1(config)#router igrp 100

Use o comando de configuração de roteador network network-number para permitir que as


interfaces participem do processo de atualização do IGRP:

R1(config-router)#network 172.30.0.0
R1(config-router)#network 192.168.3.0

Verifique a configuração do IGRP com os comandos show running-configuration e


show ip protocols:

R1#show ip protocols

Verifique a operação do IGRP com o comando show ip route:

R1#show ip route

Se o IGRP não parece estar funcionando corretamente, verifique o seguinte:

• Se existem questões de conectividade de Camada 1 ou Camada 2.


• Se os números dos sistemas autônomos nos roteadores que utilizam IGRP não
correspondem.
• Se estão faltando comandos network ou se estes foram incorretamente utilizados.
• Se a interface de saída está inativa.
• Se a interface da rede anunciada está inativa.
• Para examinar informações de depuração do IGRP, use os seguintes comandos:
• debug ip igrp transactions [host ip address] para examinar informações
das transações IGRP
• debug ip igrp events [host ip address] para examinar informações de
atualização de roteamento

Para desligar a depuração, use o comando no debug ip igrp.

Se uma rede se tornar inacessível, os roteadores que executam o IGRP enviam triggered
updates aos vizinhos para informá-los sobre o fato. Um roteador vizinho então responderá com
atualizações poison reverse e manterá a rede suspeita em estado holddown durante 280
segundos.

3.3.4 Identificando e resolvendo problemas de configuração do EIGRP

Esta página irá apresentar alguns comandos utilizados para identificar e resolver problemas do
EIGRP.

Normalmente, a operação do EIGRP é estável, eficiente na utilização de largura de banda e


simples de monitorar e identificar e resolver problemas.

Use o comando router eigrp autonomous-system para ativar o processo de roteamento


EIGRP:

R1(config)#router eigrp 100

Para trocar atualizações de roteamento, cada roteador na rede EIGRP precisa ser configurado
com o mesmo número de sistema autônomo.

74
Use o comando de configuração de roteador network network-number para permitir que
as interfaces participem no processo de atualização do EIGRP:

R1(config-router)#network 172.30.0.0
R1(config-router)#network 192.168.3.0

Verifique a configuração do EIGRP com os comandos show running-configuration e


show ip protocols:

R1#show ip protocols

As seguintes são algumas razões possíveis porque o EIGRP não funcione corretamente:

• Se existem questões de conectividade de Camada 1 ou Camada 2.


• Se os números dos sistemas autônomos nos roteadores que utilizam o EIGRP não
correspondem.
• O link poderá estar congestionado ou inativo.
• Se a interface de saída está inativa.
• Se a interface da rede anunciada está inativa.
• A sumarização automática poderá estar ativada em roteadores com sub-redes não
contíguas. Utilize o comando no auto-summary para desativar a sumarização
automática de redes.

Uma das causas mais comuns da perda de contato com um vizinho é uma falha no link atual.
Outra causa possível é um temporizador de holddown expirado. Já que os pacotes de hello são
enviados de 5 em 5 segundos na maioria das rede, o tempo de holddown na saída de um
comando show ip eigrp neighbors normalmente deve ter um valor entre 10 e 15.

Para monitorar e identificar e resolver problemas com eficácia nas redes que utilizam o EIGRP,
use os comandos descritos nas Figuras

75
3.3.5 Identificando e resolvendo problemas de configuração do OSPF

Esta página ensinará aos alunos como identificar e resolver problemas com o OSPF.

O OSPF é um protocolo de roteamento link-state. Um link é uma interface em um roteador. O


estado do link é uma descrição daquela interface e da sua relação com os seus roteadores
vizinhos. Por exemplo, uma descrição da interface que incluiria o endereço IP, a máscara, o
tipo de rede à qual está conectada, os roteadores conectados àquela rede e assim por diante.
Estas informações formam um banco de dados link-state (do estado do link).

A maioria dos problemas encontrados com o OSPF se relaciona à formação de adjacências e à


sincronização dos bancos de dados link-state. O comando show ip ospf neighbor é útil
para identificar e resolver problemas com a formação de adjacências. Os comandos show que
podem ser utilizados para detecção e solução de problemas envolvendo OSPF são mostrados
na Figura .

Use o comando EXEC privilegiado debug ip ospf events para exibir as seguintes
informações sobre eventos relacionados ao OSPF:

• Adjacências
• Informações de flooding
• Seleção do designated router
• Cálculo do shortest path first (SPF)

Se um roteador configurado para o roteamento OSPF não enxerga um vizinho OSPF em uma
rede conectada, realize as seguintes tarefas:

• Certifique-se de que ambos os roteadores tenham sido configurados com a mesma


máscara IP, o mesmo intervalo de hello do OSPF e o mesmo intervalo dead do OSPF.

76
• Certifique-se de que ambos os vizinhos façam parte da mesma área.

Para exibir informações sobre cada pacote do Open Shortest Path First (OSPF) recebido, use o
comando EXEC privilegiado debug ip ospf packet. A forma no desse comando desativa a
saída da depuração.

O comando debug ip ospf packet produz um conjunto de informações para cada pacote
recebido. A saída varia levemente, conforme a autenticação utilizada.

Resumo

Esta página faz um resumo dos tópicos apresentados neste módulo.

Embora o IGRP e o EIGRP sejam compatíveis, existem algumas diferenças. O EIGRP oferece
suporte de vários protocolos, mas o IGRP não. O EIGRP e o IGRP usam cálculo da métrica
diferentes. O IGRP tem uma contagem máxima de saltos de 255. O EIGRP tem um limite de
contagem de saltos de 224.

Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia prontamente
disponíveis em RAM. Como o OSPF, o EIGRP guarda essas informações em três tabelas. A
tabela de vizinhos enumera os roteadores adjacentes, a tabela de topologia, que consiste em
todas as tabelas de roteamento do EIGRP no sistema autônomo, e a tabela de roteamento que
contém as melhores rotas até um destino. O DUAL (o algoritmo de vetor de distância do
EIGRP) utiliza as informações fornecidas na tabela de vizinhos e na tabela de topologia e
calcula as rotas de menor custo para cada destino. A rota primária preferida é conhecida como
successor route e a rota de reserva é conhecida como feasible successor (FS).

O EIGRP é um protocolo de roteamento de vetor de distância avançado e age como protocolo


link-state ao atualizar os vizinhos e ao manter informações de roteamento. Suas vantagens
incluem convergência rápida, utilização eficiente de largura de banda, suporte para VLSM e
CIDR, suporte para várias camadas de rede e independência de protocolos roteados.

O algoritmo DUAL realiza a convergência rápida do EIGRP. Cada roteador constrói uma tabela
de topologia que contém informações sobre como rotear até cada destino. Cada tabela de
topologia identifica o protocolo de roteamento ou o EIGRP, o custo mais baixo da rota,
conhecido como Feasible Distance (FD) e o custo da rota conforme anunciado pelo roteador
vizinho, conhecido como Reported Distance (RD).

Os comandos de configuração do EIGRP variam conforme o protocolo sendo usado. Alguns


exemplo desses protocolos são IP, IPX e AppleTalk. O comando network configura somente
as redes conectadas. O EIGRP faz a sumarização automática das rotas no limite classful. Se
houver sub-redes não contíguas, a sumarização automática precisa ser desativada para uma
operação correta do roteamento. A verificação do funcionamento do EIGRP é realizada pela
utilização de vários comandos show.

A tabela mais importante do EIGRP é a tabela de vizinhos que lista roteadores adjacentes.
Pacotes de hello são utilizados para estabelecer adjacências com roteadores vizinhos. Por
default, os pacotes de hello são enviados de cinco em cinco segundos. As tabelas de vizinhos
contêm campos para o endereço do vizinho, hold time, smooth round-trip timer (SRTT), queue
count (Q Cnt) e um sequence number (Seq NO).

Se um link for desativado, o DUAL procura um caminho de rota alternativo, ou seja, uma
feasible successor, dentro da tabela de topologia. Se não for encontrada uma feasible
successor, a rota é marcada como Ativa, ou seja, não utilizável no momento. Pacotes de
consulta (Query) são enviados aos roteadores vizinhos solicitando informações sobre a
topologia. O DUAL utiliza essas informações para recalcular rotas successor route e feasible
successor até o destino.

77
As oito etapas do processo de identificação e resolução de problemas devem ser seguidas ao
determinar a causa de problemas com protocolos de roteamento. Variable-length subnet mask
(VLSM) é o problema mais comum encontrado no Routing Information Protocol (RIP) que
impede que as rotas RIP sejam anunciadas. O comando show ip protocols fornece
informações sobre os parâmetros e sobre o estado atual do processo do protocolo de
roteamento ativo. Para o IGRP, use o comando router igrpautonomous-system para
ativar o processo de roteamento IGRP. Para o EIGRP, use o comando router
eigrp autonomous-system para ativar o processo de roteamento EIGRP: O comando
show ip ospf neighbor é útil para a identificação e resolução de problemas na formação
de adjacências no OSPF, já que a maioria dos problemas se relacionam com a formação de
adjacências e com a sincronização do banco de dados link-state

MODULO 04 - Conceitos de comutação


Visão Geral

Os projetos das redes locais têm evoluído. Até muito recentemente, os projetistas usavam hubs
e bridges para construir redes. Agora, os switches e os roteadores são os principais
componentes dos projetos de redes locais, e a capacidade e o desempenho desses
dispositivos melhoram continuamente.

Este módulo descreve as raízes das redes locais Ethernet modernas, com ênfase na evolução
da Ethernet/802.3, a arquitetura de rede local implantada com mais freqüência. Uma
observação do contexto histórico do desenvolvimento das redes locais e dos vários dispositivos
de rede que podem ser usados nas diferentes camadas do modelo OSI ajudarão os alunos a
entenderem melhor as razões pelas quais os dispositivos de rede evoluíram da forma como
evoluíram.

Até recentemente, usava-se repetidores na maioria das redes Ethernet. O desempenho da


rede piorava quando uma quantidade excessiva de dispositivos compartilhavam o mesmo
segmento. Então, os engenheiros de redes adicionaram bridges para criar vários domínios de
colisão. Conforme as redes cresceram em tamanho e complexidade, a bridge evoluiu para o
switch moderno, que permite microssegmentação da rede. Agora, as redes modernas são
construídas com switches e roteadores, geralmente com ambas as funcionalidades em um
único dispositivo.

Muitos switches modernos são capazes de realizar tarefas variadas e complexas na rede. Este
módulo oferecerá uma introdução à segmentação de redes e descreverá os princípios básicos
de operação dos switches.

Switches e bridges realizam a maior parte do trabalho pesado nas redes locais, tomando
decisões quase instantâneas ao receber quadros. Este módulo descreve em detalhe como os
switches aprendem os endereços físicos dos nós e como transmitem e filtram os quadros. Este
módulo descreve também os princípios da segmentação de redes locais e dos domínios de
colisão.

78
Os switches são dispositivos da Camada 2 usados para aumentar a largura de banda
disponível e reduzir o congestionamento da rede. Um switch pode segmentar uma rede local
em microssegmentos, que são segmentos com apenas um único host. A microssegmentação
cria vários domínios sem colisão a partir de um grande domínio. Por ser um dispositivo da
Camada 2, o switch de rede local aumenta a quantidade de domínios de colisão, mas todos os
hosts conectados ao switch continuam fazendo parte do mesmo domínio de broadcast.

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Descrever o histórico e a função da Ethernet compartilhada, ou half-duplex;


• Definir colisão em relação às redes Ethernet;
• Definir microssegmentação;
• Definir CSMA/CD;
• Descrever alguns dos principais elementos que afetam o desempenho da rede;
• Descrever a função dos repetidores;
• Definir latência da rede;
• Definir tempo de transmissão;
• Definir a segmentação de redes com roteadores, switches e bridges;
• Definir latência de um switch Ethernet;
• Explicar as diferenças entre comutação de Camada 2 e de Camada 3;
• Definir comutação simétrica e assimétrica;
• Definir bufferização de memória;
• Comparar e contrastar as comutações store-and-forward e cut-through;
• Entender as diferenças entre hubs, bridges e switches;
• Descrever as principais funções dos switches;
• Listar os principais modos de transmissão de quadros de um switch;
• Descrever o processo através do qual os switches aprendem os endereços;
• Identificar e definir os modos de encaminhamento;
• Definir segmentação de uma rede local;
• Definir microssegmentação com a utilização de switches;
• Descrever o processo de filtragem de quadros;
• Comparar e contrastar domínios de colisão e de broadcast;
• Identificar os cabos necessários para conectar os switches às estações de trabalho;
• Identificar os cabos necessários para conectar os switches a outros switches.

4.1 Introdução às redes locais Ethernet/802.3


4.1.1 Desenvolvimento da rede local Ethernet/802.3

Esta página fará uma revisão sobre os dispositivos encontrados em uma rede.

As primeiras tecnologias de rede local usavam infra-estruturas thick Ethernet ou thin Ethernet.
É importante entender as limitações dessas infra-estruturas, conforme mostrado na figura , a
fim de compreender os avanços na comutação das redes locais.

79
O acréscimo de hubs ou concentradores na rede ofereceu uma melhora para as tecnologias
thick Ethernet e thin Ethernet. Um hub é um dispositivo da Camada 1 e às vezes é conhecido
como concentrador Ethernet ou repetidor multiporta. Os hubs permitem melhor acesso à rede
para mais usuários. Eles regeneram sinais de dados, permitindo que as redes sejam
estendidas para distâncias maiores. Os hubs fazem isso gerando os sinais de dados
novamente. Eles não tomam nenhuma decisão quando os sinais são recebidos. Simplesmente
regeneram e amplificam os sinais de dados para todos os dispositivos conectados, exceto para
o dispositivo que enviou o sinal originalmente.

Ethernet é fundamentalmente uma tecnologia compartilhada em que todos os usuários de um


determinado segmento da rede local competem pela mesma largura de banda disponível. Essa
situação é análoga a uma determinada quantidade de carros que tentem entrar em uma
estrada de faixa única ao mesmo tempo. Como a estrada tem somente uma faixa, apenas um
carro pode entrar nela de cada vez. Conforme eram adicionados hubs à rede, mais usuários
competiam pela mesma largura de banda.

As colisões são um subproduto das redes Ethernet. Se dois ou mais dispositivos tentarem
transmitir ao mesmo tempo, ocorre uma colisão. Esta situação é análoga a dois carros que
tentam mudar para uma mesma faixa e que causam uma colisão. O tráfego fica parado até que
a colisão tenha sido resolvida. Um excesso de colisões em uma rede resulta em tempos de
resposta lentos. Isso indica que a rede está muito congestionada ou tem muitos usuários que
precisam acessá-la ao mesmo tempo.

80
Os dispositivos da Camada 2 são mais inteligentes que os da Camada 1. Eles tomam decisões
de encaminhamento com base nos endereços MAC (Media Access Control) contidos nos
cabeçalhos dos quadros de dados transmitidos.

Uma bridge é um dispositivo da Camada 2 usada para dividir, ou segmentar, uma rede. As
bridges coletam e transmitem seletivamente os quadros de dados entre dois segmentos da
rede. Para isso, elas aprendem o endereço MAC dos dispositivos de cada segmento
conectado. Com essa informação, a bridge constrói uma tabela de bridging e encaminha ou
bloqueia o tráfego com base nessa tabela. Isso resulta em domínios de colisão menores e
maior eficiência da rede. As bridges não restringem o tráfego de broadcast. Entretanto, elas
oferecem maior controle de tráfego dentro de uma rede.

Um switch também é um dispositivo da Camada 2 e às vezes é chamado de bridge multiportas.


Os switches tomam decisões de encaminhamento com base nos endereços MAC contidos nos
quadros de dados transmitidos. Os switches aprendem os endereços MAC dos dispositivos
conectados a cada porta e inserem essas informações em uma tabela de comutação.

Os switches criam um circuito virtual entre dois dispositivos conectados que querem se
comunicar. Quando o circuito virtual é criado, um caminho de comunicação dedicado é
estabelecido entre os dois dispositivos. A implementação de um switch na rede oferece
microssegmentação. Isso cria entre a origem e o destino um ambiente livre de colisões,
permitindo a máxima utilização da largura de banda disponível. Os switches são capazes de
facilitar múltiplas conexões simultâneas de circuito virtual. Isso é semelhante a uma rodovia
dividida em várias faixas, em que cada carro tem sua própria faixa exclusiva.

A desvantagem dos dispositivos da Camada 2 é que eles encaminham quadros de broadcast


para todos os dispositivos conectados da rede. Um excesso de broadcasts em uma rede
resulta em tempos de resposta lentos.

Um roteador é um dispositivo da Camada 3. Os roteadores tomam decisões com base em


grupos de endereços de rede, ou classes, em vez de endereços MAC individuais. Os
roteadores usam tabelas de roteamento para gravar os endereços de Camada 3 das redes
diretamente conectadas às interfaces locais e os caminhos de rede aprendidos dos roteadores
vizinhos.

• Estas são as funções de um roteador: Examinar pacotes de entrada com dados da


Camada 3;
• Escolher o melhor caminho para os dados através da rede;
• Rotear os dados para a porta de saída adequada.

Os roteadores não encaminham broadcasts, a menos que sejam programados para fazer isso.
Assim, reduzem o tamanho tanto dos domínios de colisão como dos domínios de broadcast de
uma rede. Os roteadores são os dispositivos de controle de tráfego mais importantes nas
grandes redes. Eles permitem a comunicação entre dois computadores, independentemente da
localização ou do sistema operacional.

Geralmente, as redes locais empregam uma combinação de dispositivos de Camada 1,


Camada 2 e Camada 3. A implementação desses dispositivos depende de fatores específicos
relacionados às necessidades particulares de uma organização.

81
4.1.2 Fatores que afetam o desempenho da rede

Esta página descreverá alguns fatores que fazem com que as redes locais fiquem
congestionadas e sobrecarregadas.

As redes locais atuais estão ficando cada vez mais congestionadas e sobrecarregadas. Além
de uma grande quantidade de usuários de rede, existem vários outros fatores que contribuem
para testar os limites das redes locais tradicionais:

• O ambiente multitarefa presente nos atuais sistemas operacionais de desktop, tais


como Windows, Unix/Linux e MAC OS X, permite transações de rede simultâneas.
Esse aumento de capacidade gerou um aumento de demanda por recursos de rede.
• O uso de aplicativos que fazem uso intensivo da rede, como a World Wide Web,
aumentou. Os aplicativos cliente/servidor permitem que os administradores centralizem
as informações e facilitam a manutenção e a proteção das informações.

82
• Os aplicativos cliente/servidor não exigem que as estações de trabalho mantenham as
informações nem forneçam espaço em disco para armazená-las. Devido ao
custo/benefício dos aplicativos cliente/servidor, esses aplicativos provavelmente serão
ainda mais usados no futuro.

4.1.3 Elementos das redes Ethernet/802.3

Esta página descreverá alguns fatores que podem ter impacto negativo no desempenho de
uma rede Ethernet.

A Ethernet é uma tecnologia de transmissão de broadcast. Por isso, dispositivos de rede tais
como computadores, impressoras e servidores de arquivos comunicam-se entre si através de
um meio compartilhado. O desempenho de uma rede local Ethernet/802.3 de meio
compartilhado pode ser afetado negativamente por vários fatores:

• A entrega dos quadros de dados das redes locais Ethernet/802.3 tem uma natureza de
broadcast.
• O método CSMA/CD (carrier sense multiple access/collision detect) permite que
apenas uma estação transmita de cada vez.
• Os aplicativos multimídia que exigem maior largura de banda, como, por exemplo,
vídeo e Internet, associados à natureza de broadcast da Ethernet, podem criar
congestionamento na rede.
• Ocorre uma latência normal conforme os quadros percorrem o meio físico da rede e os
dispositivos da rede.

A Ethernet usa CSMA/CD e pode suportar taxas de transmissão rápidas. A Fast Ethernet, ou
100BASE-T, oferece velocidades de transmissão de até 100 Mbps. A Gigabit Ethernet oferece
velocidades de transmissão de até 1000 Mbps e a 10-Gigabit Ethernet oferece velocidades de
transmissão de até 10.000 Mbps. O objetivo da Ethernet é fornecer a melhor prestação de
serviços possível e permitir que todos os dispositivos no meio compartilhado transmitam
igualmente. Uma certa quantidade de colisões é esperada no projeto da Ethernet e CSMA/CD.
As colisões ocorrem naturalmente em redes Ethernet e podem se tornar um grande problema.

4.1.4 Redes half-duplex

Esta página explicará como ocorrem as colisões em uma rede half-duplex.

Em sua origem, a Ethernet era uma tecnologia half-duplex. O half-duplex permite que os hosts
apenas transmitam ou recebam em um determinado momento, mas não as duas coisas. Cada
host examina a rede para ver se está ocorrendo transmissão de dados antes de transmitir mais
dados. Se a rede já estiver em uso, a transmissão sofre um atraso. Apesar do adiamento da
transmissão, dois ou mais hosts podem transmitir ao mesmo tempo. Isto resulta em uma
colisão. Quando ocorre uma colisão, o host que a detecta primeiro emite um sinal de
congestionamento para os outros hosts. Quando um sinal de congestionamento é recebido,
cada host pára a transmissão de dados e, em seguida, espera um tempo aleatório até
retransmiti-los. O algoritmo de recuo gera esse atraso aleatório. Quanto mais hosts forem
adicionados à rede e começarem a transmitir, maior a probabilidade de ocorrerem colisões.

As redes locais Ethernet ficam saturadas porque os usuários executam softwares que exigem
muito da rede, como aplicativos cliente/servidor, que fazem com que os hosts transmitam com
mais freqüência e por períodos de tempo mais longos. A placa de rede (NIC), usada pelos
dispositivos de uma rede local, fornece vários circuitos para que a comunicação entre os
dispositivos possa ocorrer

83
4.1.5 Congestionamento da rede

Esta página discutirá alguns fatores que criam uma necessidade de maior largura de banda em
uma rede.

Os avanços tecnológicos produzem estações de trabalho e computadores desktop mais


rápidos e inteligentes. A combinação de estações de trabalho mais poderosas e aplicativos que
utilizam a rede intensamente criou uma necessidade de maior capacidade da rede, ou de
largura de banda.

Todos esses fatores aumentam a demanda por velocidade nas redes com largura de banda
disponível de 10 Mbps e é por isso que muitas redes oferecem hoje uma largura de banda de
100 Mbps em suas redes locais.

Os tipos de mídia a seguir sofreram um aumento de transmissão pelas redes:

• Grandes arquivos gráficos;


• Imagens;
• Filmes
• Aplicativos multimídia.

84
Também houve um aumento na quantidade de usuários em uma rede. À medida em que mais
pessoas utilizam as redes para compartilhar arquivos maiores, acessar servidores de arquivos
e conectar-se à Internet, ocorre o congestionamento da rede. Com isso, os tempos de resposta
ficam mais lentos, as transferências de arquivos ficam mais longas e os usuários da rede
tornam-se menos produtivos. Para aliviar o congestionamento na rede, é necessária mais
largura de banda, ou a largura de banda disponível deve ser usada com mais eficiência.

4.1.6 Latência da rede

Esta página ajudará os alunos a entenderem os fatores que aumentam a latência da rede.

Latência, ou atraso, é o tempo que um quadro ou um pacote leva para trafegar da estação de
origem até o destino final. É importante quantificar a latência total do caminho entre a origem e
o destino nas LANs e WANs. No caso específico da rede local Ethernet, é importante entender
a latência e seu efeito na sincronização da rede, já que ela é usada para determinar se o
CSMA/CD funcionará adequadamente.

A latência tem pelo menos três origens:

• Primeiramente, há o tempo que a placa de rede de origem leva para colocar os pulsos
elétricos no fio e o tempo que a placa de rede de destino leva para interpretar esses
pulsos. Às vezes, isso é chamado de atraso da placa de rede, geralmente em torno de
1 microssegundo para uma placa de rede Ethernet 10BASE-T.
• Em segundo lugar, há o atraso real de propagação, correspondente ao tempo que o
sinal leva para trafegar através do cabo. Geralmente, é de aproximadamente 0,556
microssegundos a cada 100 m para cabos UTP Cat 5. Cabos mais longos e menor
velocidade nominal de propagação (NVP) resultam em um maior atraso de
propagação.
• Em terceiro lugar, a latência cresce dependendo dos dispositivos de rede que estão no
caminho entre dois computadores. Esses dispositivos são de Camada 1, de Camada 2
ou de Camada 3.

A latência não depende somente da distância e do número de dispositivos. Por exemplo, se


duas estações de trabalho estiverem separadas por três switches corretamente configurados,
elas podem sofrer menos latência do que se estivessem separadas por dois roteadores
corretamente configurados. Isso se deve ao fato de os roteadores realizarem funções mais
complexas e demoradas. Um roteador precisa analisar dados da Camada 3.

85
4.1.7 Tempo de transmissão da Ethernet 10BASE-T

Esta página explicará como se determina o tempo de transmissão da Ethernet 10BASE-T.

Todas as redes têm o que chamamos bit time ou slot time. Muitas tecnologias rede local, como
a Ethernet, definem bit time como a unidade básica de tempo na qual apenas um bit pode ser
enviado. Para que os dispositivos ópticos ou eletrônicos reconheçam o um ou o zero binários,
deve haver um tempo mínimo durante o qual o bit está ligado ou desligado.

O tempo de transmissão é igual ao número de bits a serem enviados multiplicado pelo bit time
de uma determinada tecnologia. Outra maneira de pensar o tempo de transmissão é o intervalo
entre o início e o final da transmissão de um quadro, ou entre o início da transmissão de um
quadro e uma colisão. Quadros pequenos precisam de uma quantidade de tempo menor.
Quadros grandes precisam de uma quantidade de tempo maior.

Cada bit da Ethernet de 10 Mbps tem uma janela de transmissão de 100 ns. Esse é o bit time.
Um byte equivale a 8 bits. Portanto, 1 byte leva no mínimo 800 ns para ser transmitido. Um
quadro de 64 bytes, que é o menor quadro Ethernet 10BASET que permite que o CSMA/CD
funcione corretamente, tem um tempo de transmissão de 51.200 ns ou 51,2 microssegundos. A
transmissão de um quadro inteiro de 1000 bytes pela estação de origem exige 800
microssegundos. O tempo em que o quadro efetivamente chega à estação de destino depende
da latência adicional introduzida pela rede. Essa latência pode ser devida a diversos atrasos,
incluindo todos os seguintes:

• Atrasos da placa de rede;


• Atrasos de propagação;
• Atrasos dos dispositivos das Camadas 1, 2 ou 3.

A Atividade com Mídia Interativa ajudará os alunos a determinarem os tempos de transmissão


da Ethernet 10BASE-T para diferentes tamanhos de quadros.

4.1.8 As vantagens da utilização de repetidores

Esta página explicará como um repetidor pode ser usado para ampliar a distância de uma rede
local.

A distância que pode ser coberta por uma rede local é limitada pela atenuação. Atenuação
significa que o sinal se enfraquece conforme trafega ao longo da rede. A resistência do cabo ou
do meio através do qual o sinal trafega causa a perda de força do sinal. Um repetidor Ethernet
é um dispositivo da camada física da rede que amplifica ou regenera o sinal em uma rede local
Ethernet. Quando se usa um repetidor para aumentar a distância de uma rede local, uma única
rede pode abranger uma distância maior e mais usuários podem compartilhar essa mesma
rede. Entretanto, o uso de repetidores e hubs aumenta os problemas associados a broadcasts
e colisões. Tem um efeito negativo também sobre o desempenho geral da rede local de meio
compartilhado.

86
4.1.9 Transmissão full-duplex

Esta página explicará como a Ethernet full-duplex permite a transmissão de um pacote e o


recebimento de outro pacote ao mesmo tempo. A recepção e a transmissão simultâneas
exigem o uso de dois pares de fios no cabo e de uma conexão comutada entre os nós. Essa
conexão é considerada ponto-a-ponto e é livre de colisão. Como os dois nós podem transmitir
e receber ao mesmo tempo, não há negociações pela largura de banda. A Ethernet full-duplex
pode usar uma infra-estrutura de cabos já existente, desde que o meio atenda os padrões
Ethernet mínimos.

Para transmitir e receber simultaneamente, é exigida uma porta do switch dedicada para cada
nó. As conexões full-duplex podem usar meios 10BASE-T, 100BASE-TX ou 100BASE-FX para
criar conexões ponto-a-ponto. As placas de rede de todos os dispositivos conectados precisam
ter capacidade full-duplex.

O switch Ethernet full-duplex aproveita os dois pares de fios do cabo e cria uma conexão direta
entre o transmissor (TX) em uma extremidade do circuito e o receptor (RX) na outra
extremidade. Com as duas estações conectadas dessa forma, cria-se um ambiente livre de
colisão, pois a transmissão e a recepção dos dados ocorrem em circuitos independentes e não-
concorrentes.

Geralmente, a Ethernet só pode usar de 50% a 60% dos 10 Mbps de largura de banda
disponíveis devido às colisões e à latência. A Ethernet full-duplex oferece 100% da largura de
banda nas duas direções. Isso produz um throughput potencial de 20 Mbps, resultante dos 10
Mbps de TX e dos 10 Mbps de RX.

4.2 Introdução à comutação de redes locais


4.2.1 Segmentação de redes locais

Esta página explicará a segmentação das redes locais. A figura mostra um exemplo de uma
rede Ethernet segmentada. A rede inteira tem 15 computadores. Dos quinze, 6 são servidores
e 9 são estações de trabalho. Cada segmento usa o método de acesso CSMA/CD e mantém o
tráfego entre os usuários no segmento. Cada segmento é o seu próprio domínio de colisão.

87
A segmentação permite uma redução significativa do congestionamento da rede dentro de
cada segmento. Quando há transmissão de dados em um segmento, os dispositivos dentro
desse segmento compartilham a largura de banda total. Os dados que passam entre os
segmentos são transmitidos através do backbone da rede por meio de uma bridge, de um
roteador ou de um switch.

4.2.2 Segmentação de redes locais com bridges

Esta página descreverá as principais funções de uma bridge em uma rede local.

As bridges são dispositivos da Camada 2 que encaminham os quadros de dados com base no
endereço MAC. As bridges lêem o endereço MAC de origem dos pacotes de dados para
descobrir os dispositivos que estão em cada segmento. Em seguida, os endereços MAC são
usados para construir uma tabela de bridging. Isso permite que as bridges bloqueiem os
pacotes que não precisam ser encaminhados para fora do segmento local.

Embora as bridges sejam transparentes para outros dispositivos de rede, a latência da rede
aumenta de 10% a 30% quando se usa uma bridge. O aumento de latência se deve às
decisões tomadas pelas bridges antes de encaminhar os pacotes. Uma bridge é considerada
um dispositivo store-and-forward. As bridges examinam o campo de endereço de destino e
calculam o CRC (cyclic redundancy check), presente no campo Frame Check Sequence (FCS)
antes de encaminhar o quadro. Se a porta de destino estiver ocupada, as bridges armazenam
temporariamente o quadro até que a porta fique disponível

88
4.2.3 Segmentação de redes locais com roteadores

Esta página explicará como os roteadores são usados para segmentar uma rede local.

Os roteadores fornecem segmentação da rede, o que acrescenta um fator de latência de 20%


a 30% em relação a uma rede com switches. Esse aumento de latência se deve ao fato de o
roteador operar na camada de rede e usar o endereço IP para determinar o melhor caminho
até o nó de destino. Bridges e switches fornecem segmentação dentro de uma única rede ou
sub-rede. Os roteadores fornecem conectividade entre redes e sub-redes.

89
Além disso, os roteadores não encaminham broadcasts, enquanto os switches e as bridges
precisam encaminhar quadros de broadcast

4.2.4 Segmentação de redes locais com switches

Esta página explicará como os switches são usados para segmentar uma rede local.

Os switches reduzem a escassez de largura de banda e os gargalos de rede, como os que


ocorrem entre várias estações de trabalho e um servidor de arquivos remoto. Os switches
segmentam as redes locais em microssegmentos, o que diminui o tamanho dos domínios de
colisão. Entretanto, todos os hosts conectados a um switch continuam no mesmo domínio de
broadcast.

Em uma rede local Ethernet totalmente comutada, os nós de origem e de destino funcionam
como se fossem os únicos nós da rede. Quando esses dois nós estabelecem um link, ou
circuito virtual, eles têm acesso à maior largura de banda disponível. Esses links fornecem
significativamente mais throughput do que as redes locais Ethernet conectadas por bridges ou
hubs. Esse circuito de rede virtual é estabelecido no interior do switch e existe apenas quando
os nós precisam se comunicar.

4.2.5 Operações básicas de um switch

Esta página discutirá as funções básicas de um switch em uma rede local.

A comutação (switching) é uma tecnologia que diminui o congestionamento em redes locais


Ethernet, Token Ring e FDDI (Fiber Distributed Data Interface). Os switches usam
microssegmentação para reduzir os domínios de colisão e o tráfego da rede. Essa redução
resulta em um uso mais eficiente da largura de banda e em um aumento do throughput. Os
switches de rede local geralmente substituem os hubs compartilhados e são concebidos para
trabalhar com as infra-estruturas de cabeamento já existentes.

90
A seguir estão duas operações básicas realizadas pelos switches:

• Comutar quadros de dados – Os switches recebem quadros em uma interface,


selecionam a porta correta para encaminhar os quadros e, em seguida, encaminham
os quadros com base na escolha do caminho.
• Manter as operações do switch – Os switches criam e mantêm tabelas de
encaminhamento. Eles também constroem e mantêm uma topologia sem loops ao
longo da rede local.

91
92
4.2.6 Latência do switch Ethernet

Esta página explicará como os switches Ethernet contribuem para a latência.

A latência de um switch é o tempo desde o momento em que um quadro entra no switch até o
momento em que o quadro sai do switch. A latência está diretamente relacionada ao processo
de comutação configurado e ao volume de tráfego.

Ela é medida em frações de segundo. Os dispositivos de rede operam em velocidades


extremamente altas, portanto qualquer nanossegundo adicional de latência afeta
negativamente o desempenho da rede.

4.2.7 Comutação da Camada 2 e da Camada 3

Esta página mostrará aos alunos como a comutação ocorre na camada de enlace de dados e
na camada de rede.

93
Roteadores e switches da Camada 3 usam endereços IP para rotear um pacote. Switches de
rede local ou switches da Camada 2 encaminham quadros com base nas informações de
endereço MAC. Atualmente, os termos comutação da Camada 3 e roteamento são usados
como sinônimos.

Existem dois métodos para a comutação de quadros de dados: comutação da Camada 2 e


comutação da Camada 3. Roteadores e switches da Camada 3 usam a comutação da Camada
3 para comutar pacotes. Switches da Camada 2 e bridges usam a comutação da Camada 2
para encaminhar quadros.

A diferença entre a comutação da Camada 2 e a comutação da Camada 3 é o tipo de


informação contida no quadro, que é usada para determinar a interface de saída correta. A
comutação da Camada 2 se baseia nas informações de endereço MAC. A comutação da
Camada 3 se baseia nos endereços da camada de rede, ou endereços IP. Os recursos e a
funcionalidade dos switches da Camada 3 e dos roteadores têm diversas semelhanças. A
única grande diferença entre a operação de comutação de pacotes de um roteador e de um
switch da Camada 3 é a implementação física. Em roteadores genéricos, a comutação de
pacotes acontece no software, usando mecanismos baseados em microprocessadores,
enquanto em um switch da Camada 3 o encaminhamento de pacotes é realizado usando
hardware ASIC (application specific integrated circuit). A comutação da Camada 2 toma um
endereço MAC de destino no cabeçalho do quadro e encaminha o quadro para a interface ou
porta apropriada com base no endereço MAC da tabela de comutação.

A tabela de comutação está contida na CAM (Content Addressable Memory). Se o switch da


Camada 2 não souber para onde enviar o quadro, ele faz o broadcast do quadro por todas as
suas portas para a rede. Ao receber uma resposta, o switch grava o novo endereço na CAM.

A comutação da Camada 3 é uma função da camada de rede. As informações do cabeçalho da


Camada 3 são examinadas e o pacote é encaminhado com base no endereço IP.

94
O fluxo de tráfego em uma rede comutada ou linear é inerentemente diferente do fluxo de
tráfego em uma rede roteada ou hierárquica. As redes hierárquicas oferecem fluxo de tráfego
mais flexível do que as redes lineares.

4.2.8 Comutação simétrica e assimétrica

Esta página explicará a diferença entre a comutação simétrica e a comutação assimétrica.

A comutação das redes locais pode ser classificada em simétrica ou assimétrica dependendo
da maneira como a largura de banda é alocada para as portas do switch. Um switch simétrico
fornece conexões comutadas entre portas com a mesma largura de banda. Um switch de rede
local assimétrico fornece conexões comutadas entre portas com larguras de banda diferentes,
por exemplo uma combinação de portas de 10 Mbps e de 100 Mbps.

A comutação assimétrica permite dedicar mais largura de banda à porta do switch conectada a
um servidor a fim de evitar um gargalo. Isso permite fluxos de tráfego mais suaves, em que
vários clientes se comunicam com um servidor ao mesmo tempo. Um switch assimétrico requer
bufferização de memória. O uso de buffers mantém os quadros contíguos entre portas com
diferentes taxas de dados.

4.2.9 Buffers de memória

Esta página explicará o que é um buffer de memória e como ele é usado.

Um switch Ethernet pode usar a técnica de bufferização para armazenar e encaminhar


quadros. A bufferização também pode ser usada quando a porta de destino estiver ocupada. A
área de memória onde o switch armazena os dados é chamada de buffer de memória. Esse
buffer de memória pode usar dois métodos para encaminhar quadros: a bufferização de
memória por porta e a bufferização em memória compartilhada.

95
Na bufferização por porta, os quadros são armazenados em filas vinculadas a portas de
entrada específicas. Um quadro só é transmitido para a porta de saída quando todos os
quadros à frente dele na fila tiverem sido transmitidos com êxito. É possível que um único
quadro atrase a transmissão de todos os quadros na memória devido a uma porta de destino
que esteja ocupada. Esse atraso ocorre mesmo se os outros quadros puderem ser transmitidos
para portas de destino que estejam abertas.

A bufferização em memória compartilhada deposita todos os quadros em um buffer de


memória comum, que é compartilhado por todas as portas do switch. A quantidade de memória
exigida por uma porta para o buffer é alocada dinamicamente. Os quadros no buffer são
vinculados dinamicamente à porta de destino. Isso permite que o pacote seja recebido em uma
porta e, em seguida, transmitido em outra, sem ser movido para outra fila.

O switch mantém um mapa de vínculos entre quadros e portas, mostrando para onde um
pacote precisa ser transmitido. O vínculo é apagado do mapa depois que o quadro é
transmitido com êxito. O buffer de memória é compartilhado. A quantidade de quadros
armazenados no buffer é restringida pelo tamanho de todo o buffer de memória e não limitada
a um único buffer de porta. Isso permite que quadros maiores sejam transmitidos e menos
quadros sejam descartados. Isso é importante para a comutação assimétrica, em que há troca
de quadros entre portas com taxas diferentes.

4.2.10 Dois métodos de comutação

Esta página apresentará as comutações store-and-forward e cut-through.

Os dois modos de comutação a seguir estão disponíveis para encaminhar quadros:

• Store-and-forward (armazenar e encaminhar) – O quadro inteiro é recebido antes de


ser encaminhado. Os endereços de destino e de origem são lidos e os filtros são
aplicados antes que o quadro seja encaminhado. A latência ocorre enquanto o quadro
está sendo recebido. A latência é maior com quadros maiores, pois todo o quadro
precisa ser recebido antes que o processo de comutação comece. O switch é capaz de
verificar se há erros em todo o quadro, o que proporciona maior detecção de erros.
• Cut-through (transpassar) – O quadro é encaminhado através do switch antes de ser
recebido por completo. Pelo menos o endereço de destino do quadro precisa ser lido

96
antes que o quadro possa ser encaminhado. Esse modo diminui a latência da
transmissão, mas também reduz a detecção de erros.

A seguir estão duas formas de comutação cut-through:

• Fast-forward (encaminhamento rápido) – A comutação fast-forward oferece o menor


nível de latência. Ela encaminha imediatamente um pacote após ler o endereço de
destino. Como a comutação fast-forward começa o encaminhamento antes de receber
todo o pacote, pode acontecer que alguns pacotes sejam retransmitidos com erros.
Contudo, isso raramente ocorre e o adaptador de rede do destino descarta o pacote
defeituoso após recebê-lo. No modo fast-forward, a latência é medida a partir do
primeiro bit recebido até o primeiro bit transmitido.
• Fragment-free (sem fragmentos) – A comutação fragment-free filtra e elimina os
fragmentos de colisão antes de iniciar o encaminhamento. Os fragmentos de colisão
constituem a maior parte dos erros de pacotes. Em uma rede funcionando
corretamente, os fragmentos de colisão devem ser menores que 64 bytes. O que for
maior que 64 bytes é um pacote válido e normalmente é recebido sem erro. A
comutação fragment-free aguarda até que seja determinado que o pacote não é um
fragmento de colisão antes de encaminhá-lo. No modo fragment-free, a latência
também é medida a partir do primeiro bit recebido até o primeiro bit transmitido.

A latência de cada modo de comutação depende de como o switch encaminha os quadros.


Para realizar um encaminhamento de quadros mais rápido, o switch reduz o tempo de
verificação de erros. Entretanto, reduzir o tempo de verificação de erros pode levar a uma
quantidade maior de retransmissões.

4.3 Operação do switch


4.3.1 Funções dos switches Ethernet

Esta página examinará as funções dos switches da Camada 2.

Um switch é um dispositivo que conecta segmentos de rede local usando uma tabela de
endereços MAC para determinar o segmento para onde um quadro precisa ser transmitido.
Tanto os switches como as bridges operam na Camada 2 do modelo OSI.

Às vezes os switches são chamados de bridges


multiportas, hubs de comutação ou
comutadores. Os switches tomam decisões
com base nos endereços MAC e, portanto, são
dispositivos da Camada 2. Em comparação, os
hubs regeneram os sinais da Camada 1 e os
transmitem por todas as portas sem tomar
qualquer decisão. Como um switch tem a
capacidade de tomar decisões de escolha de
caminhos, a rede local fica muito mais eficiente.
Geralmente, em uma rede Ethernet, as
estações de trabalho estão conectadas
diretamente ao switch. Os switches aprendem quais hosts estão conectados a uma porta lendo
o endereço MAC de origem nos quadros. O switch abre um circuito virtual apenas entre os nós
de origem e de destino. Isso confina a comunicação a essas duas portas, sem afetar o tráfego
nas outras portas. Em comparação, um hub encaminha os dados por todas as portas, de
maneira que todos os hosts vêem e precisam processar esses dados, mesmo que não sejam
destinados a eles. As redes locais de alto desempenho geralmente são totalmente compostas
por switches.

97
• Um switch concentra a conectividade, tornando a transmissão de dados mais eficiente.
Os quadros são comutados das portas de entrada para as portas de saída. Cada porta
ou interface pode oferecer toda a largura de banda da conexão ao host.
• Em um hub Ethernet típico, todas as portas se conectam a um backplane ou conexão
física comum dentro do hub, e todos os dispositivos conectados ao hub compartilham a
largura de banda da rede. Se duas estações estabelecerem uma sessão que use um
nível significativo de largura de banda, o desempenho de rede de todas as outras
estações conectadas ao hub sofrerá degradação.
• Para reduzir a degradação, o switch trata cada interface como um segmento individual.
Quando estações em diferentes interfaces precisam se comunicar, o switch encaminha
quadros na velocidade do fio de uma interface para a outra, para garantir que cada
sessão receba toda a largura de banda.

Para comutar quadros de maneira eficiente entre as interfaces, o switch mantém uma tabela de
endereços. Quando um quadro entra no switch, este associa o endereço MAC da estação
emissora com a interface na qual o quadro foi recebido.

As principais características dos switches Ethernet são:

• Isolar tráfego entre segmentos;


• Alcançar maior largura de banda por usuário criando domínios de colisão menores.

A primeira característica, isolar o tráfego entre segmentos, proporciona maior segurança para
os hosts da rede. Cada segmento usa o método de acesso CSMA/CD para manter o fluxo de
tráfego de dados entre os usuários desse segmento. Essa segmentação permite que vários
usuários enviem informações ao mesmo tempo em diferentes segmentos sem que a rede fique
mais lenta.

Usando os segmentos na rede, menos usuários e/ou dispositivos compartilham a mesma


largura de banda ao se comunicarem entre si. Cada segmento tem seu próprio domínio de
colisão. Os switches Ethernet filtram o tráfego, redirecionando os datagramas para a(s)
porta(s) correta(s), baseando-se nos endereços MAC da Camada 2.

A segunda característica é chamada de microssegmentação. A microssegmentação permite a


criação de segmentos de rede dedicados com um host por segmento. Cada host recebe
acesso a toda a largura de banda e não tem que competir pela largura de banda disponível
com outros hosts. Os servidores mais utilizados podem então ser colocados em links
individuais de 100 Mbps. Geralmente, nas redes atuais, um switch Fast Ethernet atua como
backbone da rede local, e os hubs Ethernet, switches Ethernet ou hubs Fast Ethernet fornecem
as conexões dos desktops nos grupos de trabalho. Conforme se popularizarem novos
aplicativos mais exigentes, tais como multimídia ou videoconferência, certos computadores
desktop individuais terão links dedicados de 100 Mbps com a rede.

4.3.2 Modos de transmissão de quadros

Esta página descreverá os três principais modos de transmissão de quadros:

98
• Cut-through – Um switch que realiza comutação cut-through somente lê o endereço
de destino ao receber o quadro. O switch começa a encaminhar o quadro antes que
este chegue por completo. Esse modo diminui a latência da transmissão, mas tem uma
detecção de erros ruim. Há duas formas de comutação cut-through:
o Fast-forward – Este tipo de comutação oferece o nível mais baixo de latência
encaminhando imediatamente um pacote após receber o endereço de destino.
A latência é medida a partir do primeiro bit recebido até o primeiro bit
transmitido, ou seja, o primeiro a entrar é o primeiro a sair (FIFO, first in first
out). Este modo tem uma detecção de erros ruim na comutação de rede local.
o Fragment-free – Este tipo de comutação filtra e elimina os fragmentos de
colisão, que constituem a maior parte dos erros de pacote, antes de iniciar o
encaminhamento. Geralmente, os fragmentos de colisão são menores do que
64 bytes. A comutação fragment-free aguarda até que seja determinado que o
pacote recebido não é um fragmento de colisão antes de encaminhá-lo. A
latência também é medida como FIFO.
o Store-and-forward – Todo o quadro é recebido antes de ser encaminhado. Os
endereços de destino e de origem são lidos e os filtros são aplicados antes que
o quadro seja encaminhado. A latência ocorre enquanto o quadro está sendo
recebido. A latência é maior com quadros maiores, pois todo o quadro precisa
ser recebido antes que o processo de comutação comece. O switch tem tempo
para verificar se há erros, o que proporciona maior detecção de erros.

• Adaptive cut-through – Este modo de transmissão é um modo híbrido que combina


cut-through e store-and-forward. Neste modo, o switch usa cut-through até detectar
uma determinada quantidade de erros. Uma vez atingido o limiar de erros, o switch
muda para o modo store-and-forward.

99
4.3.3 Como os switches e as bridges aprendem endereços

Esta página explicará como as bridges e os switches aprendem endereços e encaminham


quadros.

As bridges e os switches só encaminham quadros que precisam trafegar de um segmento da


rede local para outro. Para realizar essa tarefa, eles precisam aprender quais dispositivos estão
conectados a qual segmento da rede local.

Uma bridge é considerada um dispositivo inteligente, pois pode tomar decisões com base nos
endereços MAC. Para isso, ela consulta uma tabela de endereços. Quando uma bridge é
ligada, são transmitidas mensagens de broadcast, pedindo que todas as estações no segmento
local da rede respondam. Conforme as estações devolvem a mensagem de broadcast, a bridge
constrói uma tabela de endereços locais. Esse processo é chamado de aprendizagem.

As bridges e os switches aprendem da seguinte maneira:

• Lendo o endereço MAC de origem de cada quadro ou datagrama recebido;


• Gravando a porta na qual o endereço MAC foi recebido.

Dessa forma, a bridge ou o switch aprendem quais endereços pertencem aos dispositivos
conectados a cada porta.

Os endereços aprendidos e a respectiva porta ou interface são armazenados na tabela de


endereçamento. A bridge examina o endereço de destino de todos os quadros recebidos. Em
seguida, ela rastreia a tabela de endereços em busca do endereço de destino.

• A tabela de comutação é armazenada na CAM (Content Addressable Memory). Nesse


tipo de memória, o conteúdo é acessado rapidamente. A CAM é usada em aplicações

100
de comutação para realizar as seguintes funções: Para extrair e processar as
informações de endereço dos pacotes de dados de entrada;
• Para comparar o endereço de destino com uma tabela de endereços armazenada nela.

A CAM armazena os endereços MAC dos hosts e os respectivos números de porta. A CAM
compara o endereço MAC de destino recebido com o conteúdo da tabela da CAM. Se a
comparação resultar em uma correspondência, a porta é fornecida e o controle de roteamento
encaminha o pacote para a porta e para o endereço corretos.

Um switch Ethernet pode aprender o endereço de cada dispositivo da rede lendo o endereço
de origem de cada quadro transmitido e observando a porta por onde o quadro entrou no
switch. O switch então adiciona essas informações ao seu banco de dados de
encaminhamento. Os endereços são aprendidos de forma dinâmica. Isso significa que,
enquanto os novos endereços são lidos, eles são aprendidos e armazenados na CAM. Quando
um endereço de origem não é encontrado na CAM, ele é aprendido e armazenado para uso
futuro.

Cada vez que um endereço é armazenado, o horário é registrado. Isso permite que os
endereços sejam armazenados por um determinado período de tempo. Cada vez que um
endereço é consultado ou encontrado na CAM, ele recebe um novo registro de hora. Os
endereços que não forem consultados durante um determinado período são removidos da lista.
Ao remover endereços antigos ou obsoletos, a CAM mantém um banco de dados de
encaminhamento preciso e funcional.

Os processos seguidos pela CAM são os seguintes:

1. Se o endereço não for encontrado, a bridge encaminha o quadro por todas as portas
exceto aquela na qual ele foi recebido. Esse processo é chamado de inundação
(flooding). O endereço também pode ter sido excluído pela bridge porque seu software
foi reiniciado recentemente, teve escassez de entradas na tabela de endereços ou
excluiu o endereço porque ele estava muito velho. Como a bridge não sabe qual porta
deve usar para encaminhar o quadro, ela o envia por todas as portas exceto aquela na
qual ele foi recebido. Obviamente não é necessário enviá-lo de volta para o mesmo
segmento de cabo do qual ele foi recebido, uma vez que todos os outros computadores
ou bridges nesse cabo já devem ter recebido o pacote.
2. Se o endereço for encontrado em uma tabela de endereços e estiver associado à porta
na qual foi recebido, o quadro é descartado. Ele já deve ter sido recebido pelo destino.
3. Se o endereço for encontrado em uma tabela de endereços e não estiver associado à
porta na qual foi recebido, a bridge encaminha o quadro para a porta associada ao
endereço.

Se o endereço for encontrado em uma tabela de endereços e não estiver associado à porta na
qual foi recebido, a bridge encaminha o quadro para a porta associada ao endereço.

4.3.4 Como os switches e as bridges filtram quadros

Esta página explicará como os switches e as bridges filtram quadros. Nesta discussão, os
termos "switch" e "bridge" são sinônimos.

A maior parte das bridges é capaz de filtrar quadros com base em qualquer campo de quadro
da Camada 2. Por exemplo, uma bridge pode ser programada para rejeitar, não encaminhar,
todos os quadros cuja origem seja uma determinada rede. Como as informações da camada de
enlace geralmente incluem uma referência a um protocolo de camada superior, normalmente
as bridges podem filtrar com esse parâmetro. Além disso, os filtros podem ser úteis para lidar
com pacotes desnecessários de broadcast e multicast.

Assim que a bridge termina de construir a tabela de endereços locais, ela está pronta para
operar. Ao receber um quadro, ela examina o endereço de destino. Se o endereço do quadro

101
for local, a bridge o ignora. Se o quadro for endereçado a outro segmento da rede local, a
bridge copia o quadro para o segundo segmento.

• O processo de ignorar um quadro é chamado de filtragem.


• O processo de copiar um quadro é chamado de encaminhamento.

A filtragem básica mantém os quadros locais no mesmo local e envia os quadros remotos para
outro segmento da rede local.

A filtragem em endereços específicos de origem e destino executa as seguintes ações:

• Impede que uma estação envie quadros para fora do seu segmento local da rede local;
• Pára todos os quadros "externos" destinados a uma determinada estação, restringindo
assim as outras estações com as quais ele pode se comunicar.

Os dois tipos de filtragem proporcionam certo controle sobre o tráfego inter-redes e podem
oferecer melhor segurança.

A maioria das bridges Ethernet pode filtrar quadros de broadcast e multicast. As bridges e os
switches que podem filtrar quadros com base nos endereços MAC também podem ser usados
para filtrar quadros Ethernet por endereços de multicast e broadcast. Essa filtragem é obtida
por meio da implementação de redes locais virtuais ou VLANs. As VLANs permitem que os
administradores de rede evitem a transmissão de mensagens de multicast e broadcast
desnecessárias através de uma rede. Às vezes, um dispositivo apresenta defeito e envia
continuamente quadros de broadcast, que são copiados ao redor da rede. Isso é chamado de
tempestade de broadcasts e pode reduzir significativamente o desempenho da rede. Uma
bridge que possa filtrar quadros de broadcast reduz os danos causados por uma tempestade
de broadcasts. Hoje em dia, as bridges também são capazes de filtrar de acordo com o
protocolo da camada de rede. Isso torna menos nítida a demarcação entre bridges e
roteadores. Um roteador opera na camada de rede usando um protocolo de roteamento para
orientar o tráfego ao redor da rede. Uma bridge que implemente técnicas avançadas de
filtragem geralmente é chamada de "brouter". Os brouters realizam filtragem observando as
informações da camada de rede, mas não usam um protocolo de roteamento.

4.3.5 Por que segmentar as redes locais?

Esta página explicará os dois principais motivos para segmentar uma rede local.

Há duas razões principais para a segmentação de uma rede local. A primeira é para isolar o
tráfego entre os segmentos. A segunda é para alcançar mais largura de banda por usuário
criando domínios de colisão menores.

Sem segmentação, as redes locais com mais do que um pequeno grupo de trabalho
rapidamente poderiam ficar obstruídas com o tráfego e as colisões.

A segmentação da rede local pode ser implementada por meio da utilização de bridges,
switches e roteadores. Cada um desses dispositivos tem seus prós e contras.

102
Com o acréscimo de dispositivos como bridges, switches e roteadores, a rede local é
segmentada em diversos domínios de colisão menores. No exemplo mostrado, foram criados
quatro domínios de colisão.

Ao dividir redes extensas em unidades autocontidas, as bridges e os switches oferecem muitas


vantagens. As bridges e os switches diminuem o tráfego observado pelos dispositivos em todos
os segmentos conectados, porque apenas uma determinada porcentagem do tráfego é
encaminhada. As bridges e os switches reduzem o domínio de colisão, mas não o domínio de
broadcast.

Cada interface do roteador se conecta a uma rede diferente. Assim, a inserção de um roteador
em uma rede local cria domínios de colisão menores e domínios de broadcast menores. Isso
ocorre porque os roteadores não encaminham broadcasts, a menos que sejam programados
para tal.

Um switch emprega "microssegmentação" para reduzir o domínio de colisão de uma rede local.
O switch faz isso criando segmentos de rede dedicados ou conexões ponto a ponto. Ele
conecta esses segmentos em uma rede virtual dentro do switch.

Esse circuito de rede virtual existe apenas quando dois nós precisam se comunicar. É
chamado de circuito virtual pois existe apenas quando necessário e é estabelecido dentro do
switch.

4.3.6 Implementação da microssegmentação

Esta página explicará as funções de um switch em uma rede local devido à


microssegmentação.

Os switches de rede local são considerados bridges multiportas sem domínio de colisão,
devido à microssegmentação. Os dados são trocados em altas velocidades através da
comutação do quadro para o seu destino. Lendo as informações do endereço MAC de Camada
2 de destino, os switches podem alcançar transferências de dados de alta velocidade, da
mesma forma que uma bridge. Esse processo leva a baixos níveis de latência e a uma alta
taxa de velocidade de encaminhamento de quadros.

103
A comutação Ethernet aumenta a largura de banda disponível em uma rede. Ela faz isso
criando segmentos de rede dedicados, ou conexões ponto-a-ponto, e conectando esses
segmentos em uma rede virtual dentro do switch. Esse circuito de rede virtual existe apenas
quando dois nós precisam se comunicar. É chamado de circuito virtual, pois existe apenas
quando necessário e é estabelecido dentro do switch.

Embora o switch de rede local reduza o tamanho do domínio de colisão, todos os hosts
conectados ao switch continuam no mesmo domínio de broadcast. Portanto, um broadcast de
um nó ainda será visto por todos os outros nós conectados através do switch da rede local.

Os switches são dispositivos da camada de enlace que, como as bridges, permitem que vários
segmentos de rede local físicos sejam interconectados em uma única rede maior. Semelhantes
às bridges, os switches encaminham e inundam tráfego com base em endereços MAC. Como a
comutação é executada no hardware em vez de no software, ela é significativamente mais
rápida. Cada porta do switch pode ser considerada uma micro-bridge, que age como uma
bridge independente e oferece a largura de banda total do meio para cada host.

4.3.7 Switches e domínios de colisão

Esta página discutirá as colisões, que são uma grande desvantagem das redes Ethernet 802.3.

Os colisões ocorrem quando dois hosts transmitem quadros simultaneamente. Quando ocorre
uma colisão, os quadros transmitidos são corrompidos ou destruídos. Os hosts emissores
param de enviar outras transmissões durante um período aleatório, com base nas regras
Ethernet 802.3 do CSMA/CD. Um excesso de colisões torna as redes improdutivas.

A área da rede onde os quadros se originam e colidem é chamada de domínio de colisão.


Todos os ambientes de meio físico compartilhado são domínios de colisão. Quando um host é
conectado a uma porta do switch, o switch cria uma conexão dedicada. Essa conexão é
considerada um domínio de colisão individual. Por exemplo, se um switch com 12 portas tiver
um dispositivo conectado a cada porta, serão criados 12 domínios de colisão.

Um switch cria uma tabela de comutação aprendendo os endereços MAC dos hosts que estão
conectados a cada uma de suas portas. Quando dois hosts conectados querem se comunicar,
o switch consulta a tabela de comutação e estabelece uma conexão virtual entre as portas. O
circuito virtual é mantido até que a sessão seja encerrada.

Na figura , Host B e Host C querem se comunicar. O switch cria a conexão virtual, que é
chamada de microssegmento. O microssegmento se comporta como se a rede tivesse apenas
dois hosts, um que envia e outro que recebe, proporcionando a máxima utilização da largura de
banda disponível.

104
Os switches reduzem as colisões e aumentam a largura de banda nos segmentos da rede
porque fornecem largura de banda dedicada a cada segmento da rede.

4.3.8 Switches e domínios de broadcast

Esta página descreverá os três métodos de transmissão de dados utilizados em uma rede. A
maneira mais comum de comunicação é por transmissões unicast. Em uma transmissão
unicast, um transmissor tenta alcançar um receptor.

Outra forma de comunicação é conhecida como transmissão multicast. A transmissão multicast


ocorre quando um transmissor tenta alcançar apenas um subconjunto, ou grupo, de todo o
segmento.

A última forma de comunicação é por broadcast. Broadcast é quando um transmissor tenta


alcançar todos os receptores da rede. A estação servidora envia uma mensagem e todos que
estão nesse segmento recebem a mensagem.

Quando um dispositivo quer enviar um broadcast de Camada 2, o endereço MAC de destino no


quadro é definido como apenas 1s. Um endereço MAC apenas com 1s é FF:FF:FF:FF:FF:FF
em hexadecimal. Definindo o destino com esse valor, todos os dispositivos aceitam e
processam o quadro enviado por broadcast.

O domínio de broadcast na Camada 2 é chamado de domínio de broadcast MAC. O domínio


de broadcast MAC consiste em todos os dispositivos da rede local que recebem broadcasts de
quadros enviados por um host a todas as outras máquinas da rede local.

Um switch é um dispositivo da Camada 2. Quando um switch recebe um broadcast, ele o


encaminha para todas as portas do switch exceto a porta de entrada. Cada dispositivo
conectado deve processar o quadro de broadcast. Isso resulta em diminuição da eficiência da
rede, pois a largura de banda disponível é usada para fins de broadcast.

105
Quando dois switches estão conectados, o domínio de broadcast aumenta. Neste exemplo, um
quadro de broadcast é encaminhado para todas as portas conectadas ao Switch 1. O switch 1
está conectado ao Switch 2. O quadro é propagado para todos os dispositivos conectados ao
Switch 2.

O resultado geral é uma redução da largura de banda disponível. Isso ocorre porque todos os
dispositivos no domínio de broadcast precisam receber e processar o quadro de broadcast.

Os roteadores são dispositivos da Camada 3. Eles não propagam broadcasts. Os roteadores


são usados para segmentar tanto domínios de broadcast como domínios de colisão.

4.3.9 Comunicação entre switches e estações de trabalho

Esta página explicará como os switches aprendem sobre as estações de trabalho de uma rede
local.

Quando uma estação de trabalho se conecta a uma rede local, ela não se preocupa com os
outros dispositivos que estão conectados ao meio físico da rede local. A estação de trabalho
simplesmente transmite os quadros de dados usando uma placa de rede para o meio que
compõe a rede.

Ela poderia estar conectada diretamente a outra estação de trabalho usando um cabo cruzado.
Os cabos cruzados são usados para conectar os seguintes dispositivos:

• Estação de trabalho a estação de trabalho;


• Switch a switch;
• Switch a hub;
• Hub a hub;
• Roteador a roteador;
• Roteador a PC.

Os cabos diretos são usados para conectar os seguintes dispositivos:

• Switch a roteador;
• Switch a estação de trabalho ou servidor;
• Hub a estação de trabalho ou servidor.

Os switches são dispositivos da Camada 2 que usam inteligência para aprender os endereços
MAC dos dispositivos conectados às suas portas. Esses dados são inseridos em uma tabela de

106
comutação. Uma vez preenchida a tabela, o switch pode ler o endereço MAC de destino de um
quadro de dados de entrada em uma porta e encaminhá-lo imediatamente. Até que um
dispositivo transmita, o switch não sabe seu endereço MAC.

Os switches oferecem significativa escalabilidade em uma rede e podem ser conectados


diretamente. A figura ilustra uma situação de transmissão de quadro utilizando uma rede com
vários switches.

Resumo

Ethernet é a arquitetura rede local mais comum e é usada para transportar dados entre os
dispositivos de uma rede. Em sua origem, a Ethernet era uma tecnologia half-duplex. Usando
half-duplex, um host podia ou transmitir ou receber em um determinado momento, mas não as
duas coisas. Quando dois ou mais hosts Ethernet transmitem ao mesmo tempo em uma meio
compartilhado, o resultado é uma colisão. O tempo que um quadro ou um pacote leva para
trafegar da estação de origem até o destino final é conhecido como latência ou atraso. As três
fontes de latência são o atraso da placa de rede, o atraso efetivo de propagação e o atraso
devido a dispositivos específicos da rede.

Bit time ou slot time é a unidade básica de tempo na qual UM bit pode ser enviado. Deve haver
um tempo mínimo durante o qual o bit está ligado ou desligado, para que o dispositivo
reconheça o um ou o zero binários.

Atenuação significa que um sinal se enfraquece conforme trafega ao longo da rede. Isso limita
a distância que pode ser abrangida por uma rede local. Um repetidor pode ampliar a distância
de uma rede local, mas também tem um efeito negativo sobre o seu desempenho geral.

A transmissão full-duplex entre estações é obtida pelo uso de conexões Ethernet ponto a
ponto. A transmissão full-duplex proporciona um ambiente de transmissão sem colisões. As
duas estações podem transmitir e receber ao mesmo tempo, e não há negociações pela
largura de banda. É possível utilizar a infra-estrutura de cabeamento existente, desde que o
meio físico atenda aos padrões mínimos da Ethernet.

A segmentação divide uma rede em unidades menores para reduzir o congestionamento da


rede e melhorar a segurança. O método de acesso CSMA/CD em cada segmento mantém o
tráfego entre os usuários. A segmentação com uma bridge de Camada 2 é transparente para
os outros dispositivos da rede, mas a latência aumenta significativamente. Quanto mais
trabalho um dispositivo da rede realiza, maior a latência que ele introduz na rede. Os
roteadores fornecem segmentação de redes, mas podem acrescentar um fator de latência de
20% a 30% em relação a uma rede comutada. Esse aumento de latência se deve ao fato de o

107
roteador operar na camada de rede e usar o endereço IP para determinar o melhor caminho
até o nó de destino. Um switch pode segmentar uma rede local em microssegmentos, o que
diminui o tamanho dos domínios de colisão. Entretanto, todos os hosts conectados ao switch
continuam no mesmo domínio de broadcast.

A comutação (switching) é uma tecnologia que diminui o congestionamento em redes locais


Ethernet, Token Ring e FDDI (Fiber Distributed Data Interface). Comutação é o processo de
receber um quadro em uma interface e encaminhá-lo através de outra interface. Os roteadores
usam comutação da Camada 3 para rotear um pacote. Os switches usam comutação da
Camada 2 para encaminhar quadros. Um switch simétrico fornece conexões comutadas entre
portas com a mesma largura de banda. Um switch rede local assimétrico fornece conexões
comutadas entre portas com diferentes larguras de banda, como uma combinação de portas de
10 Mbps e de 100 Mbps.

Um buffer de memória é uma área de memória onde um switch armazena dados. Ele pode
usar dois métodos para encaminhar quadros: a bufferização por porta e a bufferização em
memória compartilhada.

Existem dois modos de encaminhamento de quadros. Store-and-forward recebe todo o quadro


antes de encaminhá-lo, enquanto cut-through encaminha o quadro conforme ele é recebido,
diminuindo a latência. Fast-forward e fragment-free são dois tipos de encaminhamento cut-
through.

108
MODULO 05 - Switches

Visão Geral

A tarefa de projetar uma rede pode ser um desafio porque envolve mais do que a simples
conexão de dois computadores. Uma rede requer vários recursos para ser confiável,
gerenciável e escalável. Para projetar redes confiáveis, gerenciáveis e escaláveis, os
projetistas de redes devem entender que cada um dos principais componentes de uma rede
tem requisitos de projeto diferentes.

O projeto de uma rede tornou-se mais difícil, apesar de avanços no desempenho dos
equipamentos e nas capacidades dos meios físicos. A utilização de vários tipos de meios
físicos e redes locais que fazem interconexão com outras redes aumentou a complexidade do
ambiente de redes. Bons projetos de redes melhoram o desempenho e também reduzem as
dificuldades associadas ao crescimento e evolução das redes.

Uma rede local abrange uma sala, edifício ou conjunto de edifícios relativamente contíguos.
Um grupo de edifícios localizados perto uns dos outros e pertencentes a uma única
organização é denominado campus. Os seguintes aspectos da rede precisam ser identificados
antes de se projetar uma rede local de grande porte:

• Uma camada de acesso que conecte usuários finais à rede local


• Uma camada de distribuição que ofereça conectividade baseada em diretivas entre
redes locais de usuários finais
• Uma camada central que proporcione a conexão mais rápida entre os pontos de
distribuição.

Cada uma dessas camadas do projeto de uma rede local exige switches que são melhor
adaptados às tarefas específicas. Os recursos, funções e especificações técnicas de cada
switch variam conforme a camada do projeto de rede local para a qual se destina o switch.
Para obter o melhor desempenho, é importante entender o papel de cada camada para, então,
escolher o switch que melhor se adapte aos requisitos da camada.

5.1 Projeto de uma Rede Local


5.1.1 Objetivos de um projeto de rede local

A primeira etapa no projeto de uma rede local é estabelecer e documentar os objetivos do


projeto. Esses objetivos são específicos de cada organização ou situação. Esta página irá
descrever os requisitos da maioria dos projetos de uma rede:

• Funcionalidade -- A rede precisa funcionar. A rede precisa permitir que os usuários


desempenhem os seus deveres profissionais. A rede precisa oferecer conectividade de
usuário-para-usuário e de usuário-para-aplicativo com velocidade e confiabilidade
razoáveis.
• Escalabilidade -- A rede deve ser capaz de se expandir. O projeto inicial deve poder
ser ampliado sem causar grandes mudanças no projeto geral.
• Adaptabilidade – A rede precisa ser projetada com vistas a tecnologias futuras. A rede
não deve incluir elementos que limitem a implementação de novas tecnologias ao
surgirem.
• Gerenciabilidade - A rede deve ser projetada de modo a facilitar sua monitoração e
gerenciamento, para assegurar estabilidade permanente de operação.

A Atividade Interativa com Mídia irá ajudar os alunos a se familiarizarem com os quatro
objetivos principais de um projeto

109
5.1.2 Considerações do projeto de uma rede local

Esta página irá descrever alguns fatores importantes a serem considerados ao se projetar uma
rede local.

Muitas organizações já atualizaram suas redes locais atuais ou planejam implementar novas
redes locais. Essa expansão no projeto de redes locais deve-se ao desenvolvimento de
tecnologias de alta velocidade, tais como o Asynchronous Transfer Mode (ATM). Essa
expansão também deve-se a arquiteturas complexas de redes locais que utilizam a comutação
de redes locais e redes locais virtuais (VLANs).

Para utilizar ao máximo a largura de banda disponível e o desempenho da rede local, as


seguintes considerações no projeto de uma rede local precisam ser abordadas:

• A função e colocação dos servidores


• Questões de domínios de colisão
• Questões de segmentação
• Questões de domínios de broadcast

Os servidores permitem que os usuários das redes comuniquem-se, compartilhem arquivos,


impressoras e serviços de aplicativos. Os servidores tipicamente não funcionam como estações
de trabalho. Os servidores executam sistemas operacionais especializados, tais como
NetWare, Windows NT, UNIX e Linux. Cada servidor costuma ser dedicado a uma função,
como correio eletrônico ou compartilhamento de arquivos.

Os servidores podem ser categorizados como servidores corporativos ou servidores de grupo


de trabalho. Um servidor corporativo dá suporte a todos os usuários da rede, oferecendo
serviços como correio eletrônico ou DNS (Domain Name System). O correio eletrônico ou o
DNS é um serviço de que todos dentro de uma organização precisam, porque é uma função
centralizada. Um servidor de grupo de trabalho dá suporte a um conjunto específico de
usuários e oferece serviços tais como processamento de palavras e compartilhamento de
arquivos.

110
Com se vê na Figura, os servidores corporativos devem ser colocados nas instalações
principais de distribuição (main distribution facility – MDF). Sempre que possível, o tráfego para
os servidores corporativos deve transitar até a MDF e não ser transmitido através de outras
redes. No entanto, algumas redes utilizam um núcleo roteado ou até um server farm para os
servidores corporativos. Nesses casos, o tráfego de rede transita através de outras redes e
isso geralmente não pode ser evitado. Idealmente, os servidores de grupo de trabalho devem
ser colocados nas instalações de distribuição intermediárias (intermediate distribution facilities -
IDFs) mais próximas aos usuários que acessam os aplicativos desses servidores. Isso permite
que o tráfego transite através da infra-estrutura da rede até uma IDF, e não afeta outros
usuários naquele segmento da rede. Os switches de rede local de camada 2, no interior da
MDF e das IDFs, devem ter 100 Mbps ou mais alocados para esses servidores.

Os nós Ethernet utilizam CSMA/CD. Cada nó precisa competir com os demais nós para
acessar os meios físicos compartilhados, ou domínio de colisão. Se dois nós transmitem
simultaneamente, ocorre uma colisão. Quando ocorrem colisões, o quadro transmitido é
destruído e um sinal de congestionamento é enviado a todos os nós do segmento. Os nós
esperam um período de tempo aleatório e, então, enviam os dados novamente. Um número
excessivo de colisões pode reduzir a largura de banda disponível em um segmento de rede em
trinta e cinco a quarenta por cento da largura de banda disponível.

A segmentação ocorre quando um só domínio de colisão é dividido em domínios de colisão


menores.

Domínios de colisão menores reduzem o número de colisões em um segmento de uma rede


local e permitem uma melhor utilização da largura de banda. Dispositivos de camada 2, tais
como bridges e switches, podem ser utilizados para segmentar uma rede local. Os roteadores
podem fazer isso na camada 3.

Um broadcast ocorre quando o endereço MAC (media access control) de destino é definido
como FF-FF-FF-FF-FF-FF. O termo domínio de broadcast refere-se a um conjunto de
dispositivos que recebem um quadro de dados de broadcast vindo de qualquer dispositivo
dentro do próprio conjunto. Todos os hosts que recebem um quadro de dados de broadcast
precisam processá-lo. Esse processo consome os recursos e a largura de banda disponível do
host. Os dispositivos de camada 2, tais como bridges e switches, reduzem o tamanho de um
domínio de colisão. Esses dispositivos não reduzem o tamanho do domínio de broadcast. Os
roteadores reduzem o tamanho do domínio de colisão e o tamanho do domínio de broadcast na
camada 3.

111
5.1.3 Metodologia de projeto de uma rede local

Para que uma rede local seja eficiente e atenda às necessidades de seus usuários, ela deve
ser projetada e implementada de acordo com uma série planejada de etapas sistemáticas. Esta
página irá descrever as seguintes etapas:

• Coletar requisitos e expectativas


• Analisar requisitos e dados
• Projetar a estrutura das camadas 1, 2 e 3 da rede local, ou seja, a topologia
• Documentar a implementação física e lógica da rede

O processo de coletar informações ajuda a esclarecer e identificar quaisquer problemas atuais


na rede. Essas informações incluem o histórico e o estado atual da organização, projeções de
crescimento, diretrizes operacionais e procedimentos de gerenciamento, sistemas e
procedimentos burocráticos e as opiniões dos futuros usuários da rede local.

As seguintes perguntas devem ser feitas ao coletar informações:

• Quem serão os futuros usuários da rede?

112
• Qual é o nível de perícia dessas pessoas?
• Quais são suas atitudes com relação aos computadores e aplicativos?
• Até que ponto estão desenvolvidas as diretrizes organizacionais documentadas?
• Algum tipo de dados foi definido como sendo de suma importância aos propósitos da
organização?
• Alguma operação foi definida como sendo de suma importância aos propósitos da
organização?
• Que protocolos são permitidos na rede?
• Há suporte apenas para certos hosts de desktop?
• Quem é responsável pelos endereços, nomes, projeto de topologia e configuração da
rede local?
• Quais são os recursos organizacionais humanos, de hardware e de software?
• Como esses recursos estão vinculados e compartilhados atualmente?
• Quais recursos financeiros estão disponíveis para a organização?

Uma documentação dos requisitos permite a formulação de uma estimativa informada dos
custos e prazos para a implementação do projeto da rede local. É importante entender as
questões de desempenho de qualquer rede.

A disponibilidade mede a utilidade da rede. Segue abaixo uma lista de algumas das muitas
coisas que afetam a disponibilidade:

• Throughput
• Tempo de resposta
• Acesso aos recursos

Cada cliente tem uma definição diferente de disponibilidade. Por exemplo, pode ser necessário
transmitir voz e imagens de vídeo pela rede. Esses serviços podem requerer muito mais largura
de banda do que aquela disponível na rede ou no backbone. Para aumentar a disponibilidade,
podem ser adicionados recursos, mas isso aumenta o custo da rede. Os projetos de rede
devem proporcionar a maior disponibilidade possível pelo menor preço.

A próxima etapa no projeto de uma rede é analisar os requisitos da rede e de seus usuários. As
necessidades dos usuários de uma rede estão sempre evoluindo. À medida que vão se
tornando disponíveis mais aplicativos de voz e de vídeo nas redes, vai crescendo também a
necessidade de aumentar a largura de banda nas redes.

Uma rede local que não tem a capacidade de proporcionar informações aos seus usuários de
maneira rápida e precisa é inútil. Deve-se tomar as medidas necessárias para garantir que
sejam atendidos os requisitos de informações da organização e de seus funcionários.

113
A próxima etapa é escolher uma topologia geral para a rede local que atenda aos requisitos
dos usuários.

Neste currículo, o foco estará na topologia em estrela e na topologia em estrela estendida. A


topologia em estrela e a topologia em estrela estendida utilizam a tecnologia Ethernet 802.3
CSMA/CD. A topologia em estrela CSMA/CD é a configuração dominante na indústria.

O projeto da topologia de uma rede local pode ser dividido nas seguintes três categorias únicas
do modelo de referência OSI:

• Camada de rede
• Camada de enlace de dados
• Camada física

A etapa final da metodologia do projeto de uma rede local é documentar a topologia física e
lógica da rede. A topologia física da rede refere-se à maneira pela qual os vários componentes
de uma rede local são interconectados. O projeto lógico de uma rede refere-se ao fluxo de

114
dados dentro de uma rede. Também se refere aos esquemas de nomes e endereços usados
nas implementações das soluções do projeto de uma rede local.

Os seguintes itens são importantes para a documentação do projeto de uma rede local.

• Mapa da topologia das camadas do modelo OSI

• Mapa lógico da rede local


• Mapa físico da rede local
• Diagramas de cabeamento

115
• Mapa lógico de VLANs

• Mapa lógico da camada 3

116
• Mapas de endereços

5.1.4 Projeto de camada 1

Esta página irá ensinar aos alunos como projetar a topologia de camada 1 de uma rede.

Um dos componentes mais importantes a considerar no projeto de uma rede é o


cabeamento. Hoje, a maior parte do cabeamento das redes locais é baseada na tecnologia
Fast Ethernet. Fast Ethernet é Ethernet que foi atualizada de 10 MBPS para 100 Mbps, e que
tem a capacidade de utilizar a funcionalidade full duplex. Fast Ethernet usa a topologia de
barramento lógico orientada a broadcast Ethernet 10BASE-T e o método CSMA/CD para os
endereços MAC.

Questões de projeto de camada 1 incluem o tipo de cabeamento a ser usado, normalmente


cobre ou fibra e a estrutura geral do cabeamento. Isso também inclui o padrão TIA/EIA-568-A
para a disposição e conexão de esquemas de fiação. Tipos de meios físicos de camada 1
incluem 10/100BASE-TX, Categoria 5, 5e, ou 6 unshielded twisted-pair (UTP), ou shielded
twisted-pair (STP) e cabo de fibra ótica 100BaseFX.

Uma avaliação cuidadosa dos pontos fortes e fracos das topologias deve ser feita. A eficácia
de uma rede depende dos cabos a serem utilizados.

Questões de camada 1 causam a


maioria dos problemas nas redes.
Deve ser feita uma auditoria
completa dos cabos quando se
planeja fazer mudanças radicais
em uma rede. Isso ajuda a
identificar áreas que requerem
atualizações ou novo cabeamento.

Cabos de fibra ótica devem ser


utilizados no backbone e risers
(conexões verticais) em todos os
projetos de cabeamento. Cabos
de Categoria 5e UTP devem ser
utilizados nos lances horizontais.
A atualização do cabeamento
deve ter preferência sobre
qualquer outra modificação

117
necessária. As empresas também devem certificar-se de que estes sistemas cumprem os
padrões bem definidos da indústria, tais como as especificações TIA/EIA-568-A.

O padrão TIA/EIA-568-A especifica que todo dispositivo conectado à rede deve ser ligado a um
ponto central através de cabeamento horizontal. Isso se aplica se todos os hosts que
necessitam ter acesso à rede estiverem dentro do limite de distância de 100 metros (328 pés)
para Categoria 5e UTP Ethernet.

Em uma simples topologia em estrela com apenas um wiring closet, o MDF inclui um ou mais
patch panels de conexão horizontal (HCC).

Os patch cables HCC são usados para conectar o cabeamento horizontal da camada 1 às
portas dos switches de rede local da camada 2. A porta uplink do switch da rede local,
conforme o modelo, é conectada à porta Ethernet do roteador de camada 3 através de um
patch cable. Neste ponto, o host final tem uma conexão física completa à porta do roteador.

Quando os hosts em redes maiores excederem o limite de 100 metros (328 pés) para
Categoria 5e UTP, é necessário mais de um wiring closet. Mais de um wiring closet implica
mais de uma área de captação. Os wiring closets secundários são conhecidos como IDFs. Os
padrões TIA/EIA -568-A especificam que os IDFs devem ser conectados ao MDF através de
cabeamento vertical, também conhecido como cabeamento de backbone.

118
Uma conexão cruzada vertical (VCC) é usada para fazer a interconexão entre as várias IDFs e
a MDF. Cabo de fibra ótica é normalmente usado porque os lances de cabo vertical geralmente
excedem o limite de 100 metros (328 pés) para cabo Categoria 5e UTP.

O diagrama lógico é o modelo da topologia da rede sem todos os detalhes do caminho exato
da instalação dos cabos. O diagrama lógico é o mapa básico da rede local, que inclui os
seguintes elementos:

• A especificação dos locais e a identificação dos wiring closets da MDF e das IDFs.
• Documentação do tipo e quantidade de cabos usados para interconectar as IDFs com
a MDF.
• Documentação do número de cabos sobressalentes disponíveis para aumentar a
largura de banda entre os wiring closets. Por exemplo, se o cabeamento vertical entre
a IDF 1 e a MDF estiver sendo utilizado em oitenta por cento, poderão ser utilizados
dois pares adicionais para duplicar a capacidade.
• Fornecimento da documentação detalhada de todos os lances de cabos, seus números
de identificação e a porta na qual termina o lance no HCC ou no VCC.

O diagrama lógico é essencial para identificar e resolver problemas de conectividade na rede.


Se a Sala 203 perder a conectividade à rede, o diagrama de cabeamento indica que aquela
sala é servida pelo lance 203-1, que termina na porta 13 do HCC1. É possível usar um testador
de cabos para identificar falhas de camada 1. Nesse caso, um dos outros dois lances pode ser
usado para restabelecer a conectividade e dar tempo para resolver o problema com o lance
203-1.

5.1.5 Projeto de camada 2

O propósito dos dispositivos de camada 2 na rede é comutar quadros conforme o seu endereço
MAC de destino, providenciar a detecção de erros e reduzir o congestionamento na rede. Os
dois dispositivos de rede mais comuns de camada 2 são bridges e switches de rede local. Os
dispositivos na camada 2 determinam o tamanho dos domínios de colisão.

As colisões e a dimensão do domínio de colisão são dois fatores que afetam negativamente o
desempenho da rede.

119
A microssegmentação da rede
reduz o tamanho dos domínios de
colisão e reduz o número de
colisões. A microssegmentação é
implementada através da utilização
de bridges e switches. O objetivo é
melhorar o desempenho para um
grupo de trabalho ou para um
backbone. Os switches podem ser
usados com hubs para fornecer o
nível apropriado de desempenho a
diferentes usuários e servidores.

Outra importante característica de


um switch de rede local é como ele
aloca a largura de banda para cada
porta. Isso proporciona maior largura
de banda para o cabeamento
vertical, uplinks e servidores.

Este tipo de comutação é conhecido


como comutação assimétrica. A
comutação assimétrica fornece
conexões comutadas entre portas com
diferentes larguras de banda, como
uma combinação de portas de 10
Mbps e de 100 Mbps. A comutação
simétrica fornece conexões
comutadas entre portas com largura
de banda semelhante.

A capacidade desejada de um lance


de cabo vertical é superior àquela de
um lance de cabo horizontal. A
instalação de um switch de rede local
na MDF e na IDF permite que o lance
de cabo vertical faça o gerenciamento do tráfego de dados entre a MDF e a IDF.

120
Os lances horizontais entre a IDF e as estações de trabalho utilizam cabo Categoria 5e UTP.
Um cabo de acesso horizontal deve ter um comprimento superior a 100 metros (328 pés). Em
um ambiente normal, 10 Mbps é adequado para o cabo de acesso horizontal. Os switches de
rede local assimétricos permitem misturar portas de 10 Mbps e 100 Mbps no mesmo switch.

A próxima tarefa é determinar o número de portas de 10 Mbps e de 100 Mbps necessárias na


MDF e em cada IDF. Isso é realizado por meio de um exame dos requisitos dos usuários
quanto ao número de cabos de acesso horizontais para cada sala e o número total de cabos de
acesso em qualquer área de captação. Isso inclui o número de lances de cabo verticais. Por
exemplo, digamos que os requisitos dos usuários exijam quatro lances de cabos horizontais
instalados em cada sala. A IDF cobre uma área de captação de 18 salas. Portanto, quatro
cabos de acesso em cada uma das 18 salas totaliza 4x18, ou seja, 72 portas de switch de rede
local.

O tamanho de um domínio de colisão é determinado pelo número de hosts fisicamente


conectados a qualquer porta no switch. Isso também afeta a largura de banda disponível para
qualquer host. A situação ideal é apenas um host conectado a uma porta do switch de rede
local. O domínio de colisão consistiria somente no host de origem e o host de destino. O
tamanho do domínio de colisão seria dois. Devido ao tamanho diminuto desse domínio de
colisão, deveria haver virtualmente nenhuma colisão quando dois hosts se comunicam entre si.
Outra maneira de implementar a comutação de uma rede local é instalar hubs de rede local
compartilhados nas portas do(s) switch(es). Isso permite que vários hosts façam a conexão a
uma só porta de switch.

121
Todos os hosts conectados ao hub de rede local compartilham o mesmo domínio de colisão e a
mesma largura de banda. Isso significa que ocorrerão colisões com mais freqüência.

Os hubs de meios físicos compartilhados são geralmente usados no ambiente de um switch de


rede local para criar mais pontos de conexão na extremidade dos lances de cabos horizontais.

122
Os hubs de meios físicos compartilhados são geralmente usados no ambiente de um switch de
rede local para criar mais pontos de conexão na extremidade dos lances de cabos horizontais.
Essa solução é aceitável mas é preciso ter cuidado. Os domínios de colisão devem ser
mantidos pequenos e a largura de banda para o host precisa ser providenciada de acordo com
as especificações coletadas na fase de levantamento de requisitos do processo de projeto da
rede.

5.1.6 Projeto de camada 3

Um roteador é um dispositivo de camada 3 e é considerado um dos dispositivos mais


possantes na topologia de uma rede.

Os dispositivos de camada 3 podem ser usados para criar segmentos únicos de rede local. Os
dispositivos de camada 3 permitem comunicações entre segmentos com base nos endereços
de camada 3, tais como endereços IP. A implementação dos dispositivos de camada 3 permite
a segmentação da rede local em redes lógicas e físicas únicas. Os roteadores também
permitem a conectividade com WANs, como, por exemplo, a Internet.

O roteamento de camada 3 determina o fluxo de tráfego entre segmentos únicos de rede física
baseados em endereços de camada 3. Um roteador encaminha pacotes de dados com base
nos endereços de destino. Um roteador não encaminha broadcasts baseados em redes locais,
tais como solicitações ARP. Portanto, a interface do roteador é considerada o ponto de entrada
e saída de um domínio de broadcast e interrompe broadcasts para outros segmentos da rede
local.

Os roteadores oferecem escalabilidade porque servem de firewalls para broadcasts e podem


dividir as redes em sub-redes com base nos endereços de camada 3.

Na decisão de usar roteadores ou switches, é importante determinar qual é o problema que


precisa ser resolvido. Se o problema for relacionado antes ao protocolo do que a questões de
competição, os roteadores serão a solução apropriada. Os roteadores resolvem problemas de
broadcasts excessivos, de protocolos que não escalam bem, de questões de segurança e de
endereços da camada de rede. Os roteadores são mais caros e mais difíceis de se configurar
que os switches.

123
A Figura mostra um exemplo de uma implementação que tem várias redes. Todo o tráfego de
dados da Rede 1 destinado à Rede 2 tem que passar pelo roteador. Nesta implementação, há
dois domínios de broadcast. As duas redes possuem esquemas únicos de endereçamento de
rede de camada 3. Várias redes físicas podem ser criadas com a inserção do cabeamento
horizontal e vertical no switch de camada 2 apropriado. Isso pode ser realizado com patch
cables. Essa implementação também proporciona uma segurança robusta porque todo o
tráfego que entra e sai da rede local precisa passar pelo roteador.

Uma vez criado um esquema de endereços IP para um cliente, ele deve ser claramente
documentado. Uma convenção padrão deve ser definida para os endereços de hosts
importantes na rede.

Esse esquema de endereços deve permanecer consistente através de toda a rede. Mapas de
endereços proporcionam uma visão instantânea da rede.

124
Mapas físicos da rede ajudam na solução de problemas na rede.

125
A implementação de VLANs combina a comutação de camada 2 com as tecnologias de
roteamento de camada 3 para limitar tanto os domínios de colisão como os domínios de
broadcast. As VLANs também proporcionam segurança, com a criação de grupos VLAN que se
comunicam com outras VLANs através de roteadores.

Uma associação de porta física é usada para implementar a designação de VLANs. As portas
P1, P4 e P6 foram atribuídas à VLAN 1. A VLAN 2 tem as portas P2, P3 e P5. A comunicação
entre a VLAN 1 e a VLAN 2 pode ocorrer apenas através do roteador. Isso limita o tamanho
dos domínios de broadcast e utiliza o roteador para determinar se a VLAN 1 pode falar com a
VLAN 2.

5.2 Switches de Redes Locais


5.2.1 Redes locais comutadas, visão geral da camada de acesso

A construção de uma rede local que satisfaça às exigências de organizações de médio e


grande porte terá mais probabilidade de sucesso se for utilizado um modelo de projeto
hierárquico. Essa página irá tratar das três camadas de um modelo de projeto hierárquico.

• A camada de acesso proporciona acesso à rede para usuários em grupos de trabalho.


• A camada de distribuição proporciona uma conectividade com base em diretivas.
• A camada central fornece o melhor transporte possível entre instalações. A camada
central é freqüentemente conhecida como backbone.

126
Esse modelo hierárquico aplica-se a qualquer projeto de rede. É importante reconhecer que
essas três camadas poderão existir em entidades físicas evidentes e distintas. No entanto, isso
não é obrigatório. Essas camadas têm a finalidade de ajudar no projeto bem sucedido de uma
rede e para representar uma funcionalidade que precisa existir em uma rede.

A camada de acesso é o ponto de entrada à rede para estações de trabalho e servidores. Em


uma rede local de campus, o dispositivo usado na camada de acesso pode ser um switch ou
um hub.

Se for usado um hub, a largura de banda será compartilhada. Se for usado um switch, a largura
de banda será dedicada. Se uma estação de trabalho ou servidor for conectado diretamente à
porta do switch, toda a largura de banda da conexão no switch estará disponível ao
computador conectado. Se um hub for conectado a uma porta do switch, a largura de banda
será compartilhada entre todos os dispositivos conectados ao hub.

As funções da camada de acesso também incluem filtragem de camada MAC e


microssegmentação. A filtragem da camada MAC permite que os switches encaminhem

127
quadros somente à porta do switch conectado ao dispositivo de destino. O switch cria
pequenos segmentos de camada 2 chamados microssegmentos. O domínio de colisão pode
ter um mínimo de dois dispositivos. Switches de camada 2 são usados na camada de acesso.

5.2.2 Switches da camada de acesso

Os switches da camada de acesso operam na camada 2 do modelo OSI e proporcionam


serviços como associação de VLANs. O prop sito principal de um switch de camada de
acesso é admitir usuários finais à rede. Um switch de camada de acesso deve fornecer essa
funcionalidade com baixo custo e alta densidade de portas.

Os seguintes switches da Cisco são freqüentemente utilizados na camada de acesso:

• Catalyst da Série 1900


• Catalyst da Série 2820
• Catalyst da Série 2950
• Catalyst da Série 4000
• Catalyst da Série 5000

O switch Catalyst da Série 1900 ou 2820 é um dispositivo de acesso eficaz para redes de
campos de pequeno ou médio porte. O switch Catalyst da Série 2950 oferece um acesso eficaz
para servidores e usuários que exigem uma largura de banda mais alta. Isso é realizado
através de portas de switch com capacidade Fast Ethernet. Os switches Catalyst da Série 4000
e 5000 incluem portas Gigabit Ethernet e são dispositivos de acesso eficazes para um grande
número de usuários em redes de campus de grande porte.

5.2.3 Visão geral da camada de distribuição

A camada de distribuição da rede encontra-se entre a camada de acesso e a camada central.


Ela ajuda a definir e separar a camada central. O propósito desta camada é proporcionar uma
definição de limite dentro do qual pode ocorrer a manipulação de pacotes. As redes são
segmentadas em domínios de broadcast por esta camada. Diretivas podem ser aplicadas e
listas de controle de acesso podem filtrar os pacotes. A camada de distribuição isola problemas
com a rede para os grupos de trabalho nos quais ocorrem. A camada de distribuição também
impede que tais problemas afetem a camada central. Os switches nesta camada operam na
camada 2 e na camada 3. As seguintes são algumas funções da camada de distribuição em
uma rede comutada:

• Agregação de
conexões dos wiring
closets
• Definição de
domínio de
broadcast/multicast
• Roteamento VLAN
• Quaisquer
transições de meios
físicos que precisem
ocorrer
• Segurança

128
5.2.4 Switches de camada de distribuição

Esta página irá explicar as funções dos switches da camada de distribuição.

Os switches da camada de distribuição são os pontos de agregação para os switches de


camada de acesso múltiplo. O switch precisa poder acomodar todo o tráfego vindo dos
dispositivos da camada de acesso.

Um switch da camada de distribuição precisa ser de alto desempenho. Um switch da camada


de distribuição é um ponto em que é delineado um domínio de broadcast. A camada de
distribuição combina o tráfego VLAN e é um ponto de focalização para decisões de diretivas
sobre o fluxo de tráfego. Por essas razões, os switches da camada de distribuição operam
tanto na camada 2 como na camada 3 do modelo OSI. Os switches nesta camada são
conhecidos como switches multicamada. Esses switches multicamadas reúnem as funções de
um roteador e de um switch em um só dispositivo. Têm a finalidade de comutar tráfego, a fim
de obter um desempenho mais alto do que um roteador normal. Se não tiverem um módulo de
roteador associado, um roteador externo será utilizado para as funções de camada 3.

Os seguintes switches da Cisco são próprios para a camada de distribuição:

• Catalyst 2926G

129
• A família Catalyst 5000
• A família Catalyst 6000

5.2.5 Visão geral da camada central

A camada central é um backbone de comutação de alta velocidade. Se não tiver um módulo de


roteador associado, um roteador externo será utilizado para as funções de camada 3. Essa
camada do projeto da rede não deve realizar nenhuma manipulação de pacotes. A
manipulação de pacotes, como a filtragem por lista de acesso, retardaria a comutação de
pacotes. Uma infra-estrutura central com caminhos alternativos redundantes proporciona
estabilidade à rede na eventualidade da falha de um só dispositivo.

O núcleo (backbone) pode ser projetado para usar comutação da camada 2 ou da camada 3.
Podem ser usados switches ATM ou Ethernet.

130
5.2.6 Switches da camada central

A camada central é o backbone da rede comutada de campus. Os switches nesta camada


podem valer-se de várias tecnologias de camada 2. Contanto que a distância entre os switches
da camada central não seja muito grande, os switches podem utilizar a tecnologia Ethernet.
Outras tecnologias de camada 2, tais como comutação de células ATM, também podem ser
utilizadas. Em um projeto de rede, a camada central pode ser um backbone roteado ou de
camada 3. Os switches da camada central têm a finalidade de proporcionar uma funcionalidade
eficiente de camada 3 quando necessário. Devem ser considerados fatores como necessidade,
custo e desempenho antes de se tomar uma decisão.

Os seguintes switches da Cisco são próprios para a camada central:

• Catalyst da Série 6500


• Catalyst da Série 8500
• IGX da Série 8400
• Lightstream 1010

131
Resumo

O projeto de uma rede local depende dos requisitos de diferentes organizações, mas
tipicamente focaliza a funcionalidade, escalabilidade, gerenciabilidade e adaptabilidade. Para
que uma rede local seja eficaz, ela deve ser projetada e implementada conforme uma série
planejada de etapas sistemáticas. As etapas exigem que os dados e requisitos sejam coletados
e analisados, as camadas 1, 2 e 3 sejam implementadas e que tudo seja documentado. Os
seguintes itens são importantes para a documentação do projeto de uma rede local:

• Mapa da topologia das camadas do modelo OSI


• Mapa lógico da rede local
• Mapa físico da rede local
• Diagramas de cabeamento
• Mapa lógico da VLAN
• Mapa lógico da camada 3
• Mapas de endereços

As questões de projeto de camada 1 incluem o tipo de cabos a serem usados e a estrutura


geral do cabeamento. Isso também inclui o padrão TIA/EIA-568-A para a disposição e conexão
de esquemas de fiação. Tipos de meios físicos de camada 1 incluem 10/100BASE-TX,
Categoria 5, 5e ou 6 unshielded twisted-pair (UTP), ou shielded twisted-pair (STP) e cabo de
fibra ótica 100BaseFX.

O diagrama lógico da rede local inclui os locais e a identificação dos wiring closets da MDF e
das IDFs, o tipo e a quantidade de cabos usados para interconectar as IDFs com a MDF e o
número de cabos sobressalentes disponíveis para aumentar a largura de banda entre os wiring
closets.

Os dispositivos de camada 2 proporcionam o controle de fluxo, a detecção de erros, a correção


de erros e a redução de congestionamento na rede. Bridges e switches de rede local são os
dois dispositivos de rede mais comuns de camada 2. A microssegmentação da rede reduz o
tamanho dos domínios de colisão e reduz o número de colisões.

Os roteadores são dispositivos de camada 3 que podem ser usados para criar segmentos
únicos de rede local. Eles permitem comunicações entre segmentos com base nos endereços
de camada 3, tais como endereços IP. A implementação dos dispositivos de camada 3 permite
a segmentação da rede local em redes lógicas e físicas únicas. Os roteadores também
permitem a conectividade com WANs, como, por exemplo, a Internet.

A implementação de VLANs combina a comutação de camada 2 com as tecnologias de


roteamento de camada 3 para limitar tanto os domínios de colisão como os domínios de
broadcast. As VLANs também podem ser usadas para proporcionar segurança, pela criação de
grupos VLAN conforme as funções e pela utilização de roteadores para comunicação entre
VLANs.

O modelo do projeto hierárquico inclui três camadas. A camada de acesso proporciona acesso
à rede para usuários em grupos de trabalho. A camada de distribuição proporciona uma
conectividade com base em diretivas. A camada central fornece o melhor transporte possível
entre instalações. A camada central é freqüentemente conhecida como backbone.

Os switches da camada de acesso operam na camada 2 do modelo OSI e proporcionam


serviços como associação de VLANs. O propósito principal de um switch de camada de acesso
é admitir usuários finais à rede. Um switch de camada de acesso deve fornecer essa
funcionalidade com baixo custo e alta densidade de portas.

Um switch da camada de distribuição é um ponto em que é delineado um domínio de


broadcast. A camada de distribuição combina o tráfego VLAN e é um ponto de focalização para
decisões de diretivas sobre o fluxo de tráfego. Por essas razões, os switches da camada de

132
distribuição operam tanto na camada 2 como na camada 3 do modelo OSI. Os switches nesta
camada são conhecidos como switches multicamada.

A camada central é um backbone de comutação de alta velocidade. Essa camada do projeto


da rede não deve realizar nenhuma manipulação de pacotes. A manipulação de pacotes, como
a filtragem por lista de acesso, retardaria a comutação de pacotes. Uma infra-estrutura central
com caminhos alternativos redundantes proporciona estabilidade à rede na eventualidade da
falha de um só dispositivo.

Módulo 6 - Configuração de Switches

Visão Geral

Um switch é um dispositivo de rede da camada 2 que atua como ponto de concentração para a
conexão de estações de trabalho, servidores, roteadores, hubs e outros switches.

Um hub é um tipo antigo de dispositivo de concentração que também provê várias portas.
Entretanto, os hubs são inferiores aos switches porque todos os dispositivos conectados a um
hub compartilham a largura de banda e o mesmo domínio de colisão. Outra desvantagem dos
hubs é que eles só operam no modo half-duplex. No modo half-duplex, em um determinado
momento, os hubs só podem enviar ou receber dados, não podem fazer as duas coisas ao
mesmo tempo. Os switches podem operar no modo full-duplex, o que significa que podem
enviar e receber dados simultaneamente.

Os switches são bridges com várias portas. Os switches são a tecnologia padrão atual das
Redes locais Ethernet que usam uma topologia em estrela. Um switch fornece vários circuitos
virtuais dedicados ponto-a-ponto entre os dispositivos conectados à rede, então não há a
possibilidade de ocorrerem colisões.

Devido ao papel predominante dos switches nas redes modernas, a capacidade de entender e
configurar switches é essencial para o suporte de rede.

Os switches novos têm uma configuração predefinida com valores de fábrica. Essa
configuração raramente atende as necessidades dos administradores de rede. Os switches
podem ser configurados e gerenciados a partir de uma interface de linha de comando (CLI). Os
dispositivos de rede também podem ser configurados e gerenciados através de uma interface
baseada na web e de um navegador.

Os administradores de rede precisam estar familiarizados com todas as tarefas associadas ao


gerenciamento de redes com switches. Algumas dessas tarefas incluem a manutenção do
switch e seu IOS. Outras tarefas incluem o gerenciamento das interfaces e tabelas para uma
operação otimizada, confiável e segura. A configuração básica do switch, atualizações do IOS
e a recuperação de senhas são habilidades essenciais em um administrador de rede.

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

133
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Identificar os principais componentes de um switch Catalyst;


• Monitorar a atividade e o status do switch com o uso dos LEDs indicadores;
• Examinar o resultado da inicialização do switch com o uso do HyperTerminal;
• Usar os recursos de ajuda da interface de linha de comando;
• Listar os principais modos de comando de um switch;
• Verificar as configurações padrão de um switch Catalyst;
• Definir um endereço IP e um gateway padrão para o switch, a fim de permitir a conexão
e o gerenciamento através de uma rede;
• Examinar as configurações do switch com o uso de um navegador Web;
• Configurar a velocidade e a operação duplex das interfaces;
• Examinar e gerenciar a tabela de endereços MAC de um switch;
• Configurar a segurança das portas;
• Gerenciar os arquivos de configuração e as imagens do IOS;
• Realizar a recuperação de senha em um switch;
• Atualizar o IOS de um switch.

6.1 Inicialização do switch

Os switches são computadores dedicados e especializados que contêm uma unidade central
de processamento (CPU), memória de acesso aleatório (RAM) e um sistema operam.

Conforme mostrado na figura, os switches geralmente têm várias portas às quais os hosts
podem se conectar, além de portas especializadas para fins de gerenciamento. É possível
gerenciar os switches e visualizar e alterar sua configuração por meio da porta do console.

Normalmente, os switches não têm um botão liga/desliga. Simplesmente se conectam ou


desconectam de uma fonte de energia elétrica.

Diversos switches Cisco Catalyst da série 2900 estão mostrados na figura. Esses modelos são
de 12, 24 e 48 portas. Os dois switches na parte superior da figura já mostrada são switches
simétricos de configuração fixa, que oferecem FastEthernet em todas as portas ou uma
combinação de portas com 10Mbps e 100Mbps. Os três switches seguintes são modelos
assimétricos com duas portas Gigabit Ethernet fixas de cobre ou fibra. Os quatro switches da
parte inferior são modelos assimétricos com slots modulares GBIC (Gigabit Interface
Converter), que podem acomodar uma variedade de opções de mídia de cobre e fibra.

134
6.1.2 LEDs indicadores do switch

O painel frontal de um switch tem diversas luzes para ajudar a monitorar a atividade e o
desempenho do sistema. Essas luzes são chamadas de LEDs (diodos emissores de luz). Esta
página discutirá os LEDs da parte frontal de um switch:

• LED do Sistema;
• LED da fonte de alimentação remota (RPS);
• LEDs de Modo das Portas;
• LEDs de Status das Portas.

O LED do Sistema mostra se o sistema está recebendo energia e funcionando corretamente.

O LED RPS indica se a fonte de alimentação remota está sendo usada.

Os LEDs de Modo indicam o estado do botão Modo. Os modos são usados para determinar
como os LEDs de Status das Portas são interpretados. Para selecionar ou alterar o modo das
portas, pressione o botão Modo repetidas vezes até que os LEDs de Modo indiquem o modo
desejado.

A figura descreve as cores dos LED de Status das Portas e sua relação com os valores dos
LEDs de Modo.

135
6.1.3 Verificação dos LEDs das portas durante o POST do switch

Esta página explicará como os LEDs podem ser usados para determinar se um switch está
funcionando corretamente e estabeleceu um link com seu alvo.

Uma vez conectado o cabo de alimentação, o switch inicia uma série de testes, chamada de
autoteste de inicialização, ou power-on self test (POST). O POST é executado
automaticamente para verificar se o switch está funcionando corretamente. O LED do Sistema
indica se o POST obteve êxito ou não. Se o LED do Sistema estiver apagado mas o switch
estiver ligado à energia, então o POST está sendo executado. Se o LED do Sistema estiver
verde, o POST foi bem sucedido. Se o LED do Sistema estiver âmbar, o POST falhou. A falha
do POST é considerada um erro fatal. Não se deve esperar que o switch funcione de maneira
confiável se o POST falhar.

Os LEDs de Status das Portas também mudam durante o POST. Os LEDs de Status das
Portas ficam na cor âmbar por cerca de 30 segundos enquanto o switch descobre a topologia
da rede e procura por loops. Se os LEDs de Status das Portas ficarem verdes, o switch
estabeleceu um link entre a porta e o alvo, por exemplo, um computador. Se os LEDs de Status
das Portas ficarem apagados, o switch determinou que não há nada conectado à porta

6.1.4 Visualização do resultado da primeira inicialização de um switch

Esta página explicará como usar o HyperTerminal para verificar e configurar um switch.

Para configurar ou verificar o status de um switch, conecte um computador ao switch,


estabelecendo uma sessão de comunicação. Use um cabo rollover para conectar a porta do
console da parte traseira do switch a uma porta COM da parte traseira do computador.

136
Inicie o HyperTerminal no computador. Uma janela de diálogo será exibida. Ao realizar a
configuração inicial da comunicação entre o HyperTerminal e o switch, é necessário dar um
nome à conexão. Selecione a porta COM à qual o switch está conectado a partir do menu pull-
down e clique no botão OK. Uma segunda janela de diálogo será exibida. Configure os
parâmetros conforme mostrado na figura e clique no botão OK.

Conecte o switch a uma tomada. O resultado da inicialização do switch deve ser exibido na tela
do HyperTerminal. Esse resultado mostra informações sobre o switch, detalhes sobre o status
do POST e dados sobre o hardware do switch.

Depois que o switch termina a inicialização e conclui o POST, aparecem prompts para o
diálogo de Configuração do Sistema. O switch pode ser configurado manualmente com ou sem
o auxílio do diálogo de Configuração do Sistema. O diálogo de Configuração do Sistema de um
switch é mais simples do que o de um roteador.

6.1.5 Examinando o recurso de ajuda (help) da CLI do switch

Esta página explicará como usar o comando de ajuda na CLI dos switches da Cisco.

A CLI dos switches da Cisco é muito semelhante à CLI dos roteadores da Cisco.

Digite um ponto de interrogação (?) para emitir o comando de ajuda. Quando se digita esse
comando no prompt do sistema, é exibida uma lista dos comandos disponíveis no modo de
comando atual.

O comando help é muito flexível. Para obter uma lista dos comandos que começam com uma
determinada seqüência de caracteres, digite esses caracteres seguidos imediatamente de um
ponto de interrogação (?). Não digite espaço antes do ponto de interrogação. Essa forma de
ajuda é chamada de ajuda de palavra, pois completa uma palavra.

Para listar palavras-chave ou argumentos associados a um determinado comando, digite uma


ou mais palavras associadas ao comando, seguidas de um espaço e de um ponto de
interrogação (?). Essa forma de ajuda é chamada de ajuda de sintaxe de comando, pois
fornece palavras-chave ou argumentos aplicáveis com base em um comando parcial.

137
6.1.6 Modos de comando do switch

Esta página discutirá dois modos de comando dos switches. O modo padrão é o modo EXEC
do Usuário. O modo EXEC do Usuário é reconhecido por seu prompt, que termina com um
sinal de maior (>). Os comandos disponíveis no modo EXEC do Usuário são aqueles que se
limitam a alterar configurações do terminal, realizar testes básicos e exibir informações do
sistema. A figura descreve os comandos show disponíveis no modo EXEC do Usuário.

O comando enable é usado para entrar no modo EXEC Privilegiado a partir do modo EXEC
do Usuário. O modo EXEC Privilegiado também é reconhecido por seu prompt, que termina
com um sinal de tralha (#). O conjunto de comandos do modo EXEC Privilegiado inclui o
comando configure, assim como todos os comandos do modo EXEC do Usuário. O
comando configure permite acessar outros modos de comando. Como esses modos são
usados para configurar o switch, o acesso ao modo EXEC Privilegiado deve ser protegido por
senha, para evitar uso não autorizado. Se for definida uma senha, os usuários recebem uma
solicitação para digitar a senha a fim de obter acesso ao modo EXEC Privilegiado. A senha não
aparece na tela, e faz distinção entre maiúsculas e minúsculas.

6.2 Configuração do switch


6.2.1 Verificação da configuração padrão do switch Catalyst

Ao ser ligado pela primeira vez, um switch tem dados padrão no arquivo de configuração atual.
O nome do host padrão é Switch. Não há senhas definidas nas linhas do console nem do
terminal virtual (vty).

Um switch pode receber um endereço IP para fins de gerenciamento. Isso é configurado na


interface virtual, VLAN 1. Por padrão, o switch não tem endereço IP.

138
As portas ou interfaces do switch estão definidas para o modo automático,

E todas as portas do switch estão na VLAN 1. A VLAN 1 é conhecida como VLAN de


gerenciamento padrão.

139
Por padrão, o diretório flash tem um arquivo que contém a imagem do IOS, um arquivo
chamado env_vars e um subdiretório chamado html. Depois que o switch for configurado, o
diretório flash conterá um arquivo chamado config.text e um banco de dados de VLANs.

Conforme mostrado na figura, o diretório flash não contém um arquivo config.text nem um
arquivo de banco de dados de VLANs chamado vlan.dat.

A versão do IOS e as definições do registro de configuração podem ser verificadas com o


comando show version.

Neste estado padrão, o switch tem um único domínio de broadcast e a CLI pode ser usada
para gerenciar e configurar o switch através da porta do console. O protocolo Spanning-Tree
também está ativado e permite que a bridge construa uma topologia sem loops ao longo de
uma rede local estendida.

Em redes pequenas, a configuração padrão pode ser suficiente. Os benefícios do melhor


desempenho com microssegmentação são obtidos imediatamente.

6.2.2 Configuração do switch Catalyst

Pode ser que um switch já esteja pré-configurado e que seja necessário apenas inserir as
senhas dos modos EXEC do Usuário e EXEC Privilegiado. Entra-se no modo de configuração
do switch a partir do modo EXEC Privilegiado.

140
Na CLI, o prompt do modo EXEC Privilegiado padrão é Switch#. No modo EXEC do Usuário, o
prompt é Switch>.

As etapas a seguir garantem que uma nova configuração sobrescreva completamente a


configuração atual:

• Para remover as atuais informações de VLAN, exclua o arquivo de banco de dados de


VLANs, chamado vlan.dat, do diretório flash.
• Apague o arquivo de configuração de backup, chamado startup-config.
• Reinicie o switch com o comando reload.

Segurança, documentação e gerenciamento são importantes para todos os dispositivos de


rede.

É necessário dar um nome de host ao switch e definir senhas nas linhas do console e vty.

Para permitir que o switch seja acessível por Telnet e por outros aplicativos TCP/IP, é
necessário definir endereços IP e um gateway padrão.

141
Por padrão, a VLAN 1 é a VLAN de gerenciamento. Em uma rede baseada em switches, todos
os dispositivos devem estar na VLAN de gerenciamento. Isso permite que uma única estação
de trabalho de gerenciamento acesse, configure e gerencie todos os dispositivos da rede.

O padrão das portas Fast Ethernet do switch é velocidade automática (auto-speed) e modo
duplex automático (auto-duplex). Isso permite que as interfaces negociem essas configurações.
Se necessário, os administradores de rede podem configurar manualmente a velocidade da
interface e os valores duplex.

Alguns dispositivos de rede podem fornecer uma interface baseada na web para fins de
configuração e gerenciamento. Uma vez configurado com um endereço IP e um gateway, um
switch pode ser acessado dessa maneira. Um navegador pode acessar esse serviço usando o
endereço IP e a porta 80, a porta padrão do http. O serviço HTTP pode ser ligado e desligado e
é possível escolher o endereço de porta do serviço.

142
É possível fazer download de qualquer software adicional, tal como um applet, para o
navegador a partir do switch. Além disso, a rede pode ser gerenciada por uma interface gráfica
com o usuário (GUI) baseada em navegador.

6.2.3 Gerenciamento da tabela de endereços MAC

Os switches examinam o endereço de origem dos quadros recebidos nas portas para aprender
o endereço MAC dos PCs ou estações de trabalho conectados a estas. Esses endereços MAC
aprendidos são então gravados em uma tabela de endereços MAC. Os quadros que têm um
endereço MAC de destino que foi gravado na tabela podem ser comutados para a interface
correta.

O comando show mac-address-table pode ser inserido no modo EXEC Privilegiado para
examinar os endereços que um switch aprendeu.

143
Um switch aprende e mantém dinamicamente milhares de endereços MAC. Para preservar a
memória e otimizar a operação do switch, as entradas aprendidas podem ser descartadas da
tabela de endereços MAC. Máquinas podem ter sido removidas de uma porta, desligadas ou
movidas para outra porta do mesmo switch ou de outro switch. Isso pode causar confusão ao
encaminhar quadros. Por todos esses motivos, se não for visto nenhum quadro com um
endereço aprendido previamente, a entrada do endereço MAC é automaticamente descartada
ou considerada obsoleta após 300 segundos.

Em vez de esperar que uma entrada dinâmica fique obsoleta, os administradores de rede
podem usar o comando clear mac-address-table no modo EXEC Privilegiado.

As entradas de endereço MAC configuradas pelos administradores de rede também podem ser
removidas com esse comando. Esse método de limpar as entradas da tabela garante que os
endereços inválidos sejam removidos imediatamente.

6.2.4 Configuração de endereços MAC estáticos

É possível atribuir um endereço MAC permanentemente a uma interface. A seguir estão


algumas razões para atribuir um endereço MAC permanente a uma interface:

• O endereço MAC não será considerado obsoleto automaticamente pelo switch.


• Um determinado servidor ou estação de trabalho de usuário precisam ser conectados à
porta e o endereço MAC é conhecido.
• A segurança aumenta.

144
O seguinte comando pode ser usado para configurar um endereço MAC estático em um switch:

Switch(config)#mac-address-table static <endereço_mac_do_host>


interface FastEthernet <número_Ethernet> vlan<nome_da_vlan>

O seguinte comando pode ser usado para remover um endereço MAC estático de um switch:

Switch(config)#no mac-address-table static


<endereço_mac_do_host>interface FastEthernet
<número_Ethernet>vlan<nome_da_vlan>

6.2.5 Configuração da segurança das portas

A segurança da rede é uma responsabilidade importante dos administradores de rede. As


portas do switch da camada de acesso podem ser acessadas através do cabeamento das
tomadas do cabeamento estruturado. Qualquer pessoa pode ligar um PC ou laptop a uma
dessas tomadas. Esse é um ponto de entrada potencial da rede por usuários não autorizados.
Os switches oferecem um recurso chamado Port Security. É possível limitar a quantidade de
endereços que podem ser aprendidos em uma interface. O switch pode ser configurado para
tomar uma atitude caso esse limite seja ultrapassado. Endereços MAC seguros podem ser
configurados estaticamente. Entretanto, configurar endereços MAC seguros estaticamente é
uma tarefa complexa, além de ser passível de erros.

Uma alternativa é definir port security em uma interface do switch. A quantidade de endereços
MAC por porta pode ser limitada a 1. O primeiro endereço aprendido dinamicamente pelo
switch se torna o endereço seguro.

Para reverter a segurança de porta em uma interface, usa-se a forma no do comando.

O comando show port security pode ser usado para verificar o status da segurança de
porta.

145
6.2.6 Adições, movimentações e alterações

Esta página discutirá alguns itens que devem ser configurados antes que um switch seja
adicionado a uma rede.

Os parâmetros a seguir devem ser configurados em um novo switch adicionado a uma rede:

• Nome do switch;
• Endereço IP do switch na VLAN de gerenciamento;
• Um gateway padrão;
• Senhas de linha.

Quando um host é removido de uma porta ou movido para outra, as configurações que podem
causar um comportamento inesperado devem ser eliminadas. Em seguida, o switch pode ser
reconfigurado para refletir as alterações.

146
6.2.7 Gerenciamento do arquivo do sistema operacional do switch

Esta página ensinará os alunos a documentar e a manter os arquivos da configuração


operacional dos dispositivos de rede.

Os administradores de rede devem documentar e manter os arquivos de configuração


operacional dos dispositivos de rede. Deve ser feita uma cópia de backup do arquivo de
configuração atual (running-configuration) mais recente para um servidor ou disco. Isso não é
somente uma documentação essencial, mas é muito útil se for necessário restaurar uma
configuração.

Também deve ser feita uma cópia de backup do IOS em um servidor local. Em seguida, o IOS
pode ser recarregado para a memória flash se necessário.

6.2.8 Recuperação de senha no 1900/2950

Esta página discutirá a importância das senhas e explicará como é possível recuperá-las.

Para fins de segurança e gerenciamento, é necessário definir senhas nas linhas do console e
vty. Também é necessário definir uma senha de ativação e uma senha de ativação secreta.
Essas práticas ajudam a garantir que somente usuários autorizados tenham acesso aos modos
EXEC do Usuário e Privilegiado do switch.

Há circunstâncias em que se consegue ter acesso físico ao switch, mas não ao modo EXEC
Usuário ou Privilegiado porque as senhas não são conhecidas ou foram esquecidas.

Nessas circunstâncias, deve-se seguir um procedimento de recuperação de senha.

6.2.9 Atualização do firmware do 1900/2950

Esta página explicará a finalidade das atualizações do IOS e do firmware e como elas são
realizadas.

Periodicamente, são lançadas imagens do sistema operacional e do firmware com correções


de bugs, novos recursos e aperfeiçoamentos de desempenho. Se for possível tornar a rede
mais segura ou fazê-la operar de maneira mais eficiente com uma nova versão do IOS, este
deve ser atualizado.

147
Para atualizar o IOS, faça download de uma cópia da nova imagem para um servidor local a
partir do Cisco Connection Online (CCO) Software Center.

Resumo

Esta página resume os tópicos discutidos neste módulo.

Os switches são semelhantes aos roteadores. Eles têm os componentes básicos de um


computador, como CPU, RAM e sistema operacional. Têm diversas portas, que são usadas
para conectar os hosts e para gerenciamento. Os LEDs na parte frontal do switch mostram o
status do sistema, do RPS, o modo das portas e o status das portas. Ao ser ligado, um switch
executa o POST automaticamente para verificar se o switch está funcionando corretamente. O
HyperTerminal pode ser usado para configurar ou verificar o status de um switch.

Outra semelhança com os roteadores da Cisco é a CLI. Digitando um ponto de interrogação


(?), pode-se acessar a ajuda. É exibida uma lista dos comandos disponíveis. Os switches
fornecem ajuda de palavra e ajuda de sintaxe de comando.

Os switches e os roteadores têm os mesmos modos de comando. A EXEC do Usuário é o


padrão e é indicada pelo sinal de maior (>). O comando enable passa de EXEC do Usuário
para EXEC Privilegiado, conforme indicado pelo sinal de tralha (#). O acesso ao modo EXEC
Privilegiado deve ser protegido com senha para evitar a utilização não autorizada. O comando
configure permite acessar outros modos de comando.

Quando o switch é ligado pela primeira vez, são configurados dados padrão. Para fins de
gerenciamento, um switch recebe um endereço IP. O comando show version permite
verificar a versão do IOS e as definições do configuration register.

Uma vez configurado com um endereço IP e um gateway, um switch pode ser acessado
através de uma interface baseada em navegador. Isso permite a configuração e o
gerenciamento do switch. Esse serviço pode ser acessado através de um navegador com o
endereço IP e a porta 80, a porta padrão do http.

Um switch aprende e mantém dinamicamente milhares de endereços MAC. Se não forem


recebidos quadros com um endereço aprendido previamente, a entrada do endereço MAC é
automaticamente descartada ou considerada obsoleta após 300 segundos. O comando clear
mac-address-table, inserido no modo EXEC Privilegiado, pode ser usado para limpar
manualmente as tabelas de endereços.

Um endereço MAC permanente, atribuído a uma interface, garante que o endereço MAC não
será considerado obsoleto automaticamente pelo switch. O comando mac-address-table
static <endereço_mac_do_host> interface
FastEthernet <número_Ethernet> vlan <nome_da_vlan> pode ser usado para
configurar um endereço MAC estático. Use a forma no desse comando para removê-lo. O
comando show port security pode ser usado para verificar a segurança das portas.

O nome do switch, endereço IP, gateway padrão e as senhas de linha devem ser configurados
em um novo switch que é adicionado a uma rede. Quando um host é removido de uma porta
ou movido para outra, as configurações que podem causar um comportamento inesperado
devem ser eliminadas. Deve-se manter uma documentação da configuração atual e realizar
backups periódicos para o servidor ou para um disco.

148
Módulo 07 - Spanning-Tree Protocol

Visão Geral

Redundância é crucial em uma rede. Ela permite que a rede seja tolerante a falhas. Topologias
redundantes protegem contra downtime (tempo de inatividade) ou indisponibilidade da rede. O
downtime pode ser causado pela falha de um único link, porta ou dispositivo da rede. Os
engenheiros de rede geralmente precisam equilibrar o custo da redundância com a
necessidade de disponibilidade da rede.

Topologias redundantes baseadas em switches e bridges são susceptíveis a tempestades de


broadcasts, múltiplas transmissões de quadros e instabilidade do banco de dados de
endereços MAC. Esses problemas podem tornar uma rede inutilizável. Portanto, a redundância
deve ser planejada e monitorada cuidadosamente.

Redes comutadas (com switches) fornecem os benefícios de menores domínios de colisão,


microssegmentação e operação full-duplex. Fornecem também melhor desempenho.

A redundância em uma rede é necessária para protegê-la contra perda de conectividade


causada por falha de componentes individuais. Entretanto, essa providência pode resultar em
topologias físicas com loops. Loops na camada física podem causar sérios problemas em
redes comutadas.

O Spanning-Tree Protocol é usado nas redes comutadas para criar uma topologia lógica sem
loops a partir de uma topologia física com loops. Links, portas e switches que não fazem parte
da topologia ativa sem loops não encaminham quadros de dados. O Spanning-Tree Protocol é
uma ferramenta poderosa que oferece aos administradores de rede a segurança de uma
topologia redundante sem o risco dos problemas causados pelos loops de comutação.

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Definir redundância e sua importância para as redes;


• Descrever os principais elementos de uma topologia de rede redundante;
• Definir tempestades de broadcasts e descrever seu impacto nas redes comutadas;
• Definir múltiplas transmissões de quadros e descrever seu impacto nas redes
comutadas;

149
• Identificar as causas e os resultados da instabilidade do banco de dados de endereços
MAC;
• Identificar os benefícios e os riscos de uma topologia redundante;
• Descrever o papel da spanning-tree em uma rede comutada com caminhos
redundantes;
• Identificar os principais elementos da operação da spanning-tree;
• Descrever o processo de eleição da bridge raiz;
• Listar os estados da spanning-tree na ordem correta;
• Comparar o Spanning-Tree Protocol e Rapid Spanning-Tree Protocol.

7.1 Topologias redundantes


7.1.1 Redundância

Esta página explicará como a redundância pode melhorar a confiabilidade e o desempenho da


rede.

Muitas empresas e organizações dependem cada vez mais das redes de computadores para
suas operações. O acesso a servidores de arquivos, bancos de dados, Internet, intranets e
extranets é crucial para o sucesso dos negócios. Se a rede ficar inoperante, a produtividade e a
satisfação dos clientes diminuem.

Cada vez mais, as empresas exigem disponibilidade (ou tempo de atividade) contínua da rede.
Um tempo de atividade de 100% talvez seja impossível, mas muitas organizações tentam
atingir tempos de atividade de 99,999% (cinco noves). Redes extremamente confiáveis
precisam alcançar essa meta. Isso é interpretado como uma hora de inatividade, em média, a
cada 4.000 dias, ou aproximadamente 5,25 minutos de inatividade por ano. Atingir tal meta
requer redes extremamente confiáveis.

A confiabilidade da rede é alcançada por meio de equipamentos e projetos de rede confiáveis,


tolerantes a defeitos e falhas. As redes devem ser projetadas para reconvergir rapidamente,
para que a falha seja contornada.

A figura 1 ilustra a redundância. Suponha que seja necessário usar um carro para chegar ao
trabalho. Se o carro tiver um defeito que o torne inutilizável, será impossível usar o carro para ir
ao trabalho até que ele seja consertado.

Na média, se o carro ficar inutilizável por motivo de defeito em um a cada dez dias, ele terá
noventa por cento de uso. Portanto, a confiabilidade também é de 90%.

Um segundo carro melhoraria a situação. Não há necessidade de dois carros apenas para ir ao
trabalho. Entretanto, isso fornece redundância, ou backup, em caso de falha do veículo
principal. A capacidade de chegar ao trabalho não depende mais de um único carro.

Os dois carros podem ficar inutilizáveis simultaneamente, em um a cada 100 dias. O segundo
carro aumenta a confiabilidade para 99%.

7.1.2 Topologias redundantes

Esta página explicará o conceito e os benefícios de uma topologia redundante.

Uma das metas das topologias redundantes é eliminar as interrupções da rede causadas por
um ponto único de falha. Todas as redes precisam de redundância para melhorar sua
confiabilidade.

Uma rede de estradas é um exemplo global de topologia redundante. Se uma estrada for
fechada para obras, provavelmente haverá uma rota alternativa até o destino.

150
Considere um bairro separado do centro da cidade por
um rio. Se houver apenas uma ponte sobre o rio,
haverá apenas um caminho para o centro da cidade.
Essa topologia não tem redundância.

Se a ponte ficar inundada ou danificada por um acidente,


será impossível chegar ao centro da cidade pela ponte.

151
Uma segunda ponte sobre o rio cria uma topologia
redundante. O bairro não ficará isolado do centro caso uma
das pontes fique intransitável

7.1.3 Topologias comutadas redundantes

Redes com caminhos e dispositivos redundantes oferecem maior tempo de atividade. As


topologias redundantes eliminam os pontos únicos de falha. Se um caminho ou dispositivo
falhar, o caminho ou dispositivo redundante pode assumir suas tarefas.

Se o Switch A falhar, o tráfego ainda pode fluir do Segmento 2 para o Segmento 1 e para o
roteador através do Switch B.

Os switches aprendem os endereços MAC dos dispositivos em suas portas, para que os dados
possam ser encaminhados corretamente para o destino. Os switches inundam (flood) quadros
para destinos desconhecidos até aprenderem os endereços MAC dos dispositivos.

152
Broadcasts e multicasts também são despejados.

Uma topologia comutada redundante pode causar tempestades de broadcast, múltiplas cópias
de quadros e problemas de instabilidade da tabela de endereços MAC.

7.1.4 Tempestades de broadcast

Esta página explicará os efeitos dos broadcasts e dos multicasts em uma rede comutada. Os
multicasts são tratados como broadcasts pelos switches. Quadros de broadcast e multicast são
inundados (flooded) por todas as portas, exceto a que recebeu o quadro.

Se o Host X enviar um broadcast, como uma solicitação ARP, para o endereço da camada 2 do
roteador, o Switch A encaminhará o broadcast por todas as portas. O Switch B, estando no
mesmo segmento, também encaminha todos os broadcasts. O Switch B recebe todos os
broadcasts encaminhados pelo Switch A e o Switch A recebe todos os broadcasts
encaminhados pelo Switch B. O Switch A encaminha os broadcasts recebidos do Switch B. O
Switch B encaminha os broadcasts recebidos do Switch A.

153
Os switches continuam a propagar o tráfego de broadcast indefinidamente. Isso é chamado de
tempestade de broadcasts. Essa tempestade de broadcasts continuará até que um dos
switches seja desconectado. Como os broadcasts exigem tempo e recursos da rede para
serem processados, eles reduzem o fluxo de tráfego dos usuários. A rede parecerá inoperante
ou extremamente lenta.

7.1.5 Múltiplas transmissões de quadros

Suponha que o endereço MAC do Roteador Y excedeu o limite de tempo nos dois switches.
Suponha também que o Host X ainda tem o endereço MAC do Roteador Y em sua cache ARP
e envia um quadro unicast para o Roteador Y. O roteador recebe o quadro, pois está no
mesmo segmento do Host X.

O Switch A não tem o endereço MAC do Roteador Y e, portanto, inunadrá o quadro por suas
portas. O Switch B também não sabe em qual porta está o Roteador Y. Então, o Switch B
inunda o quadro que recebeu. Isso faz com que o Roteador Y receba várias cópias do mesmo
quadro. Essa é uma causa da utilização desnecessária dos recursos da rede.

7.1.6 Instabilidade do banco de dados MAC

Esta página explicará como pode ocorrer encaminhamento de informações incorretas em uma
rede comutada redundante. Um switch pode aprender incorretamente que um endereço MAC
está em uma porta, quando na verdade ele está em outra.

154
Neste exemplo, o endereço MAC do Roteador Y não está na tabela de endereços MAC de
nenhum dos switches.

O Host X envia um quadro destinado ao Roteador Y. Os Switches A e B aprendem o endereço


MAC do Host X na porta 0.

O quadro para o Roteador Y é despejado na porta 1 dos dois switches. Os Switches A e B


recebem essa informação na porta 1 e aprendem incorretamente o endereço MAC do Host X
na porta 1. Quando o Roteador Y envia um quadro para o Host X, o Switch A e o Switch B
também recebem o quadro e o enviam pela porta 1. Isso é desnecessário, mas os switches
aprenderam incorretamente que o Host X está na porta 1.

Neste exemplo, o quadro unicast do Roteador Y para o Host X ficará preso em um loop.

Esta página conclui esta lição. A próxima lição descreverá o Spanning-Tree Protocol (STP). A
primeira página discutirá os loops físicos e lógicos em uma rede redundante.

7.2 Spanning-Tree Protocol


7.2.1 Topologia redundante e spanning-tree

Esta página ensinará os alunos a criarem uma topologia lógica sem loops.

Topologias de rede redundantes são concebidas para garantir que as redes continuem a
funcionar na presença de pontos únicos de falha. Como a rede continua a funcionar, o trabalho
dos usuários é interrompido com menor freqüência. Quaisquer interrupções causadas por falha
devem ser as mais curtas possíveis.

A confiabilidade aumenta com a redundância. Uma rede baseada em switches ou bridges


introduz links redundantes entre esses switches ou bridges para superar a falha de um único
link. Essas conexões introduzem loops físicos na rede.

155
Esses loops de bridges (bridging loops) são criados para que, se um link falhar, outro possa
assumir a função de encaminhar o tráfego.

Quando o destino do tráfego é desconhecido para um switch, ele inunda o tráfego por todas as
portas exceto aquela que o recebeu. O tráfego de broadcast e multicast também é
encaminhado por todas as portas, exceto a que recebeu o tráfego. Esse tráfego pode ficar
preso em um loop.

No cabeçalho da camada 2, não há valor de tempo de vida (TTL). Se um quadro for enviado
para uma topologia de switches com loop na camada 2, ele pode ficar em loop para sempre.
Isso desperdiça largura de banda e torna a rede inutilizável.

Na camada 3, o TTL é decrementado e o pacote é descartado quando o TTL atinge 0. Isso cria
um dilema. Para fins de confiabilidade, é necessária uma topologia física que contenha loops
de switches e bridges; por outro lado, uma rede comutada não pode ter loops.

A solução é permitir os loops físicos, mas criar uma topologia lógica sem loops. Nessa
topologia lógica, o tráfego destinado ao server farm conectado a Cat-5 a partir de qualquer
estação de trabalho de usuário conectada a Cat-4 passará por Cat-1 e Cat-2. Isso acontece
mesmo que haja uma conexão física direta entre Cat-5 e Cat-4.

A topologia lógica sem loops criada é chamada de árvore. Essa topologia é uma topologia
lógica em estrela ou em estrela estendida. Ela é a spanning-tree da rede. É uma spanning-tree
(árvore de espalhamento) porque todos os dispositivos da rede podem ser alcançados ou estão
abrangidos por ela.

O algoritmo usado para criar essa topologia lógica sem loops é o algoritmo spanning-tree. Esse
algoritmo pode levar um tempo relativamente longo para convergir. Para reduzir o tempo que
uma rede leva para computar uma topologia lógica sem loops, foi desenvolvido um novo
algoritmo, chamado rapid spanning-tree.

7.2.2 Spanning-Tree Protocol

Esta página explicará como usar o STP para criar uma rede sem loops.

156
Bridges e switches Ethernet podem implementar o Spanning-Tree Protocol IEEE 802.1d e usar
o algoritmo spanning-tree para construir uma rede de caminho mais curto sem loops.

O caminho mais curto se baseia em custos de link cumulativos. Os custos dos links se baseiam
na velocidade desses links.

O Spanning-Tree Protocol estabelece um nó raiz chamado de bridge raiz. Esse protocolo


constrói uma topologia que tem um caminho para alcançar todos os nós da rede. A árvore tem
sua origem na bridge raiz. Os links redundantes que não fazem parte da árvore do caminho
mais curto são bloqueados.

Pelo fato de alguns caminhos serem bloqueados, é possível obter uma topologia sem loops. Os
quadros de dados recebidos em links bloqueados são descartados.

O Spanning-Tree Protocol requer que os dispositivos de rede troquem mensagens para


detectar loops de bridging. Os links que causam loop são colocados em estado de bloqueio.

Os switches enviam mensagens chamadas BPDUs (unidades de dados de protocolo de bridge)


para permitir a formação de uma topologia lógica sem loops. As BPDUs continuam a ser
recebidas nas portas bloqueadas. Isso garante que, se um caminho ou dispositivo ativo falhar,
uma nova spanning-tree poderá ser calculada.

As BPDUs contêm informações que permitem que os switches realizem ações específicas:

• Selecionar um único switch que atuará como raiz da spanning-tree.


• Calcular o caminho mais curto de si mesmo até o switch raiz.
• Designar um dos switches como sendo o mais próximo da raiz, para cada segmento da
LAN. Este switch é chamado de switch designado. O switch designado trata de toda
comunicação da LAN para a bridge raiz.
• Escolher uma de suas portas como porta raiz, para cada switch não raiz. Essa é a
interface que fornece o melhor caminho até o switch raiz.

157
• Selecionar as portas que fazem parte da spanning-tree. Essas portas são chamadas de
portas designadas. As portas não designadas são bloqueadas.

7.2.3 Operação Spanning-Tree

Esta página ensinará os alunos sobre as portas e os dispositivos que são encontrados em uma
rede comutada STP.

Quando a rede está estabilizada, ela convergiu e há uma spanning-tree por rede.

Como conseqüência, em toda rede comutada existem os seguintes elementos:

• Uma bridge raiz por rede;


• Uma porta raiz por bridge não raiz;
• Uma porta designada por segmento;
• Portas não utilizadas, ou não designadas.

As portas raiz e as portas designadas são usadas para encaminhar (F) tráfego de dados.

As portas não designadas descartam o tráfego de dados. Essas portas são chamadas de
portas de bloqueio (B) ou de descarte.

158
7.2.4 Escolha da bridge raiz

Esta página explicará como uma bridge raiz é selecionada em uma rede STP.

A primeira decisão tomada por todos os switches de uma rede é identificar a bridge raiz. A
posição da bridge raiz em uma rede afeta o fluxo de tráfego.

Quando um switch é ligado, o algoritmo spanning-tree é usado para identificar a bridge raiz.
São enviadas BPDUs com o ID da bridge (BID).

O BID consiste em uma prioridade da bridge, que tem como padrão 32768, e o endereço MAC
do switch. Por padrão, as BPDUs são enviadas a cada dois segundos.

Quando um switch é inicializado pela primeira vez, ele supõe ser o switch raiz e envia BPDUs
que contêm o endereço MAC tanto no BID do emissor quanto raiz. Essas BPDUs são
consideradas inferiores, pois são geradas a partir do switch designado que perdeu seu link com
a bridge raiz. O switch designado transmite as BPDUs com a informação de que ele é a bridge

159
raiz e também a bridge designada. Essas BPDUs contêm o endereço MAC do switch tanto no
BID do emissor quanto raiz.

Os BIDs são recebidos por todos os switches. Cada switch substitui os BIDs raiz mais altos por
BIDs mais baixos nas BPDUs que são enviadas. Todos os switches recebem as BPDUs e
determinam que o switch com o menor valor de BID raiz será a bridge raiz.

Os administradores de rede podem definir a prioridade do switch com um valor menor que o
padrão, o que torna o BID menor. Isso só deve ser implementado quando o fluxo de tráfego na
rede for bem compreendido

7.2.5 Estágios dos estados das portas spanning-tree

Esta página explicará os cinco estados das portas de um switch que usa STP.

É necessário tempo para que as informações de protocolo se propaguem através de uma rede
comutada. As alterações de topologia em uma parte de uma rede não são conhecidas
instantaneamente em outras partes da rede. Há um atraso de propagação. Um switch não deve
mudar o estado de uma porta de inativo para ativo imediatamente, pois isso pode causar loops
de dados.

Cada porta de um switch que estiver usando o Spanning-Tree Protocol está em um dos cinco
estados mostrados na figura

160
No estado de bloqueio, as portas só podem receber BPDUs. Os quadros de dados são
descartados e nenhum endereço pode ser aprendido. A passagem para o estado seguinte
pode levar até 20 segundos.

As portas passam do estado de bloqueio para o estado de escuta. Neste estado, os switches
determinam se há outros caminhos até a bridge raiz. O caminho que não for o caminho de
menor custo até a bridge raiz volta para o estado de bloqueio. O período de escuta é chamado
de atraso de encaminhamento e dura 15 segundos. No estado de escuta, não ocorre
encaminhamento de dados nem aprendizagem de endereços MAC. As BPDUs ainda são
processadas.

As portas passam do estado de escuta para o estado de aprendizagem. Neste estado, não
ocorre encaminhamento de dados de usuários, mas há aprendizagem de endereços MAC a
partir do tráfego recebido. O estado de aprendizagem dura 15 segundos e também é chamado
de atraso de encaminhamento. As BPDUs ainda são processadas.

As portas passam do estado de aprendizagem para o estado de encaminhamento. Neste


estado, ocorre encaminhamento de dados de usuários e os endereços MAC continuam a ser
aprendidos. As BPDUs ainda são processadas.

Uma porta pode estar em um estado de desativação. Esse estado pode ocorrer quando um
administrador fecha a porta ou a porta falha.

Os valores de tempo indicados em cada estado são os valores padrão. Esses valores foram
calculados supondo que haverá um máximo de sete switches em qualquer ramo da spanning-
tree a partir da bridge raiz.

7.2.6 Recálculo da spanning-tree

Esta página descreverá a convergência de uma rede spanning-tree.

Uma interconexão de rede comutada terá convergido quando todas as portas dos switches e
das bridges estiverem no estado de encaminhamento ou de bloqueio. Portas de
encaminhamento enviam e recebem tráfego de dados e BPDUs. Portas bloqueadas somente
recebem BPDUs.

161
Quando a topologia da rede muda, os switches e as bridges recalculam a spanning-tree e
causam uma ruptura do tráfego da rede.

A convergência em uma nova topologia spanning-tree que use o padrão IEEE 802.1d pode
levar até 50 segundos. Essa convergência é formada pela idade máxima de 20 segundos, mais
o atraso de encaminhamento de escuta de 15 segundos, mais o atraso de encaminhamento de
aprendizagem de 15 segundos.

7.2.7 Protocolo Rapid Spanning-Tree

Esta página descreverá o protocolo Rapid Spanning-Tree.

• O protocolo Rapid Spanning-Tree é definido no padrão LAN IEEE 802.1w. O padrão e


o protocolo introduzem novos recursos: Esclarecimento sobre estados e funções das
portas;
• Definição de um conjunto de tipos de links que podem passar rapidamente ao estado
de encaminhamento;
• Conceito de permitir que os switches de uma rede convergente gerem BPDUs em vez
de retransmitir as BPDUs da bridge raiz.

O estado de "bloqueio" de uma porta foi renomeado para estado de "descarte". A função de
uma porta de descarte é a de uma porta alternativa. A porta de descarte pode se tornar a porta
designada se a porta designada do segmento falhar.

162
Os tipos de link foram definidos como ponto-a-ponto, borda e compartilhado.

Essas mudanças permitem uma descoberta rápida de falhas de link em redes comutadas.

Os links ponto-a-ponto e borda podem passar para o estado de encaminhamento


imediatamente.

Com essas alterações, a convergência da rede não deve levar mais do que 15 segundos.

Com o tempo, o protocolo Rapid Spanning-Tree, IEEE 802.1w, substituirá o Spanning-Tree


Protocol, IEEE 802.1d.

Resumo

Redundância é definida como uma duplicação de componentes que permite funcionamento


continuado apesar de falha em um componente individual. Em uma rede, redundância significa
ter um método de reserva para conectar todos os dispositivos. Topologias redundantes
aumentam a confiabilidade da rede e diminuem o downtime causado por um ponto único de
falha.

Uma topologia comutada redundante pode causar tempestades de broadcasts, múltiplas


transmissões de quadros e problemas de instabilidade da tabela de endereços MAC. Uma
tempestade de broadcasts é causada quando vários hosts enviam e recebem várias
mensagens de broadcast. O resultado é que eles continuam a propagar tráfego de broadcast

163
indefinidamente até que um dos switches seja desconectado. Durante uma tempestade de
broadcasts, a rede parece inoperante ou extremamente lenta. As múltiplas transmissões de
quadros ocorrem quando um roteador recebe várias cópias de um quadro de vários switches,
devido a um endereço MAC desconhecido. As transmissões excessivas fazem com que o
roteador exceda o limite de tempo. Quando um switch aprende incorretamente um endereço
MAC de uma porta, ele pode causar uma situação de loop e instabilidade para a tabela de
endereços MAC.

Como os switches operam na camada 2 do modelo OSI, todas as decisões de


encaminhamento são feitas nesse nível. A camada 2 não fornece um valor de TTL, que é a
quantidade de tempo definida para que um pacote alcance um destino. O problema é que as
topologias físicas contêm loops de switches ou bridges, necessários para fornecer
confiabilidade, mas uma rede comutada não pode ter loops. A solução é permitir os loops
físicos, mas criar uma topologia lógica sem loops.

A topologia lógica sem loops criada é chamada de árvore. A topologia é uma estrela ou estrela
estendida que abrange a árvore da rede. Todos os dispositivos podem ser alcançados ou
abrangidos. O algoritmo usado para criar essa topologia lógica sem loops é o algoritmo
spanning-tree.

O Spanning-Tree Protocol estabelece um nó raiz, chamado de bridge raiz. Esse protocolo


constrói uma topologia que tem um caminho para todos os nós da rede. Isso resulta em uma
árvore que tem sua origem na bridge raiz. Os links redundantes que não fazem parte da árvore
do caminho mais curto são bloqueados. Pelo fato de alguns caminhos serem bloqueados, é
possível obter uma topologia sem loops. Os quadros de dados recebidos em links bloqueados
são descartados.

Os switches enviam mensagens chamadas BPDUs (unidades de dados de protocolo de bridge)


para permitir a formação de uma topologia lógica sem loops. As BPDUs continuam a ser
recebidas nas portas bloqueadas. As BPDUs contêm informações que permitem que os
switches realizem ações específicas:

• Selecionar um único switch que atuará como raiz da spanning-tree.


• Calcular o caminho mais curto de si mesmo até o switch raiz.
• Designar um dos switches para ser o switch designado.
• Escolher uma de suas portas como porta raiz, para cada switch não raiz.
• Selecionar as portas que fazem parte da spanning-tree. Essas portas são chamadas de
portas designadas.

O padrão LAN IEEE 802.1w define o protocolo Rapid Spanning-Tree. Ele serve para esclarecer
estados e funções das portas, definir um conjunto de tipos de link e permitir que os switches de
uma rede convergente gerem BPDUs em vez de usar as BPDUs da bridge raiz. O estado de
bloqueio de uma porta foi renomeado para estado de descarte. A função de uma porta de
descarte é a de uma porta alternativa. A porta de descarte pode se tornar a porta designada se
a porta designada do segmento falhar

164
Módulo 08 - Redes locais virtuais

Visão Geral

Uma importante característica da comutação Ethernet é a sua capacidade de criar redes locais
virtuais (VLANs). Uma VLAN é um agrupamento lógico de estações ou dispositivos de rede. As
VLANs podem ser agrupadas por funções operacionais ou por departamentos,
independentemente do local físico dos usuários. O tráfego entre VLANs é restrito. Os switches
e bridges encaminham o tráfego unicast, multicast e broadcast somente em segmentos da rede
local que servem a VLAN à qual o tráfego pertence. Em outras palavras, os dispositivos em
uma VLAN só comunicam com os dispositivos existentes na mesma VLAN. Os roteadores
providenciam a conectividade entre diferentes VLANs.

As VLANs aumentam o desempenho geral da rede pela agregação lógica dos usuários e
recursos. As empresas utilizam VLANs como uma forma de assegurar que um dado conjunto
de usuários estejam agrupados logicamente independentemente da sua localização física. As
organizações utilizam VLANs para agregar usuários do mesmo departamento. Por exemplo, os
usuários do Departamento de Marketing são colocados na VLAN de Marketing e os usuários do
Departamento de Engenharia são colocados na VLAN de Engenharia.

As VLANs podem melhorar a escalabilidade, segurança e gerenciamento da rede. Os


roteadores em topologias VLAN oferecem filtragem de broadcast, segurança e gerenciamento
de fluxo de tráfego.

As VLANs apropriadamente projetadas e configuradas são possantes ferramentas para os


administradores de redes. As VLANs facilitam tarefas quando é necessário fazer acréscimos,
mudanças e modificações em uma rede. As VLANs melhoram a segurança de uma rede e
ajudam a controlar broadcasts de Camada 3. No entanto, as VLANs incorretamente
configuradas podem causar um agravamento ou até a paralisação de uma rede. A
configuração e implementação correta das VLANs são críticas ao processo do projeto de uma
rede.

A Cisco se desempenha de maneira positiva no sentido da interoperabilidade de fornecedores


mas as redes locais podem consistir em topologias de rede e configurações de dispositivos
dessemelhantes. Cada fornecedor elabora o seu próprio produto proprietário para VLANs e
este nem sempre é completamente compatível com outros produtos para VLANs devido a
diferenças nos serviços das VLANs.

Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Definir VLANs
• Listar as vantagens das VLANs
• Explicar como VLANs são usadas para criar domínios de broadcast
• Explicar como os roteadores são usados para comunicações entre VLANs
• Listar os tipos comuns de VLANs
• Definir ISL e 802.1Q
• Explicar conceito de VLANs geográficas
• Configurar VLANs estáticas em switches Catalyst da Série 2900.
• Verificar e salvar configurações de VLANs
• Excluir VLANs de uma configuração de um switch

165
8.1 Conceitos de VLAN
8.1.1 Introdução a VLANs

Uma VLAN é um agrupamento lógico de estações, serviços e dispositivos de rede que não
estão restritos a um segmento físico de uma rede local.

As VLANs facilitam a administração de grupos lógicos de estações e servidores de modo que


possam comunicar como se estivessem no mesmo segmento físico de uma rede local. Elas
também facilitam a administração de mudanças, acréscimos e modificações nos membros
desses grupos.

As VLANs segmentam logicamente as redes comutadas com base nas funções profissionais,
departamentos ou equipes de projetos, independentemente da localização física dos usuários
ou das conexões físicas da rede. Todas as estações de trabalho e servidores utilizados por um
grupo de trabalho em particular compartilham a mesma VLAN, independentemente da sua
conexão ou localização física.

A configuração ou reconfiguração de VLANs é realizada através de software. Portanto, a


configuração de uma VLAN não requer o deslocamento ou conexão física dos equipamentos
da rede.

166
A comunicação de uma estação de trabalho em um grupo VLAN é restrita aos servidores de
arquivo no mesmo grupo VLAN. As VLANs segmentam a rede logicamente em diferentes
domínios de broadcast de modo que os pacotes sejam comutados somente entre portas
designadas à mesma VLAN. As VLANs consistem em hosts ou equipamento de rede
interconectados por um só domínio de bridging. O domínio de bridging é suportado em
diferentes equipamentos de rede. Os switches de rede local operam protocolos de bridging
com um grupo de bridging separado para cada VLAN.

As VLANs são criadas para proporcionarem serviços de segmentação tradicionalmente


proporcionados por roteadores físicos nas configurações de rede local. As VLANs tratam das
questões de escalabilidade, segurança e gerenciamento da rede. Os roteadores em topologias
VLAN oferecem filtragem de broadcast, segurança e gerenciamento de fluxo de tráfego. Os

167
switches não processam tráfego com bridges entre VLANs, porque isso viola a integridade dos
domínios de broadcast das VLANs. Tráfego deve ser roteado entre VLANs.

8.1.2 Domínios de broadcast com VLANs e roteadores

Esta página irá explicar como os pacotes são roteados entre diferentes domínios de broadcast.

Uma VLAN é um domínio de broadcast criado por um ou mais switches. O projeto de rede nas

Figura acima exige três domínios de broadcast separados.

168
A Figura acima mostra como três switches separados são utilizados para criar três domínios de
broadcast separados. O roteamento de Camada 3 permite que o roteador envie pacotes para
os três domínios de broadcast diferentes.

Na Figura acima, uma VLAN é criada com um roteador e um switch. Existem três domínios de
broadcast separados. O roteador roteia tráfego entre as VLANs usando roteamento de Camada
3. O switch na Figura encaminhará quadros às interfaces do roteador se existirem certas
circunstâncias:

• Se for um quadro de broadcast


• Se estiver em caminho a um dos endereços MAC no roteador

169
Se a Estação de Trabalho 1 na VLAN de Engenharia quiser enviar quadros à Estação de
Trabalho 2 na VLAN de Vendas, os quadros são enviados ao endereço MAC Fa0/0 do
roteador. O roteamento ocorre através do endereço IP na interface Fa0/0 do roteador para a
VLAN de Engenharia.

Se a Estação de Trabalho 1 na VLAN de Engenharia quiser enviar um quadro à Estação de


Trabalho 2 na mesma VLAN, o endereço MAC destino do quadro será aquele da Estação de
Trabalho 2.

A implementação de VLANs em um switch faz com que ocorram certas ações:

• O switch mantém uma tabela de bridging separada para cada VLAN.


• Se o quadro entrar em uma porta na VLAN 1, o switch procura a VLAN 1 na tabela de
bridging.
• Quando é recebido o quadro, o switch acrescentará o endereço origem à tabela de
bridging se ele for desconhecido no momento.
• O destino será conferido. Assim uma decisão de encaminhamento (forwarding) pode
ser tomada.
• Para fins de aprendizagem e encaminhamento, a consulta é feita na tabela de
endereços somente para aquela VLAN.

8.1.3 Operação de VLANs

Esta página irá explicar as características de diferentes tipos de VLANs.

Uma VLAN consiste em uma rede comutada que é logicamente segmentada. Cada porta do
switch pode ser atribuída a uma VLAN. As portas atribuídas à mesma VLAN compartilham
broadcasts. As portas que não pertencem a essa VLAN não compartilham esses broadcasts.
Isso melhora o desempenho da rede porque o número de broadcasts desnecessários é
reduzido. As VLANs de associação estática são conhecidas como VLANs de associação port-
based ou port-centric. Ao entrar em uma rede, um dispositivo automaticamente assume a
associação de VLAN da porta à qual ele está conectado.

Os usuários conectados ao mesmo segmento compartilhado compartilham a largura daquele


segmento. Cada usuário adicional conectado ao meio físico compartilhado representa uma
redução de largura de banda e uma deterioração do desempenho da rede. As VLANs oferecem
mais largura de banda para os usuários do que uma rede Ethernet compartilhada baseada em
hubs. A VLAN default para cada porta no switch é a VLAN de gerenciamento. A VLAN de
gerenciamento é sempre a VLAN 1 e não pode ser excluída. Pelo menos uma porta precisa ser

170
designada à VLAN 1 para o gerenciamento do switch. As demais portas no switch podem ser
designadas a VLANs alternativas.

VLANs de associação dinâmica são criadas através de software de gerenciamento da rede.


CiscoWorks 2000 ou CiscoWorks for Switched Internetworks é utilizado para criar VLANs
Dinâmicas. As VLANs Dinâmicas permitem associações baseadas no endereço MAC do
dispositivo conectado à porta do switch. Ao entrar um dispositivo na rede, o switch ao qual ele
está conectado consulta um banco de dados no Servidor de Configuração de VLANs,
procurando a associação VLAN.

Na associação VLAN port-based ou port-centric, a porta é designada a uma associação VLAN


específica independentemente do usuário ou sistema conectado à porta. Quando esse método
de associação estiver sendo usado, todos os usuários da mesma porta precisam estar na
mesma VLAN. Um só usuário, ou vários usuários, podem ser conectados a uma porta sem
nunca reconhecer a existência da VLAN.

171
Esse método é fácil de gerenciar porque não é necessário manter tabelas complexas de
consulta para a segmentação de uma VLAN.

Os administradores da rede têm a responsabilidade de configurar VLANs, tanto estática como


dinamicamente.

As bridges filtram o tráfego que não precisa ir até outros segmentos além do segmento destino.
Se um quadro precisar atravessar uma bridge e se o endereço MAC destino for conhecido, a
bridge encaminhará o quadro somente à porta da bridge correta. Se o endereço MAC for
desconhecido, ela inunda o quadro para todas as portas no domínio de broadcast, ou seja, na
VLAN, com exceção da porta de origem onde o quadro foi recebido. Os switches são
considerados bridges multiportas.

8.1.4 Vantagens das VLANs

Esta página irá tratar das vantagens administrativas das VLANs.

As VLANs permitem que os administradores de redes organizem redes locais logicamente em


vez de fisicamente. Esta é uma vantagem importante. Isso permite que os administradores de
redes realizem várias tarefas:

172
• Mover facilmente as estações de trabalho na rede local
• Adicionar facilmente estações de trabalho à rede local
• Modificar facilmente a configuração da rede local
• Controlar facilmente o tráfego da rede
• Melhorar a segurança

8.1.5 Tipos de VLANs

Esta página irá descrever três associações básicas de VLAN utilizadas para determinar e
controlar como um pacote é designado:

173
174
• VLANs baseadas em portas
• VLANs baseadas em endereço MAC
• VLANs baseadas em protocolos

O número de VLANs em um switch varia conforme vários fatores:

• Padrões de tráfego
• Tipos de aplicações
• As exigências de gerenciamento da rede
• Atributos que os grupos têm em comum

O esquema de endereçamento IP é outra consideração importante na definição do número de


VLANs em um switch.

Por exemplo, é permitido ter um total de 254 endereços host em uma sub-rede de uma rede
que utiliza uma máscara de 24 bits para definir cada sub-rede. Devido à enfática
recomendação de que haja uma correspondência exata entre VLANs e sub-redes IP, não é
permitido haver mais de 254 dispositivos em qualquer VLAN. É ainda recomendado que as
VLANs não se estendam além do domínio de Camada 2 do switch de distribuição.

175
Existem dois métodos importantes de frame tagging, Inter-Switch Link (ISL) e 802.1Q. ISL é um
protocolo proprietário da Cisco e já foi o mais largamente utilizado, mas agora está sendo
substituído pelo padrão IEEE 802.1Q de frame tagging.

Conforme os pacotes são recebidos pelo switch de qualquer dispositivo de estação final
conectado, um identificador exclusivo do pacote é adicionado dentro de cada cabeçalho. Estas
informações de cabeçalho designam a associação VLAN de cada pacote. O pacote é então
encaminhado aos switches e roteadores apropriados de acordo com o identificador da VLAN e
o endereço MAC. Quando os pacotes chegam ao nó destino, a ID da VLAN é removida do
pacote pelo switch adjacente e eles são encaminhados para o dispositivo conectado. Essa
marcação de pacotes providencia um mecanismo para o controle do fluxo de broadcasts e de
aplicativos sem interferir com a rede e com os aplicativos. LAN emulation (LANE) é uma
maneira de fazer com que uma rede Asynchronous Transfer Mode (ATM) simule uma rede
Ethernet. Não existe tagging em LANE, mas a conexão virtual utilizada implica uma ID de
VLAN.

8.2 Configuração de VLANs


8.2.1 Conceitos básicos de VLANs

Esta página irá fornecer informações básicas sobre VLANs e descrever as características de
uma rede VLAN fim-a-fim.

Num ambiente comutado, uma estação de trabalho receberá somente o tráfego endereçado a
ela. Como os switches filtram o tráfego da rede, as estações de trabalho em um ambiente
comutado enviam e recebem dados com toda a largura de banda dedicada. Ao contrário de um
sistema de hub compartilhado onde somente uma estação pode transmitir em qualquer dado
momento, uma rede comutada permite várias transmissões simultâneas dentro de um domínio
de broadcast. Esse processo não afeta diretamente as demais estações dentro ou fora do
domínio de broadcast.

Cada VLAN precisa ter designado exclusivamente a ela um endereço de sub-rede de Camada
3 da rede.

As VLANs podem existir como redes fim-a-fim ou podem existir dentro de limites geográficos.

Uma rede VLAN fim-a-fim possui várias características:

• A associação VLAN para usuários é baseada no departamento ou função profissional,


independentemente da localização dos usuários.
• Todos os usuários em uma VLAN devem ter os mesmos padrões de fluxo de tráfego
80/20.
• Todos os usuários em uma VLAN devem ter os mesmos padrões de fluxo de tráfego
80/20.

176
• Cada VLAN possui um conjunto de requisitos de segurança comum a todos os
membros.

As portas de switches são providenciadas para cada usuário na camada de acesso. Cada cor
representa uma sub-rede. Dado que os usuário mudam de um lugar para outro, cada switch
eventualmente se torna membro de todas as VLANs. Frame tagging é utilizado para transportar
informações desde várias VLANs entre os switches da camada de acesso e os switches da
camada de distribuição.

ISL é um protocolo proprietário da Cisco que mantém informações de VLAN enquanto o tráfego
flui entre os switches. IEEE 802.1Q é um mecanismo de tagging (marcação) de VLAN padrão
aberto (IEEE) em instalações de comutação. Os switches Catalyst 2950 não suportam trunking
ISL.

Os servidores de grupos de trabalho operam em um modelo cliente/servidor. Por esta razão, os


usuários são designados à mesma VLAN em que está o servidor que utilizam para maximizar o
desempenho da comutação de Camada 2 e para manter o tráfego localizado.

Na Figura, um roteador da camada central (core layer) é usado para rotear entre sub-redes. A
rede é projetada, com base nos padrões de fluxo do tráfego para manter 80 por cento do
tráfego dentro de uma VLAN. Os 20 por cento restantes atravessam o roteador até os
servidores corporativos e até a Internet e a WAN.

8.2.2 VLANs Geográficas

Esta página irá explicar porque as VLANs geográficas se tornaram mais comuns do que as
VLANs fim-a-fim.

As VLANs fim-a-fim permitem que os dispositivos sejam agrupados com base em utilização de
recursos. Isso inclui tais parâmetros como utilização de servidores, equipes de projetos e
departamentos. O objetivo das VLANs fim-a-fim é manter 80 por cento do tráfego na VLAN
local.

177
Com a tendência das redes corporativas a centralizarem seus recursos, as VLANs fim-a-fim se
tornam mais difíceis de manter. Os usuários são forçados a usar muitos recursos diferentes,
muitos dos quais já não existem na sua VLAN. Esse deslocamento da localização e utilização
de recursos exige a criação de VLANs dentro de limites geográficos e não de acordo com
atributos em comum.

Esse local geográfico pode ter até o tamanho de um edifício ou tão pequeno quanto um só
switch dentro de um wiring closet. Em uma estrutura geográfica, é típico encontrar a nova regra
20/80 em vigor. Isso significa que 20 por cento do tráfego permanece dentro da VLAN local e
80 por cento do tráfego da rede transita para fora da VLAN local. Embora essa topologia exija
que os serviços dos recursos transitem através de um dispositivo de Camada 3, esse arranjo
permite que a rede proporcione um método determinístico e consistente para acessar os
recursos.

8.2.3 Configurando VLANs estáticas

Esta página irá descrever o tipo de rede na qual uma VLAN estática pode ser configurada. Os
alunos também irão aprender como configurar uma VLAN.

As VLANs estáticas são portas em um switch que são atribuídas manualmente a uma VLAN.
Isso pode ser realizado com um aplicativo de gerenciamento de VLAN ou configurado
diretamente no switch através da CLI. Essas portas mantêm as configurações de VLAN que lhe
foram atribuídas até que sejam modificadas manualmente. Esse tipo de VLAN funciona bem
em redes com requisitos específicos:

178
• Todas as mudanças são controladas e gerenciadas.
• Existe um software robusto de gerenciamento de VLAN para configurar as portas.
• O consumo adicional de recursos necessário para manter endereços MAC de estações
finais e para a filtração especializada das tabelas não é aceitável.

As VLANs dinâmicas não dependem de portas designadas a uma VLAN específica.

Para configurar VLANs em switches Cisco da série 2900, precisam ser seguidas diretivas
específicas.

• O número máximo de VLANs depende do switch.


• Uma das VLANs default da fábrica é a VLAN1.
• A VLAN Ethernet default é VLAN1.
• Anúncios do Cisco Discovery Protocol (CDP) e do VLAN Trunking Protocol (VTP) são
enviados na VLAN 1. (VTP será tratado no Módulo 9).
• O endereço IP do switch está no domínio de broadcast da VLAN1 por default.
• O switch precisa estar no modo de servidor VTP para criar, adicionar ou excluir VLANs.

A criação de uma VLAN em um switch é uma tarefa muito simples e sem complicações. Se for
usado um switch baseado em comandos, o comando vlan database pode ser usado no
modo EXEC privilegiado para entrar no modo de configuração de VLAN. Um nome também
pode ser configurado para a VLAN, caso necessário:

Switch#vlan database
Switch(vlan)#vlan vlan_number
Switch(vlan)#exit

Ao sair, a VLAN será aplicada ao switch. A próxima etapa será designar a VLAN a uma ou
mais interfaces:

Switch(config)#interface fastethernet 0/9


Switch(config-if)#switchport access vlanvlan_number

8.2.4 Verificando a configuração de uma VLAN

Esta página irá explicar como os comandos show vlan, show vlan brief, ou show vlan
id id_number podem ser usados para verificar configurações de uma VLAN.

O seguintes fatos se aplicam às VLANs:

• Uma VLAN criada permanece sem utilizar até que seja mapeada a portas de switch.
• Todas as portas Ethernet são atribuídas à VLAN 1 por padrão.

A Figura mostra uma lista de comandos aplicáveis.

179
A Figura mostra as etapas necessárias para designar uma nova VLAN a uma porta no switch
Sydney.

As Figuras ilistam a saída dos comandos show vlan e show vlan brief.

8.2.5 Salvando a configuração de uma VLAN

Esta página irá ensinar os alunos como criar um arquivo texto da configuração de uma VLAN e
usá-lo como backup.

É útil guardar uma cópia da configuração da VLAN como arquivo texto, especialmente quando
é necessário fazer backup ou auditoria.

180
Pode ser feito o backup dos valores da configuração do switch em um servidor TFTP com o
comando copy running-config tftp. Como alternativa, pode ser utilizado o recurso de
captura do HyperTerminal em conjunto com os comandos show running-config e show
vlan para armazenar os parâmetros da configuração.

8.2.6 Excluindo VLANs

Esta página irá ensinar os alunos como remover uma VLAN de uma interface de switch
baseado em comandos do Cisco IOS. Esse processo é semelhante ao procedimento utilizado
para remover um comando de um roteador.

Na Figura, Fastethernet 0/9 foi designada à VLAN 300 com o comando switchport access
vlan 300. Para remover esse VLAN da interface, simplesmente use a forma no do comando.

O comando abaixo é usado para remover uma VLAN de um switch:

Switch#vlan database
Switch(vlan)#no vlan 300

181
Quando uma VLAN é excluída, todas as portas designada àquela VLAN são desativadas. As
portas, no entanto, permanecerão associadas à VLAN excluída até que sejam designadas a
outra VLAN.

8.3 Identificando e Resolvendo Problemas com VLANs


8.3.1 Visão geral

Esta página irá explicar o que os alunos aprenderão desta lição.As VLANs já são muito comuns
nas redes de campus. As VLANs oferecem aos engenheiros de redes flexibilidade em projetar
e implementar redes. As VLANs também permitem a contenção de broadcasts, a segurança e
comunidades de interesse geograficamente divergentes. No entanto, como no caso da
comutação básica de redes locais, podem surgir problemas quando VLANs são
implementadas. Esta lição irá mostrar alguns dos problemas mais comuns que ocorrem com as
VLANs, e proporcionará várias ferramentas e técnicas para a identificação e resolução de
problemas.

182
Os alunos, ao concluírem esta lição, deverão poder:

• Utilizar um método sistemático para a identificação e resolução de problemas.


• Demonstrar as etapas para a identificação e resolução de problemas gerais nas redes
• Descrever como os problemas com spanning-tree podem acarretar em tempestades de
broadcast
• Usar os comandos show e debug para identificar e resolver problemas com VLANs

8.3.2 Processo de identificação e resolução de problemas das VLANs

Esta página ajudará os alunos a desenvolver um método sistemático que pode ser usado na
identificação e resolução de problemas relacionados com switches. As seguintes etapas podem
ajudar no isolamento de um problema em uma rede comutada:

183
1. Examinar as indicações físicas, tais como o estado dos LEDs.
2. Começar com uma só configuração em um switch e trabalhe de dentro para fora.
3. Verificar o link de Camada 1.
4. Verificar o link de Camada 2.
5. Faça a identificação e resolução de problemas com VLANs que abrangem vários
switches.

Ao fazer a identificação e resolução de problemas, veja se o problema se repete ou se é uma


falha isolada. Alguns problemas que se repetem se devem ao aumento da demanda de
serviços por portas de estações de trabalho que ultrapassam a configuração, trunking ou
capacidade de acesso aos serviços dos servidores. Por exemplo, a utilização de tecnologias
Web e aplicativos tradicionais, tais como a transferência de arquivos e correio eletrônico,
causam um crescimento do tráfego de rede que as redes corporativas precisam comportar.

Muitas redes locais de campus enfrentam padrões inéditos de tráfego de rede que resultam da
combinação de tráfego da intranet, um número reduzido de servidores centralizados no
campus e a crescente utilização de aplicativos multicast. A velha regra de 80/20, que dizia que
só 20 por cento do tráfego da rede podia passar pelo backbone, já está obsoleta. A navegação
Web interna agora permite que os usuários localizem e acessem informações em qualquer
lugar na intranet corporativa. Os padrões de tráfego são determinados pela localização dos
servidores e não pelas configurações físicas dos grupos de trabalho com os quais por acaso
são agrupados.

Se uma rede freqüentemente sofrer sintomas de engarrafamento (bottleneck), como


transbordamentos (overflows) excessivos, quadros descartados e retransmissões, poderá ser
porque há um excesso de portas montadas em um só tronco ou um excesso de solicitações
para recursos globais e para acesso aos servidores de intranet.

Sintomas de engarrafamento também podem ocorrer porque a maioria do tráfego está sendo
forçado a atravessar o backbone. Outra causa poderia ser que o acesso "any-to-any" (todos
com todos) é comum, com os usuários a valer-se de recursos corporativos baseados em Web e

184
de aplicativos de multimídia. Nesse caso, poderá ser necessário considerar aumentar os
recursos da rede para atender à crescente demanda.

8.3.3 Prevenindo tempestades de broadcast

Esta página ensinará aos alunos como prevenir tempestades de broadcast.

Uma tempestade de broadcast ocorre quando um número grande de pacotes de broadcast são
recebidos em uma porta. O encaminhamento desses pacotes poderá resultar em um
retardamento ou paralisação da rede. O controle de tempestades é configurado para o switch
como um todo, mas opera independentemente para cada porta. O controle de tempestades
está desativado por default.

A prevenção de tempestades de broadcast pela definição de valores limite em alto ou baixo irá
descartar o excesso de tráfego MAC de broadcast, multicast ou unicast. Além disso, a
configuração de valores de limites crescentes em um switch interromperá a operação da porta.

Problemas com STP incluem tempestades de broadcast, loops, BPDUs e pacotes descartados.

A função do STP é garantir que não ocorram loops lógicos em uma rede por designar uma
bridge raiz. A bridge raiz é o ponto central de uma configuração de spanning-tree que controla
como o protocolo opera.

Localizar a bridge raiz na rede estendida de roteador e switch é necessário para uma
identificação e resolução de problemas eficaz. Os comandos show tanto no roteador como no
switch podem exibir informações sobre a bridge raiz.

185
A configuração de temporizadores de bridge raiz define parâmetros para o atraso de
encaminhamento ou para a idade máxima para informações STP.

Manualmente configurar um dispositivo como bridge raiz é outra opção da configuração.

Se a rede estendida de roteador e switch encontrar um período de instabilidade, é de ajuda


minimizar os processos STP que ocorrem entre dispositivos.

Se for necessário reduzir o tráfego BPDU, coloque os temporizadores na bridge raiz ao seu
valor mínimo. Especificamente, defina o parâmetro de atraso de encaminhamento para o
mínimo de 30 segundos, e defina o parâmetro max_age ao máximo de 40 segundos.

Uma porta física em um roteador ou switch poderá pertencer a mais de uma spanning tree se
for um tronco.

O Spanning-Tree Protocol (STP) é considerado um dos mais importantes protocolos de


Camada 2 nos switches Catalyst. Pela prevenção de loops lógicos em uma rede com bridge, o
STP permite a redundância de Camada 2 sem gerar tempestades de broadcast.

Reduza os problemas de spanning-tree ao mínimo pelo desenvolvimento ativo de um estudo


de linha base da rede.

186
8.3.4 Identificando e Resolvendo Problemas com VLANs

Esta página irá explicar como os comandos show e debug podem ser usados para fazer a
identificação e resolução de problemas com VLANs.

A Figura ilustra os problemas mais comuns encontrados na identificação e resolução de


problemas das VLANs.

Para fazer a identificação e resolução de problemas na operação das conexões Fast Ethernet
entre roteadores e switches, é necessário certificar-se de que a configuração da interface do
roteador esteja completa e correta. Certifique-se de que não esteja configurado um endereço
IP na interface Fast Ethernet. Os endereços IP são configurados em cada subinterface de uma
conexão VLAN. Certifique-se de que a configuração da operação duplex no roteador seja igual
àquela na porta/interface apropriada no switch.

O comando show vlan exibe informações VLAN no switch.

187
A Figura exibe a saída do comando show vlan. O resultado mostra a ID da VLAN, seu nome,
status e portas designadas.

Também aparecem as opções de palavra-chave e a descrição da sintaxe de palavra-chave de


cada campo para o comando show vlan.

188
O comando show vlan exibe informações sobre aquela VLAN no roteador. O comando show
vlan, seguido do número da VLAN, exibe informações específicas àquela VLAN no roteador.
A saída do comando inclui a ID da VLAN, a subinterface do roteador e informações sobre o
protocolo.

O comando show spanning-tree exibe a topologia spanning-tree conhecida pelo roteador.

189
Esse comando irá mostrar os parâmetros STP usados pelo roteador para a bridge spanning-
tree na rede de roteador e switch.

A primeira parte da saída do comando lista parâmetros globais de configuração de spanning


tree, seguido daqueles específicos a interfaces em particular.

O Bridge Group 1 executa o Spanning Tree Protocol compatível com IEEE.

As seguintes linhas de saída mostram os atuais parâmetros de operação do spanning tree:

Bridge Identifier has priority 32768, address 0008.e32e.e600 Configured hello time 2, Max age
20, forward delay 15

A seguinte linha de saída mostra que o roteador é a raiz do spanning tree:

190
We are the root of the spanning tree.

Informações importantes do comando show spanning-tree cria um mapa da rede STP.

O comando debug sw-vlan packets exibe informações gerais sobre os pacotes VLAN
recebidos mas não configurados para suportar o roteador. Quando o roteador é configurado
para rotear ou comutar certos pacotes VLAN, estes são contados e indicados através do
comando show vlans.

8.3.5 Cenários de identificação e resolução de problemas de VLANs

Os administradores de redes podem fazer com eficiência a identificação e resolução de


problemas de redes comutadas depois de aprender e adaptar as técnicas às necessidades da
empresa. A experiência é a melhor maneira de melhorar essas técnicas.

Esta página irá descrever três cenários de identificação e resolução de problemas de VLANs
que tratam dos problemas mais comuns. Cada um destes cenários contém uma análise do
problema que ajuda na sua resolução. Ao utilizar os comandos específicos apropriados e
coletar informações relevantes das saídas de comandos, pode-se seguir com êxito o processo
de identificação e resolução de problemas.

Cenário 1: Um trunk (tronco) não pode ser estabelecido entre um switch e um roteador.

Quando surgem dificuldades com uma conexão de tronco entre um switch e um roteador, não
deixe de considerar as seguintes possíveis causas:

1. Certifique-se de que a porta esteja conectada e que não esteja recebendo quaisquer
erros de camada física, de alinhamento ou de frame-check-sequence (FCS). Isso pode
ser realizado com o comando show interface no switch.
2. Certifique-se de que estejam corretamente definidas a operação duplex e a velocidade
entre o switch e o roteador. Isso pode ser realizado através do comando show
interface status no switch ou o comando show interfaces no roteador.
3. Configure a interface física do roteador com uma sub-interface para cada VLAN que irá
roteador tráfego. Verifique isso com o comando IOS show interfaces. Também,
certifique-se de que cada sub-interface no roteador tenha o tipo de encapsulamento, o

191
número de VLAN, o endereço IP e a máscara de sub-rede apropriadamente
configurados. Isso pode ser realizado através do comando IOS show interfaces ou
show running-config.
4. Certifique-se de que o roteador esteja executando uma versão do IOS que suporte
trunking. Isso pode ser verificado através do comando show version.

Cenário 2: Pacotes descartados e loops.

As bridges de spanning tree utilizam pacotes de Bridge Protocol Data Units (BPDUs) de
notificação de modificações de topologia para notificar as demais bridges sobre alguma
modificação na topologia spanning tree da rede. A bridge com o identificador mais baixo na
rede se torna a raiz. As bridges enviam essas BPDUs sempre que uma porta faça uma
transição entre estados de encaminhamento, contanto que haja outras portas no mesmo grupo
de bridge. Essas BPDUs migram em direção à bridge raiz.

Só pode haver uma bridge raiz para cada rede com bridge. Um processo de eleição determina
qual será a bridge raiz. A raiz determina parâmetros para mensagens de configuração, nas
BPDUs para depois definir os temporizadores para as demais bridges. Outras bridges
designadas determinam o caminho mais curto até a bridge raiz e são responsáveis pelo
anúncio das BPDUs a outras bridges através de portas designadas. Uma bridge deve ter portas
no estado de bloqueio se houver um loop físico.

Podem surgir problemas para as redes em que os nós de bridging utilizam algoritmos de
spanning tree IEEE e DEC. Esses problemas são causados por diferenças na maneira em que
os nós de bridging processam pacotes BPDU ou pacotes hello e na maneira em que
processam dados.

Nesse cenário, o Switch A, Switch B e Switch C estão executando o algoritmo spanning tree
IEEE. O switch D está configurando inadvertidamente para usar o algoritmo spanning tree
DEC.

O Switch A se considera como a raiz IEEE e o Switch D se considera como a raiz DEC. O
Switch B e o Switch C propagam informações da raiz em todas as interfaces para o spanning
tree IEEE. No entanto, o Switch D descarta informações de spanning tree IEEE.
Semelhantemente, os outros roteadores ignoram o direito do Roteador D de ser a raiz.

192
O resultado é que, devido ao fato de nenhuma das bridges acreditarem, existe um loop, e
quando um pacote de broadcast é enviado, ocorre uma tempestade de broadcast em toda a
rede. Essa tempestade de broadcast incluirá os Switches X e Y e além.

Para resolver esse problema, reconfigure o Switch D para IEEE. Embora seja necessária a
mudança de configuração, possivelmente não seja o suficiente para restabelecer a
conectividade. Haverá um atraso de reconvergência enquanto os dispositivos trocam BPDUs e
recalculem o spanning tree para a rede.

Resumo

Esta página faz um resumo dos tópicos apresentados neste módulo.

Uma VLAN é um grupo de serviços de rede não restritos a um segmento físico ou a um switch
de rede local. A configuração ou reconfiguração de VLANs é realizada através de software, o
que torna desnecessário conectar fisicamente ou mover cabos e equipamentos. As VLANs
tratam das questões de escalabilidade, segurança e gerenciamento da rede. Os roteadores em
topologias VLAN oferecem filtragem de broadcast, segurança e gerenciamento de fluxo de
tráfego. Tráfego deve ser roteado entre VLANs. Os switches não processam tráfego com
bridges, porque isso violaria a integridade do domínio de broadcast das VLANs.

A principal vantagem das VLANs é que permitem que o administrador da rede organize a rede
local logicamente em vez de fisicamente. Isso inclui a capacidade de mover estações de
trabalho na rede local, adicionar estações de trabalho à rede local, alterar a configuração da
rede local, controlar tráfego da rede e melhorar a segurança.

Uma VLAN é um domínio de broadcast criado por um ou mais switches. As VLANs são
utilizadas para criar domínios de broadcast a fim de melhorar o desempenho global da rede. A
implementação das VLANs em um switch faz com que o switch mantenha tabelas de bridging
separadas para cada VLAN. Se o quadro entra por uma porta na VLAN 1, o switch procura
VLAN 1 na tabela de bridging. Quando o quadro é recebido, o switch adiciona o endereço
origem à tabela de bridging se aquele for desconhecido. O switch então verifica o destino para
que possa ser tomada uma decisão de encaminhamento. Para fins de aprendizagem e
encaminhamento, a consulta é feita na tabela de endereços somente para aquela VLAN.

Existem três associações básicas para determinar e controlar como um pacote é designado:
VLANs baseadas em portas, VLANs baseadas em endereço MAC e VLANs baseadas em
protocolo.

193
Inter-Switch Link (ISL) é um método de frame tagging que está send rapidamente substituído
pelo frame tagging 802.1Q. Essa marcação de pacotes providencia um mecanismo para o
controle do fluxo de broadcasts e de aplicativos sem interferir com a rede e com os aplicativos.

Cada VLAN precisa ter designado exclusivamente a ela um endereço de rede de Camada 3.
Isso permite que os roteadores comutem pacotes entre VLANs. As VLANs podem existir como
redes fim-a-fim ou podem existir dentro de limites geográficos.

Uma rede VLAN fim-a-fim agrupa os usuários em VLANs com base no grupo ou na função
profissional. Todos os usuários em uma VLAN devem ter os mesmos padrões de fluxo de
tráfego 80/20. A associação de VLAN não muda para um usuário quando fisicamente troca de
local. Cada VLAN possui um conjunto de requisitos de segurança comum a todos os membros.

As VLANs estáticas são portas em um switch que são manualmente atribuídas a uma VLAN
através de um aplicativo de gerenciamento de VLAN ou por ações feitas diretamente dentro do
switch. Essas portas mantêm as configurações de VLAN que lhe foram atribuídas até que
sejam modificadas manualmente. As VLANs dinâmicas não dependem de portas designadas a
uma VLAN específica. Use os comandos show vlan, show vlan brief, ou show vlan
id id_number para verificar a configuração VLAN.

É usado um método sistemático para a identificação e resolução de problemas em uma VLAN.


Para isolar o problema, examine as indicações físicas, tais como o estado dos LEDs. Começar
com uma só configuração em um switch e trabalhe de dentro para fora. Verifique o link de
Camada 2 e depois verifique o link de Camada 2. Faça a identificação e resolução de
problemas com VLANs que abrangem vários switches. Alguns problemas que se repetem se
devem ao aumento da demanda de serviços por portas de estações de trabalho que
ultrapassam a configuração, trunking ou capacidade de acesso aos serviços dos servidores.

Módulo 09: VLAN Trunking Protocol

Visão Geral

As primeiras VLANs eram difíceis de implementar através de redes. Cada VLAN era
manualmente configurada em cada switch. O gerenciamento de VLANs em uma rede extensa
era uma tarefa complicada. Para complicar ainda mais as coisas, cada fabricante de switch
utilizava métodos diferentes para implementar VLANs. O VLAN trunking foi elaborado para
resolver esses problemas.

O VLAN trunking permite a definição de v rias VLANs dentro de toda uma organização,
adicionando tags especiais aos quadros para identificar a VLAN à qual pertencem. Essa
utilização de tags permite que várias VLANs sejam implementadas em uma rede comutada de
porte grande sobre um backbone ou tronco comum. O VLAN trunking é baseado em padrões e
o trunking protocol IEEE 802.1Q é agora largamente implementado. O Inter-Switch Link (ISL) é
o protocolo de trunking proprietário da Cisco e pode ser implementado em todas as redes
Cisco.

A configuração e gerenciamento manual do VLAN Trunking Protocol (VTP) em um grande


número de switches pode ser um trabalho desafiador. A principal vantagem do VTP é a
automação de várias tarefas de configuração da VLAN após a configuração do VTP em uma
rede.

Este módulo explica a implementação do VTP em uma rede comutada.

A tecnologia VLAN oferece muitas vantagens para os administradores de redes. Entre outras,
as VLANs ajudam no controle de broadcasts de camada 3, melhoram a segurança da rede e
podem ajudar no agrupamento lógico de usuários da rede. No entanto, as VLANs apresentam
uma importante limitação. Operam na camada 2 o que significa que os dispositivos em

194
diferentes VLANs não podem comunicar-se sem a utilização de roteadores e de endereços de
camada de rede.

Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Explicar as origens e funções do VLAN trunking


• Descrever como o trunking possibilita a implementação de VLANs em uma rede de
grande porte
• Definir o IEEE 802.1Q
• Definir Cisco ISL
• Configurar e verificar um tronco VLAN
• Definir VTP
• Explicar por que foi elaborado o VTP
• Descrever o conteúdo de mensagens VTP
• Listar e definir os três modos VTP
• Configurar e verificar VTP em um switch baseado em IOS
• Explicar por que os roteadores são necessários para a comunicação entre VLANs
• Explicar a diferença entre interfaces físicas e lógicas
• Definir subinterfaces
• Configurar o roteamento entre VLANs com subinterfaces em uma porta de roteador

9.1 Trunking
9.1.1 História do trunking

Esta página explicará a evolução do trunking.

A história do trunking tem o seu início nas tecnologias de rádio e telefonia. Na tecnologia de
rádio, um tronco é uma só linha de comunicação que transporta vários canais de sinais de
rádio.

Na indústria telefônica, o conceito de trunking é associado com o caminho ou canal de


comunicação telefônica entre dois pontos. Um desses dois pontos é normalmente a Central
Telefônica (CO).

Troncos compartilhados também podem ser criados para oferecer redundância entre COs.

195
O conceito utilizado pelas indústrias telefônica e de rádio foi, então, adotado para a
comunicação de dados. Um exemplo disso em uma rede de comunicações é um link de
backbone entre um MDF e um IDF. Um backbone é composto de vários troncos.

Atualmente, o mesmo princípio de trunking é aplicado a tecnologias de comutação em redes.


Um tronco é uma conexão física e lógica entre dois switches, através da qual transita o tráfego
da rede.

9.1.2 Conceitos de trunking

Esta página explicará como os troncos são usados em um ambiente de VLAN comutada.

Conforme já mencionado, um tronco é uma conexão física e lógica entre dois switches, através
da qual transita o tráfego da rede. É um só canal de transmissão entre dois pontos. Os dois
pontos geralmente são centrais de comutação.

Em uma rede comutada, um tronco é um link ponto-a-ponto que suporta várias VLANs. O
propósito de um tronco é conservar portas quando é criado um link entre dois dispositivos que
implementam VLANs.

196
A Figura ilustra duas VLANs compartilhadas entre os switches Sa e Sb. Cada switch usa dois
links físicos, de modo que cada porta transporta tráfego para uma só VLAN. Esta é uma
maneira simples de implementar a comunicação VLAN entre switches, mas não é escalável.

O acréscimo de uma terceira VLAN exigiria a utilização de mais duas portas, uma em cada
switch conectado. Este projeto também não é eficiente em termos de compartilhamento de
cargas. Além disso, o nível de tráfego em certas VLANs talvez não justifique um link dedicado.
O trunking agrega vários links virtuais em um só link físico. Isso permite que o tráfego de várias
VLANs transite sobre um único cabo entre os switches.

A analogia para o trunking é um distribuidor rodoviário.

As estradas com diferentes origens e destinos compartilham uma rodovia nacional principal por
alguns quilômetros e depois dividem-se novamente para chegar aos seus destinos em
particular. Esse método é mais econômico do que a construção de uma estrada separada do
começo ao fim para cada destino conhecido ou novo.

9.1.3 Operação de Troncos

Esta página explicará como os troncos gerenciam a transmissão de quadros entre VLANs.

As tabelas de comutação em ambas as extremidades do tronco podem ser usadas para tomar
decisões sobre encaminhamento baseado nos endereços MAC de destino dos quadros. À
medida que vai aumentando o número de VLANs que transitam pelo tronco, as decisões de
encaminhamento tornam-se mais lentas e mais difíceis de gerenciar. O processo de decisão
torna-se mais lento porque as tabelas de comutação maiores demoram mais para serem
processadas.

197
Os protocolos de trunking foram elaborados para gerenciar com mais eficácia a transferência
de quadros de diferentes VLANs em uma única linha física. Os protocolos de trunking
estabelecem um acordo para a distribuição de quadros para as portas associadas em ambas
as extremidades do tronco.

Os dois tipos existentes de mecanismos de trunking são filtragem de quadros (frame filtering) e
marcação de quadros (frame tagging). O frame tagging foi adotado como o mecanismo padrão
de trunking pelo IEEE.

Os protocolos de trunking que utilizam frame tagging obtêm uma entrega mais rápida de
quadros e facilitam o gerenciamento.

O único link físico entre os dois switches consegue transportar tráfego para qualquer VLAN.
Para conseguir isso, cada quadro enviado no link é marcado para identificar a VLAN à qual
pertence. Existem diferentes esquemas de marcação. Os dois esquemas mais comuns de
marcação para segmentos Ethernet são ISL e 802.1Q:

198
• ISL – Um protocolo proprietário da Cisco
• 802.1Q – Um padrão IEEE que é o foco desta seção

9.1.4 VLANs e Trunking

São usados protocolos ou regras específicas para implementar o trunking. O trunking


proporciona um método eficaz de distribuir informações sobre IDs das VLANs para outros
switches.

Os dois mecanismos padrão de trunking são frame tagging e filtragem de quadros. Esta página
explicará como o frame tagging pode ser usado para proporcionar uma solução mais escalável
para a implementação de VLANs. O padrão IEEE 802.1Q especifica a marcação de quadros
(frame tagging) como o método para implementar VLANs.

O frame tagging de VLANs foi desenvolvido especificamente para comunicações comutadas. A


marcação de quadros coloca um identificador único no cabeçalho de cada quadro à medida
que ele é encaminhado através do backbone da rede. O identificador é reconhecido e
examinado por cada switch antes de fazer qualquer broadcast ou transmissão para outros
switches, roteadores ou estações finais. Quando o quadro sai do backbone da rede, o switch
retira o identificador antes que o quadro seja transmitido para a estação de destino final. O
frame tagging funciona na camada 2 e não ocupa muitos recursos da rede ou de
administração.

199
É importante entender que um link de tronco não pertence a uma VLAN específica. Um link de
tronco é um canal para VLANs entre switches e roteadores.

ISL é um protocolo que mantém informações de VLAN enquanto o tráfego flui entre os
switches. Com ISL, um quadro Ethernet é encapsulado com um cabeçalho que contém um ID
da VLAN

9.1.5 Implementação de trunking

Esta página ensinará aos alunos como criar e configurar um tronco para VLAN em um switch
configurado por comandos do Cisco IOS.

Primeiro, configure a porta como tronco e depois use os comandos indicados na Figura para
especificar o encapsulamento do tronco.

As Atividades de Laboratório ensinarão os alunos como criar links de tronco entre dois switches
e permitir comunicação entre VLANs eparelhadas.

200
9.2 VTP
9.2.1 A história do VTP

Esta página apresentará o VLAN Trunking Protocol (VTP).

O VLAN Trunking Protocol (VTP) foi criado pela Cisco para resolver problemas operacionais
em uma rede comutada com VLANs. É um protocolo proprietário da Cisco.

Considere o exemplo de um domínio com vários switches interconectados que suportam várias
VLANs. Um domínio é um agrupamento lógico de usuários e de recursos sob controle de um
servidor chamado PDC (Primary Domain Controller). Para manter a conectividade dentro de
VLANs, cada VLAN precisa ser manualmente configurada em cada switch. Com o crescimento
da organização e o acréscimo de switches à rede, cada novo switch precisa ser manualmente
configurado com informações das VLANs. Uma só designação de VLAN incorreta poderia
causar dois problemas:

• VLANs com conexão cruzada devido a inconsistências na configuração das VLANs.


• Configuração incorreta de VLANs em ambientes de meios físicos mistos, tais como
Ethernet e Fiber Distributed Data Interface (FDDI)

Com VTP, a configuração de VLANs é mantida consistentemente em um domínio


administrativo comum. Além disso, o VTP reduz as complexidades do gerenciamento e
monitoramento de redes com VLANs.

9.2.2 Conceitos do VTP

Esta página explicará como o VTP é utilizado em uma rede.

O papel do VTP é manter a consistência de configuração de VLANs através de um domínio de


administração de rede comum. O VTP é um protocolo de mensagens que usa quadros de
tronco da camada 2 para adicionar, excluir e renomear VLANs em um único domínio. O VTP
também permite mudanças centralizadas que são comunicadas aos demais switches na rede.

Mensagens VTP são encapsuladas em quadros de protocolo Inter-Switch Link (ISL) da Cisco
ou do IEEE 802.1Q e passadas através de links de tronco para outros dispositivos. Nos
quadros IEEE 802.1Q, um campo de 4 bytes é usado para a marcação do quadro. Ambos os
formatos transportam o ID da VLAN.

Embora as portas de switches são normalmente designadas para uma só VLAN, as portas de
tronco por default transportam quadros de todas as VLANs.

201
9.2.3 Operação do VTP

Esta página explicará como mensagens VTP são transmitidas. Os alunos também aprenderão
sobre os três modos do VTP num switch.

Um domínio VTP consiste em um ou mais dispositivos interconectados que compartilham o


mesmo nome de domínio VTP. Um switch pode existir em um só domínio VTP.

Ao transmitir mensagens VTP para outros switches na rede, a mensagem VTP é encapsulada
em um quadro de protocolo de trunking, tal como ISL ou IEEE 802.1Q.

A Figura mostra o encapsulamento genérico para o VTP dentro de um quadro ISL. O


cabeçalho VTP varia conforme o tipo de mensagem VTP, mas geralmente, os mesmos quatro
itens encontram-se em todas as mensagens VTP:

• A versão do protocolo VTP – Versão 1 ou 2


• O tipo da mensagem VTP – Indica um dentre quatro tipos de mensagens
• O comprimento do nome do domínio de gerenciamento – Indica o tamanho do nome
que segue
• Nome do domínio de gerenciamento – O nome configurado para o domínio de
gerenciamento

Os switches VTP operam em um dentre três modos:

• Servidor
• Cliente

202
• Transparente

Os servidores VTP podem criar, modificar e excluir parâmetros de VLANs e de configuração de


VLANs para o domínio inteiro. Os servidores VTP guardam informações de configuração de
VLAN na NVRAM do switch. Os servidores VTP enviam mensagens VTP para todas as portas
de tronco.

Os clientes VTP não podem criar, modificar ou excluir informações de VLANs Esse modo é útil
para switches que não possuem memória suficiente para armazenar grandes tabelas de
informações de VLANs. O único papel dos clientes VTP é de processar mudanças de VLAN e
enviar mensagens VTP para todas as portas de tronco.

Os switches no modo VTP transparente encaminham anúncios VTP mas ignoram informações
contidas na mensagem. Um switch transparente não modificará o seu banco de dados ao
receber atualizações nem enviará uma atualização que indique uma mudança no status de
suas VLAN. Exceto para o encaminhamento de anúncios VTP, o VTP é desativado em um
switch transparente.

As VLANs detectadas dentro dos anúncios servem de notificação para o switch de que pode
ser esperado tráfego com os recém-definidos IDs de VLAN.

203
Na Figura, o Switch C transmite uma entrada de banco de dados VTP com adições ou
exclusões ao Switch A e ao Switch B. O banco de dados de configuração possui um número de
revisão que é incrementado por 1. Um número mais alto de revisão de configuração indica que
as informações sobre VLANs sendo recebidas são mais recentes que a cópia armazenada.
Sempre que um switch recebe uma atualização cujo número de revisão de configuração é mais
alto, o switch sobrescreve as informações já armazenadas com as novas informações enviadas
na atualização do VTP. O Switch F não processa a atualização porque está em outro domínio.
Esse processo de sobrescrita significa que se a VLAN não existir no novo banco de dados, ela
será excluída do switch. Além disso, o VTP mantém a sua própria configuração na NVRAM. O
comando erase startup-configuration limpa a configuração dentro da NVRAM, mas
não o número de revisão do banco de dados do VTP. Para redefinir como zero o número de
revisão da configuração, o switch precisa ser reinicializado.

Por default, os domínios de gerenciamento são definidos para um modo não seguro. Isso
significa que os switches interagem sem a utilização de senha. Para definir o domínio de
gerenciamento automaticamente no modo seguro, pode ser adicionada uma senha. A mesma
senha precisa ser configurada em cada switch no domínio de gerenciamento para usar o modo
seguro.

9.2.4 Implementação do VTP

Esta página descreverá os dois tipos de anúncios VTP e os três tipos de mensagens VTP.

Com o VTP, cada switch anuncia em suas portas de tronco o seu domínio de gerenciamento, o
número da revisão da configuração, as VLANs que ele conhece e certos parâmetros para cada
VLAN conhecida. Esses quadros de aviso são enviados para um endereço de multicast, para
que todos os dispositivos vizinhos possam receber os quadros. No entanto, os quadros não
são encaminhados mediante procedimentos normais de bridging. Todos os dispositivos no
mesmo domínio de gerenciamento aprendem sobre novas VLANs configuradas em um
dispositivo transmissor. Uma nova VLAN precisa ser criada e configurada em somente um
dispositivo no domínio de gerenciamento. Os demais dispositivos no mesmo domínio de
gerenciamento automaticamente aprendem as informações.

Anúncios em VLANs configuradas como default de fábrica dependem dos tipos de meios
físicos. As portas de usuários não devem ser configuradas como troncos VTP.

Cada anúncio começa com o número de revisão da configuração em 0. À medida que são
feitas mudanças, o número de revisão da configuração é incrementado em 1, ou seja, n + 1. O
número de revisão continua a ser incrementado até que chegue a 2.147.483.648. Ao chegar a
esse valor, será redefinido como zero.

Há dois tipos de anúncios VTP:

• Solicitações de clientes que desejam informações ao se inicializar


• Respostas dos servidores

Há três tipos de mensagens VTP:

• Solicitações de anúncios
• Anúncios sumarizados
• Anúncios de subconjuntos

Com solicitações de anúncios, os clientes solicitam informações de VLAN e o servidor


responde com anúncios sumarizados e de subconjuntos.

204
Por default, os switches Catalyst servidores e clientes emitem anúncios sumarizados de cinco
em cinco minutos. Os servidores informam os switches vizinhos daquilo que acreditam ser o
atual número de revisão do VTP. Se os nomes de domínio forem idênticos, o servidor ou o
cliente faz a comparação do número de revisão da configuração que recebeu. Se o switch
receber um número de revisão superior ao atual número de revisão desse switch, emitirá uma
solicitação de anúncio para as novas informações de VLAN.

205
Os anúncios de subconjunto contêm informações detalhadas sobre VLANs, tais como a versão
do VTP, o nome do domínio e campos relacionados a ele, além do número de revisão da
configuração. Certas ações podem ativar anúncios de subconjuntos:

• Criação ou exclusão de uma VLAN


• Suspensão ou ativação de uma VLAN
• Mudança no nome de uma VLAN
• Mudança na MTU (maximum transmission unit) de uma VLAN

Os anúncios podem conter algumas ou todas as seguintes informações:

• Nome do domínio de gerenciamento – Anúncios com nomes diferentes são


ignorados.
• Número de revisão da configuração – Um número superior indica uma configuração
mais recente.
• Message Digest 5 (MD5) – MD5 é a chave que é enviada com o VTP se foi atribuída
uma senha. Se a chave não corresponder, a atualização será ignorada.
• Identidade do atualizador – A identidade do atualizador é a identidade do switch que
envia o anúncio sumarizado do VTP.

9.2.5 Configuração do VTP

Esta página ensinará aos alunos como configurar o VTP.

Etapas específicas precisam ser consideradas antes de serem configurados o VTP e as VLANs
na rede:

206
1. Determinar o número da versão do VTP que será utilizada.
2. Decidir se este switch será membro de um domínio de gerenciamento já existente, ou
se deve ser criado um novo domínio. Se existir um domínio de gerenciamento,
determinar o nome e a senha do domínio.
3. Escolher um modo de VTP para o switch.

Duas versões diferentes de VTP estão disponíveis, Versão 1 e Versão 2. As duas versões não
são compatíveis entre si. Se um switch estiver configurado em um domínio VTP Versão 2,
todos os switches no domínio de gerenciamento precisarão ser configurados para o VTP
Versão 2. O VTP Versão 1 é o default. O VTP Versão 2 pode ser implementado se os recursos
necessários não existirem na Versão 1. O recurso mais freqüentemente exigido é o suporte
para VLAN Token Ring.

Para configurar a versão do VTP em um switch baseado em comandos do Cisco IOS, primeiro
entre no modo de banco de dados de VLAN.

O seguinte comando pode ser usado para entrar no modo de banco de dados de VLAN e
configurar o número da versão do VTP.

Switch#vlan database
Switch(vlan)#vtp v2-mode

Se o switch for o primeiro switch da rede, o domínio de gerenciamento deverá ser criado. Se o
domínio de gerenciamento foi provido de segurança, configure uma senha para o domínio.

O seguinte comando pode ser usado para criar um domínio de gerenciamento.

Switch(vlan)#vtp domain cisco

O nome do domínio pode ter um comprimento de 1 a 32 caracteres. A senha precisa ter um


comprimento de 8 a 64 caracteres.

Para adicionar um cliente VTP a um domínio VTP já existente, certifique-se de que o seu
número de revisão da configuração VTP seja inferior ao número de revisão da configuração
dos outros switches no domínio VTP. Use o comando show vtp status. Os switches em um
domínio VTP sempre usam a configuração das VLANs do switch com o número de revisão da
configuração VTP mais alto. Se for adicionado um switch com um número de revisão superior
àquele atualmente existente no domínio VTP, possivelmente serão apagadas todas as
informações das VLANs do servidor VTP e do domínio VTP.

Escolha um dos três modos do VTP disponíveis para o switch. Se este for o primeiro switch no
domínio de gerenciamento e se tiverem que ser adicionados outros switches, configure o modo
como servidor. Os switches adicionais poderão aprender informações de VLAN desse switch.
Deve existir pelo menos um servidor.

As VLANs podem ser criadas, excluídas e renomeadas à vontade sem que o switch propague
modificações a outros switches. É possível que as VLANs sejam parcialmente sobrepostas se
várias pessoas configuram dispositivos dentre de uma rede. Por exemplo, o mesmo ID de
VLAN pode ser usado para VLANs com propósitos divergentes.

207
O seguinte comando pode ser usado para definir o modo correto do switch:

Switch(vlan)#vtp {client | server | transparent}

A Figura apresenta a saída do comando show vtp status. Este comando é usado para
verificar a configuração dos parâmetros VTP em um switch baseado em comandos do Cisco
IOS.

A Figura apresenta a saída do comando show vtp counters. Este comando é usado para
exibir estatísticas sobre anúncios enviados e recebidos pelo switch.

9.3 Visão Geral do Roteamento Entre VLANs


9.3.1 Conceitos básicos de VLANs

Esta página apresentará o conceito de uma VLAN e como ela é usada.

Uma VLAN é um agrupamento lógico de dispositivos ou usuários que podem ser agrupados
por função, departamento ou aplicativo, independentemente da sua localização física.

208
As VLANs são configuradas por software no switch. O número de implementações de VLAN de
fabricantes diferentes pode exigir a utilização de software proprietário do fornecedor do switch.
O agrupamento de portas e usuários em comunidades de interesse, denominadas
organizações VLAN, pode ser realizado pela utilização de um só switch ou, de forma mais
abrangente, entre switches conectados dentro da empresa. Ao agrupar as portas e usuários
entre vários switches, as VLANs podem abranger infra-estruturas em um só edifício ou em
edifícios interconectados. As VLANs ajudam na utilização eficaz de largura de banda, já que
compartilham o mesmo domínio de broadcast ou rede de camada 3. As VLANs otimizam a
utilização da largura de banda. As VLANs disputam a utilização da mesma largura de banda,
embora as exigências de largura de banda possam variar muito entre grupos de trabalho ou
departamentos.

209
A seguir são apresentados alguns aspectos a respeito da configuração de VLANs:

• Um switch cria um domínio de broadcast


• VLANs ajudam no gerenciamento de domínios de broadcast
• VLANs podem ser definidas em grupos de portas, usuários ou protocolos
• Os switches de rede local e software de gerenciamento de redes proporcionam um
mecanismo para criar VLANs

As VLANs ajudam a controlar o tamanho dos domínios de broadcast e a localizar tráfego. As


VLANs estão associadas a redes individuais. Portanto, os dispositivos de rede em diferentes
VLANs não podem comunicar-se diretamente sem a intervenção de um dispositivo de
roteamento de camada 3.

Quando um nó em uma VLAN precisa comunicar-se com um nó em outra VLAN, é necessário


que haja um roteador para rotear o tráfego entre as VLANs. Sem o dispositivo roteador, o
tráfego entre VLANs seria impossível.

9.3.2 Introduzindo o roteamento entre VLANs

Esta página explicará como os roteadores operam entre VLANs.

Quando um host em um domínio de broadcast deseja comunicar-se com um host em outro


domínio de broadcast, um roteador precisa ser utilizado.

A porta 1 em um switch faz parte da VLAN 1 e a porta 2 faz parte da VLAN 200.

Se todas as portas de switches fizessem parte da VLAN 1, os hosts conectados a essas portas
poderiam comunicar-se. Nesse caso, porém, as portas fazem parte de VLANs diferentes, VLAN
1 e VLAN 200. Um roteador precisa ser utilizado se os hosts das diferentes VLANs precisam
comunicar-se.

210
A vantagem mais importante do roteamento é o seu desempenho comprovado na facilitação
das redes, especialmente de redes de grande porte. Embora a Internet sirva como exemplo
óbvio, este fato aplica-se a qualquer tipo de rede, tal como um grande backbone de um
campus. Já que os roteadores impedem a propagação de broadcasts e utilizam algoritmos de
encaminhamento mais inteligentes que as bridges e switches, os roteadores providenciam uma
utilização mais eficiente da largura de banda. Isso simultaneamente resulta em uma seleção de
caminhos flexível e otimizada. Por exemplo, é muito fácil implementar o balanceamento de
cargas através de vários caminhos na maioria das redes quando se utiliza o roteamento. Por
outro lado, o balanceamento de cargas de camada 2 pode ser muito difícil de projetar,
implementar e manter.

Se uma VLAN abrange vários dispositivos, um tronco é usado para interligar os dispositivos.
Um tronco transporta tráfego para várias VLANs. Por exemplo, um tronco pode conectar um
switch a outro switch, um switch ao roteador entre VLANs ou um switch a um servidor com uma
placa de rede especial instalada que suporte o trunking.

Lembre-se de que quando um host em uma VLAN deseja comunicar-se com um host em outra,
um roteador precisa estar envolvido.

211
9.3.3 Questões e soluções de conectividade entre VLANs

Esta página irá descrever algumas questões da conectividade lógica e física que ocorre entre
VLANs.

Quando são interligadas VLANs, várias questões técnicas irão surgir. Duas das questões mais
comuns que surgem em um ambiente de várias VLANs são:

• A necessidade dos dispositivos de usuários finais alcançarem hosts não locais.


• A necessidade da comunicação entre hosts em diferentes VLANs

Quando um roteador precisa fazer uma conexão a um host remoto, ele examina a sua tabela
de roteamento para determinar se existe um caminho já conhecido. Se o host remoto encontra-
se em uma sub-rede que ele sabe alcançar, o sistema tenta verificar se é possível fazer a
conexão através daquela interface. Se todos os caminhos conhecidos falharem, o sistema tem
uma última opção – a rota default. Essa rota é um tipo especial de rota gateway e normalmente
ela é a única presente no sistema. Em um roteador, um asterisco (*) indica uma rota default na
saída do comando show ip route. Para hosts em uma rede local, esse gateway é definido
como qualquer máquina que possuir uma conexão direta com o mundo externo e este é o
Gateway Default listado nas configurações TCP/IP da estação de trabalho. Se a rota default
dos hosts estiver configurada para o próprio roteador, ele mesmo estará funcionando como
gateway até a Internet pública. Então a rota default apontará para a máquina gateway em um
Provedor de Serviços de Internet (ISP). As rotas default são implementadas através do
comando ip route.

Router(Config)#ip route 0.0.0.0 0.0.0.0 192.168.1.1

Nesse exemplo, 192.168.1.1 é o gateway. A conectividade entre VLANs pode ser conseguida
através da conectividade lógica ou física.

A conectividade lógica envolve uma só conexão, ou tronco, entre o switch e o roteador. Esse
tronco pode suportar várias VLANs. Essa topologia chama-se router-on-a-stick (roteador no
espeto) porque existe uma só conexão ao roteador. No entanto, existem várias conexões
lógicas entre o roteador e o switch.

212
A conectividade física envolve uma conexão física separada para cada VLAN. Isso implica uma
interface física separada para cada VLAN.

Os primeiros projetos de VLANs dependiam de rotas externas conectadas a switches com


capacidades para VLANs. Nesse método, os roteadores tradicionais são conectados através
de um ou mais links a uma rede comutada. O projeto de router-on-a-stick emprega um só link
de tronco, que conecta o roteador ao restante da rede do campus.

O tráfego entre VLANs precisa atravessar o backbone de camada 2 para alcançar o roteador
quando transita entre VLANs. O tráfego, então, transita de volta até a estação final desejada,
usando encaminhamento normal de camada 2. Esse fluxo para-fora-do-roteador-e-de-volta é
uma característica dos projetos de router-on-a-stick.

9.3.4 Interfaces físicas e lógicas

Esta página explicará como as interfaces físicas e lógicas são adicionadas ao projeto da rede.

Em uma situação tradicional, uma rede com quatro VLANs exigiria quatro conexões físicas
entre o switch e um roteador externo.

213
Quando tecnologias, tais como Inter-Switch Link (ISL), tornaram-se mais acessíveis, os
projetistas de redes começaram a usar links de tronco para conectar roteadores aos switches.

Embora seja possível usar qualquer tecnologia de trunking, como ISL, 802.1Q, 802.10 ou LAN
Emulation (LANE), os métodos baseados em Ethernet, tais como ISL e 802.1Q, são os mais
comuns.

214
O protocolo proprietário ISL da Cisco, assim como o padrão multi-fornecedor IEEE 802.1q, são
usados para a implementação de troncos em links Fast Ethernet.

A linha sólida no exemplo refere-se ao único link físico entre o Switch Catalyst e o roteador.
Essa é a interface física que conecta o roteador ao switch.

À medida que vai crescendo o número de VLANs em uma rede, o método físico de ter uma
interface de roteador para cada VLAN rapidamente torna impraticável qualquer expansão. As
redes com muitas VLANs precisam usar o trunking VLAN para atribuir várias VLANs a uma
única interface de roteador.

As linhas pontilhadas no exemplo referem-se a vários links lógicos em utilização nesse link
físico usando subinterfaces. O roteador tem capacidade para suportar muitas interfaces lógicas
em links físicos individuais. Por exemplo, a interface FastEthernet 0/0 poderia suportar três
interfaces virtuais numeradas FastEthernet 1/0.1, 1/0.2 e 1/0.3.

A principal vantagem da utilização de uma linha tronco é a redução do número de portas


utilizadas no roteador e no switch. Não só economiza dinheiro como também poderá reduzir a
complexidade da configuração. Conseqüentemente, o método do roteador conectado por
tronco pode ser expandido para comportar um maior número de VLANs do que com o método
de um link para cada VLAN.

9.3.5 Dividindo interfaces físicas em subinterfaces

Esta página apresentará o conceito de subinterfaces.

Uma subinterface é uma interface lógica dentro de uma interface física, tal como uma interface
Fast Ethernet em um roteador.

Várias subinterfaces podem existir em uma única interface física.

215
Cada subinterface suporta uma VLAN e recebe a designação de um endereço IP. Para que
vários dispositivos possam comunicar-se sobre a mesma VLAN, o endereço IP de todas as
subinterfaces interrelacionadas precisam estar na mesma rede ou sub-rede. Por exemplo, se a
subinterface FastEthernet 0/0.1 tiver um endereço IP 192.168.1.1 então 192.168.1.2,
192.168.1.3 e 192.1.1.4 serão os endereços IP para os dispositivos conectados à subinterface
FastEthernet 0/0.1.

Para realizar o roteamento entre VLANs através de subinterfaces, será necessário criar uma
subinterface para cada VLAN.

216
9.3.6 Configurando o Roteamento Entre VLANs

Esta página demonstrará os comandos utilizados para configurar o roteamento entre VLANs
para um roteador e um switch. Antes da implementação de qualquer um desses comandos,
cada roteador e switch deve ser verificado para saber quais são os encapsulamentos de VLAN
que suportam. Os switches Catalyst 2950 suportam o trunking 802.1q desde o lançamento da
versão 12.0(5.2)WC(1) do Cisco IOS, mas não suportam o trunking Inter-Switch Link (ISL).
Para que o roteamento entre VLANs funcione corretamente, todos os roteadores e switches
envolvidos precisam suportar o mesmo encapsulamento.

Em um roteador, uma interface pode ser dividida logicamente em várias subinterfaces virtuais.
As subinterfaces representam uma solução flexível para o roteamento de vários fluxos de
dados através de uma só interface física. Para definir subinterfaces em uma interface física,
realize as seguintes tarefas:

• Identifique a interface.
• Defina o encapsulamento da VLAN.
• Atribua um endereço IP à interface.

Para identificar a interface, use o comando interface no modo configuração global.

Router(config)#interface fastethernet port-number. subinterface-number

217
O parâmetro port-number identifica a interface física e o parâmetro subinterface-
number identifica a interface virtual.

O roteador precisa poder falar com o switch usando um protocolo de trunking padronizado. Isso
significa que ambos os dispositivos interconectados precisam entender-se. No exemplo, o
802.1Q é usado. Para definer o encapsulamento da VLAN, digite o comando encapsulation
no modo configuração de interface.

Router(config-if)#encapsulation dot1q vlan-number

O parâmetro vlan-number identifica a VLAN para a qual a subinterface transportará tráfego.


Um ID da VLAN é adicionada ao quadro somente quando o quadro destina-se a uma rede não
local. Cada pacote VLAN contém o ID da VLAN dentro do cabeçalho do pacote.

Para atribuir um endereço IP à interface, digite o seguinte comando no modo de configuração


de interface.

Router(config-if)#ip address ip-address subnet-mask

Os parâmetros ip-address e subnet-mask são os 32 bits do endereço de rede e máscara


da interface específica.

218
No exemplo, o roteador possui três subinterfaces configuradas na interface Fast Ethernet 0/0.
Essas três interfaces são identificadas como 0/0.1, 0/0.2 e 0/0.3. Todas as interfaces são
encapsuladas com 802.1q. A interface 0/0.1 faz o roteamento de pacotes para a VLAN 1,
enquanto a interface 0/0.2 faz o roteamento de pacotes para a VLAN 20 e a 0/0.3 faz o
roteamento de pacotes para a VLAN 30.

Resumo

Um tronco é uma conexão física e lógica entre dois switches, através da qual transita o tráfego
da rede. O conceito de trunking tem o seu início nas tecnologias de rádio e telefonia. No
contexto de um ambiente de comutação em VLAN, um tronco é um link ponto-a-ponto que
suporta várias VLANs.

O propósito de um tronco é conservar portas quando é criado um link entre dois dispositivos
que implementam VLANs. O trunking agregará vários links virtuais em um só link físico,
permitindo que o tráfego para várias VLANs transite sobre um único cabo entre os switches.

219
As tabelas de comutação em ambas as extremidades do tronco podem ser usadas para tomar
decisões sobre encaminhamento com base nos endereços MAC de destino dos quadros. Esse
processo torna-se mais lento à medida que vai aumentando o número de VLANs que transitam
no tronco. Para gerenciar com eficácia a transferência de quadros provenientes de diferentes
VLANs em uma só linha física, os protocolos de trunking foram elaborados. Os protocolos de
trunking estabelecem um acordo para a distribuição de quadros para as portas associadas em
ambas as extremidades do tronco.

Existem dois tipos de mecanismos para trunking: filtragem de quadros e frame tagging. Os
protocolos de trunking que utilizam o mecanismo de frame tagging atribuem um identificador
aos quadros. Isso proporciona um melhor gerenciamento e uma entrega mais rápida. Frame
tagging funciona na camada 2 e requer pouco processamento e ocupa poucos recursos
administrativos. O ISL, o protocolo proprietário Inter-Switch Link da Cisco e o 802-1Q, o padrão
IEEE, são os esquemas de tagging mais comuns para segmentos Ethernet.

Antes de implementr o trunking, determine qual é o encapsulamento que a porta pode suportar
mediante a utilização do comando show port capabilities. Para certificar-se de que o
trunking foi configurado, use o comando show trunk [mod_num/port_num] a partir do
modo Privilegiado do switch.

O VLAN Trunking Protocol (VTP) foi criado para resolver problemas operacionais em uma rede
comutada com VLANs. Os dois problemas mais comuns são VLANs com conexões cruzadas
decorrentes de inconsistências na configuração e falhas na configuração em ambientes de
meios físicos mistos.

Com o VTP, a configuração de VLANs é mantida consistentemente em um domínio


administrativo comum. Um domínio VTP consiste em um ou mais dispositivos interconectados
que compartilham o mesmo nome de domínio VTP. Um switch pode existir em um só domínio
VTP. Ao transmitir mensagens VTP para outros switches na rede, a mensagem VTP é
encapsulada em um quadro de protocolo de trunking, tal como ISL ou IEE 802.1Q. Os switches
VTP operam em um dentre três modos. Os modos incluem: servidor, que pode criar, modificar
e excluir VLANs e parâmetros de configuração de VLANs para o domínio inteiro - cliente, que
processa mudanças de VLAN e envia mensagens VTP através de todas as portas de tronco –
transparente, que encaminha anúncios VTP mas ignora informações contidas na mensagem.

Com o VTP, cada switch anuncia em suas portas de tronco o seu domínio de gerenciamento, o
número de revisão da configuração, as VLANs que ele conhece e certos parâmetros para cada
VLAN conhecida.

Há dois tipos de anúncios VTP: solicitações de clientes e respostas de servidores. Eles geram
três tipos de mensagens VTP, que incluem solicitação de anúncio, anúncio sumarizado e
anúncio de subconjunto. Com solicitações de anúncios, os clientes solicitam informações de
VLAN e o servidor responde com anúncios sumarizados e de subconjuntos. Por default, os
switches Catalyst servidores e clientes emitem anúncios sumarizados de cinco em cinco
minutos. Os servidores informam aos switches vizinhos o que acreditam ser o atual número de
revisão do VTP. É feita a comparação desse número e, se houver diferenças, novas
informações são solicitadas. Os anúncios de subconjunto contêm informações detalhadas
sobre VLANs, tais como a versão do VTP, o nome do domínio e campos relacionados a ele
além do número de revisão da configuração.

Antes de configurar o VTP e as VLANs em uma rede, descubra o número da versão do VTP,
determine se deve ser criado um novo domínio e estabeleça o modo VTP. Deve existir pelo
menos um servidor. Para definir o modo correto do switch com base em comandos do Cisco
IOS, use o comando Switch(vlan)#vtp {client | server | transparent}.

Use o comando show vtp status para verificar se o número de revisão da configuração o
VTP é inferior ao número de revisão da configuração nos outros switches no domínio VTP
antes de adicionar um cliente.

220
Quando um host em um domínio de broadcast deseja comunicar-se com um host em outro
domínio de broadcast, um roteador precisa ser utilizado. Em um roteador, uma interface pode
ser dividida logicamente em várias subinterfaces virtuais. As subinterfaces representam uma
solução flexível para o roteamento de vários fluxos de dados através de uma só interface física.

9.4 Estudo de Caso

Estudo de Caso Dividido em Temas

O seguinte estudo de caso é usado para ilustrar o processo criação de um projeto de rede,
bem como a documentação necessária. Esse estudo de caso apresenta um cenário no qual a
XYZ Research Company contratou um grupo de consultores de redes para projetar a sua rede.
Este estudo de caso requer que você realize as seguintes tarefas:

• Usar os recursos fornecidos, o diagrama e o texto, para configurar uma rede física
• Configurar um esquema de endereçamento IP, usando VLSM
• Configurar os roteadores conforme o necessário
• Preparar e configurar os switches e as VLANs conforme o necessário
• Verificar e resolver quaisquer problemas com todas as conexões
• Prover documentação detalhada no formato apropriado
• Prover um relatório final por escrito

221