Escolar Documentos
Profissional Documentos
Cultura Documentos
Parte III
Capítulo 10
Selecionando Tecnologias e
Dispositivos para redes universitárias
O projeto de rede física envolve a seleção de tecnologias LAN e WAN para projetos de redes
corporativas e de campus. Durante esta fase do processo de projeto de rede de cima para baixo,
são feitas escolhas em relação ao cabeamento, aos protocolos das camadas física e de enlace de
dados e aos dispositivos de interligação de redes (como switches, roteadores e pontos de acesso
sem fio). Um projeto lógico, abordado na Parte II, “Projeto de Rede Lógica”, constitui a base para
um projeto físico. Além disso, as metas de negócios, os requisitos técnicos, as características do
tráfego de rede e os fluxos de tráfego, todos discutidos na Parte I, “Identificando as necessidades
e metas do seu cliente”, influenciam o design físico.
Um projetista de rede tem muitas opções para implementações de LAN e WAN. Nenhuma
tecnologia ou dispositivo é a resposta certa para todas as circunstâncias. O objetivo da Parte
III, “Projeto de rede física”, é fornecer informações sobre as características de escalabilidade,
desempenho, acessibilidade e capacidade de gerenciamento de opções típicas, para ajudá-lo a
fazer as seleções certas para seu cliente específico.
Este capítulo aborda tecnologias para projetos de redes de campus. Uma rede de campus é um
conjunto de segmentos de LAN e redes de construção em uma área que geralmente tem menos
de um quilômetro de diâmetro. O próximo capítulo aborda tecnologias para uma rede corporativa
que inclui WAN e serviços de acesso remoto.
Este capítulo começa com uma discussão sobre o projeto de instalações de cabeamento LAN,
incluindo opções de cabeamento para redes de edifícios e campus. O capítulo fornece informações
sobre tecnologias LAN. A seção “Selecionando dispositivos de interligação de redes para
um projeto de rede de campus” fornece alguns critérios de seleção que você pode usar ao
selecionar switches, roteadores e pontos de acesso sem fio para um projeto de campus. O capítulo
termina com um exemplo de projeto de rede de campus desenvolvido para o Wandering Valley
Community College.
Machine Translated by Google
Nota Embora o exemplo seja um projeto para um campus universitário, não se deve presumir que o projeto
de rede de campus se refere apenas a campi universitários. Muitas empresas comerciais, organizações
governamentais e outros estabelecimentos possuem redes de campus.
Em muitos casos, o projeto da sua rede deve se adaptar ao cabeamento existente. O Capítulo 3,
“Caracterizando a rede existente”, discutiu o processo para documentar o cabeamento já em uso em redes
de edifícios e campus, incluindo o seguinte:
Topologias de cabeamento
Empresas como AT&T, IBM, Digital Equipment Corporation (DEC), Hewlett-Packard e Northern Telecom
publicaram especificações e diretrizes de cabeamento para o desenvolvimento de uma topologia de cabeamento.
Seu trabalho ainda influencia as topologias de cabeamento usadas atualmente. Além disso, a Electronics
Industry Alliance e a Telecommunications Industry Association publicam as diretrizes EIA/TIA para cabeamento
e instalação de par trançado não blindado (UTP).
Embora as diretrizes das diferentes organizações sejam ligeiramente diferentes, o objetivo principal de todas
elas é ajudar um engenheiro de rede a desenvolver um sistema de cabeamento estruturado que seja
gerenciável e escalonável.
Sem entrar em detalhes sobre topologias de cabeamento, pode-se generalizar que dois tipos de esquemas
de cabeamento são possíveis:
ÿ Um esquema de cabeamento centralizado termina a maior parte ou todos os cabos em uma área do
ambiente de projeto. Uma topologia em estrela é um exemplo de sistema centralizado.
Machine Translated by Google
Dentro de um edifício, pode ser utilizada uma arquitetura centralizada ou distribuída, dependendo do
tamanho do edifício. Para edifícios pequenos, é possível um esquema centralizado com todos os cabos
terminando em uma sala de comunicações em um andar, conforme mostrado no lado esquerdo da
Figura 10-1. Um esquema centralizado oferece boa capacidade de gerenciamento, mas não é escalável.
Para edifícios maiores, uma topologia distribuída é mais apropriada. Muitas tecnologias de LAN
pressupõem que as estações de trabalho não estejam a mais de 100 metros (m) de um armário de
telecomunicações onde residem hubs ou switches. Por esta razão, em um edifício alto e com grandes
andares, uma topologia distribuída é mais apropriada, conforme mostrado no lado direito da Figura 10-1.
O cabeamento que conecta os edifícios está exposto a mais riscos físicos do que o cabeamento dentro
dos edifícios. Um trabalhador da construção civil pode cavar uma vala entre edifícios e cortar cabos
inadvertidamente. Inundações, tempestades de gelo, terremotos e outros desastres naturais também
podem causar problemas, assim como desastres provocados pelo homem, como ataques
terroristas. Além disso, os cabos podem cruzar propriedades fora do controle da organização,
dificultando a solução e a correção de problemas. Por estas razões, os cabos e as topologias de
cabeamento devem ser selecionados cuidadosamente.
Uma desvantagem de um esquema distribuído é que a gestão pode ser mais difícil do que com um
esquema centralizado. É mais provável que as alterações em um sistema de cabeamento distribuído
exijam que um técnico caminhe de prédio em prédio para implementar as mudanças.
As metas de disponibilidade versus capacidade de gerenciamento devem ser consideradas.
Tipos de cabos
As implementações de rede de campus usam três tipos principais de cabos:
ÿ Cobre blindado, incluindo par trançado blindado (STP), coaxial (coaxial) e biaxial
cabos (twinax)
Machine Translated by Google
Principal
O cabeamento STP foi amplamente utilizado em redes Token Ring nas décadas de 1980 e 1990. As redes Token
Ring foram substituídas por redes Ethernet atualmente. A Ethernet geralmente usa cabeamento UTP e de fibra
óptica, embora seja possível fazer a Ethernet funcionar em cabeamento STP.
O cabo coaxial era popular nos primeiros dias das LANs. Thick Ethernet (10BASE5) usava um cabo coaxial de
blindagem dupla de 50 ohms com cerca de 0,4 polegadas de diâmetro e fino
Machine Translated by Google
Ethernet (10BASE2 ou “Cheapernet”) usava cabo padrão RG-58 que tinha cerca de metade
esse tamanho. Os terminais IBM usavam cabo coaxial de 75 ohms ou, em alguns casos, cabos twinaxiais. O
o cabeamento geralmente era instalado em uma topologia de barramento e era difícil de gerenciar em grandes
instalações sem repetidores multiportas. Com a introdução de padrões para execução de LAN
protocolos no cabeamento UTP (como Ethernet 10BASE-T), o cabo coaxial tornou-se menos popular. Coaxial e
outros tipos de cabeamento de cobre blindado geralmente não são recomendados
para novas instalações, exceto talvez para cabos curtos entre dispositivos em um armário de telecomunicações ou
sala de informática, ou em casos onde segurança e blindagem específicas
existem necessidades.
Construindo um
Pacote de cabos
Construindo um
UTP é a fiação típica encontrada na maioria dos edifícios atualmente. Geralmente é o menos
caro dos três tipos de cabos. Ele também tem as capacidades de transmissão mais baixas
porque está sujeito a diafonia, ruído e interferência eletromagnética. Adesão ao
as limitações de distância minimizam os efeitos desses problemas.
Machine Translated by Google
ÿ As categorias 1 e 2 não são recomendadas para transmissões de dados devido à sua falta
de suporte para requisitos de alta largura de banda.
ÿ A categoria 3 é testada para 16 MHz. A categoria 3 costuma ser chamada de cabeamento de voz, mas
também é usada para transmissão de dados, especialmente em redes Ethernet 10BASE-T mais
antigas e em redes Token Ring de 4 Mbps.
ÿ A Categoria 4 é testada em 20 MHz, permitindo executar Token Ring de 16 Mbps com uma margem de
segurança melhor que a Categoria 3. A Categoria 4 não é comum, tendo se tornado obsoleta pela
Categoria 5.
ÿ A Categoria 5 é testada em 100 MHz, permitindo executar protocolos de alta velocidade, como Ethernet
de 100 Mbps e Interface de Dados Distribuídos por Fibra (FDDI). Quando quatro pares são usados,
a Categoria 5 suporta Gigabit Ethernet.
ÿ Categoria 5 Aprimorada (Categoria 5e) é adequada para Ethernet de 100 Mbps, Gigabit
Ethernet e ATM. Muitas empresas vendem cabeamento Categoria 5e de 350 MHz, embora o padrão
para cabeamento (Adendo 5 ao TIA/EIA-568-A) declare 100 MHz.
ÿ A categoria 6 é adequada para Ethernet de 100 Mbps, Gigabit Ethernet e ATM. O padrão para cabeamento
(ANSI/TIA/EIA-568-B.2-1) indica 200 MHz, embora os fornecedores suportem larguras de banda
mais altas.
O cabeamento de fibra óptica deve ser usado para cabeamento vertical e horizontal entre armários de
telecomunicações e entre edifícios. Algumas empresas também usam cabeamento de fibra óptica para a
fiação da área de trabalho, mas o custo das placas de interface de rede (NIC) com suporte de fibra óptica
ainda é alto, então isso ainda não é comum.
O cabeamento de fibra óptica não é afetado por diafonia, ruído e interferência eletromagnética, portanto
possui a maior capacidade dos três tipos de cabos. Com tecnologias de multiplexação, como multiplexação
por divisão de comprimento de onda (WDM), um único fio de cabeamento de fibra óptica pode suportar
uma capacidade de 40 Gbps e além.
Uma desvantagem do cabeamento de fibra óptica é que ele pode ser difícil de instalar, o que pode
aumentar o custo de implantação. Ao conectar uma fonte óptica à fibra ou ao acoplar duas ou mais fibras,
mesmo um pequeno desvio da posição ideal do conector pode resultar em desalinhamento e perda de
sinal inaceitável. Alguns conectores apresentam mais perdas do que outros. Ao selecionar conectores,
pesquise sua facilidade de uso e a perda de decibéis (dB) associada aos conectores.
Os conectores de fibra óptica também podem introduzir ruído de reflexão ao refletir a luz de volta para a
fonte óptica. O ruído de reflexão é reduzido por géis de índice correspondente, contato físico
Machine Translated by Google
O cabeamento de fibra óptica pode ser monomodo ou multimodo. Um modo significa um caminho permitido
para a luz percorrer uma fibra. Com a fibra multimodo, existem vários modos ou caminhos que a luz pode
seguir. Alguns dos caminhos são mais longos que outros, o que significa que o tempo que a luz leva para
percorrer cada caminho é diferente, resultando na dispersão intermodal da luz à medida que ela sai do
cabo de fibra. A dispersão intermodal limita a largura de banda multimodo.
A fibra monomodo tem um diâmetro de núcleo menor que a fibra multimodo. O núcleo pequeno
garante que apenas um caminho seja percorrido, o que elimina a dispersão intermodal e significa que a
fibra monomodo suporta taxas de largura de banda mais altas em distâncias mais longas do que a fibra
multimodo. O diâmetro menor torna mais difícil acoplar potência óptica suficiente à fibra, o que aumenta
o custo de fabricação e instalação de conectores.
As interfaces monomodo para switches, roteadores e estações de trabalho também são mais caras que
as interfaces multimodo.
Tecnologias LAN
O Capítulo 1, “Analisando metas e restrições de negócios”, discutiu a análise das seguintes restrições
de negócios, todas elas afetando as tecnologias de LAN que você deve recomendar:
ÿ Orçamento e agendamento
O Capítulo 2 recomendou fazer uma lista das principais metas técnicas de um cliente. Neste ponto do
processo de projeto, você deve consultar essa lista para ter certeza de que suas seleções de tecnologia
são apropriadas para seu cliente de projeto de rede.
Você também deve dar uma olhada na Tabela 2-2, “Requisitos técnicos de aplicações de rede”, para
determinar se seu cliente tem requisitos rigorosos sobre rendimento, atraso e variação de atraso para
quaisquer aplicações de rede. Você também deve considerar os tipos de aplicativos que o cliente planeja
executar na rede. Os aplicativos que permitem aos usuários compartilhar vídeos, colaborar com o
compartilhamento de área de trabalho, assistir televisão de alta definição e assim por diante consomem
mais largura de banda e são sensíveis a atrasos do que os aplicativos baseados em texto.
Machine Translated by Google
A Tabela 4-4, “Características de tráfego de aplicativos de rede”, também pode ajudá-lo a selecionar as
tecnologias certas para seu cliente. Nessa tabela você documentou os requisitos de largura de banda e
QoS para aplicativos. As próximas seções podem ajudá-lo a determinar quais soluções são apropriadas
para aplicações com requisitos exigentes de largura de banda e QoS.
Ethernet é um padrão de camada física e de enlace de dados para a transmissão de quadros em uma
LAN. Desde a sua invenção na década de 1970 pela Xerox Corporation, a Ethernet ganhou ampla
popularidade e se adaptou às novas demandas por capacidade, confiabilidade e preços baixos.
Uma LAN Ethernet provisionada com precisão para atender aos requisitos de largura de banda e
equipada com componentes de alta qualidade, incluindo NICs, cabos e dispositivos de interligação de
redes, pode atender até mesmo às demandas mais rigorosas de disponibilidade. Muitas ferramentas de
solução de problemas, incluindo testadores de cabos, analisadores de protocolo e aplicativos de
gerenciamento de rede, estão disponíveis para isolar problemas ocasionais causados por quebras de cabos,
interferência eletromagnética, portas com falha ou NICs com mau comportamento.
Embora existam algumas pequenas diferenças entre as duas tecnologias, os termos Ethernet e 802.3
são geralmente usados como sinônimos. Na camada física, 802.3 é o padrão de fato. Na camada de
enlace de dados, as implementações Ethernet versão 2.0 e 802.3 são comuns.
Nota Uma diferença importante entre a Ethernet versão 2.0 e 802.3 são os formatos de quadro. 802.3 é usado
com um cabeçalho 802.2 Logical Link Control (LLC), exceto nas primeiras implementações do Novell NetWare.
O cabeçalho 802.2 inclui um campo Destination Service Access Point (DSAP) e Source Service Access
Point (SSAP) para identificar os processos de recebimento e envio. A Ethernet versão 2.0 não usa 802.2 e,
em vez disso, inclui um campo EtherType para especificar o processo de envio/recebimento. O protocolo da
Internet (IP) usa Ethernet versão 2.0.
A maioria dos protocolos de plano de controle, como Cisco Discovery Protocol (CDP), VLAN Trunking
Protocol (VTP) e unidades de dados de protocolo de ponte (BPDU) do Spanning Tree Protocol usam 802.3
com 802.2. A Figura 10-3 mostra os formatos de quadro.
Machine Translated by Google
Cabeçalho LLC
ÿ Ethernet de 10 Gbps
ÿ Ethernet metropolitana
ÿ Cisco EtherChannel
Cada uma dessas tecnologias é uma possibilidade para o acesso, distribuição ou camadas centrais de um
topologia do campus, embora geralmente as velocidades mais altas, como Gigabit Ethernet, sejam
reservado para a camada central.
Com Ethernet compartilhada, uma estação escuta antes de enviar dados. Se o meio já estiver em uso, a
estação adiará sua transmissão até que o meio esteja livre. A Ethernet compartilhada é half duplex, o que
significa que uma estação está transmitindo ou recebendo tráfego, mas não ambos ao mesmo tempo.
Uma importante regra de projeto para Ethernet half-duplex é que o atraso de propagação de ida e
volta em um domínio de colisão não deve exceder o tempo que um remetente leva para transmitir 512
bits, que é 51,2 microssegundos para Ethernet de 10 Mbps. Um único domínio de colisão deve ser
limitado em tamanho para garantir que uma estação que envia um quadro de tamanho mínimo (64 bytes
ou 512 bits) possa detectar uma colisão refletida do lado oposto da rede enquanto a estação ainda
está enviando o quadro. Caso contrário, a estação terminaria o envio e não escutaria uma colisão,
perdendo assim a eficiência da Ethernet para detectar uma colisão e retransmitir rapidamente o quadro.
A maioria dos links Ethernet hoje em dia são ponto a ponto e, portanto, não utilizam comunicações half-
duplex. Um link Ethernet ponto a ponto suporta transmissão e recepção simultâneas, o que é
chamado de Ethernet full-duplex. Em um link entre uma porta de switch e uma única estação, por
exemplo, tanto o switch quanto a estação podem transmitir ao mesmo tempo.
Isto é especialmente benéfico se a estação for um servidor que processa solicitações de muitos
usuários. O switch pode transmitir a próxima solicitação ao mesmo tempo em que o servidor envia uma
resposta a uma solicitação anterior. A operação full-duplex também é comum em links switch-to-switch,
permitindo que ambos os switches transmitam entre si ao mesmo tempo. A vantagem da Ethernet full-
duplex é que a taxa de transmissão é teoricamente o dobro da taxa de um link half-duplex.
Nota A operação full-duplex requer que o cabeamento dedique um par de fios para transmissão e outro
para recepção. A operação full-duplex não funciona em cabos com apenas um caminho (por exemplo,
cabo coaxial). Full-duplex também não funciona com 100BASE-T4 (Ethernet de 100 Mbps em UTP Categoria
3). Ao contrário de 10BASE-T e 100BASE-TX, com 100BASE T4, não há pares dedicados de transmissão
e recepção separados. 100BASE-T4 usa três pares para transmissão/recepção e um par para detecção
de colisão.
100BASE-TX é a forma mais popular de Ethernet de 100 Mbps. Com 100BASE-TX, as estações são
conectadas a switches usando cabeamento UTP Categoria 5, Categoria 5e ou Categoria 6.
Gigabit Ethernet
Gigabit Ethernet foi originalmente definida no padrão IEEE 802.3z e agora está incorporada ao padrão
IEEE 802.3 completo. Ela opera essencialmente como Ethernet de 100 Mbps, exceto que é 10 vezes
mais rápida. Ele usa CSMA/CD com suporte para um repetidor por domínio de colisão e lida com
operações half-duplex e full-duplex. Ele usa um formato de quadro e tamanho de quadro padrão 802.3.
Para evitar a necessidade de reduzir o tamanho de uma rede Gigabit Ethernet half-duplex para 1/10 do
tamanho de uma rede Ethernet de 100 Mbps, a Gigabit Ethernet inclui algumas pequenas alterações na
camada MAC. É útil comparar as mudanças que os desenvolvedores de padrões fizeram quando
introduziram a Ethernet de 100 Mbps com as mudanças que fizeram quando introduziram a Gigabit
Ethernet.
Com Ethernet half-duplex de 10 e 100 Mbps, o tamanho mínimo do quadro é igual ao atraso máximo de
propagação de ida e volta da rede (menos uma margem para interferência, sincronização e assim por
diante). Para garantir que um remetente ainda esteja enviando se ocorrer uma colisão no lado oposto da
maior rede possível, um remetente deve transmitir durante o tempo que leva 512 bits (64 bytes) para
viajar até o lado oposto da rede e voltar.
Isso garante que a NIC Ethernet remetente reconhecerá a colisão, recuará e retransmitirá.
Para garantir que o reconhecimento de colisão funcione corretamente na Ethernet de 100 Mbps,
onde os remetentes podem enviar dez vezes mais rápido que com a Ethernet de 10 Mbps, os
desenvolvedores de padrões reduziram o tamanho máximo da rede para cerca de 1/10 do tamanho
máximo para 10 Mbps. Ethernet. Usar tal abordagem com Gigabit Ethernet half-duplex teria resultado
em redes impraticavelmente pequenas. Em vez disso, o quadro mínimo é mantido em 512 bits (64
bytes), mas o remetente é obrigado a enviar durante o tempo que leva 4.096 bits (512 bytes) para viajar
até o lado oposto da rede e voltar.
Os quadros menores que 4.096 bits são estendidos artificialmente anexando um campo de extensão
de portadora, de modo que os quadros tenham exatamente 4.096 bits de comprimento. O conteúdo do
campo car rier-extension são símbolos que não são de dados. Ao aumentar o tempo mínimo de envio de
uma estação, os padrões podem suportar uma topologia de rede máxima maior.
aplicativo que está tentando gerar muitos quadros pequenos em uma taxa rápida - por exemplo, um
Aplicativo de voz sobre IP (VoIP). Se a interface adicionar bits para chegar a 4096 bits, o
aplicativo será capaz de enviar na taxa adequada? Quando a aplicação terminar e
liberar o controle da mídia, algum outro aplicativo entrará em ação, causando o primeiro
pedido para adiar? Os projetistas da Gigabit Ethernet resolveram esses problemas permitindo que um
remetente enviasse vários quadros.
Uma estação Gigabit Ethernet pode optar por estourar quadros se houver um quadro em sua transmissão.
fila quando terminar de enviar seu primeiro quadro (mais extensão, se for necessária).
A estação pode enviar novamente sem disputar o uso do canal. Durante o intervalo entre quadros, a
estação envia símbolos que não são de dados. Apenas o primeiro quadro requer uma transportadora
extensão. A estação pode iniciar a transmissão de quadros por até um burstLimit.
O IEEE define o parâmetro burstLimit como 8.192 bytes.
A Gigabit Ethernet é mais apropriada para a construção de redes de backbone de campus. Pode
atuar como uma rede tronco, agregando tráfego de até dez segmentos Ethernet de 100 Mbps.
Apesar da extensão de portadora e dos recursos de bursting da Ethernet half-duplex, o Gigabit
A Ethernet geralmente usa o modo full-duplex e conecta um switch a outro switch ou
mude para um roteador. Gigabit Ethernet também é usado em servidores de alto desempenho que exigem
uma grande quantidade de largura de banda.
O padrão 802.3 para Gigabit Ethernet especifica fibra óptica multimodo e monomodo
cabeamento, cabeamento UTP e cabeamento de cobre twinax blindado. A Tabela 10-1 mostra as
variações do Gigabit Ethernet.
1000BASE-LX usa um comprimento de onda mais longo (daí o L no nome) e suporta ambos
cabeamento multimodo e monomodo. 1000BASE-LX é apropriado para construir e cam redes backbone.
Ethernet de 10 Gbps
Uma das razões pelas quais a Ethernet é uma escolha tão boa para projetos de redes de campus é
que continua a crescer com o aumento da demanda por largura de banda. Em 2002, o IEEE padronizou a Ethernet
de 10 Gbps, que agora faz parte do padrão 802.3 completo. 10 Gbps
A Ethernet difere em alguns aspectos importantes das outras implementações Ethernet, mas
também é notavelmente semelhante às outras implementações. O formato do quadro e outros
As especificações da camada 2 permanecem as mesmas, o que significa que os aplicativos que usam Ethernet
não precisa mudar.
Num futuro próximo, a Ethernet fará jus ao seu nome. O nome Ethernet vem do
termo éter, o elemento rarefeito que os cientistas acreditavam anteriormente preenchia todo o espaço. Ethernet
estará em todo lugar. Uma transação na Internet, por exemplo, pode começar em um 100BASE-T
rede doméstica ou empresarial, amplie uma Ethernet metropolitana de fibra óptica para um ISP local,
viaje uma Ethernet WDM de 10 Gbps para um provedor maior e viaje por vários Ethernet
links para acessar um servidor de comércio eletrônico fornecido com Ethernet Gigabit ou 10 Gbps
NIC. A transação será encapsulada em um quadro Ethernet o tempo todo.
Atualmente, a maioria dos produtos Ethernet de 10 Gbps estão na forma de módulos ou placas de linha para
switches e roteadores de última geração, mas alguns fornecedores também oferecem suporte a interfaces Ethernet
de 10 Gbps para servidores. Tanto os ISPs quanto as redes corporativas usam Ethernet de 10 Gbps como backbone
tecnologia. Algumas redes corporativas também usam Ethernet de 10 Gbps em farms de servidores, redes de área de
armazenamento (SAN) e estúdios de vídeo digital.
A Ethernet de 10 Gbps oferece suporte à transmissão full-duplex por meio de cabeamento de fibra óptica ou cobre. Isto
não suporta o modo half-duplex. 10 Gbps oferece suporte a aplicativos LAN e redes metropolitanas de área tan
(MAN) e aplicativos WAN. Quando o cabeamento de fibra óptica monomodo é
usado, um link Ethernet de 10 Gbps pode se estender até 40 km (25 milhas).
Como as outras implementações de Ethernet, a Ethernet de 10 Gbps suporta transmissão serial, onde os bits são
enviados um após o outro, um de cada vez, em série. Especialistas em redes
aprendi há muito tempo que a transmissão paralela (o oposto da transmissão serial) foi relegada às impressoras
antigas e aos protocolos legados da década de 1970. Não é mais assim! O
A variedade 10GBASE-LX4 de Ethernet de 10 Gbps lança simultaneamente fluxos de quatro bits como
quatro comprimentos de onda de luz. Isso é chamado de multiplexação por divisão de comprimento de onda amplo
(WWDM) e é categorizado como um mecanismo de transmissão paralela no IEEE 802.3.
fibra
fibra
fibra
fibra
fibra
fibra
fibra
aplicável
Anexar aplicável
aplicável
Ethernet metropolitana
porque é uma tecnologia Ethernet e esta seção cobre Ethernet, e porque é relevante para o estudo de
caso no final deste capítulo.
As operadoras oferecem Metro Ethernet para clientes que procuram um método econômico para
interconectar redes de campus e acessar a Internet. Com Metro Ethernet, um cliente pode usar uma
interface Ethernet padrão de 10/100 Mbps, ou uma interface Gigabit ou 10 Gbps, para acessar a rede
do provedor de serviços. O cliente pode configurar circuitos virtuais para acessar outros sites e chegar a
um ISP. Metro Ethernet suporta interface de cobre ou fibra óptica, mas usa cabeamento de fibra
óptica dentro da rede do provedor. Ele pode usar uma variedade de protocolos de transporte, incluindo
Rede Óptica Síncrona (SONET), Modo de Transferência Assíncrona (ATM), multiplexação por divisão
de comprimento de onda de modo denso (DWDM) e Multiprotocol Label Switching (MPLS).
Ethernet não deve ser confundida com outra tecnologia LAN e MAN, chamada Long-Reach Ethernet
(LRE), que pode ser usada para conectar edifícios e salas dentro de edifícios em redes de campus. O
LRE fornece um link ponto a ponto que pode fornecer uma taxa de dados brutos simétrica, full-duplex,
de 11,25 Mbps em distâncias de até 1 milha (1,6 km).
O LRE permite o uso de Ethernet sobre fio de par trançado de cobre de grau de voz existente, não
condicionado, que é onipresente em muitas cidades e até mesmo em áreas rurais, tendo sido instalado
e atualizado ao longo de muitos anos por companhias telefônicas. Proprietários de estruturas com várias
unidades, como hotéis, prédios de apartamentos, complexos comerciais e agências governamentais,
podem usar o LRE para fornecer conectividade Ethernet aos clientes, mesmo que a fiação do edifício
utilize cabeamento antigo de Categoria 1, 2 ou 3.
O LRE permite que transmissões LAN Ethernet coexistam com serviços de sinalização telefônica, ISDN
ou PBX através de um par de fios de cobre comuns. A tecnologia LRE utiliza técnicas de codificação e
modulação digital do mundo da linha de assinante digital (DSL) em conjunto com Ethernet, o protocolo
LAN mais popular. O Capítulo 11, “Selecionando tecnologias e dispositivos para redes corporativas”,
aborda DSL com mais detalhes.
Cisco EtherChannel
As três seções anteriores migraram para o domínio das aplicações MAN. Voltando às redes de campus
menores, mais uma tecnologia que faz parte da caixa de ferramentas de opções de LAN de muitos
projetistas de rede é a tecnologia Cisco EtherChannel. EtherChannel é uma tecnologia de trunking
que agrupa links Ethernet 802.3 full-duplex para que os links possam fornecer velocidades extremamente
altas, suportar compartilhamento de carga e fazer backup uns dos outros se um link falhar.
O EtherChannel foi introduzido pela primeira vez pela Kalpana em seus switches no início dos anos 1990.
A Cisco ampliou a tecnologia, mantendo-se compatível com os padrões IEEE 802.3.
O EtherChannel pode ser usado entre roteadores, switches e servidores em links ponto a ponto que
exigem mais largura de banda do que um único link Ethernet pode fornecer. A Cisco fornece portas
EtherChannel para muitos de seus switches e roteadores de última geração. A Intel e outros fornecedores
fabricam NICs EtherChannel para servidores.
Com o Fast EtherChannel, até quatro links Fast Ethernet podem ser agrupados para fornecer uma largura
de banda agregada máxima de 800 Mbps (full duplex). Com Gigabit EtherChannel, até
Machine Translated by Google
quatro links Gigabit Ethernet podem ser agrupados para fornecer uma largura de banda agregada
máxima de 8 Gbps. Com Ethernet de 10 Gbps, até quatro links Ethernet de 10 Gbps podem ser
agrupados para fornecer uma largura de banda agregada máxima de 80 Gbps.
O EtherChannel distribui tráfego unicast, broadcast e multicast pelos links de um canal, fornecendo
redundância e compartilhamento de carga de alto desempenho. Se ocorrer uma falha no link, o tráfego
será redirecionado para os links restantes sem intervenção do usuário.
Nota EtherChannel seleciona um link dentro de um canal executando uma operação XOR nos últimos 2
bits dos endereços de origem e destino em um quadro. A operação XOR pode resultar em um dos quatro
valores mapeados para os quatro links possíveis. (Se apenas dois links forem usados, a operação XOR
será feita usando apenas o último bit de cada endereço.) Este método pode não equilibrar o tráfego
uniformemente se a maior parte do tráfego estiver entre dois hosts, como dois roteadores ou dois servidores.
Entretanto, para tráfego de rede típico com uma combinação de remetentes e receptores, o EtherChannel
fornece balanceamento de carga de alto desempenho.
Ao projetar troncos EtherChannel, você pode aumentar sua eficácia como recurso de redundância
agrupando links que funcionam em cabos em diferentes partes de uma rede de campus.
A Figura 10-4 mostra uma topologia em que o projetista da rede aumentou a largura de banda entre um
data center e um armário de fiação para um total de 800 Mbps (full duplex) e também usou a diversidade
física da planta de fibra para diminuir as chances de uma interrupção na rede.
A conexão EtherChannel consiste em quatro links Fast Ethernet. Duas passagens de fibra no lado leste
do edifício fornecem 400 Mbps e duas passagens de fibra no lado oeste do edifício.
Machine Translated by Google
edifício fornece os 400 Mbps restantes. Neste exemplo, se ocorrer um corte de fibra em um
lado do edifício, o lado restante irá captar o tráfego em menos de 1 segundo e
os clientes do armário de fiação provavelmente nem notarão a mudança.
Segmentado
Centro 1 Todas as portas Todos os portos estão no Conecta Particionamento automático para
Ponte 1–2 Cada porta Todos os portos estão no Conecta Configurado pelo usuário
Alternar 1–2 Cada porta Todos os portos estão no Conecta Filtragem, retransmissão celular
multimídia
recursos (multitransmissão)
Depois de projetar uma topologia de rede e tomar algumas decisões sobre o posicionamento e o escopo dos
segmentos de rede compartilhados, comutados e roteados, você deverá recomendar switches, pontes e
roteadores reais de vários fornecedores. Esta seção aborda critérios de seleção que você pode usar ao tomar
decisões.
ÿ Número de portas
ÿ Velocidade de processamento
ÿ Quantidade de memória
ÿ Facilidade de configuração
ÿ Capacidade de gerenciamento (por exemplo, suporte para Simple Network Management Protocol
[SNMP] e Monitoramento Remoto [RMON], indicadores de status)
ÿ Custo
ÿ Tempo médio entre falhas (MTBF) e tempo médio para reparo (MTTR)
Para switches e pontes (incluindo pontes sem fio), os seguintes critérios podem ser adicionados à primeira lista
com marcadores desta seção:
ÿ Recursos avançados de spanning tree suportados (reconfiguração rápida de spanning tree e múltiplas spanning
tree [802.1s])
ÿ Suporte para empilhamento ou switching virtual onde vários switches podem ser gerenciados como
um interruptor
ÿ Quantidade de memória disponível para tabelas de comutação, tabelas de roteamento (se o switch tiver um
módulo de roteamento) e memória usada pelas rotinas de protocolo
Para roteadores (e switches com módulo de roteamento), os seguintes critérios podem ser adicionados à primeira
lista com marcadores nesta seção:
Para pontos de acesso e pontes sem fio, os seguintes critérios podem ser adicionados à primeira lista com
marcadores nesta seção:
ÿ Velocidades sem fio suportadas (11 Mbps, 5,5 Mbps, 54 Mbps e 600 Mbps)
ÿ Suporte para alimentação em linha pela Ethernet se for improvável que o ponto de acesso seja montado próximo a
tomadas elétricas
ÿ Suporte para autenticação de usuário com 802.1X e Extensible Authentication Protocol (EAP)
ÿ Suporte para autenticação mútua, que permite que um cliente tenha certeza de que está se comunicando com o servidor
de autenticação pretendido
ÿ Suporte para chaves dinâmicas, chaves exclusivas para cada usuário, codificação por pacote e uma mensagem
verificação de integridade sábia (MIC)
O Capítulo 13, “Otimizando seu projeto de rede”, aborda otimização e QoS com mais detalhes, mas vale a pena
mencionar aqui que os recursos de otimização e QoS são mais importantes em projetos de rede de campus do
que muitos projetistas poderiam esperar. Não só a QoS é necessária na WAN, onde a largura de banda disponível é
menor do que no campus, mas requisitos rigorosos de baixa latência e jitter também impulsionam a necessidade de
QoS em switches e roteadores LAN. Mesmo em redes de campus, a demanda de largura de banda na rede muitas
vezes excede a largura de banda disponível. Além disso, o VoIP impulsiona a necessidade de QoS devido ao seu
requisito de baixa latência. Os recursos de QoS devem ser considerados ao selecionar dispositivos de interligação de
redes para redes de campus.
Na maioria das redes, pelo menos alguns elementos estão sobrecarregados e, portanto, requerem recursos de QoS. Os
recursos de QoS são mais frequentemente necessários em uplinks da camada de distribuição para a camada central de
um projeto de rede hierárquica. Às vezes, a QoS é necessária em uplinks
Machine Translated by Google
da camada de acesso para a camada de distribuição também. A soma das velocidades em todas as portas de um
switch onde os dispositivos finais estão conectados é geralmente maior que a da porta uplink.
Quando as portas de acesso são totalmente utilizadas, o congestionamento na porta de uplink é inevitável.
Os switches da camada de acesso geralmente fornecem QoS com base apenas nas informações da Camada 2, se é que fornecem.
Por exemplo, os switches da camada de acesso podem basear as decisões de QoS na porta de entrada do tráfego.
O tráfego de uma porta específica pode ser definido como tráfego de alta prioridade em uma porta de uplink.
O mecanismo de agendamento na porta de saída de um switch da camada de acesso garante que o tráfego dessas
portas seja servido primeiro. O tráfego de entrada pode ser marcado para garantir o serviço necessário quando o
tráfego passa pelos switches da camada central e de distribuição.
Os switches de distribuição e de camada central podem fornecer QoS com base em informações da Camada
3, incluindo endereços IP de origem e destino, números de porta e bits de QoS em um pacote IP. A QoS em switches
de distribuição e de camada central deve ser fornecida em ambas as direções do fluxo de tráfego. Consulte o
Capítulo 13 para obter mais informações sobre QoS e otimização.
As matrículas no WVCC dobraram nos últimos anos. O corpo docente e administrativo também dobrou de tamanho,
com exceção do departamento de TI, que ainda é bastante pequeno. O departamento de TI consiste em um gerente,
um administrador de servidor, dois administradores de rede e dois estudantes assistentes em tempo parcial.
Devido ao aumento do número de matrículas e a outros factores abordados nas próximas três secções, a rede
O acesso sem fio tornou-se um ponto de discórdia entre o departamento de TI e outros departamentos.
Os alunos muitas vezes colocam pontos de acesso sem fio no Centro de Computação e no prédio de
Matemática e Ciências sem permissão do departamento de TI. O gerente de TI está preocupado com a
segurança da rede e designou alunos de meio período para percorrer a rede para localizar e remover
pontos de acesso não autorizados. Os estudantes de meio período se ressentem dessa tarefa porque,
em muitos casos, os pontos de acesso não autorizados foram instalados por colegas e associados. Além
disso, eles acham que o acesso sem fio deveria ser permitido. Muitos estudantes, professores e
funcionários concordam.
Metas de negócios
A faculdade ainda quer atrair e reter mais alunos. O conselho de curadores da faculdade acredita que a
melhor maneira de permanecer sólido do ponto de vista fiscal é continuar a aumentar as matrículas e
reduzir o desgaste.
ÿ Aumentar o número de matrículas de 600 para 1.000 alunos nos próximos 3 anos.
ÿ Melhorar a eficiência do corpo docente e permitir que o corpo docente participe de mais projetos de
pesquisa com colegas de outras faculdades.
ÿ Melhore a eficiência dos alunos e elimine problemas com o envio de trabalhos de casa.
ÿ Permitir que os alunos acessem a rede do campus e a Internet sem fio usando seus
notebooks.
ÿ Permitir que os visitantes do campus acessem a Internet sem fio usando seu notebook
computadores.
ÿ Gastar um subsídio concedido pelo governo estadual para a modernização da rede do campus.
O dinheiro deve ser gasto até o final do ano fiscal.
Metas Técnicas
ÿ Aumentar a largura de banda da conexão com a Internet para suportar novos aplicativos e
o uso expandido de aplicativos atuais.
ÿ Fornecer uma rede sem fio privada e segura para os alunos acessarem a rede do campus
e a Internet.
ÿ Fornecer uma rede sem fio aberta para os visitantes do campus acessarem a Internet.
Machine Translated by Google
ÿ Forneça uma rede que ofereça um tempo de resposta de aproximadamente 1/10 de segundo ou menos
para aplicativos interativos.
ÿ Fornecer uma rede de campus que esteja disponível aproximadamente 99,90% do tempo e ofereça um
MTBF de 3.000 horas (cerca de 4 meses) e um MTTR de 3 horas (com um desvio padrão baixo
desses números médios).
ÿ Fornecer segurança para proteger a conexão com a Internet e a rede interna contra intrusos.
ÿ Fornecer uma rede que possa ser dimensionada para suportar o uso futuro expandido de multimídia
formulários.
Aplicativos de rede
Alunos, professores e funcionários usam a rede WVCC para os seguintes propósitos:
ÿ Aplicação 1, lição de casa: Os alunos usam a rede para escrever artigos e outros documentos. Eles
salvam seus trabalhos em servidores de arquivos no Centro de Computação e imprimem seus
trabalhos em impressoras no Centro de Computação e em outros edifícios.
ÿ Aplicação 4, catálogo de fichas da biblioteca: Alunos e professores acessam o catálogo de fichas on-line.
ÿ Aplicação 7, upload de gráficos: O departamento de arte envia arquivos gráficos grandes para uma
gráfica fora do campus que pode imprimir imagens em grande escala em uma impressora a laser
de alta velocidade. A gráfica imprime obras de arte que são transferidas para a loja via Internet.
Comunidades de usuários
A Tabela 10-4 mostra as comunidades de usuários do WVCC. O crescimento esperado das comunidades também está
incluído. O crescimento é esperado por dois motivos:
ÿ O acesso sem fio permitirá que mais estudantes e visitantes acessem a rede com seus
computadores portáteis pessoais.
Usuários de PC em 30, crescerá para Porão da biblioteca Lição de casa, e-mail, web
Usuários de Mac em 15, crescerá para Porão da biblioteca Lição de casa, e-mail, web
Mecenas da biblioteca 15, crescerá para Pisos 1 a 3 da E-mail, pesquisa na web, biblioteca
30 biblioteca catálogo de fichas
Administração 25, crescerá para Prédio da administração E-mail, pesquisa na web, biblioteca
Usuários de PC 50 catálogo de fichas, faculdade
Sistema de gestão
Visitantes do 10, crescerá para Todos os locais Pesquisa na web, cartão de biblioteca
campus 25 catálogo, e-mail
Arquivo da Apple Farm de servidores do Usuários de Homework Mac no Centro de Computação e no prédio de Artes
Arquivo/impressão do Windows Farm de servidores do Usuários de PC com lição de casa em todos os edifícios
servidor Centro de Computação
WVCC
E-mail do Windows Farm de servidores do E-mail Todos os usuários, exceto visitantes (que usam
servidor Centro de Computação seus próprios servidores)
Nomeando Todos
Col de comunidade de estado do servidor DNS UNIX
Muito progresso foi feito desde então e hoje existe um projeto de rede hierárquica comutada de Camada 2. Um único roteador que
A topologia lógica da atual rede campus-backbone do WVCC consiste em uma arquitetura hierárquica em malha com links redundantes
Administração Artes e
Humanidades
100BaseTX
100BaseFX
Negócios e Matemática e
Ciências Sociais Ciências
ÿ A rede usa Ethernet comutada. Um switch de última geração em cada prédio é conectado de forma
redundante a dois switches de última geração no Centro de Computação. A Figura 10-5 mostra essas
opções.
ÿ Dentro de cada edifício, um switch Ethernet de 24 ou 48 portas em cada andar conecta os sistemas dos
usuários finais. A Figura 10-6 mostra a arquitetura de rede do edifício.
ÿ Os switches oferecem suporte a SNMP e RMON. Um pacote de software de gerenciamento de rede baseado
em Windows monitora os switches. O software é executado em um servidor no módulo farm de servidores
do projeto de rede.
ÿ Todos os dispositivos fazem parte do mesmo domínio de transmissão. Todos os dispositivos (exceto dois
servidores públicos) fazem parte da sub-rede 192.168.1.0 usando uma máscara de sub-rede 255.255.255.0.
ÿ O endereçamento para PCs e Macs de usuários finais é realizado com DHCP. Um servidor Windows no farm
de servidores atua como servidor DHCP.
ÿ Os servidores de e-mail e web usam endereços públicos que a faculdade comunitária estadual
sistema de rede atribuído à faculdade. O sistema também fornece um servidor DNS que a faculdade usa.
Machine Translated by Google
ÿ O roteador atua como um firewall usando filtragem de pacotes. O roteador também implementa NAT.
O roteador possui uma rota padrão para a Internet e não executa um protocolo de roteamento. O link
WAN para a Internet é um link T1 de 1,544 Mbps.
Dois
PCs, Macs, Impressoras
100BaseFX
Conexões para
Biblioteca e
Informática
Centro
ÿ Cada edifício está equipado com cabeamento e placas de parede Categoria 5e nos vários
escritórios, salas de aula e laboratórios.
ÿ O roteador no Centro de Computação suporta duas portas 100BASE-TX e uma porta T1 com uma
unidade CSU/DSU integrada. O roteador possui uma fonte de alimentação redundante.
ÿ Uma topologia física centralizada (estrela) é usada para o cabeamento do campus. Os conduítes de
cabos subterrâneos contêm cabeamento de fibra óptica multimodo. O cabeamento é um
cabeamento pronto para uso que consiste em 30 fios de fibra com um núcleo de 62,5 mícrons e
revestimento de 125 mícrons, protegido por um revestimento de plástico adequado para uso externo.
Machine Translated by Google
Biblioteca e
Centro de Computação
Artes e
Administração
Humanidades
Multimodo de 62,5/125
mícrons
Negócios e Cabeamento de fibra óptica
Matemática e
Ciências Sociais Ciências
do departamento de TI conduziram uma análise das características de tráfego das aplicações. Os métodos de
análise incluíram a captura de sessões típicas de aplicativos com um analisador de protocolo, entrevistas
com usuários sobre seus usos atuais e planejados dos aplicativos e estimativa do tamanho dos objetos de rede
transferidos na rede.
Os alunos determinaram que os aplicativos de lição de casa, e-mail, pesquisa na web, catálogo de cartões de
biblioteca e sistema de gerenciamento de faculdade têm requisitos nominais de largura de banda e não são
sensíveis a atrasos. As outras aplicações, no entanto, utilizam uma quantidade significativa de largura de
banda, em particular uma elevada percentagem da largura de banda da WAN para a Internet. A aplicação de
ensino à distância também é sensível a atrasos.
Um usuário se inscreve no curso a distância acessando um servidor web da universidade estadual, inserindo
um nome de usuário e senha e especificando a quantidade de largura de banda que o usuário
tem disponível. A página da web atualmente não permite que um usuário especifique mais de 56 Kbps de
largura de banda disponível.
Neste momento, o serviço de ensino a distância é um sistema ponto a ponto. Cada usuário recebe um
fluxo de vídeo exclusivo de 56 Kbps do sistema de vídeo da universidade estadual. Por esta razão, o WVCC
limita o número de usuários que podem acessar o sistema de ensino a distância para
dez alunos que estão localizados no prédio de Matemática e Ciências.
25 Macs
50 peças
50 peças
Administração Artes e
Aplicativo 1 30 Kbps Aplicativo 1 48 Kbps Humanidades
Aplicativo 2 20 Kbps Aplicativo 2 32 Kbps
Aplicativo 3 60 Kbps Aplicativo 3 96 Kbps
Aplicativo 4 16 Kbps Aplicativo 4 24 Kbps
Total de 126 Kbps Aplicativo 5 300 Kbps
Aplicativo 6 200 Kbps
Aplicativo 8 1200 Kbps
Total de 1900 Kbps
30 peças 50 peças
Negócios e Matemática e
Ciências Sociais Ciências
Além dos fluxos de tráfego entre campus, os alunos documentaram os fluxos de tráfego
dentro da biblioteca e do Centro de Computação e o tráfego flui de e para a Internet. Dentro
Machine Translated by Google
Aplicação 1 96 Kbps
Aplicação 2 72 Kbps
Aplicação 3 240 Kbps
Aplicação 4 60 Kbps
ÿ O esquema de endereçamento IP suporta apenas uma sub-rede IP com uma máscara de sub-rede de
255.255.255.0. Em outras palavras, apenas 254 endereços são permitidos. Há alguns anos, o
O departamento de TI presumiu que apenas um pequeno subconjunto de alunos e professores usaria
a rede de uma só vez. Este não é mais o caso. À medida que o uso da rede cresce e
alunos colocam laptops sem fio na rede, o número de endereços tornou-se
insuficiente. Os usuários que ingressam na rede no meio da manhã, depois de muitos outros usuários terem
associados geralmente não conseguem receber um endereço IP do servidor DHCP.
ÿ A conexão de 1,544 Mbps com a Internet está sobrecarregada. A utilização média da rede do link WAN
serial, medida em uma janela de 10 minutos, é de 95%. O
O roteador descarta cerca de 5% dos pacotes devido a picos de utilização de 100%.
ÿ O próprio roteador está sobrecarregado. Os alunos assistentes escreveram um roteiro para periodicamente
colete a saída do comando show process cpu . Os assistentes descobriram
que a utilização da CPU em 5 minutos costuma chegar a 90 por cento e a utilização de 5 segundos
A utilização da CPU geralmente atinge o pico de 99%, com uma grande parte da potência da CPU
sendo consumido por interrupções da CPU. Usando uma rede de laboratório, os assistentes simularam
o tráfego de rede real passando por um roteador semelhante com e sem listas de acesso e
NAT habilitado. Os assistentes determinaram que a CPU do roteador de Internet está sobrecarregada, não
Machine Translated by Google
apenas por causa da grande quantidade de tráfego, mas também por causa das listas de acesso e
tarefas NAT.
ÿ Roteamento e endereçamento otimizados para o backbone do campus que interconecta edifícios, fornece
acesso ao conjunto de servidores e roteia o tráfego para a Internet
ÿ Acesso wireless em todos os edifícios, tanto para visitantes como para utilizadores da rede privada do campus
trabalho (alunos, professores e funcionários administrativos)
ÿ Melhor desempenho e segurança na borda da rede onde o tráfego é roteado de e para a Internet
ÿ Biblioteca: 192.168.2.1–192.168.2.254
ÿ Administração: 192.168.4.1–192.168.4.254
ÿ Usuários da rede sem fio pública e aberta: 192.168.9.1–192.168.9.254 (Esta é uma sub-rede que
abrange todo o campus e abrange todos os edifícios e áreas externas.)
ÿ Os servidores de e-mail e web usam endereços públicos que o sistema de rede da faculdade comunitária
estadual atribuiu à faculdade.
Em vez de confiar no Protocolo Spanning Tree da Camada 2 para evitar loops, os projetistas escolheram um
protocolo de roteamento da Camada 3. Eles escolheram Open Shortest Path First (OSPF)
Machine Translated by Google
porque não é proprietário e funciona em roteadores de muitos fornecedores, converge rapidamente, suporta
compartilhamento de carga e é moderadamente fácil de configurar e solucionar problemas.
A solução foi disponibilizar dois pontos de acesso em cada edifício, com diferentes políticas de segurança
implementadas neles. Um ponto de acesso aberto em cada edifício fornece acesso aos visitantes, enquanto
um ponto de acesso seguro em cada edifício fornece acesso seguro para estudantes, professores e
funcionários. Os pontos de acesso abertos estão em um canal diferente dos outros pontos de acesso para
evitar interferências e aumentar o desempenho. Os pontos de acesso suportam IEEE 802.11ne cada um
fornece uma largura de banda nominal de 600 Mbps.
Do ponto de vista do endereçamento IP, foram usadas duas sub-redes separadas, conforme mencionado na
seção “Endereçamento e roteamento IP otimizados para o backbone do campus” – uma para a LAN sem fio
(WLAN) privada e segura e outra para a WLAN pública e aberta. . Cada uma dessas sub-redes é uma
sub-rede que abrange todo o campus. Com esta solução, um usuário sem fio pode percorrer todo o campus
e nunca precisar alugar um novo endereço do servidor DHCP.
Em cada edifício, uma porta de switch no switch de roteamento conecta o ponto de acesso que suporta a
rede aberta. Uma porta de switch diferente conecta o ponto de acesso que suporta a rede privada e segura.
Cada uma dessas portas de switch está em sua própria VLAN. Outra VLAN é usada para as portas que
conectam switches com fio e usuários dentro do edifício.
Os pontos de acesso abertos não são configurados para autenticação de endereço WEP ou MAC, e o SSID é
anunciado em frames de beacon para que os usuários possam associar-se facilmente à WLAN. Para
proteger a rede do campus dos usuários da WLAN aberta, os switches de roteamento são configurados
com listas de acesso que encaminham apenas alguns protocolos. São permitidos pacotes enviados de
usuários da WLAN aberta para as portas TCP 80 (HTTP), 25 (SMTP) e 110 (POP) e para as portas UDP 53
(DNS) e 67 (DHCP). Todo o outro tráfego é negado. Alguns estudantes e professores queriam oferecer
suporte a mais protocolos, mas o departamento de TI insistiu que, pelo menos por enquanto, esses são os
únicos protocolos suportados. Isso protege a rede contra problemas de segurança e evita que os visitantes
utilizem muita largura de banda para outras aplicações.
Os pontos de acesso privados implementam muitos mais recursos de segurança. O SSID está oculto e não é
anunciado nos quadros de beacon. Embora um determinado usuário ainda possa descobrir o SSID,
removê-lo dos pacotes de beacon oculta-o do usuário casual e evita confundir os visitantes, que veem apenas
o SSID público. Alunos, professores e funcionários que desejam usar a WLAN privada devem conhecer o
SSID privado e digitá-lo na ferramenta de configuração de seus adaptadores sem fio.
Para proteger a privacidade dos dados que trafegam pela WLAN privada, os pontos de acesso e os clientes
usarão o Wi-Fi Protected Access (WPA) e o Temporal Key Integrity Protocol (TKIP). Os pontos de acesso
privados também são configurados para usar 802.1X e Lightweight
Machine Translated by Google
Para resolver o problema de alta utilização do link WAN para a Internet e a alta incidência de queda
de pacotes, o link WAN foi substituído por um link Metro Ethernet de 10 Mbps. O departamento de TI
descobriu que alguns provedores de serviços na área estavam dispostos a implementar um link de fibra
óptica monomodo e oferecer suporte a Ethernet em vez de um protocolo WAN.
O departamento de TI encomendou uma interface 10/100BASE-FX para o roteador e escolheu um
provedor de serviços que oferece uma cobrança mensal razoável e tem uma boa reputação de confiabilidade.
Além disso, o provedor facilita para seus clientes a atualização para mais largura de banda.
Por exemplo, se a faculdade decidir que precisa de um link Ethernet de 100 Mbps, a faculdade
poderá fazer uma única ligação telefônica para o provedor e o provedor garantirá fazer a mudança
naquele dia.
Embora o projeto de rede no exemplo seja simples e algumas decisões fossem mais óbvias do que
seriam para um projeto mais complexo, o exemplo demonstrou o uso das seguintes etapas de projeto
de rede de cima para baixo:
Metrô de 10 Mbps
Ethernet para Internet
DMZ
Biblioteca e Firewall
Informática Fazenda de Servidores
Biblioteca Pontos de acesso sem fio
do Centro : 192.168.2.0/24
Centro de Computação 192.168.3.0/24
192.168.1.0/24
10BaseT
100BaseTX
100BaseFX
Negócios e Matemática e
Ciências Sociais Ciências
LAN com fio: 192.168.5.0/24 LAN com fio: 192.168.6.0/24
Resumo
Este capítulo abordou a primeira etapa na fase de projeto físico da rede top-down
metodologia de projeto: seleção de tecnologias e dispositivos para projetos de rede de campus. A
O projeto físico consiste em cabeamento, implementações de protocolo de camada 2 e rede
dispositivos. O projeto físico depende dos objetivos do negócio, dos requisitos técnicos, das características
do tráfego e dos fluxos de tráfego, que são discutidos na Parte I deste livro. O físico
o design baseia-se no design lógico, que a Parte II discute.
Machine Translated by Google
Este capítulo abordou o projeto da planta de cabeamento LAN e as tecnologias LAN, como Ethernet, Metro Ethernet
e EtherChannel. O capítulo também forneceu alguns critérios de seleção que você pode usar ao escolher
dispositivos de interconexão de redes. O capítulo foi concluído com um exemplo de projeto de rede de campus
desenvolvido para o Wandering Valley Community College.
Perguntas de revisão
1. Quais são os critérios mais importantes para selecionar um dispositivo de interligação de redes?
3. Por que os recursos de QoS são frequentemente necessários em switches e roteadores LAN?
4. As redes modernas de campus são quase sempre construídas com tecnologia Ethernet.
dias. Por que é que? Por que a Ethernet sobreviveu às tecnologias mais antigas, como Token Ring, FDDI e
ATM LAN Emulation (LANE)?
Cenário de projeto
O estudo de caso do WVCC neste capítulo deixou algumas decisões de projeto para o leitor. Em particular, o estudo
de caso não menciona seleções reais de produtos feitas pelos projetistas da rede. Fazer essas seleções é
seu trabalho. Leia o estudo de caso e responda às seguintes perguntas.
1. Com base nos requisitos de projeto e nas decisões tomadas, quais pontos de acesso sem fio você recomendaria
para o WVCC? Faça uma pesquisa na Internet para encontrar um ponto de acesso que atenda às
necessidades do WVCC e escreva dois ou três parágrafos sobre o produto e por que você o escolheu.
2. Para realizar a autenticação do usuário para a WLAN privada, o departamento de TI da WVCC adquirirá um
dispositivo reforçado dedicado de uma RU que operará como um servidor RADIUS centralizado. Faça uma
pesquisa na Internet para encontrar um servidor que atenda às necessidades do WVCC e escreva dois ou
4. O departamento de TI da WVCC gostaria de implementar uma solução para gerenciar a rede sem fio. A
solução deve permitir que os administradores de rede gerenciem remotamente os pontos de acesso e
descubram quaisquer pontos de acesso não autorizados que estudantes ou professores possam instalar sem
permissão do departamento de TI. Um dispositivo de hardware ou um aplicativo de software executado em
um servidor compartilhado atenderá a essa necessidade. Faça alguma pesquisa na Internet para
encontrar um produto de gerenciamento sem fio que atenda às necessidades do WVCC e escreva dois
ou três parágrafos sobre o produto e por que você o escolheu.
Machine Translated by Google
Capítulo 11
Selecionando Tecnologias e
Dispositivos para redes empresariais
Este capítulo apresenta tecnologias para os componentes de acesso remoto e rede de área ampla (WAN) de
um projeto de rede corporativa. O capítulo discute protocolos da camada física e de enlace de dados e
dispositivos de rede corporativa, como servidores de acesso remoto, roteadores, firewalls e
concentradores de rede privada virtual (VPN).
O capítulo começa com uma discussão das seguintes tecnologias de acesso remoto:
ÿ Modems a cabo
Depois de discutir as tecnologias de acesso remoto, o capítulo apresenta opções para selecionar WAN e
capacidades de acesso remoto com a Hierarquia Digital Norte-Americana, o sistema E europeu ou a
Hierarquia Digital Síncrona (SDH). O capítulo continua com uma discussão das seguintes tecnologias WAN:
ÿ Linhas alugadas
ÿ Frame Relay
ÿ Ethernet metropolitana
O capítulo cobre então dois tópicos que ajudarão você a concluir seu projeto de WAN:
O capítulo termina com um exemplo de projeto de rede WAN desenvolvido para uma empresa de médio porte,
a Klamath Paper Products, Inc. O exemplo indica quais tecnologias e dispositivos foram escolhidos para esse
cliente com base em seus objetivos.
As tecnologias e dispositivos que você selecionar para seu cliente de projeto de rede específico dependerão
dos requisitos de largura de banda e qualidade de serviço (QoS), da topologia da rede, dos requisitos e
restrições de negócios e das metas técnicas (como escalabilidade, acessibilidade, desempenho e
disponibilidade). . Uma análise do fluxo e da carga do tráfego, conforme discutido no Capítulo 4,
“Caracterização do tráfego de rede”, pode ajudá-lo a selecionar com precisão capacidades e dispositivos.
Para algumas organizações, a escalabilidade é um objetivo fundamental do design. A solução WAN selecionada
deve ter espaço suficiente para crescimento. Conforme discutido neste capítulo, algumas tecnologias WAN
são mais escaláveis que outras.
Outro objetivo importante do projeto para muitas organizações é minimizar o custo da WAN e dos circuitos
de acesso remoto. As técnicas de otimização que reduzem custos desempenham um papel importante na
maioria dos projetos de WAN e de acesso remoto. Os métodos para fundir redes separadas de voz, vídeo e
dados em uma WAN combinada e econômica também desempenham um papel importante. Esses métodos
devem lidar com os diversos requisitos de QoS de diferentes aplicações.
Uma análise da localização das comunidades de usuários e de seus aplicativos deve formar a base do seu
projeto de acesso remoto. É importante reconhecer a localização e o número de teletrabalhadores em tempo
integral e parcial, a extensão do acesso dos usuários móveis à rede e a localização e o escopo dos
escritórios remotos. Os escritórios remotos incluem filiais, escritórios de vendas, locais de fabricação, armazéns,
lojas de varejo, bancos regionais no setor financeiro e consultórios médicos regionais no setor de saúde.
Às vezes, os escritórios remotos também estão localizados nas instalações de um parceiro de negócios (por
exemplo, um vendedor ou fornecedor).
Normalmente, os trabalhadores remotos usam aplicativos como e-mail, navegação na web, entrada de pedidos
de vendas e aplicativos de calendário para agendar reuniões. Outras aplicações que consomem mais largura
de banda incluem download de software ou atualizações de software, troca de arquivos com servidores
corporativos, demonstração de produtos, gerenciamento de rede em casa, videoconferência e participação
em aulas on-line.
No passado, os teletrabalhadores e os usuários móveis normalmente acessavam a rede usando uma linha
de modem ana log. Os modems analógicos demoram muito para se conectar e têm alta latência e baixas
velocidades. (A velocidade mais alta disponível para modems analógicos é de 56 kbps.) Atualmente, os
usuários remotos precisam de velocidades mais altas, menor latência e tempos de estabelecimento de
conexão mais rápidos. Os modems analógicos foram substituídos por roteadores para pequenos escritórios/
escritórios domésticos (SOHO) que suportam modem a cabo ou DSL. As seções a seguir discutem essas opções e
Machine Translated by Google
fornecer informações sobre PPP, um protocolo normalmente usado com acesso remoto e outras
tecnologias WAN.
PPP
A Internet Engineering Task Force (IETF) desenvolveu o PPP como um protocolo padrão da camada
de enlace de dados para transportar vários protocolos da camada de rede através de links seriais
ponto a ponto. O PPP pode ser usado para conectar um único usuário remoto a um escritório central ou
para conectar um escritório remoto com muitos usuários a um escritório central. O PPP é usado com
Rede Digital de Serviços Integrados (ISDN), linhas analógicas, linhas alugadas digitais e outras tecnologias WAN.
O PPP presta os seguintes serviços:
ÿ Configuração de link
ÿ Autenticação
ÿ Compressão de cabeçalho
ÿ Detecção de erros
ÿ O Link Control Protocol (LCP) é usado para estabelecer, configurar, autenticar, testar e encerrar uma
conexão de link de dados.
ÿ Uma família de protocolos de controle de rede (NCP) é usada para estabelecer e configurar vários
protocolos de camada de rede, como IP, IPX, AppleTalk e DECnet.
ber para datagramas. No dispositivo receptor, o PPP utiliza o número de sequência para recriar o fluxo de dados
original. Vários canais aparecem como um link lógico para protocolos de camada superior.
Multichassis MPPP é um aprimoramento do Cisco IOS Software para MPPP que permite a agregação de canais
em vários servidores de acesso remoto em um local central. Multichassis MPPP permite que administradores de
WAN agrupem vários servidores de acesso em um único grupo de pilhas.
O tráfego do usuário pode ser dividido e remontado em vários servidores de acesso no grupo de pilhas.
Multichassis MPPP faz uso do Stack Group Bidding Protocol (SGBP), que define um processo de licitação
para permitir que servidores de acesso elejam um servidor para lidar com a agregação de um aplicativo. O servidor
tem a função de criar e gerenciar um pacote de links para uma aplicação que solicita agregação de canais.
A licitação de SGBP pode ser ponderada para que processos que fazem uso intensivo de CPU, como criação de
pacotes, fragmentação e remontagem de pacotes, compactação e criptografia, sejam descarregados para roteadores
designados como servidores de descarregamento. Você pode implantar um roteador de última geração como
servidor de descarregamento. Um switch Ethernet pode conectar membros do grupo de pilhas e do servidor de
offload, conforme mostrado na Figura 11-1.
Grupo de pilhas
ISDN
Analógico
Desembarcar
Servidor
CHAP é mais seguro que PAP e é recomendado. (Na verdade, a RFC que discute CHAP e PAP, RFC 1334,
foi obsoleta pela RFC 1994, que não menciona mais
Machine Translated by Google
PAP.) Com o PAP, a senha do usuário é enviada como texto não criptografado. Um intruso pode usar um
analisador de protocolo para capturar a senha e depois usá-la para invadir a rede. O CHAP fornece proteção
contra esses ataques, verificando um nó remoto com um protocolo de handshake de três vias e um valor de
desafio variável que é único e imprevisível. A verificação acontece no estabelecimento do link e pode ser
repetida a qualquer momento durante uma sessão.
A Figura 11-2 mostra uma sequência de eventos CHAP. Quando um nó remoto se conecta a um servidor
ou roteador de acesso, o servidor ou roteador envia de volta uma mensagem de desafio com um valor de
desafio baseado em um número aleatório imprevisível. A estação remota alimenta o valor do desafio e a
senha do nó remoto por meio de um algoritmo hash, resultando em uma resposta de desafio com hash unilateral.
O nó remoto envia a resposta de desafio com hash ao servidor, juntamente com um nome de usuário
que identifica o nó remoto. O servidor procura o nome de usuário e executa a senha associada e o desafio por
meio do mesmo algoritmo hash usado pelo nó remoto. Se o nó remoto enviou a senha correta, os valores de
hash corresponderão e o servidor enviará uma mensagem de aceitação; caso contrário, ele envia uma
mensagem de negação.
Conectar
Banco de dados de usuários
Desafio e senhas
Nome: 760_1
Nome: 760_1 Resposta com hash Senha: sfy45
Senha: sfy45 Nome: 760_2
Aceitar ou Negar
Senha: Kingsford
•
•
•
Observação O termo modem a cabo é um tanto enganoso. Um modem a cabo funciona mais como uma interface
LAN do que como um modem analógico.
Machine Translated by Google
Os provedores de serviços de rede a cabo oferecem sistemas híbridos de fibra/ coaxial (HFC) que conectam
redes CATV à rede de fibra óptica de alta velocidade do provedor de serviços. Os sistemas HFC permitem
aos usuários conectar seus PCs ou pequenas LANs ao cabo coaxial que entra em suas residências ou
pequenos escritórios e usar essa conexão para acesso de alta velocidade à Internet ou à rede privada de uma
organização usando software VPN.
O provedor de serviços de rede a cabo opera um sistema de terminação de modem a cabo (CMTS) que fornece
conectividade de alta velocidade para vários modems a cabo. Muitos provedores de cabo usam um roteador
CMTS especializado para essa finalidade. O roteador foi projetado para ser instalado em um headend ou hub de
distribuição de uma operadora de cabo e para funcionar como CMTS para dispositivos finais de assinantes.
O roteador encaminha dados upstream para se conectar à Internet e/ou à rede telefônica pública comutada
(PSTN) se aplicativos de telefonia forem implantados.
Devido ao projeto das redes CATV, a maioria dos serviços de rede a cabo oferece muito mais largura de banda
para o tráfego downstream (do provedor de serviços) do que para o tráfego upstream (do cliente). Supõe-se
que muitos dos dados que viajam de casa ou de um pequeno escritório consistem em pacotes curtos de
confirmação e requerem menos largura de banda. Essa suposição é correta para aplicativos como navegação
na Web, mas pode não ser precisa para outros aplicativos que serão implantados em seu projeto de rede. Uma
solução de modem a cabo não é a melhor resposta para aplicações peer-to-peer ou aplicações cliente/servidor
nas quais o cliente envia muitos dados.
Um sistema típico de rede a cabo oferece largura de banda downstream de 25 a 50 Mbps e largura de banda
upstream de cerca de 2 a 3 Mbps. Vários usuários compartilham a largura de banda downstream e upstream.
Os dados downstream são vistos por todos os modems a cabo ativos. Cada modem a cabo filtra o tráfego que
não é destinado a ele. A largura de banda upstream é alocada usando lotes de tempo. Existem três tipos de
intervalos de tempo:
ÿ Reservado: um intervalo de tempo disponível apenas para um determinado modem a cabo. O sistema headend
no site do provedor aloca intervalos de tempo reservados para modems a cabo usando um algoritmo
de alocação de largura de banda.
ÿ Contenção: um intervalo de tempo disponível para todos os modems a cabo. Se dois modems a cabo
transmitirem no mesmo intervalo de tempo, os pacotes colidirão e os dados serão perdidos. O sistema
headend sinaliza que nenhum dado foi recebido e os modems a cabo podem tentar novamente após
esperar um período de tempo aleatório. Os intervalos de tempo de contenção são utilizados para
transmissões curtas de dados (incluindo pedidos de uma quantidade de intervalos de tempo reservados
para transmissão de mais dados).
Machine Translated by Google
ÿ Ranging: um intervalo de tempo usado para correção do relógio. O sistema headend instrui um modem
a cabo para transmitir durante um intervalo de tempo variável. O sistema headend mede o tempo
para receber a transmissão e fornece ao modem a cabo um pequeno valor de correção positivo ou
negativo para seu relógio local.
Se você planeja usar uma solução de modem a cabo para usuários remotos ou escritórios remotos, consulte
o provedor de serviços sobre o número de usuários que compartilham um único cabo e os tipos de
aplicativos que eles usam. Forneça ao provedor de serviços informações sobre os requisitos de largura de
banda dos aplicativos de seus usuários, com base na análise das características do tráfego que você
fez como parte da fase de análise de requisitos do projeto de design de rede.
Normalmente, um provedor de serviços pode fornecer uma estimativa da quantidade de largura de banda
disponível por usuário de um sistema de rede a cabo. Alguns sistemas também têm a capacidade de
garantir um nível de largura de banda para aplicações de uso intenso. Se seus usuários precisarem de
mais largura de banda do que o provedor de serviços pode oferecer, você deverá investigar o uso de uma
linha alugada ou um circuito Frame Relay em vez de um modem a cabo.
Outra preocupação com mídias compartilhadas, como sistemas de modem a cabo, é como oferecer QoS
para voz, vídeo e outras aplicações sensíveis a atrasos. Se o provedor de serviços não tiver boas
soluções para esse problema, considere usar uma tecnologia WAN diferente se seus usuários confiarem
nesses aplicativos sensíveis a atrasos.
O DSL opera através de linhas telefônicas existentes entre uma estação telefônica e uma casa ou
escritório. As velocidades dependem do tipo de serviço DSL e de muitos fatores da camada física,
incluindo o comprimento do circuito entre a residência ou filial e a companhia telefônica, a bitola do cabo,
a presença de derivações em ponte e a presença de diafonia ou ruído no cabo.
DSL suporta comunicação assimétrica e simétrica. Com o DSL assimétrico (ADSL), o tráfego pode
mover-se downstream do provedor e upstream do usuário final em velocidades diferentes. Um circuito ADSL
possui três canais:
Com DSL simétrico (SDSL), o tráfego em qualquer direção viaja na mesma velocidade, até 1,544 Mbps.
Ao contrário do ADSL, o SDSL não permite que o POTS seja executado na mesma linha que os dados
Machine Translated by Google
(embora VoIP seja viável com SDSL). SDSL é uma solução comercial viável que é uma boa escolha
para uma pequena empresa ou filial que hospeda web ou outros serviços que enviam e recebem dados.
ÿ ISDN DSL (IDSL): Um cruzamento entre ISDN e DSL. Tal como acontece com o ISDN, o IDSL usa um
único par de fios para transmitir dados a 128 kbps em ambas as direções e a distâncias de até
15.000 a 18.000 pés (cerca de 4.600 a 5.500 m). Ao contrário do ISDN, o IDSL não utiliza um
canal de sinalização (um canal D).
ÿ DSL de alta taxa de bits (HDSL): uma tecnologia madura que fornece comunicações simétricas de
até 1,544 Mbps em dois pares de fios ou 2,048 Mbps em três pares de fios.
HDSL é uma alternativa econômica para um circuito T1 ou E1. HDSL é mais barato que T1 ou
E1, em parte porque pode funcionar em linhas de qualidade inferior sem exigir qualquer
condicionamento de linha. O alcance do HDSL é de 12.000 a 15.000 pés (cerca de 3.700 a 4.600 m).
Os provedores podem ampliar o alcance com repetidores de sinal. HDSL não oferece suporte ao
acesso ao PSTN.
ÿ HDSL-2: Fornece comunicações simétricas de até 1,544 Mbps, mas é diferente do HDSL porque
utiliza um único par de fios. Os engenheiros desenvolveram o HDSL-2 para servir como um
padrão pelo qual equipamentos de diferentes fornecedores poderiam interoperar. A maior
vantagem do HDSL-2 é que ele foi projetado para não interferir com outros serviços, em particular
o ADSL, que é o tipo mais popular de DSL. Uma desvantagem do HDSL-2 é que ele suporta apenas
uma taxa completa, oferecendo serviços apenas a 1,544 Mbps.
ÿ G.SHDSL: Combina o melhor de SDSL e HDSL-2. O padrão define taxas múltiplas, como faz o SDSL,
mas fornece compatibilidade espectral com HDSL-2.
ÿ DSL de taxa de bits muito alta (VDSL): fornece dados e serviço PSTN em um único par trançado de
fios a velocidades de até 52 Mbps downstream e 16 Mbps upstream. O VDSL é reservado para
usuários próximos a um escritório central. Ethernet de longo alcance (LRE) usa tecnologia VDSL.
PPP e ADSL
Os projetos ADSL usam duas implementações PPP populares: PPP sobre ATM (PPPoA) e PPP sobre
Ethernet (PPPoE). Em uma arquitetura PPPoA, o equipamento nas instalações do cliente (CPE) atua
como um roteador Ethernet para WAN e uma sessão PPP é estabelecida entre o CPE e um concentrador
de acesso de Camada 3 na rede do provedor de serviços. Em uma arquitetura PPPoE, o CPE atua
como uma ponte Ethernet para WAN. O cliente inicia uma sessão PPP encapsulando quadros PPP em
quadros MAC e, em seguida, ligando os quadros através de ATM/DSL a um roteador gateway no
provedor de serviços. A partir deste ponto, as sessões PPP podem ser estabelecidas, autenticadas
e endereçadas. O cliente recebe seu endereço IP do provedor de serviços, utilizando negociação PPP.
Machine Translated by Google
Uma implementação PPPoA envolve configurar o CPE com informações de autenticação PPP (login e
senha). Esta é a principal vantagem desta arquitetura em relação às implementações de ponte pura, pois
fornece autenticação, autorização e contabilidade por sessão. Outra vantagem do PPPoA é que
ele usa ATM ponta a ponta. Portanto, o provedor pode achar mais fácil colocar um assinante em uma
classe de tráfego específica.
A consideração mais importante ao selecionar um modem a cabo ou DSL é que o modem deve
interoperar com o equipamento do provedor. Em alguns casos, o provedor fornece o modem para evitar
problemas. Em outros casos, o provedor fornece uma lista de produtos ou padrões que devem ser
suportados em um modem adquirido pelo usuário final, como a especificação de interface de serviço de
dados por cabo (DOCSIS) para modems a cabo nos Estados Unidos.
ÿ Confiabilidade
ÿ Custo
ÿ Suporte para o roteador atuar como um ponto de acesso sem fio (se desejado)
ÿ Suporte para recursos que reduzem a utilização da linha, como roteamento de instantâneos e
compressão
ÿ Suporte para recursos de QoS para suportar VoIP ou outros aplicativos com QoS específico
requisitos
Machine Translated by Google
Tanto os roteadores quanto os firewalls no site central podem atuar como ponto de terminação para túneis
VPN. No entanto, um roteador genérico pode ficar sobrecarregado se uma rede suportar muitos túneis.
Se você espera que o número máximo de usuários simultâneos chegue a 100, um firewall dedicado ou um
concentrador VPN deverá ser implantado. (Um concentrador VPN é uma plataforma de hardware
independente que agrega um grande volume de conexões VPN simultâneas.)
Geralmente, as empresas colocam o firewall VPN entre um roteador que tem acesso à VPN e um roteador
que encaminha o tráfego para a rede do campus. Portanto, o firewall deve suportar pelo menos duas
interfaces Ethernet do tipo usado neste módulo do projeto de rede (Fast Ethernet, Gigabit Ethernet e assim
por diante).
Ao selecionar um firewall VPN, certifique-se de que ele irá interoperar com o software cliente VPN nos
sistemas dos usuários. Cisco, Microsoft e outros fornecedores fornecem software cliente.
Preste atenção também ao número de túneis simultâneos que o firewall suporta e à quantidade de tráfego
que ele pode encaminhar. O firewall deve ter um processador rápido, RAM de alta velocidade e suporte
para fontes de alimentação redundantes e criptografia assistida por hardware. Ele também deve oferecer
suporte aos seguintes recursos de software:
ÿ Algoritmos de criptografia, incluindo DES de 56 bits, DES triplo de 168 bits, Microsoft
Criptografia (MPPE), RC4 de 40 e 128 bits e AES de 128, 192 e 256 bits
ÿ Protocolos de roteamento
ÿ Gerenciamento de rede usando Secure Shell (SSH) ou HTTP com Secure Sockets Layer
(SSL)
Tecnologias WAN
Esta seção aborda tecnologias WAN que são opções típicas para conectar sites geograficamente dispersos
em um projeto de rede empresarial. A seção cobre as tecnologias WAN mais comuns e estabelecidas,
mas o leitor também deve pesquisar novas tecnologias à medida que elas ganham aceitação no setor.
As tecnologias WAN sem fio, por exemplo, são
Machine Translated by Google
não abordados neste livro, mas espera-se que expandam as opções disponíveis para WAN (e
redes de acesso remoto) no futuro.
Mudanças recentes na indústria de WAN dão continuidade a uma evolução que começou em meados da década de 1990
quando os requisitos de largura de banda e QoS das empresas mudaram significativamente devido a
novas aplicações e metas ampliadas de interconectividade. Como a necessidade de largura de banda WAN
acelerado, as companhias telefônicas atualizaram suas redes internas para usar SONET e
tecnologias ATM, e passaram a oferecer novos serviços aos seus clientes. Hoje, um arquiteto de rede
empresarial tem muitas opções de conectividade WAN. O objetivo deste
seção é apresentar algumas dessas opções para ajudá-lo a selecionar as tecnologias certas para
Seu cliente.
Independentemente da tecnologia WAN selecionada, uma etapa crítica do projeto de rede deve ser
completa é selecionar a quantidade de capacidade que a WAN deve fornecer. Você precisa
considere os requisitos de capacidade para hoje e para os próximos 2 a 3 anos. Selecionando o certo
quantidade de capacidade é frequentemente chamada de provisionamento. O provisionamento requer uma análise de
fluxos de tráfego, conforme descrito no Capítulo 4, e uma análise das metas de escalabilidade, conforme descrito
no Capítulo 2, “Analisando Metas Técnicas e Compensações”. Esta seção fornece uma
visão geral das capacidades de largura de banda disponíveis para lidar com fluxos de tráfego de diferentes
tamanhos.
A largura de banda WAN para cabeamento de cobre é fornecida na América do Norte e em muitos outros países.
partes do mundo usando a Hierarquia Digital Norte-Americana, que é mostrada em
Tabela 11-1. Um canal na hierarquia é chamado de sinal digital (DS). Os sinais digitais são
multiplexados juntos para formar circuitos WAN de alta velocidade. DS-1 e DS-3 são os mais
capacidades comumente usadas.
DS-1 1,544Mbps 24 T1
DS-2 6,312Mbps 96 T2
Na Europa, o Comité dos Serviços Postais e Telefónicos Europeus (CEPT) definiu uma hierarquia chamada
sistema E, que é apresentada na Tabela 11-2.
Machine Translated by Google
E0 64kbps N/D
E1 2,048Mbps 1
E2 8,448Mbps 4
E3 16
E4 64
E5 256
A Hierarquia Digital Síncrona (SDH) é um padrão internacional para transmissão de dados através de
cabos de fibra óptica. SDH define uma taxa padrão de transmissão de 51,84
Mbps, também chamado de sinal de transporte síncrono nível 1 (STS-1). Taxas mais altas
de transmissão são um múltiplo da taxa básica STS-1. As taxas STS são iguais às do
Níveis de portadora óptica (OC) SONET, mostrados na Tabela 11-3.
STS-3 OC-3
Linhas Alugadas
A primeira tecnologia WAN que este capítulo aborda é o serviço de linha alugada oferecido por muitos
companhias telefônicas e outras operadoras. Uma linha alugada é um circuito dedicado que um cliente
aluga de uma operadora por um período de tempo predeterminado, geralmente por meses ou
anos. A linha é dedicada ao tráfego para esse cliente e é utilizada numa rede ponto-a-ponto.
topologia entre dois sites na rede corporativa do cliente. As velocidades variam de
64 kbps (DS-0) a 45 Mbps (DS-3). As empresas usam linhas alugadas para voz e dados
tráfego. O tráfego de dados normalmente é encapsulado em um protocolo padrão como PPP ou HDLC.
Machine Translated by Google
As linhas alugadas dedicadas têm a vantagem de serem uma tecnologia madura e comprovada.
Historicamente, tinham a desvantagem de serem caros, especialmente em algumas partes da Europa e da
Ásia. No entanto, à medida que as operadoras atualizam as suas redes internas com mais capacidade, os
custos vão caindo.
As linhas alugadas também têm a vantagem, sobre a maioria dos outros serviços, de serem dedicadas a
um único cliente. O cliente não compartilha a capacidade com ninguém. A maioria dos sistemas mais
recentes, como modems a cabo, DSL, ATM e Frame Relay, são baseados em uma rede compartilhada
dentro da rede do provedor.
As linhas alugadas tendem a ser ignoradas como uma solução WAN potencial porque não são uma
tecnologia nova. Em algumas situações, entretanto, eles são a melhor opção para links simples ponto a
ponto. As linhas alugadas são uma boa escolha se a topologia for realmente ponto a ponto (e não for
provável que se torne ponto a multiponto num futuro próximo), o preço oferecido pela operadora local
for atraente e as aplicações não exigirem recursos avançados de QoS que seriam difícil de implementar
numa rede simples de linhas alugadas.
Ambas as redes ATM e baseadas em pacotes podem ser baseadas em SONET. Com a transmissão de
pacotes, as redes SONET geralmente usam PPP na camada de enlace de dados e IP na camada de rede.
Espera-se que o pacote sobre SONET (POS) se torne bastante popular à medida que o tráfego da
Internet e intranet cresce, e à medida que novas aplicações, como vídeo digital, exigem a alta velocidade,
baixa latência e baixas taxas de erro que o SONET pode oferecer.
Um dos principais objetivos do SONET e do SDH era definir velocidades superiores às utilizadas pela
Hierarquia Digital Norte-Americana e pelo sistema E europeu, e aliviar problemas causados por
incompatibilidades nesses sistemas. Os criadores do SONET e do SDH definiram capacidades de alta
velocidade, começando com o STS-1 de 51,84 Mbps, que foram aprovadas por órgãos de
padronização norte-americanos e europeus.
Outro objetivo do SONET era suportar multiplexação e demultiplexação mais eficientes de sinais
individuais. Com SONET (SDH), é fácil isolar um canal de um circuito multiplexado (por exemplo, uma
chamada telefônica de uma linha tronco que transporta inúmeras chamadas telefônicas). Com sistemas
plesiócronos, como a Hierarquia Digital Norte-Americana e o sistema E Europeu, isolar um canal é mais
difícil. Embora isolar um canal de 64 kbps de um circuito DS-1 seja simples, isolar um canal de 64
kbps de um tronco DS-3 requer primeiro a demultiplexação para o nível DS-1.
Machine Translated by Google
A especificação SONET define uma pilha de protocolos de quatro camadas. As quatro camadas têm as seguintes
funções:
Uma rede SONET geralmente é conectada em uma topologia em anel usando dois caminhos de fibra auto-
recuperáveis. Um caminho fornece comunicação full-duplex e consiste em um par de fios de fibra.
Um caminho atua como recurso de transmissão em tempo integral. O outro caminho atua como um par de
proteção de backup, permanecendo inativo enquanto o caminho de trabalho transmite dados. Se ocorrer uma
interrupção no caminho de trabalho, os dados serão automaticamente redirecionados para o caminho de backup em
milissegundos. Se ambos os pares, funcional e protegido, forem cortados, o anel se enrola e a comunicação
ainda poderá sobreviver. A Figura 11-3 mostra uma rede SONET típica.
Par Protegido
Par de Trabalho
Transferência de quadro
Frame Relay é um protocolo WAN de alto desempenho que opera nas camadas física e de enlace de dados do
modelo de referência OSI. O Frame Relay surgiu no início da década de 1990 como um aprimoramento de
tecnologias de comutação de pacotes mais complexas, como o X.25. Considerando que o X.25 é otimizado
para excelente confiabilidade em circuitos físicos com alta taxa de erro,
Machine Translated by Google
O Frame Relay foi desenvolvido com a suposição de que as instalações não são mais tão propensas a erros
como antes. Essa suposição permite que o Frame Relay seja mais eficiente e mais fácil de implementar que o X.25.
O Frame Relay oferece um método econômico para conectar locais remotos, normalmente em velocidades de
64 kbps a 1,544 Mbps (alguns provedores oferecem velocidades DS-3 para Frame Relay).
O Frame Relay oferece mais granularidade na seleção de atribuições de largura de banda do que linhas
alugadas e também inclui recursos para alocação dinâmica de largura de banda e controle de congestionamento para
suportar fluxos de tráfego em rajadas. O Frame Relay tornou-se um substituto popular para redes X.25 e de linhas
alugadas devido à sua eficiência, suporte de largura de banda flexível e baixa latência.
O Frame Relay fornece um serviço de camada de enlace de dados orientado à conexão. Um par de dispositivos
se comunica por meio de um circuito virtual Frame Relay, que é uma conexão lógica criada entre dois dispositivos
de equipamento terminal de dados (DTE) em uma rede de comutação de pacotes (PSN) Frame Relay. Os
roteadores, por exemplo, atuam como dispositivos DTE e configuram um circuito virtual para fins de transferência
de dados. Um circuito virtual pode passar por qualquer número de dispositivos (switches) intermediários de
equipamentos de terminação de circuito de dados (DCE) localizados dentro da PSN Frame Relay.
ÿ Circuitos virtuais permanentes (PVC): circuitos configurados permanentemente que são estabelecidos antes
de qualquer transferência de dados
Um SVC requer configuração e encerramento de chamadas sempre que houver dados para enviar. Com os PVCs,
o circuito é estabelecido pelo fornecedor, o que significa que a solução de problemas é simplificada.
A maioria das redes utiliza PVCs em vez de SVCs.
Um circuito virtual Frame Relay é identificado por um identificador de conexão de link de dados (DLCI) de 10
bits. Os DLCIs são atribuídos por um provedor de serviços Frame Relay (por exemplo, uma companhia telefônica).
Os DLCIs Frame Relay têm significado local. Dois dispositivos DTE conectados por um circuito virtual podem usar
um valor DLCI diferente para se referir ao mesmo circuito. Embora você possa pensar no DLCI como um identificador
para todo o circuito virtual, na prática, o DLCI se refere à conexão de um roteador DTE ao switch DCE Frame Relay
no site do provedor. O DLCI pode ser diferente para a conexão DTE-DCE em cada extremidade do circuito virtual.
Um problema com uma topologia hub-and-spoke é que o horizonte dividido pode limitar o roteamento.
Com o horizonte dividido, os protocolos de roteamento de vetor de distância não repetem as
informações pela interface em que foram recebidas. Isso significa que os dispositivos na rede 300 na
Figura 11-4 não podem aprender sobre os dispositivos na rede 400 e vice-versa, porque o roteador
central só anuncia a rede 100 quando envia sua tabela de roteamento pela interface WAN.
Rede 100
Roteador Central
Rede 200
Uma solução para o problema do horizonte dividido é usar um projeto de malha completa com circuitos
físicos entre cada site. A desvantagem dessa abordagem é o custo. Por exemplo, na rede
representada na Figura 11-4, uma malha completa compreenderia 15 circuitos em vez de 6. Como
cada circuito custa dinheiro, esta não seria uma solução ideal.
A outra alternativa é usar subinterfaces. Uma subinterface é uma interface lógica associada a uma
interface física. Na Figura 11-4, o roteador do site central poderia ter cinco subinterfaces ponto a ponto
definidas, cada uma se comunicando com um dos sites remotos.
Com esta solução, o roteador do site central aplica a regra de horizonte dividido com base em
subinterfaces lógicas, em vez da interface física, e inclui sites remotos nas atualizações de roteamento
que envia à interface WAN.
Uma desvantagem do uso de subinterfaces é que as configurações do roteador são um pouco mais
complexas. Outra desvantagem é que são necessários mais números de rede. Na Figura 11-4, toda
a “nuvem” WAN é a rede 200 quando subinterfaces não são usadas. Quando subinterfaces são usadas,
cada circuito dentro da nuvem requer um número de rede.
Machine Translated by Google
os dispositivos Frame Relay geralmente não usem toda a largura de banda disponível o tempo todo, um
dispositivo Frame Relay tem a capacidade de transmitir dados em sua taxa de acesso físico por longos
períodos de tempo. Por esta razão, o padrão Frame Relay inclui mecanismos de controle de
congestionamento para garantir uma alocação justa de largura de banda e mecanismos de feedback para
informar os dispositivos dos usuários sobre a disponibilidade de largura de banda da rede.
O cabeçalho do pacote Frame Relay inclui um bit de elegibilidade para descarte (DE) usado para identificar
tráfego menos importante que pode ser descartado quando ocorre congestionamento. Além disso, o Frame
Relay inclui dois esquemas de notificação de congestionamento:
Os provedores de serviços conseguem manter os preços de seus serviços Frame Relay razoavelmente
baixos devido à natureza em rajadas do tráfego normalmente oferecido às redes Frame Relay.
O provedor de serviços geralmente sobrecarrega sua rede interna, assumindo que nem todos os circuitos
virtuais usam toda a largura de banda disponível o tempo todo.
Os switches dentro da rede do provedor de serviços podem usar os mecanismos FECN e BECN para notificar os
dispositivos do sistema final sobre quaisquer problemas de congestionamento. O comportamento resultante
nos sistemas finais depende de qual protocolo e qual implementação do protocolo está sendo usada.
O CIR especifica que, desde que a entrada de dados de um dispositivo na rede Frame Relay seja inferior ou igual
ao CIR, a rede continuará a encaminhar dados para esse circuito virtual. Se a taxa de entrada de dados exceder
o CIR, não há mais garantia. A rede pode descartar o tráfego além do limite do CIR, embora, se houver largura
de banda suficiente, ela possa continuar a encaminhar o tráfego. O CIR é medido em um intervalo de tempo T. O
CIR é expresso em bits por segundo.
Machine Translated by Google
CIR = Bc/T
Bc é o número máximo de bits que a rede está comprometida em transferir para um circuito virtual durante
o intervalo de tempo T. Bc é expresso em bits.
O parâmetro Be é o número de bits além de Bc que um circuito virtual pode enviar durante o período
de tempo T. A rede envia esses bits se não houver congestionamento, mas o primeiro switch Frame Relay
pode marcar os quadros como elegíveis para serem descartados (DE). Be é expresso em bits.
Bc, Be, T e CIR são definidos por DLCI. A taxa de acesso é válida para cada interface de rede do
usuário. Para Bc, Be e CIR, os valores de entrada e de saída podem ser distinguidos. Se a conexão for
simétrica, os valores em ambas as direções serão iguais. Para PVCs, o Bc, Be e CIR de entrada e
saída são definidos no momento da assinatura.
Ao planejar uma rede Frame Relay, se o provedor de serviços suportar CIR, Bc e Be, você deverá
determinar os valores a serem usados. Esta decisão baseia-se no modelo de preços do provedor de
serviços e na análise do volume e fluxo de tráfego que você fez como parte da fase de análise de
requisitos do processo de design da rede. A taxa de acesso e o CIR da conexão Frame Relay no hub
de uma topologia hub-and-spoke devem ser maiores que a soma dos CIRs nos locais remotos e
menores ou iguais à soma das capacidades de burst dos locais remotos .
Muitos provedores de serviços não permitem especificar Be ou Bc. Alguns provedores também não
permitem especificar o CIR. Para simplificar, alguns provedores baseiam suas ofertas de Frame Relay
simplesmente na taxa de acesso físico. Essas operadoras geralmente oferecem um CIR zero, o que
significa que elas fazem apenas o melhor esforço para enviar seu tráfego. A vantagem de um CIR zero é
que ele é barato.
Embora seja recomendado que o CIR e outros parâmetros sejam baseados numa análise cuidadosa
do tráfego, tenha em mente que o CIR e outros parâmetros são baseados num serviço probabilístico.
Embora algumas operadoras comercializem o CIR como uma verdadeira garantia, as operadoras na
verdade subscrevem suas redes em excesso e não podem garantir que seus clientes reagirão corretamente
aos mecanismos de feedback de congestionamento, o que significa que nenhum CIR ou Bc de cliente é
verdadeiramente uma garantia.
Alguns provedores de serviços oferecem soluções WAN que usam tecnologias ATM e Frame Relay. O
termo interfuncionamento Frame Relay/ ATM é usado para descrever os protocolos e processos para
conectar WANs ATM e Frame Relay. O interfuncionamento pode ser implementado de duas maneiras
diferentes, dependendo dos objetivos do projeto da rede:
ÿ Interfuncionamento de redes: Duas ou mais redes Frame Relay são conectadas através de uma
rede central ATM. Esta é uma topologia comum usada por provedores de serviços que usam ATM
para suas redes internas e oferecem Frame Relay aos seus clientes.
Machine Translated by Google
ÿ Interfuncionamento de serviços: uma rede ATM se conecta a uma rede Frame Relay. Esse
A topologia é menos comum, mas pode ser usada durante uma transição de Frame Relay para ATM ou
vice-versa.
Caixa eletrônico
Apesar da complexidade do ATM, o ATM é uma boa escolha para redes de backbone WAN para clientes com
requisitos acelerados de largura de banda e aplicações com requisitos avançados de QoS. ATM suporta requisitos
de largura de banda muito elevados. Quando usado em cabeamento de cobre, o ATM pode operar em
velocidades T3 ou superiores. Quando usado em cabeamento de fibra óptica, o ATM teoricamente suporta
velocidades de até OC-192 (9,952 Gbps) e além, especialmente se tecnologias como multiplexação por divisão
de comprimento de onda (WDM) forem usadas.
O ATM facilita o compartilhamento eficiente de largura de banda entre aplicações com vários requisitos de QoS.
Os aplicativos podem, teoricamente, compartilhar a largura de banda de forma mais justa em um sistema
baseado em células em comparação com um sistema baseado em quadros, porque em um sistema baseado em
quadros, quadros grandes podem monopolizar a largura de banda. Além disso, com uma tecnologia orientada
à conexão como o ATM, uma aplicação pode especificar, ao estabelecer a conexão, a QoS necessária,
incluindo taxas de pico e mínimas de células, uma taxa de perda de células e um atraso de transferência de células.
Ethernet sobre ATM está ganhando popularidade entre os provedores de serviços. Muitos provedores já possuem
grandes WANs ATM. Permitir que seus clientes se conectem à WAN ATM usando Ethernet beneficia tanto o
provedor quanto o cliente. O provedor pode oferecer um novo serviço sem fazer grandes alterações em sua
rede. O cliente obtém o benefício de uma entrada de baixo custo na rede através do uso de uma interface
Ethernet.
Nota A Metro Ethernet, discutida na próxima seção, pode ser implementada usando a tecnologia Ethernet sobre
ATM. Metro Ethernet pode usar uma variedade de protocolos de transporte, incluindo ATM, SONET, WDM e
MPLS.
Uma solução Ethernet sobre ATM combina as vantagens da Ethernet com as do ATM. As vantagens da
Ethernet incluem baixo custo, simplicidade, facilidade de manutenção, interoperabilidade com equipamentos
existentes, altas velocidades e facilidade de atualização para velocidades ainda mais rápidas.
As vantagens do ATM incluem altas velocidades, confiabilidade e suporte para categorizar aplicativos em
diferentes classes com base no serviço e na QoS que os aplicativos exigem.
Machine Translated by Google
A separação de aplicações em diferentes classes de serviço beneficia redes multifuncionais onde aplicações
de alta largura de banda são misturadas com aplicações sensíveis a atrasos, como voz e vídeo. O ATM suporta
um conjunto de parâmetros que descrevem o tráfego apresentado à rede ATM. O ATM também suporta um
conjunto de mecanismos de controle de tráfego que a rede pode utilizar para atender aos requisitos de
serviço. A rede pode implementar o controle de admissão de conexão e a alocação de recursos de maneira
diferente para diferentes classes de serviço.
Um provedor de serviços pode mapear VLANs Ethernet para circuitos virtuais ATM e configurar classes de
serviço para VLANs ou aplicativos específicos. Embora muitos usuários de Ethernet sobre ATM não optem pela
complexidade e pelos custos extras associados às classes de serviço, os clientes com aplicações
especializadas podem se beneficiar das classes de serviço. Para reduzir a complexidade, alguns provedores
de serviços têm a capacidade de mapear parâmetros de QoS mais familiares aos engenheiros de LAN (como
parâmetros de QoS IEEE 802.1p) para parâmetros de QoS ATM mais complicados.
Ethernet metropolitana
O Capítulo 10, “Selecionando tecnologias e dispositivos para redes de campus”, abordou brevemente a Metro
Ethernet. Este capítulo aborda isso com mais detalhes. Metro Ethernet é um serviço oferecido por provedores e
operadoras que tradicionalmente tinham apenas ofertas clássicas de WAN, como dial-up, T1 e Frame
Relay. Metro Ethernet combina os recursos e o comportamento das tecnologias WAN com os da Ethernet.
As operadoras oferecem Metro Ethernet para clientes que procuram um método econômico para interconectar
redes de campus e acessar a Internet.
Uma das muitas vantagens da Metro Ethernet é que o cliente pode usar uma interface Ethernet padrão de
10/100 Mbps, ou uma interface Gigabit ou 10 Gbps, para acessar a rede do provedor de serviços. O cliente
pode configurar circuitos virtuais para acessar outros sites e chegar a um ISP. Metro Ethernet suporta interface
de cobre ou fibra óptica, mas usa cabeamento de fibra óptica dentro da rede do provedor. Ele pode usar uma
variedade de protocolos de transporte, incluindo SONET, ATM, multiplexação por divisão de comprimento de
onda de modo denso (DWDM) e Multiprotocol Label Switching (MPLS).
Os provedores de serviços Metro Ethernet permitem que os assinantes adicionem largura de banda conforme necessário.
Em comparação com a adição de largura de banda WAN, a adição de largura de banda a um serviço Metro
Ethernet pode acontecer de forma extremamente rápida, às vezes em apenas alguns minutos ou horas. Os
provedores Metro Ethernet oferecem uma ampla gama de opções de largura de banda. Além das velocidades
Ethernet padrão, muitos provedores oferecem um serviço de 1 Mbps e permitem que os clientes adicionem
largura de banda em incrementos de 1 Mbps.
Algumas implementações Metro Ethernet usam o que é chamado de circuito virtual Ethernet (EVC). Um
EVC é semelhante a um PVC Frame Relay. Uma EVC é uma associação de duas ou mais interfaces de rede de
usuário (UNI), onde uma UNI é uma interface Ethernet padrão nas instalações do cliente. Três tipos básicos
de serviços usam EVCs:
Machine Translated by Google
ÿ O serviço de linha Ethernet (serviço E-line) fornece um EVC ponto a ponto entre duas UNIs.
ÿ O serviço Ethernet LAN (serviço E-LAN) fornece conectividade multiponto. Pode conectar duas ou
mais UNIs. Também é conhecido como Virtual Private LAN Services (VPLS) ou Transparent LAN
Services (TLS).
Metro Ethernet é uma mistura de tecnologias WAN e LAN. Ele suporta circuitos virtuais como uma WAN
e também fornece suporte para uma taxa de informação comprometida (CIR), tamanho de intermitência
comprometido, taxa de informação de pico (PIR) e tamanho de pico de intermitência, como uma WAN
costuma fazer. De maneira semelhante a uma LAN, a Metro Ethernet também suporta VLANs,
autenticação de porta 802.1X e Spanning Tree Protocol. Metro Ethernet também oferece suporte a
muitos recursos de QoS para otimizar o encaminhamento de tráfego sensível à latência. Os roteadores
e switches Cisco que implementam Metro Ethernet, por exemplo, suportam técnicas avançadas de
enfileiramento, modelagem de tráfego e detecção precoce aleatória (RED).
Metro Ethernet é usado para conectar sites de intranet e extranet. Os ISPs também estão começando a
usar Metro Ethernet. O ISP normalmente multiplexa vários assinantes em uma UNI Ethernet de alta
velocidade. O cliente de um ISP usa um EVC para se conectar ao ponto de presença local (POP) do ISP.
O método mais comum para usar Metro Ethernet para acesso dedicado à Internet é usar o serviço E-
line. Caso o cliente queira utilizar a mesma UNI para suportar tanto o acesso à Internet como uma
conexão intranet ou extranet, isso também é possível com a utilização de EVCs separados. Um cliente
também pode usar vários EVCs para acessar vários ISPs para redundância, fazendo assim
multihoming da conexão com a Internet.
Para obter mais informações sobre Metro Ethernet, consulte o site do Metro Ethernet Forum em http://
www.metroethernetforum.org.
Com base em uma análise do fluxo de tráfego, você deve selecionar roteadores que forneçam as
interfaces WAN necessárias para suportar os requisitos de largura de banda, forneçam um nível
apropriado de pacotes por segundo e tenham memória e capacidade de processamento adequadas para
encaminhar dados e lidar com protocolos de roteamento. Além disso, você deve selecionar roteadores
que forneçam recursos de otimização, como técnicas avançadas de comutação e enfileiramento,
modelagem de tráfego, RED e encaminhamento expresso. O Capítulo 13, “Otimizando seu projeto de
rede”, discute técnicas de otimização de roteador com mais detalhes.
Além de selecionar tecnologias e dispositivos para um projeto de rede WAN, você também deve
selecionar provedores de serviços ou operadoras. Um critério óbvio para selecionar um prestador de
serviços é o custo dos serviços. Utilizar o custo como principal critério de seleção, contudo, pode
dificultar a escolha porque os prestadores oferecem serviços distintos e definem termos e condições de
forma diferente. Além disso, para muitos projetos de rede, o custo não é o critério principal. Os seguintes
critérios são frequentemente mais importantes que o custo:
ÿ Mecanismos de alocação de largura de banda usados para garantir os requisitos de QoS do aplicativo
ÿ Planos de recuperação de desastres em caso de terremotos, incêndios, furacões, asteróides que colidem com
satélites ou outros desastres naturais ou provocados pelo homem
A maioria dos prestadores de serviços pode fornecer aos clientes um acordo de nível de serviço (SLA) que
define os termos específicos do serviço e como o serviço será medido e garantido. Alguns SLAs abordam
apenas a disponibilidade da rede, o que não é suficiente para muitas aplicações. Um SLA também deve
abordar o desempenho do aplicativo, incluindo latência e taxa de transferência.
Um SLA também deve especificar o nível de suporte técnico que pode ser esperado.
Geralmente, você deve obter um contrato de suporte 24 horas por dia, 7 dias por dia, para uma WAN de
missão crítica. Além de especificar termos e condições específicos de suporte e serviço em um SLA, ao
negociar um contrato com um fornecedor, tente obter respostas para as seguintes questões relacionadas ao
suporte:
ÿ Se necessário, você pode solicitar um representante de suporte de ponto único de contato dedicado, que
assumirá a responsabilidade pela resolução de todos os problemas e dúvidas?
A Klamath Paper Products (que será chamada de Klamath de agora em diante) possui aproximadamente 15 unidades
no oeste dos Estados Unidos. A sede fica em Portland, Oregon. Klamath emprega cerca de 1.500 pessoas e
tem clientes em todo o mundo, com uma grande base de clientes na Ásia.
Klamath está preocupado com a redução das margens de lucro causada pela redução das vendas na Ásia nos
últimos anos e pela escassez de madeira usada para fabricar os produtos de Klamath. Klamath concluiu recentemente
um projeto de reengenharia estratégica que identificou formas de aumentar os lucros, melhorando a eficiência
dos processos internos e fazendo maior uso de papel reciclado pós-consumo na produção de novos produtos de
papel.
Depois que Klamath instalar o sistema de videoconferência e a WAN para apoiá-lo, há planos de oferecer aulas para
outras empresas dos setores de madeira e papel. Klamath reconheceu uma oportunidade de negócios associada
ao plano do governo federal para ajudar a pagar aos trabalhadores da indústria madeireira para que frequentem
aulas sobre métodos modernos de manejo florestal sustentável e produção de madeira e papel ambientalmente
correta.
ÿ Fornecer uma rede que permitirá aos funcionários compartilhar ideias com mais facilidade para melhorar ainda mais
aumentar a eficiência e aumentar a utilização de materiais reciclados.
ÿ Fornecer uma nova fonte de receitas do programa de ensino à distância da indústria madeireira.
ÿ Projetar uma rede que utilize tecnologias atualmente disponíveis dos provedores de serviços WAN da região.
Machine Translated by Google
ÿ Fornecer uma rede que ofereça um tempo de resposta de 1/10 de segundo ou menos para aplicativos
interativos.
ÿ Fornecer uma rede que esteja disponível 99,98% do tempo e ofereça um MTBF de 4.000 horas (cerca de 5,5
meses) e um MTTR de 1 hora (com um desvio padrão baixo desses números médios).
ÿ Projetar uma rede que será dimensionada à medida que novos aplicativos de alta largura de banda forem adicionados
o futuro.
Aplicativos de rede
A nova aplicação de ensino à distância utilizará um serviço de vídeo digital comprimido bidirecional baseado
nos padrões H.323 para videoconferência. Cada local com sala de treinamento será equipado com uma
câmera de vídeo digital de última geração. Será apoiado tanto o ensino à distância síncrono como o assíncrono.
Com o ensino a distância síncrono, os alunos remotos assistem às aulas ministradas por instrutores na sede
ou em outros locais em “tempo real”.
No ensino a distância assíncrono, o aluno pode conferir uma videoaula em um servidor de vídeo na sede
e ter o vídeo transmitido para seu site.
ÿ O sistema de modelagem financeira é executado em UNIX e utiliza um banco de dados Oracle que reside
em servidores UNIX em Portland. Os analistas financeiros usam aplicativos em seus PCs para acessar
este sistema.
ÿ O sistema de produção gráfica é executado em computadores Macintosh e utiliza servidores Apple Filing
Protocol (AFP).
ÿ A maioria dos usuários também implanta um conjunto padrão de aplicativos de desktop que inclui e-mail,
calendário, navegação na web, compartilhamento de arquivos e impressão. Esses aplicativos usam TCP/
IP e NetBIOS.
Comunidades de usuários
A Tabela 11-4 mostra uma visão resumida das comunidades de usuários em Klamath.
Machine Translated by Google
e vendas
fabricação e vendas
fabricação e vendas
servidor (novo)
Rede atual
A WAN atual consiste em circuitos de dados dedicados de 64 kbps que conectam os 15 locais em
uma topologia de malha parcial. O tráfego de voz é transportado em circuitos separados de 64 kbps. UMA WAN
provedor de serviços aluga as linhas de 64 kbps para Klamath e também fornece acesso à Internet via
um circuito T1 que conecta um roteador na sede de Portland a um roteador na sede
site do provedor. O roteador da sede em Portland atua como um firewall de filtragem de pacotes.
Machine Translated by Google
O núcleo da rede de dados é uma malha completa de circuitos de 64 kbps que conecta os principais locais.
Um roteador em cada local conecta LANs Ethernet à WAN, conforme mostrado na Figura 11-5.
Seattle Spokane
Para Internet
LANs
Mainframe
Um analisador de protocolo WAN foi usado em cada um dos principais locais para medir o uso atual da
largura de banda nos circuitos de dados de 64 kbps. Foi determinado que todos os circuitos de
Portland estavam se aproximando da saturação, com uma utilização média de 80% em uma janela de 10
minutos. Os circuitos WAN entre Seattle e Spokane, Spokane e Boise e Boise e Seattle também foram
muito usados, com uma utilização média de 70% em um intervalo de 10 minutos.
O analisador de protocolo também foi utilizado para estudar características de protocolo e tráfego. Foram
tiradas as seguintes conclusões:
ÿ Embora tenha havido algumas retransmissões, nenhum aplicativo pareceu retransmitir muito
rapidamente.
ÿ Os aplicativos pareciam ter sido otimizados para usar tamanhos de quadros grandes e grandes
tamanhos de janela.
Machine Translated by Google
ÿ O tráfego de difusão representou cerca de 5% da utilização da rede e parecia ser roteamento normal e
pacotes de publicidade de serviços.
ÿ A taxa média de erro dos circuitos foi de um erro de verificação de redundância cíclica (CRC) por dois
milhões de bytes de dados (o que é aceitável).
O status dos roteadores no núcleo da rede também foi verificado. Os seguintes comandos do Cisco IOS,
discutidos no Capítulo 3, “Caracterizando a rede existente”, foram usados para verificar os roteadores:
ÿ O comando show process não indicou problemas com utilização excessiva da CPU.
ÿ O comando show interfaces indicou que os roteadores estavam descartando quadros da fila de saída das
portas seriais WAN a uma taxa de cerca de 1 em 20 quadros, ou 5%. Isto parecia ser causado
por muito tráfego de rede destinado aos circuitos de 64 kbps e foi considerado um problema.
O resultado final da análise da WAN principal existente foi que a WAN principal estava congestionada devido ao
excesso de tráfego causado pelo comportamento normal do aplicativo.
Nota Se todas as opções tivessem cumprido todos os objectivos críticos, então outros objectivos também poderiam
ter sido listados para promover o processo de tomada de decisão. As opções poderiam ter sido avaliadas com
base no cumprimento das metas não críticas em uma escala de 1 a 10, conforme mostrado na Tabela
7-1, “Exemplo de Tabela de Decisão”, no Capítulo 7. No entanto, no caso de Klamath, não foi necessário ir além
da avaliação de quão bem as opções atenderam aos objetivos críticos.
Depois de analisar os objetivos comerciais e técnicos, caracterizar o núcleo WAN existente e analisar as
opções disponíveis dos provedores de serviços WAN da área, Klamath decidiu atualizar a arquitetura
núcleo WAN de linhas de 64 kbps para Metro Ethernet usando um serviço E-LAN e Transporte MPLS.
Essa escolha manterá os custos baixos e se beneficiará dos recursos de QoS do Metro Ethernet.
Machine Translated by Google
capacidade e QoS tecnologia disponível deve ser 1/10 devemos ser custos a longo prazo para
a fabricação formulários
aplicativo
SONETO X X X
Transferência de quadro X X X
Ethernet sobre X X X X
Caixa eletrônico
Caixa eletrônico X X X X
Metro Ethernet X X X X X
Os três principais concorrentes, além da Metro Ethernet, eram ATM, Ethernet sobre ATM e
Transferência de quadro. O ATM foi descartado porque as interfaces do roteador ATM são muito caras.
Ethernet sobre ATM foi descartada porque os provedores de serviços da região não a oferecem.
Frame Relay foi seriamente considerado, mas Metro Ethernet foi selecionado em vez de Frame
Relay porque foi projetado para lidar com ambientes com diversas aplicações, como
a videoconferência sensível a atrasos e as aplicações interativas de suporte à fabricação e modelagem
financeira em Klamath.
No novo design, o tráfego sensível ao atraso será transportado em circuitos virtuais que são
distinto dos circuitos que transportam outros dados. Os parâmetros de gerenciamento de tráfego serão
especificado e implementado para que a rede aceite e transporte tráfego de acordo com
as necessidades de QoS das diferentes aplicações.
O atual provedor de serviços WAN que aluga os circuitos existentes de 64 kbps foi selecionado
como provedor de serviços para a nova WAN Metro Ethernet. O fornecedor atual era
selecionado porque oferece as seguintes vantagens sobre outros provedores:
ÿ Um histórico comprovado de fornecimento de serviços Metro Ethernet altamente confiáveis aos clientes
Cada site no núcleo da rede se conectará à rede através de uma conexão Ethernet 10/100
interface em um roteador. Por enquanto, será usada Ethernet de 10 Mbps. Atualizando para 100 Mbps ou
1000 Mbps serão possíveis no futuro, mas por enquanto, a Ethernet de 10 Mbps foi escolhida
porque o provedor de serviços oferece preços atraentes para Metro Ethernet de 10 Mbps e
porque 10 Mbps é capacidade suficiente para as aplicações de rede atuais.
Klamath substituirá os roteadores existentes no núcleo da rede por novos roteadores de última geração
roteadores que fornecem taxa de transferência superior de pacotes por segundo, recursos de alta disponibilidade,
e suporte para recursos de otimização. Os roteadores suportarão interfaces Ethernet para
conectividade com a Metro Ethernet do provedor de serviços e com as LANs internas e o quadro principal. A Figura
11-6 mostra o novo design da rede principal de Klamath.
Seattle Spokane
Portland Boise
PABX
Vídeo
LANs
Conferência
Sistema
Mainframe
Resumo
Este capítulo continuou a discussão sobre o projeto de redes físicas iniciada em
o capítulo anterior. Abrangeu a seleção de tecnologias e dispositivos para projetos de redes empresariais, com
foco no acesso remoto e nos componentes WAN de uma rede corporativa.
Machine Translated by Google
As tecnologias de acesso remoto incluem PPP, modems a cabo e DSL. As tecnologias WAN incluem a
hierarquia digital norte-americana, o sistema E europeu, SDH, linhas alugadas, SONET, Frame Relay, ATM e
Metro Ethernet. Você pode usar vários critérios de seleção ao escolher dispositivos de acesso remoto,
servidores e concentradores centrais, roteadores corporativos e um provedor de serviços WAN para
implementar essas tecnologias. Esses critérios incluem os tipos de portas, protocolos e recursos de
otimização e segurança oferecidos pelo dispositivo ou provedor de serviços.
O capítulo foi concluído com um exemplo de projeto de rede WAN desenvolvido para a Klamath Paper
Products, Inc. Para manter o exemplo simples, nem todas as etapas da metodologia de projeto de rede
de cima para baixo foram documentadas. O exemplo demonstrou o uso das seguintes etapas:
ÿ Caracterização da rede existente, incluindo a topologia existente, utilização da largura de banda, utilização
da largura de banda por protocolo e desempenho da rede
Perguntas de revisão
1. Defina CIR, Bc e Be e explique como um provedor de serviços Frame Relay os utiliza.
2. Quais são os critérios mais importantes para selecionar um provedor de serviços WAN?
4. Algumas pessoas pensam que o Frame Relay desaparecerá com o tempo. Você acha que isso é
provável e, em caso afirmativo, por que e o que você acha que irá substituí-lo?
Cenário de projeto
Este capítulo incluiu um estudo de caso detalhado sobre a Klamath Paper Products. Releia o estudo de
caso e responda às seguintes questões.
1. Com base nos requisitos de projeto e nas decisões tomadas, quais roteadores você recomendaria para
Klamath? Faça uma pesquisa na Internet para encontrar um roteador que atenda às necessidades de
Klamath e escreva dois ou três parágrafos sobre o produto e por que você o escolheu.
2. No futuro, a rede de voz separada de Klamath será desmantelada. Todo o tráfego de voz, dados e
vídeo atravessará a rede Metro Ethernet. Isto simplificará a topologia da atual rede de voz/dados
e facilitará a capacidade de gerenciamento. Também irá
Machine Translated by Google
permitir que Klamath reduza os custos de operação de redes separadas de dados e voz.
Pesquise uma solução VoIP que funcione para Klamath. Escreva dois ou três parágrafos
sobre a solução e por que você a escolheu.
3. Klamath não parece muito preocupado com a segurança. Isso deve preocupar você. Escreva uma
proposta para Klamath que discuta um projeto de segurança que você gostaria de fazer para
Klamath para ajudá-los a compreender seus ativos de rede, os riscos de segurança que
enfrentam e as etapas que devem seguir para se tornarem mais seguros.
4. Pesquise um serviço Metro Ethernet oferecido por um fornecedor em seu país (ou em outro país, se
seu país não tiver Metro Ethernet). Escreva um artigo de uma página que descreva o serviço em
termos técnicos. Inclua também informações sobre preços, se estiverem disponíveis.
Um projetista de rede tem muitas opções de tecnologia LAN e WAN para redes de campus e
empresariais. Nenhuma tecnologia ou dispositivo é a resposta certa para todas as circunstâncias. O
objetivo da Parte III foi apresentar características de opções típicas para ajudá-lo a fazer as seleções
certas para seu cliente específico.
A Parte IV, “Testando, otimizando e documentando seu projeto de rede”, cobre as etapas finais do
projeto de uma rede: testar o projeto da rede, otimizar o projeto da rede e documentar o projeto com
uma proposta de projeto. Testar e otimizar um projeto de rede são duas das etapas mais
significativas em uma abordagem de análise de sistemas para projeto de rede. Escrever uma
proposta abrangente de projeto de rede que documente como o projeto atende aos objetivos técnicos e
de negócios também é uma etapa crucial na metodologia de projeto de rede de cima para baixo.
Machine Translated by Google
Parte IV
Teste, otimização e
documentação
Seu projeto de rede
Capítulo 12 Testando seu design de rede
Capítulo 12
A Parte IV, “Testando, Otimizando e Documentando Seu Projeto de Rede”, deste livro cobre as
etapas finais do projeto de rede: testar, otimizar e documentar seu projeto. Este capítulo
discute o teste de seu projeto, que é uma etapa crítica em uma abordagem de análise de
sistemas para projeto de rede. Os testes ajudarão você a provar para si mesmo e para o cliente de
design de rede que sua solução atende às metas comerciais e técnicas do cliente.
Este capítulo aborda técnicas para usar testes industriais para prever o desempenho de
componentes de rede. Também abrange a construção e o teste de um protótipo de sistema e o
uso de ferramentas de gerenciamento e modelagem de rede para antecipar o desempenho ponta a
ponta e a qualidade de serviço (QoS) que seu projeto fornecerá.
Testar um projeto de rede é um assunto amplo. Este livro aborda o tema em alto nível.
Livros completos poderiam ser escritos sobre testes de design de rede. Dois livros recomendados
relevantes para testes de projeto de rede incluem The Art of Computer Systems Performance
Analysis, de Raj Jain, e The Art of Testing Network Systems, de Robert Buchanan (ambos
publicados pela John Wiley & Sons, Inc.).
Observe que tanto Jain quanto Buchanan usam a palavra arte nos títulos de seus livros. Testar um
sistema de rede e prever e medir seu desempenho é, em muitos aspectos, mais uma arte do
que uma ciência. Por um lado, cada sistema é diferente, portanto, selecionar os métodos e
ferramentas de teste corretos requer conhecimento técnico, criatividade, engenhosidade e uma
compreensão completa do sistema a ser avaliado. Nenhuma metodologia ou ferramenta é
adequada para todos os projetos ou para todos os projetistas de rede.
A seleção dos procedimentos e ferramentas de teste corretos depende dos objetivos do projeto
de teste, que normalmente incluem o seguinte:
ÿ Provar que seu projeto é melhor que um projeto concorrente (nos casos em que um cliente planeja
selecionar um projeto a partir de propostas fornecidas por vários fornecedores ou consultores).
ÿ Passar em um “teste de aceitação” que lhe dá aprovação para prosseguir com a implementação da rede (e
possivelmente para ser pago pela conclusão da fase de concepção do projeto).
ÿ Identificar quaisquer riscos que possam impedir a implementação e o planejamento de situações contingenciais
cidades.
ÿ Determinar quantos testes adicionais podem ser necessários. Por exemplo, talvez você decida que o novo
sistema deve ser implantado primeiro como piloto e passar por mais testes antes de ser implementado
para todos os usuários.
Às vezes, para projetos de rede simples, você pode confiar em resultados de testes de fornecedores,
laboratórios independentes ou periódicos comerciais para provar ao cliente que seu projeto terá o desempenho
esperado. Por exemplo, se você propôs um projeto de rede de campus baseado exclusivamente na tecnologia de
comutação de um determinado fornecedor, e um jornal comercial independente verificou as características e o
desempenho dos produtos do fornecedor, os resultados dos testes do jornal poderão convencer adequadamente
seu cliente da eficácia do seu projeto. Para mais complexos
Machine Translated by Google
projetos de rede, você geralmente deve fazer seus próprios testes, além de apresentar ao cliente estudos
independentes que ajudem a vender seu caso.
Os resultados dos testes publicados por fornecedores ou entidades independentes, como revistas especializadas ou
laboratórios de testes, podem ser informativos, mas também podem ser enganosos. Por um lado, os fornecedores
obviamente fazem todos os esforços para garantir que seus produtos pareçam ter um desempenho melhor do que
os produtos de seus concorrentes. Tenha em mente que alguns periódicos e laboratórios comerciais também relutam
em publicar resultados negativos sobre os produtos dos fornecedores porque os fornecedores ajudam a pagar suas
contas. (Os fornecedores pagam laboratórios para realizar testes e publicar anúncios em revistas especializadas.)
Além disso, a maioria dos testes executados por fornecedores, laboratórios independentes e periódicos comerciais
são testes de componentes, e não de sistemas. O teste de componentes geralmente não é suficiente para medir o
desempenho de um projeto de rede. Além disso, a configuração de teste usada pelo fornecedor ou laboratório de
testes quase certamente não corresponde à sua configuração real. Isso significa que os resultados do teste podem não
ser relevantes para o seu projeto específico.
Para entender como os componentes de rede se comportarão em sua configuração com seus aplicativos, tráfego
de rede e requisitos exclusivos, geralmente é necessário construir um protótipo de sistema ou modelo de rede. O
protótipo ou modelo permitirá que você vá além do teste de componentes e estime o desempenho provável do
projeto, incluindo atraso, rendimento e disponibilidade de ponta a ponta.
Um protótipo é uma implementação inicial de um novo sistema que fornece um modelo no qual a implementação final
será padronizada. Um protótipo permite que um projetista valide a operação e o desempenho de um novo sistema.
Deve ser funcional, mas não precisa ser uma implementação em grande escala do novo sistema. Deve, no entanto,
resultar de uma análise minuciosa das necessidades e de uma revisão do projeto com o cliente final.
Sua capacidade de implementar um protótipo depende dos recursos disponíveis. Os recursos incluem pessoas,
equipamentos, dinheiro e tempo. Você deve usar recursos suficientes para produzir um teste válido sem exigir
tantos recursos que o teste ultrapasse o orçamento do projeto, atrase-o ou afete negativamente os usuários da rede.
É uma boa ideia implementar pelo menos parte de um protótipo de sistema em uma rede de teste antes de
implementá-lo em uma rede de produção. Isso permitirá que você resolva bugs sem afetar a produtividade dos
trabalhadores que dependem da rede. Uma rede de teste também ajuda a avaliar os recursos do produto,
desenvolver configurações iniciais de dispositivos e modelar o desempenho previsto da rede e a qualidade de
serviço (QoS). Você também pode usar uma rede de teste para demonstrar seu design e produtos selecionados a um
cliente.
Algumas dicas importantes a serem lembradas ao planejar um teste “ao vivo” são as seguintes:
ÿ Avise os usuários com antecedência sobre o momento dos testes para que eles possam esperar alguns
degradação do desempenho, mas peça aos usuários que trabalhem como normalmente fazem para evitar a
invalidação do teste por comportamento anormal.
ÿ Avise os administradores de rede e outros projetistas com antecedência para evitar a possibilidade
que eles poderiam estar executando testes ao mesmo tempo.
ÿ Avise os gerentes de rede com antecedência para que não sejam confundidos por imprevistos
alarmes em consoles de gerenciamento de rede e para que possam contabilizar o tráfego de teste ao documentar
estatísticas de carga e disponibilidade.
ÿ Se possível, execute vários testes curtos (menos de 2 minutos) para minimizar o impacto do usuário e
diminuir os efeitos nas medições de linha de base.
Machine Translated by Google
ÿ Execute testes que começam com pequenas alterações de tráfego e configuração e depois aumentam
aumentar as mudanças.
ÿ Monitore os resultados dos testes e interrompa-os quando os objetivos dos testes forem alcançados ou a
rede de produção for severamente afetada ou falhar.
ÿ Scripts de teste
ÿ Medir o tempo de resposta do Aplicativo XYZ durante horários de pico de uso (entre 10h e 11h). O critério
de aceitação, conforme proposta de projeto de rede, é que o tempo de resposta seja de meio
segundo ou menos.
ÿ Medir o rendimento do aplicativo XYZ durante horários de pico de uso (entre 10h e 11h). O critério de
aceitação, de acordo com a proposta de projeto de rede, é que a vazão seja de pelo menos 2
Mbps.
ÿ Meça o tempo que leva para um usuário do novo sistema Voz sobre IP (VoIP) ouvir um tom de discagem
depois de pegar um aparelho telefônico. O critério de aceitação é que o tempo médio (médio) seja
menor ou igual ao tempo médio de um usuário do sistema telefônico corporativo de central privada
(PBX). A variação da média também deve ser igual ou menor.
Os objetivos e critérios de aceitação devem basear-se nos objetivos comerciais e técnicos do cliente para
o projeto da rede, mas podem ser definidos de forma mais formal ou específica. Os critérios para declarar
que um teste foi aprovado ou reprovado devem ser claros e acordados entre o testador e o cliente. Isso
evita um problema comum em que, após a conclusão do teste, os testadores e os clientes concordam
com os resultados, mas discordam na interpretação dos resultados.
Machine Translated by Google
Mesmo que o objetivo subjacente do seu teste seja mostrar que o seu sistema é melhor
do que a de um concorrente, você deve evitar incorporar preconceitos ou noções preconcebidas sobre
resultados em objetivos de teste (e scripts de teste). O objetivo do teste deveria ser simplesmente medir o
resultado, e não provar que o resultado está a seu favor; e deve ser baseado tanto
possível nos padrões da indústria para todas as tecnologias e serviços relevantes (por exemplo,
VoIP e padrões de aceitabilidade de voz da União Internacional de Telecomunicações [UIT].
Os objectivos e os critérios de aceitação podem servir de referência a uma medição de base para a rede
actual. Por exemplo, um objetivo pode ser medir a verificação de redundância cíclica (CRC)
taxa de erro em um segmento WAN e compare os resultados com uma medição de linha de base. O critério de
aceitação poderia ser que deve haver 20% menos erros do que há hoje. Para
determinar se o critério foi atendido, deve existir uma medição de linha de base, conforme discutido no
Capítulo 3, “Caracterizando a rede existente”. O Capítulo 3 também inclui uma
Lista de verificação do Network Health que pode ajudá-lo a escrever objetivos e critérios de aceitação.
Os tipos específicos de testes a serem executados em seu projeto específico dependem dos objetivos do
teste. Os testes típicos incluem o seguinte:
deve começar com um número predeterminado de usuários e ações e, em seguida, aumentar gradualmente
o número de usuários e ações para expor quaisquer aumentos no tempo de resposta devido
à carga adicional da rede ou do servidor.
ÿ Teste de rendimento: esse tipo de teste mede o rendimento de um aplicativo específico e o rendimento de
vários aplicativos em quilobytes ou megabytes por segundo.
Ele também pode medir a taxa de transferência em termos de pacotes por segundo através de um switch
dispositivo (por exemplo, um switch ou roteador). Assim como nos testes de tempo de resposta, os testes
de rendimento devem começar com vários usuários e ações que são aumentadas gradualmente.
ÿ Teste de disponibilidade: com o teste de disponibilidade, os testes são executados no sistema por 24
horas a 72 horas, sob carga média a pesada. A taxa de erros e falhas é
monitorou.
Machine Translated by Google
ÿ Teste de regressão: O teste de regressão garante que o novo sistema não danifique nenhum aplicativo ou
componente que funcionava e apresentava um determinado nível de desempenho antes da instalação do
novo sistema. O teste de regressão não testa novos recursos ou atualizações. Em vez disso, concentra-se nos
aplicativos existentes. Os testes de regressão devem ser abrangentes e geralmente automatizados para
facilitar a abrangência.
A lista de dispositivos deve incluir switches, roteadores, estações de trabalho, servidores, simuladores de
equipamentos telefônicos, pontos de acesso sem fio, firewalls, cabos e assim por diante. A lista deve documentar
números de versão de hardware e software e informações de disponibilidade.
Às vezes, os testes exigem novos equipamentos que talvez ainda não estejam disponíveis ou equipamentos que,
por outras razões, tenham um longo prazo para aquisição. Se for esse o caso, isso deve ser anotado no plano de teste.
Além dos equipamentos de rede, um plano de teste deve incluir uma lista de ferramentas de teste necessárias.
A seção “Ferramentas para testar um projeto de rede”, mais adiante neste capítulo, descreve ferramentas úteis
para testar um projeto de rede. Ferramentas típicas incluem ferramentas de gerenciamento e monitoramento de rede,
ferramentas de geração de tráfego, ferramentas de modelagem e simulação e ferramentas de QoS e gerenciamento
de nível de serviço.
O plano de teste também deve listar quaisquer aplicativos que aumentarão a eficiência dos testes, como aplicativos
de distribuição de software ou programas de controle remoto que facilitam a configuração e reconfiguração de nós
durante um teste.
Nota Em um ambiente Microsoft Windows, se o seu teste exigir o carregamento de novos aplicativos de software
ou versões em vários sistemas, o Microsoft System Center Configuration
O software gerenciador (anteriormente conhecido como SMS) pode ser uma adição útil ao ambiente de teste
ambiente.
O plano de teste deve documentar quaisquer outros recursos necessários, incluindo o seguinte:
Para cada teste, escreva um script de teste que liste as etapas a serem executadas para cumprir o objetivo do teste.
O script deve identificar qual ferramenta é usada para cada etapa, como a ferramenta é usada para fazer medições
relevantes e quais informações devem ser registradas durante o teste. O script deve definir valores iniciais para
parâmetros e como variar esses parâmetros durante o teste. Por exemplo, o script de teste pode incluir um valor
inicial de carga de tráfego e aumentos incrementais para a carga.
A seguir está um exemplo de um script de teste simples para o ambiente de teste de rede mostrado na Figura
12-1.
ÿ Objetivo do teste: Avaliar a capacidade do firewall de bloquear o tráfego do Aplicativo ABC durante condições
de carga leve e moderadamente pesada.
Rede A Rede B
Protocolo Protocolo
Analisador Analisador
Etapa 3. Execute o Aplicativo ABC em uma estação de trabalho localizada na Rede A e acesse
Servidor 1 na Rede B.
Etapa 5. Exiba dados no analisador de protocolo da Rede A e verifique se o analisador capturou um pacote TCP
SYN da estação de trabalho. Verifique se o endereço de destino da camada de rede é o Servidor
1 na Rede B e a porta de destino é a porta 1234 (o número da porta do Aplicativo ABC). Verifique se
o firewall respondeu à estação de trabalho com um pacote TCP RST.
Machine Translated by Google
Etapa 8. Salve os arquivos de rastreio do analisador de protocolo no diretório de arquivos de rastreio do projeto.
escrevendo um roteiro. Por esse motivo, é importante manter registros, seja eletronicamente ou em caderno de papel.
Um registro eletrônico é preferível porque facilita a busca posterior de informações.
Além de manter um registro que documente os dados de teste coletados e os resultados dos testes, é uma boa
ideia manter um registro de atividades diárias que documente o progresso e quaisquer alterações feitas nos scripts
de teste ou nas configurações do equipamento. O registro de atividades diárias também pode ser usado para registrar
quaisquer problemas encontrados e teorias sobre as causas. Essas teorias podem ser úteis posteriormente na
análise de resultados e podem ajudar em projetos de testes futuros.
Tipos de ferramentas
Em geral, os tipos de ferramentas que você pode usar para testar o design da sua rede incluem o seguinte:
O software de gerenciamento e monitoramento de rede também pode incluir aplicativos que residem em dispositivos
de rede. Por exemplo, alguns sistemas operacionais de rede incluem software que monitora o uso da CPU e da
memória do servidor, o que pode ser útil ao isolar problemas de desempenho em um novo projeto de rede. Como
outro exemplo, muitos comandos do Cisco IOS Software são ferramentas úteis para verificar o desempenho de
roteadores e switches Cisco em um ambiente de teste.
Você também pode usar um analisador de protocolo para monitorar um novo design. Um analisador de protocolo
pode ajudá-lo a analisar o comportamento do tráfego, erros, utilização, eficiência e taxas de pacotes de transmissão e
multicast. Você também pode usar um analisador de protocolo para gerar tráfego. Se for impraticável comprar,
instalar e configurar todos os dispositivos necessários para desenvolver um protótipo em larga escala, você poderá
adquirir um subconjunto de dispositivos e gerar tráfego para induzir a carga que estaria presente se todos os
dispositivos fossem instalados. Isto lhe dará uma aproximação do comportamento do novo sistema.
Machine Translated by Google
Dependendo do seu orçamento para o projeto de teste de rede, em vez de usar um protocolo
analisador para gerar tráfego, você pode usar geradores de tráfego multiportas caros, mas poderosos. Essas
ferramentas podem enviar vários fluxos de tráfego de rede, emular protocolos e
analisar o desempenho e a conformidade com as especificações dos padrões.
Para um modelo sofisticado do novo sistema de rede, você pode usar ferramentas de modelagem e simulação.
Simulação é o processo de utilização de software e modelos matemáticos para analisar o comportamento de uma
rede sem a necessidade de uma rede real. Uma ferramenta de simulação
permite desenvolver um modelo de rede, estimar o desempenho da rede,
e comparar alternativas para implementação da rede. Uma ferramenta de simulação, se precisa, é
muitas vezes preferível a implementar e medir um extenso sistema de protótipo porque
permite que as alternativas sejam comparadas mais facilmente.
Uma boa ferramenta de simulação é tão boa quanto a compreensão do desenvolvedor sobre funcionamento de redes
de computadores, análise estatística e técnicas de modelagem. Porque uma simulação completa de
um sistema exigiria que o simulador fosse mais poderoso do que a soma dos componentes que ele está modelando,
uma ferramenta de simulação sofisticada permite o desenvolvimento de um modelo
isso considera apenas os aspectos da rede que têm um impacto significativo no desempenho. Desenvolver boas
ferramentas de simulação é uma arte que exige grande consciência
como redes e componentes reais funcionam e interagem.
Ferramentas de simulação eficazes incluem bibliotecas de dispositivos que modelam o comportamento dos principais
dispositivos de rede (por exemplo, switches e roteadores). Porque as limitações de desempenho
Embora o número de switches e roteadores geralmente surja da maneira como os processos, buffers e filas são
implementados, os modelos de switches e roteadores devem levar em conta a arquitetura do dispositivo.
Modelar o comportamento do switch e do roteador pode ser um desafio, porque cada fornecedor tem
inúmeras técnicas de otimização e opções de configuração. Uma solução para este problema
é que uma ferramenta de simulação pode incorporar medições do tráfego de rede real, em vez de
contando apenas com bibliotecas de dispositivos que modelam o comportamento teórico do dispositivo. Esta abordagem não
apenas resolve o problema de modelagem de dispositivos complexos, mas também permite que a ferramenta calibre
suposições feitas sobre a carga e as características do tráfego. Há menos confiança no projetista da rede para
prever com precisão a carga de tráfego e mais confiança em medições reais.
Ferramentas de gerenciamento de nível de serviço e QoS analisam o desempenho de ponta a ponta da rede
formulários. Essas ferramentas medem os tempos de resposta dos aplicativos. Eles coletam dados de um
variedade de fontes, incluindo pacotes, fluxos de tráfego e MIBs de dispositivos. Algumas ferramentas de gerenciamento
de QoS classificam o tráfego em termos de bits de ponto de código de serviços diferenciados (DSCP) no
Cabeçalho IP e informe quanta largura de banda cada categoria usa. As ferramentas de QoS e de gerenciamento
de nível de serviço também fornecem uma variedade de outros recursos, como linha de base, limite,
tendências e relatórios de detecção de anomalias.
Inc. desenvolveu o conjunto de software Network Planning and Analysis Tools (NPAT) para ajudar os clientes a lidar com
o projeto, planejamento e gerenciamento de WANs de grande escala.
Os clientes da WANDL, que incluem operadoras, empresas Fortune 500 e organizações governamentais, usam
NPAT para planejar e analisar redes que variam em tamanho de 30 a mais de 300 nós de backbone. O IP/MPLSView
da WANDL é uma solução de projeto de rede, teste, gerenciamento de tráfego e engenharia de tráfego para redes IP
e Multiprotocol Label Switching (MPLS).
As ferramentas WANDL oferecem suporte ao planejamento de capacidade, testes de rede e otimização. Eles permitem
que um usuário teste a redundância de uma rede e analise os efeitos das interrupções da rede. Eles facilitam a análise
de alternativas para tecnologias WAN com ferramentas sofisticadas de análise hipotética. Uma característica
única das ferramentas WANDL é a capacidade de estimar tarifas mensais para circuitos WAN.
Tecnologias OPNET
O software OPNET Technologies incorpora conhecimento especializado sobre como funcionam dispositivos de rede,
protocolos, aplicativos e servidores. Essa inteligência permite que os usuários otimizem o desempenho e a
disponibilidade de suas redes e aplicações.
OPNET Modeler é um ambiente de desenvolvimento de tecnologia de rede que permite aos usuários projetar e estudar
sistemas de rede. A abordagem de modelagem orientada a objetos e os editores gráficos do Modeler refletem a
estrutura de redes e componentes de rede reais.
OPNET IT Guru Network Planner é outro produto da OPNET que modela configurações de dispositivos da Cisco e
de outros fornecedores e inclui ferramentas para obter dados capturados e analisar quais componentes são os gargalos.
Machine Translated by Google
Ferramentas Ixia
A Ixia possui um conjunto de ferramentas sofisticadas de teste de rede que vão desde o IxAutomate,
que automatiza o desempenho, a escalabilidade e os testes funcionais de dispositivos de rede, até o IxLoad,
que gera tráfego das camadas 4 a 7 para avaliação com reconhecimento de conteúdo. A ferramenta
IxNetwork suporta protocolos de roteamento, switching, autenticação, Ethernet e Fibre Channel over
Ethernet (FCoE). Os módulos K2 de 40 Gbps e 100 Gbps da Ixia fornecem medição e análise de
Camada 2 a Camada 7 em velocidades extremamente rápidas, facilitando a geração e análise de tráfego de
rede para IP-TV, VoIP, vídeo sob demanda, HDTV, jogos pela Internet e serviços de streaming multimídia.
Em outubro de 2009, a Ixia comprou o testador de rede N2X da Agilent Technologies. Agora chamada
de IxN2X, esta ferramenta foi projetada para testar dispositivos de encaminhamento de IP, como roteadores
e switches que fornecem vídeo, VoIP, serviços de dados e VPNs empresariais. Ele é usado em ambientes
de laboratório “fora de serviço” para testar em escala real com tráfego realista. O IxN2X permite que seus
usuários testem redes de próxima geração gerando estímulos de teste determinísticos e repetíveis e fazendo
medições com precisão de nanossegundos.
NetPredictor do NetPredict
NetPredictor é uma ferramenta de gerenciamento de desempenho e nível de serviço que prevê e monitora
a QoS fornecida por uma rede conforme ela seria percebida por um usuário. O NetPredictor analisa os
efeitos inter-relacionados em aplicativos de rede de latência ponta a ponta, carga e perda de pacotes.
Ele baseia sua análise em modelos de comportamento de rede e de protocolo que são calibrados
automaticamente pelo gerenciamento real da rede e pelos dados do analisador de protocolo.
ÿ Determinar quais recursos de rede e de servidor são necessários para fornecer um serviço necessário
Nível de QoS
ÿ Desenvolvimento de acordos de nível de serviço (SLA) com base em previsões de desempenho verificáveis
O NetPredictor permite modelar uma rede existente e depois simular a substituição de dispositivos
existentes por outros componentes de rede para determinar como o desempenho mudará. O modelo
pode ser baseado no conhecimento sobre a rede e os aplicativos que você fornece e nas informações
de uma biblioteca de dispositivos. O modelo se adapta automaticamente aos dados que o
NetPredictor captura da rede real.
Resumo
Testar o design da sua rede é uma etapa importante no processo de design que permite confirmar se o
seu design atende às metas técnicas e de negócios. Ao testar seu projeto, você pode verificar se as
soluções desenvolvidas fornecerão o desempenho e a QoS que seu cliente espera.
Este capítulo apresentou uma abordagem de análise de sistemas para testes que inclui escrever
objetivos de teste concretos, critérios de aceitação verificáveis, scripts de teste e registros de teste. O
capítulo também forneceu informações sobre ferramentas de design e teste, incluindo
ferramentas da Cisco, WANDL, OPNET e NetIQ.
O próximo capítulo fala sobre técnicas de otimização que você pode usar para garantir que seu
projeto atenda aos requisitos de desempenho. Não é incomum durante a fase de teste determinar que
uma implementação inicial de um projeto requer alguma manipulação para atender aos requisitos de
QoS e outros objetivos, como escalabilidade, disponibilidade, segurança, capacidade de gerenciamento,
acessibilidade e assim por diante. Com base nos resultados dos testes de projeto de rede, você
pode selecionar e testar técnicas de otimização, como as descritas no próximo capítulo.
Perguntas de revisão
1. Liste e descreva cinco objetivos típicos para um projeto de teste de design de rede.
2. Quais são algumas vantagens de usar testes do setor em seu projeto de teste de design de rede?
Quais são algumas desvantagens de usar testes da indústria?
3. Quais são algumas vantagens de testar um novo componente de projeto de rede em uma rede de
produção durante o horário comercial normal? Quais são algumas desvantagens de adotar essa
abordagem?
4. O que são testes de regressão? Por que o teste de regressão geralmente é uma parte importante
de um projeto de teste de rede? Em que casos o teste de regressão não é necessário?
Cenário de projeto
No Capítulo 10, “Selecionando tecnologias e dispositivos para redes corporativas”, você aprendeu
sobre o projeto de design de rede do Wandering Valley Community College (WVCC). Escreva um
plano de teste que o WVCC possa usar para testar a nova rede sem fio.
Considere os objetivos do WVCC para esta parte da rede, em particular a necessidade de ter um
ponto de acesso aberto para visitantes e um ponto de acesso privado e seguro separado para
funcionários e estudantes. O plano de teste deve incluir pelo menos um script de teste detalhado. O
tópico do script de teste é sua escolha.
Machine Translated by Google
Capítulo 13
A otimização é uma etapa crítica do projeto para organizações que usam aplicativos de alta largura
de banda e sensíveis a atrasos. Para atingir os objetivos de negócios, essas organizações esperam
que suas redes utilizem a largura de banda de forma eficiente, controlem atrasos e instabilidade e
ofereçam suporte a serviços preferenciais para aplicações essenciais. Fornecedores de interconexão de
redes, como a Cisco, e órgãos de padronização, como o Instituto de Engenheiros Elétricos e Eletrônicos
(IEEE) e a Força-Tarefa de Engenharia da Internet (IETF), oferecem inúmeras opções para atender a
essas expectativas. Este capítulo apresenta algumas dessas opções.
Neste ponto do processo de projeto de rede de cima para baixo, você deve ter um conhecimento
sólido da topologia lógica e física da sua rede. Você deve conhecer quaisquer links que serão
compartilhados por aplicativos com requisitos diferentes e deve ter testado uma implementação piloto do
projeto de rede para determinar quais links precisam mais de técnicas de otimização.
Este capítulo aborda soluções de otimização. Ele pressupõe que você já tenha analisado os requisitos,
especialmente os requisitos do aplicativo para baixo atraso ou alto rendimento. Conforme mencionado
no Capítulo 4, “Caracterizando o tráfego de rede”, durante as fases iniciais de um projeto de
design, você deve trabalhar com seu cliente para classificar os aplicativos de rede em categorias de
serviço para poder determinar quais opções de otimização e qualidade de serviço (QoS) as aplicações
exigirão. Depois de classificar uma aplicação, você deverá preencher a coluna “Requisitos de QoS” na
Tabela 4-4, “Características de tráfego de aplicações de rede”. Conforme mencionado no Capítulo 2,
“Analisando metas técnicas e compensações”, você também deve preencher as metas de rendimento e
atraso do aplicativo na Tabela 2-2, “Requisitos técnicos de aplicativos de rede”.
O capítulo começa com uma discussão sobre técnicas de multicast IP que minimizam a utilização da
largura de banda para aplicações multimídia. A redução do atraso também é importante para aplicações
multimídia sensíveis ao atraso, como voz e vídeo. A seção “Reduzindo o atraso de
serialização” descreve alguns métodos para garantir que o atraso seja minimizado.
O capítulo continua com uma discussão sobre métodos para otimizar o desempenho da rede para atender
aos requisitos de QoS. Esses métodos permitem que os aplicativos informem os roteadores sobre seus
Machine Translated by Google
requisitos de carga e latência e permitir que os roteadores compartilhem informações de QoS entre si
e com servidores de políticas. Posteriormente neste capítulo, a seção “Recursos do Cisco IOS
para otimizar o desempenho da rede” descreve uma variedade de técnicas de otimização oferecidas
pela Cisco, incluindo técnicas avançadas de comutação, enfileiramento e modelagem de tráfego.
A IETF desenvolveu vários padrões IP multicast que otimizam a transmissão de multimídia e outros
tipos de tráfego através de uma rede. Os padrões identificam técnicas de endereçamento multicast que
evitam o tráfego extra causado por muitos fluxos de tráfego unicast ponto a ponto ou de transmissão.
Eles também especificam como os roteadores aprendem quais segmentos de rede devem receber
fluxos multicast e como os roteadores roteiam o tráfego multicast.
Aplicativos multimídia mais antigos que não usam tecnologias multicast enviam um fluxo de dados para
todos os usuários. Tais aplicações usam um método unicast ponto a ponto para lidar com tráfego
multimídia que desperdiça largura de banda. Uma alternativa para vários fluxos ponto a ponto é enviar
um único fluxo e usar um endereço de destino de transmissão. A desvantagem óbvia dessa técnica
é que o fluxo de dados vai para todos os dispositivos, mesmo dispositivos para os quais nenhum
aplicativo está instalado para lidar com o fluxo. Essa abordagem tem um efeito negativo no desempenho
de todos os dispositivos que recebem o fluxo, incluindo estações de trabalho, switches e roteadores.
Com as tecnologias IP multicast, por outro lado, um único fluxo de dados é enviado apenas para as
estações que solicitam o fluxo, otimizando assim o uso da largura de banda e reduzindo problemas
de desempenho em estações finais e dispositivos de interligação de redes.
Empresas, universidades e outras organizações podem usar tecnologias multicast IP para muitas
aplicações de disseminação de informações, incluindo aulas de treinamento on-line, reuniões virtuais
e noticiários eletrônicos. Além disso, as tecnologias IP multicast são utilizadas em aplicações de
simulação de computador. Um exemplo são os cenários militares simulados. Como é impraticável
preparar-se para batalhas de grande escala com equipamento real, algumas instituições militares
realizam exercícios de treino com milhares de aviões, tanques, tropas, satélites meteorológicos
simulados e outros dispositivos. Um avião ou tanque pode registrar-se para receber informações
meteorológicas e topográficas para sua localização atual, juntando-se a um grupo multicast IP para
essa localização. À medida que o avião se move, ele sai e se junta a novos grupos. Desta forma, o avião
pode evitar receber informações sobre o clima e a topografia de todas as áreas (o que seria excessivo)
e, em vez disso, receber informações relevantes apenas para a sua localização atual. Este tipo de
aplicação deve suportar endereçamento multicast e envio de membros de grupos multicast dinâmicos,
que serão discutidos nas próximas seções.
Machine Translated by Google
Endereçamento IP Multicast
O multicasting IP transmite dados IP para um grupo de hosts identificado por um único endereço IP Classe D.
Em notação decimal com pontos, os endereços dos grupos de hosts variam de 224.0.0.0 a
239.255.255.255. As estações de rede reconhecem um endereço como sendo um endereço de Classe
D porque os primeiros 4 bits devem ser 1110 em binário.
Um grupo multicast também é identificado por um endereço multicast da camada MAC. O uso de um
endereço multicast da camada MAC otimiza o desempenho da rede, permitindo que placas de interface de
rede (NIC) que não fazem parte de um grupo ignorem um fluxo de dados que não é para elas.
A Internet Assigned Numbers Authority (IANA) possui um bloco de endereços da camada MAC que são usados
para endereços multicast de grupo. O intervalo de endereços para Ethernet é 01:00:5E:00:00:00 a
01:00:5E:7F:FF:FF. Quando uma estação envia um quadro para um grupo IP identificado por um endereço
de Classe D, a estação insere os 23 bits de ordem inferior do endereço de Classe D nos 23 bits de ordem
inferior do endereço de destino da camada MAC. Os 9 bits superiores do endereço Classe D não são usados.
Os 25 bits principais do endereço MAC são 01:00:5E seguido por 0 ou, em binário, o seguinte:
Por exemplo, quando um roteador executando o protocolo de roteamento Open Shortest Path First (OSPF)
envia para o endereço IP multicast 224.0.0.5 de todos os roteadores OSPF , o endereço é convertido em
01:00:5e:00:00:05 para uso como o endereço MAC de destino. Observe que os endereços MAC são escritos
em hexadecimal, enquanto os endereços IP são escritos em notação decimal com pontos.
Como outro exemplo, quando um host envia para o endereço IP multicast 233.252.16.1, o endereço é
convertido em 01:00:5E:7C:10:01 para uso como endereço MAC de destino. Siga estas etapas para fazer a
conversão:
Etapa 1. Os 9 bits principais do endereço IP Classe D não são usados, portanto, para começar, elimine o
primeiro octeto. Em outras palavras, elimine o 233.
Etapa 2. Elimine também o primeiro bit do segundo octeto. O segundo octeto é 252 em deci
mal ou 11111100 em binário. No entanto, você deseja apenas os últimos 7 bits, porque o
IEEE diz que o primeiro bit deve ser 0. Portanto, o número se torna 01111100 em binário ou 124
em decimal. Isso é 0x7C em hexadecimal.
Etapa 3. Use o terceiro octeto inteiro, que é 16 em decimal, mas converta-o para hexadecimal, resultando
em 0x10.
Etapa 4. Use todo o quarto octeto, que é 1 em decimal, mas converta-o para hexadecimal, resultando em
0x01.
Quando um usuário (ou processo do sistema) inicia uma aplicação que exige que um host se junte a um
grupo multicast, o host transmite uma mensagem de relatório de associação para informar aos
roteadores no segmento que o tráfego do grupo deve ser multicast para o segmento do host. Embora seja
possível que o roteador já esteja enviando dados do grupo para o segmento do host, a especificação afirma
que um host deve enviar uma mensagem de relatório de associação caso seja o primeiro membro do
grupo no segmento de rede.
Além de permitir que hosts ingressem em grupos, o IGMP especifica que um roteador multicast envia uma
consulta IGMP para cada interface em intervalos regulares para verificar se algum host pertence ao
grupo. Um host responde enviando uma mensagem de relatório de associação IGMP para cada
grupo do qual ainda é membro (com base nos aplicativos em execução no host).
Para diminuir a utilização da largura de banda, os hosts definem um cronômetro aleatório antes de responder
às consultas. Se o host vir outro host respondendo a um grupo ao qual o host pertence, o host poderá
cancelar sua resposta. O roteador não precisa saber quantos ou quais hosts específicos em um segmento
pertencem a um grupo. Ele só precisa reconhecer que um grupo tem pelo menos um membro em um
segmento, para enviar tráfego para esse segmento usando os endereços multicast IP e MAC do grupo.
Por padrão, um switch da camada de enlace de dados inunda quadros multicast em todas as portas.
O Cisco Group Management Protocol (CGMP) e os métodos de espionagem IETF IGMP permitem
que os switches participem do processo de determinação de quais segmentos possuem hosts em um
determinado grupo multicast. CGMP é um método proprietário da Cisco que permite que um roteador
envie uma mensagem aos switches para informá-los sobre hosts ingressando e saindo de grupos. A
espionagem IGMP é um padrão IETF que não causa tráfego extra, mas permite que um switch
aprenda com as mensagens IGMP enviadas aos roteadores.
Enquanto um protocolo de roteamento unicast padrão aprende caminhos para redes de destino, um
protocolo de roteamento multicast aprende caminhos para endereços de destino multicast. Os protocolos
de roteamento multicast ajudam os roteadores a aprender quais interfaces devem enviar cada fluxo
multicast. Esta seção cobre dois protocolos de roteamento multicast: Distance Vector Multicast Routing
Protocol (DVMRP) e Protocol Independent Multicast (PIM).
Machine Translated by Google
A principal diferença entre RIP e DVMRP é que o RIP aprende o caminho para um destino específico,
enquanto o DVMRP rastreia os caminhos de retorno para a origem dos pacotes multicast. O DVMRP
combina muitos dos recursos do RIP com o algoritmo Truncated Reverse Path Broadcasting (TRPB).
O TRPB aprende como encaminhar pacotes multicast calculando a árvore de caminho mais curto
(reverso) entre a origem de um pacote multicast e todos os possíveis destinatários do pacote.
Cada roteador multicast determina seu lugar na árvore, em relação à origem específica, e então
determina quais de suas interfaces estão na árvore de caminho mais curto. Pacotes multicast são
encaminhados para essas interfaces. Também existe um processo para excluir interfaces que não
estão na árvore de caminho mais curto e é chamado de poda.
como o DVMRP, o PIM funciona em conjunto com o IGMP e com um protocolo de roteamento unicast,
como RIP, OSPF, Cisco Enhanced Interior Gateway Routing Protocol (EIGRP) e assim por diante.
O PIM possui dois modos: modo denso e modo esparso. Os adjetivos denso e esparso referem-se
à densidade dos membros do grupo. Grupos densos têm muitos membros. Um exemplo de grupo
denso são os funcionários de uma empresa que ouvem o relatório trimestral do presidente da
empresa quando ele é transmitido pela intranet corporativa. Um grupo esparso pode ser um grupo muito
menor de funcionários que se inscreveram em um determinado curso à distância.
curso.
Se um roteador executando o PIM de modo denso receber um pacote multicast de uma origem para um
grupo, ele primeiro verificará na tabela de roteamento unicast padrão se a interface de entrada é aquela
usada para enviar pacotes unicast para a origem. Se este não for o caso, ele descarta o pacote e
envia de volta uma mensagem de remoção. Se for o caso, o roteador encaminha uma cópia do pacote
em todas as interfaces para as quais não recebeu uma mensagem de remoção para o par origem/
destino do grupo. Se não existirem tais interfaces, ele envia de volta uma mensagem de remoção.
Machine Translated by Google
O primeiro pacote de um grupo é inundado em todas as interfaces. Depois que isso ocorre, entretanto, os
roteadores ouvem mensagens de remoção para ajudá-los a desenvolver um mapa da rede que lhes
permita enviar pacotes multicast apenas para as redes que deveriam receber os pacotes. As mensagens
de remoção também permitem que os roteadores evitem loops que fariam com que mais de um roteador
enviasse um pacote multicast para um segmento.
O PIM de modo denso funciona melhor em ambientes com grandes grupos multicast e uma alta probabilidade
de que qualquer LAN tenha um membro do grupo, o que limita a necessidade do roteador de enviar
mensagens de remoção. Devido à inundação do primeiro pacote para um grupo, o PIM de modo denso não
faz sentido em ambientes onde alguns usuários localizados esparsamente desejam participar de uma
aplicação multicast. Nesse caso, o PIM de modo esparso, descrito na próxima seção, é uma solução
melhor.
modo esparso é bastante diferente do PIM de modo denso. Em vez de permitir que o tráfego seja enviado
para todos os lugares e depois removido para onde não é necessário, o PIM de modo esparso define um
ponto de encontro. O ponto de encontro fornece um serviço de registro para um grupo multicast.
O PIM de modo esparso depende do IGMP, que permite que um host ingresse em um grupo
enviando uma mensagem de relatório de associação e se desconecte de um grupo enviando uma
mensagem de saída. Um roteador designado para um segmento de rede rastreia relatórios de adesão e
deixa mensagens em seu segmento e envia periodicamente mensagens PIM de junção e remoção para o
ponto de encontro. As mensagens join e prune são processadas por todos os roteadores entre o roteador
designado e o ponto de encontro. O resultado é uma árvore de distribuição que atinge todos os membros
do grupo e é centrada no ponto de encontro.
A árvore de distribuição para um grupo multicast é inicialmente usada para qualquer fonte, mas a
especificação PIM de modo esparso, RFC 4601, também fornece um mecanismo para permitir que o
ponto de encontro desenvolva árvores específicas de origem para promover a remoção do tráfego de rede.
Quando uma fonte envia dados inicialmente para um grupo, o roteador designado na rede de origem
envia unicasts para registrar mensagens no ponto de encontro com os pacotes de dados da fonte
encapsulados. Se a taxa de dados for alta, o ponto de encontro poderá enviar mensagens de junção/
remoção de volta para a origem. Isso permite que os pacotes de dados da origem sigam uma árvore
de caminho mais curto específica da origem e elimina a necessidade de os pacotes serem encapsulados
em mensagens de registro . Quer os pacotes cheguem encapsulados ou não, o ponto de encontro
encaminha os pacotes de dados desencapsulados da fonte pela árvore de distribuição em direção aos
membros do grupo.
mentação e intercalação (LFI) e o uso de compressão para cabeçalhos de pacotes multimídia. Esta seção
aborda essas soluções.
LFI para PPP é definido pelo padrão Multilink Point-to-Point Protocol (MPPP), que é RFC 1990. LFI para
PPP é relativamente simples. Pacotes grandes são encapsulados multilink com base na RFC 1990 e
fragmentados em pacotes de tamanho pequeno o suficiente para satisfazer os requisitos de atraso do tráfego
sensível a atrasos. Pacotes pequenos sensíveis a atraso não são encapsulados multilink, mas são
intercalados entre fragmentos de pacotes grandes.
O MPPP permite que os pacotes sejam enviados ao mesmo tempo através de vários links ponto a ponto
para o mesmo endereço remoto. Os vários links surgem em resposta a um limite de carga definido por você.
A carga pode ser calculada no tráfego de entrada, no tráfego de saída ou em ambos, conforme necessário
para o tráfego entre sites específicos. O MPPP fornece largura de banda sob demanda e reduz o atraso
nos links WAN.
Quando você configura o MPPP em um roteador Cisco, os pacotes que chegam a uma interface de saída
são classificados em filas com base nas classificações definidas por você. Depois que os pacotes são
enfileirados, os pacotes grandes são fragmentados em pacotes menores, em preparação para a
intercalação com pacotes sensíveis ao tempo. Se o enfileiramento justo ponderado (WFQ) estiver
configurado para uma interface, os pacotes de cada fila serão intercalados e agendados (de forma justa e
com base em seu peso) para transmissão na fila da interface de saída. Para garantir a ordem correta de
transmissão e remontagem, o LFI adiciona cabeçalhos multilink aos fragmentos do pacote depois que os
pacotes são retirados da fila e prontos para serem enviados.
Além de suportar LFI para usos clássicos de MPPP, como canais ISDN agregados, a Cisco também
oferece suporte a LFI para circuitos virtuais Frame Relay e ATM. Este recurso implementa LFI usando
MPPP sobre Frame Relay e ATM. LFI para Frame Relay e ATM suporta circuitos virtuais Frame Relay e
ATM de baixa velocidade e interfuncionamento Frame Relay/ATM (FRF.8). LFI para Frame Relay e ATM
funciona simultaneamente e no mesmo caminho de comutação que outros recursos de QoS, incluindo
modelagem de tráfego Frame Relay (FRTS), enfileiramento de baixa latência (LLQ) e enfileiramento justo
ponderado baseado em classe (CBWFQ).
A Cisco também oferece suporte aos três métodos a seguir para realizar a fragmentação do Frame Relay:
O cabeçalho do pacote RTP inclui vários campos que especificam os atributos dos dados transportados
no pacote RTP:
ÿ O campo fonte de sincronização (SSRC) identifica a origem de um fluxo de pacotes RTP (por
exemplo, um microfone ou câmera de vídeo). Todos os pacotes de uma fonte de sincronização
fazem parte do mesmo tempo e espaço de número de sequência, portanto, um receptor
agrupa pacotes por SSRC para reprodução.
ÿ A lista de fontes contribuintes (CSRC) identifica as fontes que contribuíram para a carga útil no pacote.
Um exemplo de aplicação é a audioconferência, onde o campo CSRC indica todos os locutores
cuja fala foi combinada para produzir o pacote de saída.
O cabeçalho RTP adiciona funcionalidades importantes que são usadas por aplicações multimídia,
incluindo vídeo e voz sobre IP (VoIP). A desvantagem do RTP é que ele adiciona bytes a cada
pacote, o que pode ser um problema quando o objetivo do projeto é reduzir o atraso na serialização e
minimizar o uso da largura de banda. O RTP compactado reduz o atraso e economiza largura de banda
da rede, compactando o cabeçalho RTP/UDP/IP de 40 bytes para 2 ou 4 bytes. O cabeçalho pode ter 2
bytes quando nenhuma soma de verificação UDP for usada e 4 bytes quando uma soma de verificação
UDP for usada. O esquema de compactação aproveita o fato de que, embora vários campos mudem
em cada pacote, a diferença de pacote para pacote costuma ser constante. A compactação dos
cabeçalhos é especialmente benéfica para links lentos e pacotes pequenos (como tráfego VoIP),
onde a compactação pode reduzir significativamente a sobrecarga e o atraso de serialização.
O Capítulo 4 falou sobre a especificação da QoS exigida por um aplicativo. Esta seção cobre algumas
técnicas para atender a esses requisitos.
Conforme discutido no Capítulo 4, o grupo de trabalho de Serviços Integrados define dois tipos de
serviço que oferece garantias de QoS além do serviço de melhor esforço (que não oferece QoS
garantias):
ÿ Serviço de carga controlada: fornece um fluxo de dados do cliente com uma QoS próxima
avaliando a QoS que o fluxo receberia em uma rede descarregada. A carga controlada
O serviço destina-se a aplicações altamente sensíveis a condições de sobrecarga.
ÿ Serviço garantido: fornece limites firmes para atrasos de enfileiramento de pacotes de ponta a ponta.
O serviço garantido destina-se a aplicações que necessitam de uma garantia de que um pacote
chegará o mais tardar um certo tempo depois de ter sido transmitido pela sua fonte.
Muitas opções de otimização estão disponíveis para acomodar aplicações com carga controlada ou
requisitos de serviço garantidos. As próximas seções descrevem alguns desses
opções, começando por uma que está disponível há muitos anos: a precedência e
funcionalidade de tipo de serviço incorporada ao pacote IP.
Tipo de
Subcampo de serviço D = Atraso
Bit 0 3 4 5 6 7 T = Taxa de transferência
R = Confiabilidade
Precedência D T R C 0
C = Custo
Bit 0 8 15 24 31
Cabeçalho
Versão Comprimento total
Comprimento Tipo de Serviço
Endereço IP de origem
Endereço IP de destino
Opções Preenchimento
O campo Tipo de serviço IP especificou a precedência e o tipo de serviço. A precedência ajudou um roteador a determinar
qual pacote enviar quando vários pacotes estavam na fila para transmissão para a mesma interface de saída. O tipo de
serviço ajudava um roteador a selecionar um caminho de roteamento quando vários caminhos estavam disponíveis.
O campo Tipo de Serviço foi dividido em dois subcampos (seguidos de um bit sempre igual a 0):
Um aplicativo usou o subcampo Precedência para especificar a importância de um pacote. A importância variou de
prioridade de rotina (os bits foram definidos como 000) até alta prioridade (os bits foram definidos como 111). Um valor
de 5 casas decimais era típico para VoIP e outras aplicações em tempo real e ainda é reconhecido por muitos roteadores
modernos.
O objetivo do subcampo Tipo de serviço era ajudar um roteador a selecionar uma rota a partir de um conjunto de rotas com
características diferentes. O subcampo Tipo de Serviço dentro do campo Tipo de Serviço em um cabeçalho IP tinha 4 bits
(veja a Figura 13-1):
ÿ Bit de custo (C): informa aos roteadores para minimizar o custo monetário
Na prática, os protocolos de roteamento e roteadores nunca tiveram bons métodos para atender às necessidades das
aplicações que definem os bits de tipo de serviço. Selecionar um caminho com base na configuração do bit D, T, R ou C
provou ser impraticável. Embora as versões anteriores dos protocolos de roteamento OSPF e Border Gateway
Protocol (BGP) especificassem suporte para os bits, as versões mais recentes das especificações OSPF e BGP não
exigem suporte para roteamento com base na configuração dos bits.
O serviço de seleção de caminhos oferecido pelo subcampo Tipo de Serviço nunca se concretizou.
O serviço de priorização oferecido pelo subcampo Precedência, por outro lado, agora é especificado pela RFC 2474,
“Definition of the Differentiated Services Field (DS Field) in the IPv4 and IPv6 Headers”, e RFC 2475, “An Architecture for
Differentiated Services .”
De acordo com as RFCs 2474 e 2475, o campo Tipo de Serviço tornou-se o campo Serviços Diferenciados (DS) no
IPv4. Os bits de 0 a 5 desse campo são chamados de ponto de código de serviços diferenciados (DSCP), conforme
mostrado na Figura 13-2. (De acordo com a RFC 3168, os bits 6 e 7 são designados como o campo Explicit Congestion
Notification, o que está além do escopo desta discussão.)
Machine Translated by Google
Bit 0 6
Bit 0 8 15 24 31
Cabeçalho
Versão Serviços Diferenciados Comprimento total
Comprimento
O PHB Assured Forwarding (AF) descreve um meio para um provedor oferecer diferentes níveis de garantia
de encaminhamento para pacotes IP recebidos de um cliente. O AF PHB garante uma certa largura de banda
para uma classe AF e permite acesso a largura de banda extra, se disponível. Existem quatro classes AF,
AF1 a AF4, e dentro de cada classe,
existem três probabilidades de queda de pacotes.
O PHB Expedited Forwarding (EF) pode ser usado para construir um serviço ponta a ponta com largura de
banda garantida e baixa perda, latência e jitter. Esse serviço aparece para os endpoints como
uma conexão ponto a ponto ou uma linha alugada virtual. Este serviço também foi descrito
como um serviço premium.
Nota O cabeçalho IPv6 não inclui um campo DS, mas inclui uma classe de tráfego de 8 bits
campo. Este campo assume a responsabilidade dos bits de precedência IP do IPv4 original
cabeçalho e o campo DSCP do cabeçalho IPv4 mais recente.
Tanto os recursos de tipo de serviço do cabeçalho IP quanto o RSVP são exemplos de sinalização de QoS
protocolos. A sinalização de QoS é um meio de fornecer requisitos de QoS em uma rede.
O campo Tipo de serviço no cabeçalho IP oferece sinalização dentro da banda, o que significa que os bits
dentro do sinal do cabeçalho do quadro para os roteadores como o quadro deve ser tratado. Ofertas de confirmação de presença
Machine Translated by Google
sinalização fora de banda, o que significa que os hosts enviam quadros adicionais, além dos quadros de dados,
para indicar que um determinado serviço de QoS é desejado para um determinado fluxo de tráfego.
RSVP é um protocolo de configuração usado por um host para solicitar qualidades específicas de serviço da rede
para fluxos ou fluxos de dados de aplicativos específicos. O RSVP também é usado por roteadores para entregar
solicitações de QoS a outros roteadores ao longo do caminho de um fluxo. O RSVP opera sobre o IP versão 4 ou
6, ocupando o lugar de um protocolo de transporte na pilha de protocolos (embora não transporte dados da
aplicação).
RSVP não é um protocolo de roteamento; ele opera em conjunto com protocolos de roteamento unicast e multicast.
Enquanto um protocolo de roteamento determina para onde os pacotes são encaminhados, o RSVP se preocupa
com a QoS que esses pacotes recebem. O RSVP consulta o banco de dados de roteamento unicast ou multicast
local para obter rotas. No caso de multicast, por exemplo, um host envia mensagens IGMP para ingressar em
um grupo multicast e, em seguida, envia mensagens RSVP para reservar recursos ao longo do(s) caminho(s)
de entrega para esse grupo.
De acordo com a especificação RSVP, um receptor é responsável por solicitar uma QoS específica, não uma
fonte. Colocar a responsabilidade sobre o receptor permite que o RSVP acomode mais facilmente grupos grandes,
membros dinâmicos de grupos e requisitos heterogêneos do receptor.
Um aplicativo residente em um host receptor passa uma solicitação de QoS para o processo RSVP local.
O protocolo RSVP então transporta a solicitação para todos os nós (roteadores e hosts) ao longo do(s) caminho(s)
de dados reverso(s) até a(s) fonte(s) de dados (somente até o roteador localizado onde o caminho de dados do
receptor se junta à árvore de distribuição multicast) . As solicitações RSVP devem resultar na reserva de recursos
em cada nó ao longo do caminho.
O RSVP fornece um recurso geral para criar e manter informações sobre reservas de recursos em uma malha
de caminhos de entrega unicast ou multicast. O RSVP transfere parâmetros de QoS, mas não define os
parâmetros ou os diferentes tipos de serviços que uma aplicação pode solicitar. O RSVP simplesmente passa
parâmetros para os módulos apropriados de controle de tráfego e de controle de políticas para interpretação.
Como parte da fase de análise de requisitos do processo de design de rede, você deverá ter identificado os
aplicativos que podem se beneficiar do RSVP. Você também deve ter selecionado roteadores para implementar
o projeto durante a fase de projeto físico. Neste ponto do processo de design, analise suas seleções e dê uma
nova olhada na topologia da rede para garantir que os roteadores que suportam RSVP estejam disponíveis para os
aplicativos que precisam deles. Para que o RSVP seja eficaz, cada roteador no caminho de um receptor até
uma fonte deve suportar RSVP, incluindo roteadores em caminhos redundantes que podem entrar em serviço
durante interrupções na rede ou quando a carga de tráfego for alta.
Observação Lembre-se de que o projeto de rede é um processo iterativo que permite ajustar seus planos à
medida que você considera os detalhes e as ramificações das escolhas feitas até o momento.
Ao considerar RSVP, certifique-se de ler a RFC 2208 (ou quaisquer atualizações publicadas após a publicação
deste livro). RFC 2208, “Declaração de aplicabilidade do protocolo de reserva de recursos versão 1”, aponta os
problemas com a execução do RSVP em um roteador backbone que
Machine Translated by Google
O RSVP é mais adequado para intranets privadas do que para a Internet ou outras redes públicas que
cruzam domínios de vários provedores de serviços. Não existem apenas questões de escalabilidade
associadas à quantidade de informações que os roteadores devem manter para cada sessão RSVP, mas
também existem preocupações econômicas. Um provedor de serviços pode estar disposto a fornecer
recursos (largura de banda e baixo atraso, por exemplo) que outro provedor de serviços não está
equipado para oferecer. Um fornecedor pode não ter a capacidade de oferecer os serviços ou os
procedimentos para cobrar os clientes por eles.
Além disso, o RSVP é mais adequado para fluxos de longa duração, como os presentes em aplicações
de vídeo. Muito tráfego da Internet consiste em fluxos de curta duração. Por estas razões, o RSVP é mais
apropriado para redes privadas do que para a Internet. (Embora isto possa mudar no futuro à medida que as
aplicações na Internet mudam e mais progressos são feitos nos métodos de cooperação dos fornecedores.)
O COPS define um modelo cliente/servidor simples para suportar o controle de políticas com protocolos de
sinalização QoS, como RSVP. A especificação COPS descreve um protocolo básico de consulta
e resposta que pode ser usado para trocar informações de política entre um servidor de política e seus
clientes, que normalmente serão roteadores RSVP.
A especificação COPS chama um servidor de política de ponto de decisão de política (PDP). Ele chama
um cliente de ponto de aplicação de política (PEP). O protocolo permite que um PEP envie solicitações,
atualizações e exclusões para um PDP remoto e permite que o PDP retorne decisões ao PEP. Dessa
forma, os roteadores baseados em RSVP podem trocar informações com servidores centralizados que
armazenam as políticas de QoS de uma rede e aprender como lidar corretamente com fluxos para os quais
os recursos foram reservados.
tráfego de tempo crítico e para limitar a extensão do tráfego multicast de alta largura de banda dentro de
uma LAN comutada.
O IEEE 802.1p fornece um método de sinalização QoS em banda para classificar o tráfego com base nas
informações do quadro MAC. Ele também especifica um mecanismo de protocolo opcional em switches para
suportar estações finais registrando-se dinamicamente para entrega de quadros de tempo crítico ou
serviços de filtragem. Protocolos opcionais entre switches para transmitir informações de registro em uma LAN
comutada também são suportados.
IEEE 802.1p oferece suporte a oito classes de serviço. Um valor 0 significa serviço de rotina (em outras
palavras, sem prioridade). Diferentes switches dentro de uma LAN, e até mesmo diferentes portas em
switches, podem ser configurados para um número diferente de níveis de prioridade. Um switch deve ter
uma fila separada para cada nível de prioridade usado por uma porta.
Nota Pode-se argumentar que as LANs não precisam de recursos de QoS. As LANs que foram migradas
para tecnologias comutadas e altas velocidades, como 100 Mbps e Gigabit Ethernet, muitas vezes
apresentam excesso de capacidade. Quando redes de backbone e segmentos de uplink para camadas
superiores de uma topologia hierárquica são considerados, porém, fica claro que os métodos de QoS são
necessários em LANs e redes corporativas. À medida que novos aplicativos de voz e multimídia em rede se
tornam uma parte central das práticas comerciais normais, as LANs de campus comutadas podem aproveitar
os recursos do 802.1p, além de outros recursos já abordados neste capítulo.
Técnicas de comutação
Além de executar protocolos de roteamento para desenvolver uma topologia de roteamento, a principal tarefa
de um roteador é comutar (encaminhar) pacotes de interfaces de entrada para interfaces de saída.
A comutação envolve o recebimento de um pacote, a determinação de como encaminhá-lo com base na
topologia de roteamento e nos requisitos de política e QoS, e a comutação do pacote para a interface ou
interfaces de saída corretas. A velocidade com que um roteador pode executar esta tarefa é um fator
importante na determinação do desempenho da rede em uma rede roteada. A Cisco oferece suporte a
muitos métodos de comutação, com velocidades e comportamentos variados. Esta seção descreve
alguns desses métodos de comutação.
Em geral, você deve usar o método de comutação mais rápido disponível para um tipo de interface e
protocolo. Usar um modo de comutação rápido é especialmente importante em roteadores corporativos de
backbone e principais. Dependendo da versão do Cisco IOS Software que você está executando,
Machine Translated by Google
o modo mais rápido pode precisar ser configurado. (Nem sempre é o padrão.) Talvez você também precise
observar o uso da memória. Os métodos de comutação mais rápidos usam mais memória, portanto, depois de
ativar um deles, monitore a memória livre no roteador por um breve período.
Esta seção começa descrevendo algumas tecnologias mais antigas, mas ainda usadas, para comutação de
Camada 3, chamadas de métodos clássicos de comutação, e continua com duas tecnologias mais recentes:
comutação NetFlow e Cisco Express Forwarding (CEF).
O processo de entrada, após o escalonador instruí-lo a ser executado, procura na tabela de roteamento para
determinar a interface de saída que deve ser usada para o endereço de destino da Camada 3 no pacote. O
processo reescreve o pacote com o cabeçalho da camada de enlace de dados correto para aquela interface e
copia o pacote para a interface. Ele também coloca uma entrada no cache de comutação rápida para que os
pacotes subsequentes para o destino possam usar a comutação rápida.
Observe que a decisão de encaminhamento é tomada por um processo agendado pelo agendador do Cisco
IOS. Esse processo é executado como um peer para outros processos em execução no roteador, como
protocolos de roteamento. Os processos que normalmente são executados no roteador não são
interrompidos para alternar o processo de um pacote. Isso torna a alternância de processos lenta.
A comutação rápida permite maior rendimento ao comutar um pacote usando uma entrada no cache de comutação
rápida que foi criada quando um pacote anterior para o mesmo destino foi processado. Com a comutação
rápida, um pacote é tratado imediatamente. O processador de interface gera uma interrupção de recepção. Durante
esta interrupção, o processador central determina o tipo de pacote e então começa a comutá-lo. O processo
atualmente em execução no processador é interrompido para comutar o pacote. Os pacotes são comutados sob
demanda, em vez de comutados apenas quando o processo de encaminhamento pode ser agendado. Com base
nas informações do cache de comutação rápida, o cabeçalho da camada de enlace de dados é reescrito e o pacote
é enviado para a interface de saída que atende o destino.
Observação Se você estiver usando o compartilhamento de carga em diversas interfaces com a comutação rápida
habilitada, a carga poderá não ser balanceada igualmente se uma grande parte do tráfego for para apenas um
destino. Os pacotes para um determinado destino sempre saem da mesma interface, mesmo que o roteamento
suporte múltiplas interfaces. Em outras palavras, a comutação rápida utiliza o compartilhamento de carga por
destino. Se isso for um problema, você deve usar o CEF, que suporta tanto por destino quanto
Machine Translated by Google
compartilhamento de carga por pacote. Além disso, com o CEF, o compartilhamento de carga por destino
é baseado em pares origem/destino, e não simplesmente no endereço de destino, o que pode fornecer um
equilíbrio melhor do que a comutação rápida.
NetFlow Switching O
NetFlow Switching é otimizado para ambientes onde os serviços devem ser aplicados a pacotes para
implementar segurança, recursos de QoS e contabilidade de tráfego. Um exemplo desse ambiente é a
fronteira entre uma rede corporativa e a Internet.
A comutação NetFlow identifica fluxos de tráfego entre hosts e, em seguida, alterna rapidamente pacotes
nesses fluxos ao mesmo tempo em que aplica serviços. A comutação NetFlow também permite que um
gerente de rede colete dados sobre o uso da rede para permitir o planejamento de capacidade e cobrar
usuários com base na utilização de recursos da rede e do aplicativo. As estatísticas podem ser
coletadas sem retardar o processo de troca.
Para maximizar a escalabilidade da rede, uma boa prática de projeto é usar a comutação NetFlow na
periferia de uma rede para ativar recursos como contabilidade de tráfego, funcionalidade de QoS e
segurança, e usar um modo de comutação ainda mais rápido no núcleo da rede. No núcleo da rede, o
modo de comutação deve encaminhar pacotes com base em informações facilmente acessíveis no
pacote e, geralmente, não deve perder tempo aplicando serviços. O próximo modo de comutação abordado
nesta seção, o Cisco Express Forwarding (CEF), é otimizado para o núcleo de uma rede para fornecer alto
desempenho, previsibilidade, escalabilidade e resiliência.
O CEF evoluiu para acomodar aplicações baseadas na web e outras aplicações interativas que são
caracterizadas por sessões de curta duração para múltiplos endereços de destino.
O CEF tornou-se necessário quando ficou claro que um sistema baseado em cache não está otimizado
para esses tipos de aplicações.
Considere um aplicativo de navegação na web, por exemplo. Quando um usuário acessa um novo site,
o TCP abre uma sessão com um novo endereço de destino. É improvável que o novo destino esteja no
cache do roteador, a menos que seja um destino que o usuário, ou outros usuários, visitou recentemente.
Isso significa que o primeiro pacote é comutado por processo, o que é lento. Além disso, a CPU do roteador
é significativamente afetada se houver muitos primeiros pacotes para novos destinos. O CEF melhora a
velocidade de comutação e evita a sobrecarga associada a um cache que muda continuamente, através
do uso do FIB, que espelha todo o conteúdo da tabela de roteamento IP.
Machine Translated by Google
Conforme mencionado na seção “Métodos clássicos para comutação de pacotes de camada 3”, o CEF suporta compartilhamento
de carga por destino e por pacote. O compartilhamento de carga por destino é o padrão, o que significa que os pacotes para um
determinado par origem/destino têm garantia de sair da mesma interface. O tráfego para pares diferentes tende a seguir
caminhos diferentes. A menos que o tráfego consista em fluxos para um pequeno número de pares origem/destino, o tráfego
tende a ser distribuído igualmente por vários caminhos com compartilhamento de carga CEF por destino.
CEF também oferece suporte ao compartilhamento de carga por pacote. O compartilhamento de carga por pacote permite
que um roteador envie pacotes de dados sucessivos por caminhos, independentemente dos endereços de origem e
destino. O compartilhamento de carga por pacote usa um método round-robin para selecionar a interface de saída de um pacote.
Cada pacote leva a próxima interface permitida pelo roteamento. O compartilhamento de carga por pacote fornece um
melhor equilíbrio de tráfego em vários links. Você pode usar o compartilhamento de carga por pacote para ajudar a garantir
que um caminho para um único par origem/destino não fique sobrecarregado.
Embora a utilização do caminho com compartilhamento de carga por pacote seja otimizada, os pacotes para um determinado
par de hosts de origem/destino podem seguir caminhos diferentes, o que pode fazer com que os pacotes cheguem fora de
ordem. Por esta razão, o compartilhamento de carga por pacote é inadequado para certos tipos de tráfego de dados, como
Serviços de fila
As técnicas de comutação de alta velocidade discutidas nas seções anteriores só vão até certo ponto na otimização de uma rede
que está enfrentando congestionamento. Métodos de enfileiramento inteligentes e rápidos também são necessários. O
ÿ Enfileiramento prioritário
ÿ Enfileiramento personalizado
O enfileiramento FIFO fornece funcionalidade básica de armazenamento e encaminhamento. Envolve armazenar pacotes quando
a rede está congestionada e encaminhá-los na ordem em que chegaram quando a rede não estiver mais congestionada. O
FIFO tem a vantagem de ser o algoritmo de enfileiramento padrão em alguns casos, portanto não requer configuração. O
FIFO tem a desvantagem de não tomar nenhuma decisão sobre a prioridade dos pacotes. A ordem de chegada determina a ordem
Nota Com o enfileiramento FIFO, se houver muitos pacotes aguardando transmissão, um novo pacote que chega
para transmissão sofrerá atraso. Você pode ter experimentado isso no supermercado. Você já se perguntou se
deveria usar a linha de checkout expresso FIFO mesmo quando ela é mais longa do que as linhas de checkout
não expressas FIFO?
O FIFO não fornece nenhuma funcionalidade de QoS e nenhuma proteção contra um aplicativo que usa
recursos de rede de uma forma que afeta negativamente o desempenho de outros aplicativos.
Fontes intermitentes podem causar grandes atrasos na entrega de tráfego de aplicativos urgentes e
potencialmente adiar o controle da rede e mensagens de sinalização. Pacotes longos podem causar atrasos
injustos para aplicativos que usam pacotes curtos. Por esses motivos, a Cisco desenvolveu algoritmos de
enfileiramento avançados que fornecem mais recursos do que o enfileiramento FIFO básico, incluindo
enfileiramento prioritário, enfileiramento personalizado e WFQ. Esses algoritmos são descritos nas próximas
seções.
Enfileiramento prioritário
O enfileiramento prioritário garante que o tráfego importante seja processado primeiro. Ele foi projetado para dar
prioridade estrita a uma aplicação crítica e é particularmente útil para protocolos sensíveis ao tempo, como
Systems Network Architecture (SNA). Os pacotes podem ser priorizados com base em vários fatores, incluindo
protocolo, interface de entrada, tamanho do pacote e endereço de origem ou destino.
O enfileiramento prioritário é especialmente apropriado em casos em que os links WAN ficam congestionados
de tempos em tempos. Se os links WAN estiverem constantemente congestionados, o cliente deverá investigar
as ineficiências do protocolo e do aplicativo, considerar o uso de compactação ou possivelmente atualizar para
mais largura de banda. Se os links WAN nunca estiverem congestionados, o enfileiramento prioritário será
desnecessário. Como o enfileiramento prioritário requer processamento extra e pode causar problemas de
desempenho para tráfego de baixa prioridade, ele não deve ser recomendado, a menos que seja necessário.
O enfileiramento prioritário tem quatro filas: alta, média, normal e baixa. A fila de alta prioridade é sempre
esvaziada antes que as filas de prioridade mais baixa sejam atendidas, conforme mostrado na Figura 13-3.
A fila prioritária é análoga a uma fila de primeira classe em um aeroporto, onde todos os funcionários atendem
aquela fila primeiro até que ela esvazie.
Enfileiramento
personalizado O enfileiramento personalizado foi projetado para permitir que uma rede seja compartilhada entre
aplicativos com diferentes requisitos mínimos de largura de banda ou latência. O enfileiramento personalizado
atribui diferentes quantidades de espaço de fila a diferentes protocolos e trata as filas no modo round-robin.
Um protocolo específico pode ser priorizado atribuindo-lhe mais espaço na fila.
O enfileiramento personalizado é mais “justo” do que o enfileiramento prioritário, embora o enfileiramento
prioritário seja mais poderoso para priorizar um único aplicativo crítico.
Você pode usar o enfileiramento personalizado para fornecer largura de banda garantida em um ponto de
congestionamento potencial. O enfileiramento personalizado ajuda a garantir que cada tipo de tráfego receba uma
porção fixa da largura de banda disponível e que, quando o link estiver sob estresse, nenhum aplicativo obtenha mais
Machine Translated by Google
do que uma proporção predeterminada de capacidade. A fila personalizada é análoga a uma fila de primeira classe
em um aeroporto, onde os funcionários atendem essa fila primeiro até certo ponto. Após um determinado número
de passageiros da primeira classe ter sido atendido, os balconistas passam para as demais pessoas.
COMEÇAR
Pacote em Não
fila alta?
Pacote
Não
em fila média?
Sim
Pacote
Não
na fila
Sim normal?
Pacote
Não
em fila
Sim baixa?
Sim
O enfileiramento personalizado coloca uma mensagem em 1 das 17 filas. O roteador atende as filas de
1 a 16 em ordem round-robin. (A fila 0 contém mensagens do sistema, como mensagens de manutenção de
atividade e de sinalização, e é esvaziada primeiro.) Um administrador de rede configura o tamanho da janela
de transmissão de cada fila em bytes. Após o número apropriado de pacotes ter sido transmitido de uma fila, de
modo que o tamanho da janela de transmissão tenha sido atingido, a próxima fila é verificada, conforme mostrado
na Figura 13-4.
WFQ é um algoritmo de enfileiramento baseado em fluxo que reconhece um fluxo para um aplicativo interativo e
programa o tráfego desse aplicativo para o início da fila para reduzir a resposta.
Machine Translated by Google
tempo. Fluxos de tráfego de baixo volume para aplicações interativas, que incluem uma grande porcentagem de
aplicações na maioria das redes, podem transmitir todas as cargas oferecidas em tempo hábil. Fluxos de tráfego de
alto volume compartilham a capacidade restante.
INICIAR
(com Fila 1)
Não Pacote na
fila?
Sim
Atingiu o
Sim tamanho da Não
Próxima fila Pacote de Despacho
janela de transmissão?
Para aplicativos que usam o subcampo IP Precedence no cabeçalho IP, o WFQ pode alocar largura de banda
com base na precedência. O algoritmo aloca mais largura de banda para conversas com maior precedência e
garante que essas conversas sejam atendidas mais rapidamente quando ocorre congestionamento. O WFQ atribui
um peso a cada fluxo, que determina a ordem de transmissão dos pacotes enfileirados. A precedência de IP
ajuda a determinar o fator de ponderação.
O WFQ também funciona com RSVP, que usa o WFQ para alocar espaço de buffer, agendar pacotes e garantir
largura de banda com base em reservas de recursos. Além disso, o WFQ compreende o bit de elegibilidade
para descarte (DE) e os mecanismos de notificação de congestionamento explícita direta (FECN) e notificação
de congestionamento explícita retroativa (BECN) em uma rede Frame Relay. Após a identificação do
congestionamento, os pesos usados pelo WFQ são alterados para que uma conversa que encontre
congestionamento seja transmitida com menos frequência.
A fila FIFO é reservada para cada classe e o tráfego pertencente a uma classe é direcionado para a fila dessa
classe.
Após a definição de uma classe, você pode atribuir características a ela, como largura de banda e o número
máximo de pacotes que podem ser enfileirados para a classe, chamado limite de fila.
A largura de banda atribuída a uma classe é a largura de banda garantida entregue à classe durante o
congestionamento. O limite de fila da classe é o número máximo de pacotes permitidos para acumular na fila da
classe. Para otimizar como os pacotes são descartados se excederem o limite da fila, você pode ativar a
detecção precoce aleatória ponderada (WRED), que será abordada posteriormente neste capítulo.
A classificação de fluxo para CBWFQ é baseada no WFQ. Ou seja, pacotes com o mesmo endereço IP de
origem, endereço IP de destino, porta TCP ou UDP de origem e porta TCP ou UDP de destino são classificados
como pertencentes ao mesmo fluxo. O WFQ aloca uma parcela igual da largura de banda para cada fluxo. O
WFQ baseado em fluxo também é chamado de fila justa porque todos os fluxos são igualmente ponderados.
Quando o CBWFQ está habilitado, os pacotes que chegam a uma interface de saída são classificados de acordo
com os critérios de correspondência definidos. O peso de um pacote pertencente a uma classe específica é
derivado da largura de banda atribuída à classe quando a configurou. Nesse sentido, o peso de uma classe é
configurável pelo usuário. Após a atribuição do peso de um pacote, o pacote é colocado na fila apropriada.
O CBWFQ usa os pesos atribuídos aos pacotes enfileirados para garantir que a fila de classe seja
atendida de maneira justa.
O LLQ combina o enfileiramento prioritário com o CBWFQ e foi originalmente chamado de PQ-CBWFQ, mas até
mesmo a Cisco reconheceu que os acrônimos só podem demorar um certo tempo antes de perderem seu valor
mnemônico. LLQ traz filas de prioridade estrita para CBWFQ. O enfileiramento de prioridade estrita permite
que dados sensíveis a atrasos, como voz, sejam enviados antes que os pacotes em outras filas sejam enviados.
Sem LLQ, o CBWFQ fornece WFQ baseado em classes definidas sem nenhuma fila de prioridade estrita
disponível para tráfego em tempo real. Conforme mencionado na seção anterior, o CBWFQ permite definir
classes de tráfego e depois atribuir características a cada classe. Por exemplo, você pode especificar a largura de
banda mínima entregue a uma classe durante um congestionamento.
Ao usar o CBWFQ, o peso de um pacote pertencente a uma classe específica é derivado da largura de
banda atribuída à classe quando a configurou. Portanto, a largura de banda atribuída aos pacotes de uma classe
determina a ordem em que os pacotes são enviados. Todos os pacotes são atendidos de forma justa com base
no peso e nenhuma classe de pacotes recebe prioridade estrita. Este esquema apresenta problemas para o
tráfego de voz que é intolerante ao atraso e à variação do atraso (jitter).
O LLQ permite o uso de uma fila única de prioridade estrita dentro do CBWFQ no nível da classe, permitindo
direcionar o tráfego pertencente a uma classe para a fila de prioridade estrita do CBWFQ.
Embora seja possível colocar vários tipos de tráfego em tempo real na fila de prioridade estrita, a Cisco
recomenda enfaticamente que você direcione apenas o tráfego de voz para a fila. O tráfego de voz exige que o
atraso seja invariável. O tráfego em tempo real, como o de vídeo, pode introduzir variação no atraso, frustrando
assim a estabilidade do atraso necessária para uma transmissão de voz bem-sucedida.
Machine Translated by Google
transmissão. O LLQ é uma ferramenta essencial para projetistas de redes que planejam transmitir tráfego de
voz em links de baixa largura de banda que também transportam outros tipos de tráfego.
Um desses algoritmos é a detecção precoce aleatória (RED), que funciona monitorando cargas de tráfego em
pontos de uma rede e descartando pacotes aleatoriamente se o congestionamento começar a aumentar. O
resultado é que os nós de origem detectam o tráfego perdido e diminuem sua taxa de transmissão. O RED foi
projetado principalmente para funcionar com aplicativos baseados no Transmission Control Protocol
(TCP).
Após a perda de pacotes, uma sessão TCP diminui o tamanho da janela de transmissão, diminuindo
efetivamente a taxa de transmissão. Em seguida, aumenta gradualmente o tamanho da janela até que o
congestionamento ocorra novamente. O termo boto às vezes é usado para se referir ao fechamento e
reabertura de janelas. (Imagine um golfinho entrando e saindo da água.)
A experiência mostra que se os roteadores não aplicarem algum tipo de randomização ao descarte de
pacotes, múltiplas sessões TCP tendem a diminuir sua taxa de transmissão simultaneamente. (As sessões
fazem um mergulho sincronizado, o que em termos mais técnicos costuma ser chamado de sincronização
global.) Vários aplicativos diminuem e aumentam sua taxa de transmissão simultaneamente, o que significa
que a largura de banda não é usada de forma eficaz.
Quando vários aplicativos ficam lentos, a largura de banda é desperdiçada. Quando aumentam sua taxa,
tendem a aumentar a utilização da largura de banda até o ponto em que o congestionamento ocorre
novamente.
A vantagem do RED é que ele randomiza o descarte de pacotes, reduzindo assim o potencial de múltiplas
sessões sincronizarem seu comportamento. RED é uma boa solução para um roteador central em uma topologia
hub-and-spoke. O RED distribui o descarte de pacotes em muitas das redes spoke e evita causar problemas de
congestionamento para múltiplas sessões de aplicativos de um site.
O WRED baseado em fluxo classifica o tráfego de entrada em fluxos com base em parâmetros como
endereços e portas de destino e origem. O WRED baseado em fluxo usa essas informações de
classificação e estado para garantir que cada fluxo não consuma mais do que sua parcela permitida dos
recursos do buffer de saída. O WRED baseado em fluxo determina quais fluxos monopolizam os recursos e
penaliza mais fortemente esses fluxos.
Modelagem de tráfego
Outra ferramenta disponível para projetistas de rede que usam equipamentos Cisco é o Traffic Shaping, que
permite gerenciar e controlar o tráfego da rede para evitar gargalos e atender aos requisitos de QoS. Ele
evita o congestionamento reduzindo o tráfego de saída de um fluxo para uma taxa de bits configurada,
enquanto enfileira rajadas de tráfego para esse fluxo. Em topologias com roteadores e links de
capacidades variadas, o tráfego pode ser moldado para evitar sobrecarregar um roteador ou link
downstream.
A modelagem de tráfego é configurada por interface. O administrador do roteador usa listas de controle de
acesso para selecionar o tráfego a ser modelado. A modelagem de tráfego funciona com uma variedade de
tecnologias de Camada 2, incluindo Frame Relay, ATM, Switched Multimegabit Data Service (SMDS) e
Ethernet.
Em uma interface Frame Relay, você pode configurar a modelagem de tráfego para se adaptar
dinamicamente à largura de banda disponível usando o mecanismo BECN. Além disso, a Cisco possui um
recurso específico para redes Frame Relay chamado modelagem de tráfego Frame Relay , que oferece
suporte a técnicas de otimização específicas do Frame Relay.
A Cisco também oferece suporte a um recurso chamado taxa de acesso comprometida (CAR) , que
permite classificar e policiar o tráfego em uma interface de entrada. O CAR apoia a especificação de
políticas sobre como o tráfego que excede uma determinada alocação de largura de banda deve ser tratado.
O CAR analisa o tráfego recebido em uma interface (ou um subconjunto desse tráfego selecionado por
uma lista de controle de acesso), compara sua taxa com um máximo configurado e, em seguida, toma
medidas com base no resultado. Por exemplo, ele pode descartar um pacote ou alterar os bits de precedência
IP no pacote para indicar que o pacote deve ser tratado com prioridade mais baixa.
Resumo
Para atender às metas de um cliente em termos de desempenho de rede, escalabilidade, disponibilidade e
capacidade de gerenciamento, você pode recomendar diversas técnicas de otimização. A otimização fornece
alta largura de banda, baixo atraso e jitter controlado exigidos por muitos aplicativos de negócios críticos.
Para minimizar a utilização da largura de banda para aplicativos multimídia que enviam grandes fluxos de
dados para muitos usuários, você pode recomendar tecnologias IP multicast. Essas tecnologias incluem
endereçamento multicast, Internet Group Management Protocol (IGMP) para permitir que clientes ingressem
em grupos multicast e protocolos de roteamento multicast, como DVMRP e PIM.
Machine Translated by Google
Multimídia e outros aplicativos sensíveis ao congestionamento e atraso da rede podem informar os roteadores na
rede sobre seus requisitos de QoS usando métodos dentro e fora da banda. Um método dentro da banda
envolve definir bits dentro dos pacotes para especificar como o pacote deve ser tratado. Por exemplo, IPv4 inclui
o campo Serviços Diferenciados e IPv6 inclui o campo classe de tráfego. O IEEE 802.1p também possui uma
maneira de especificar a prioridade nos quadros da camada de enlace de dados.
O Resource Reservation Protocol (RSVP) é um método fora de banda para especificar QoS. Ele pode ser
usado com o protocolo Common Open Policy Service (COPS), que padroniza a comunicação cliente/servidor
entre pontos de aplicação de políticas (PEP), como roteadores, e servidores de políticas, também
conhecidos como pontos de decisão de políticas (PDP).
Após a atualização de uma rede para incluir recursos de QoS, os aplicativos que usam RTP podem ser
implantados. O Real-Time Transport Protocol (RTP) fornece um serviço de camada de transporte adequado
para transmitir dados de áudio e vídeo em tempo real através de serviços de rede multicast ou unicast. Para
evitar atraso extra de serialização causado pela adição de um cabeçalho RTP aos pacotes multimídia, o RTP
compactado deve ser usado, especialmente com pacotes de voz.
A Cisco fornece vários recursos para otimizar uma rede, incluindo comutação NetFlow, Cisco Express Forwarding
(CEF), serviços avançados de enfileiramento, detecção precoce aleatória (RED) e modelagem de tráfego.
Perguntas de revisão
1. Como o roteamento multicast difere do roteamento unicast?
2. Este capítulo menciona o atraso de serialização (às vezes também chamado de atraso de transmissão
atraso). Que outros tipos de atraso existem? Liste e descreva três outros tipos de atraso.
4. Conforme mencionado na seção “Fragmentação e intercalação da camada de link”, PPP, Frame Relay,
ATM e outras tecnologias WAN suportam a fragmentação de pacotes (quadros) na camada 2.
Como você deve ter aprendido nas aulas básicas de rede, o IP também pode fragmentar pacotes na
Camada 3. Quais são algumas vantagens e desvantagens da fragmentação na Camada 3 versus
fragmentação na Camada 2?
5. Pesquise o problema conhecido como “sincronização global TCP”. Como o RED pode reduzir
a probabilidade de sincronização global do TCP?
Machine Translated by Google
Cenário de projeto
No Capítulo 11, “Selecionando tecnologias e dispositivos para redes corporativas”, você aprendeu
sobre o projeto de design de rede da Klamath Paper Products. Klamath planeia lançar um programa
contínuo de ensino à distância que irá formar funcionários e outras empresas sobre formas de
conservar matérias-primas, utilizar materiais reciclados e trabalhar de forma mais eficiente. A gestão
executiva considera o novo programa de formação vital para o sucesso contínuo de Klamath e
aprovou financiamento para equipar as salas de formação na maioria dos locais com sistemas de
videoconferência digital.
1. Com base nos requisitos de Klamath, selecione algumas tecnologias de otimização de rede
que ajudarão a manter a qualidade do vídeo para o programa de ensino à distância. Com
base na Figura 11-6, “Novo núcleo WAN em Klamath”, desenhe um mapa de topologia
de rede para Klamath e indique onde suas técnicas de otimização serão implantadas. Inclua no
desenho da rede uma explicação escrita das técnicas de otimização.
2. Conforme discutido no Capítulo 11, no futuro, Klamath planeja desmantelar sua rede de voz
herdada. O tráfego de voz legado que atualmente é transportado em circuitos dedicados de
64 kbps será atualizado para usar a tecnologia VoIP. Todo o tráfego de voz, vídeo e dados
atravessará a nova rede Metro Ethernet da Klamath. Que técnicas adicionais de otimização
você adicionará ao projeto de sua rede para suportar o tráfego VoIP?
Atualize seu desenho de topologia de rede e explicação escrita para indicar técnicas de
otimização para o tráfego VoIP.
Machine Translated by Google
Capítulo 14
Documentando seu
Design de rede
Este capítulo começa fornecendo conselhos sobre como responder à solicitação de proposta (RFP) de um
cliente e conclui com informações sobre como escrever um documento de projeto de rede quando não há
A RFP existe. A seção “Conteúdo de um documento de design de rede” fornece um esboço
de um documento de projeto típico e especifica os tópicos que devem ser incluídos em cada
parte do documento. A seção serve como um resumo para o design de rede de cima para baixo
porque faz referência a cada uma das principais etapas da metodologia de projeto de cima para baixo
apresentada neste livro.
Neste ponto do processo de design, você deve ter um design abrangente baseado
em uma análise dos objetivos comerciais e técnicos do seu cliente e inclui tanto lógica
e componentes físicos que foram testados e otimizados. O próximo passo no
processo é escrever um documento de design.
Também é importante que um documento de design contenha planos para implementação da rede,
medir o sucesso da implementação e evoluir o design da rede como novos
surgem requisitos de aplicação. O trabalho do designer de rede nunca está completo. O processo
análise de requisitos e desenvolvimento de soluções de design começa novamente assim que um
projeto é implementado. A Figura 14-1 mostra a natureza cíclica da rede top-down
processo de design.
Conforme mencionado nos capítulos anteriores, além de ser cíclico, o projeto de rede também é iterativo.
Algumas etapas ocorrem durante múltiplas fases de um projeto. O teste ocorre durante o
fase de validação do projeto e também durante a implementação. A otimização ocorre durante a finalização
do projeto e também após a implementação, durante a fase de monitoramento da rede.
A documentação é um esforço contínuo. A documentação preenchida antes da fase de implementação
pode facilitar o processo de aprovação de um projeto e ajudar a acelerar a implementação de novas
tecnologias e aplicações.
Machine Translated by Google
Analisar
Requisitos
Monitore
Desenvolver
e otimize Lógico
Rede
Projeto
Desempenho
Implementar Desenvolver
e testar Físico
Rede Projeto
Teste, otimize e
documente
Projeto
Cada RFP é diferente, mas normalmente uma RFP inclui alguns ou todos os seguintes tópicos:
ÿ Escopo do projeto
Algumas organizações especificam o formato necessário para a resposta à RFP. Se for esse o caso,
seu documento de projeto inicial deverá seguir com precisão o formato e a estrutura prescritos pelo
cliente. As organizações que especificam um formato podem recusar-se a ler respostas que não sigam o
formato solicitado. Em alguns casos, o cliente pode solicitar um documento de acompanhamento no
qual você possa fornecer informações mais detalhadas sobre o projeto de sua rede lógica e física.
Algumas RFPs estão na forma de um questionário. Neste caso, as perguntas deverão nortear a
organização da proposta. Às vezes, enfeites que se concentram nos principais requisitos e nos pontos
de venda do seu design podem ser adicionados, a menos que a RFP declare especificamente que
eles não devem ser adicionados.
Embora cada organização lide com as RFPs de maneira um pouco diferente, normalmente uma RFP
declara que a resposta deve incluir alguns ou todos os seguintes tópicos:
ÿ Um plano de implementação
ÿ Um plano de treinamento
Apesar do fato de que uma resposta a uma RFP deve permanecer dentro das diretrizes especificadas
pelo cliente, você deve, no entanto, usar a criatividade para garantir que sua resposta destaque os
benefícios do seu design. Com base em uma análise dos objetivos técnicos e de negócios do seu
cliente e no fluxo e características do tráfego de rede (conforme abordado na Parte I, “Identificando as
necessidades e objetivos do seu cliente”), escreva sua resposta para que o leitor possa reconhecer
facilmente que o design satisfaz critérios críticos de seleção.
Sumário executivo
Um documento de design abrangente pode ter muitas páginas. Por este motivo, é essencial que
você inclua no início do documento um Resumo Executivo que exponha de forma sucinta os principais
pontos do documento. O Resumo Executivo não deve ter mais do que uma página e deve ser
direcionado aos gerentes e principais participantes do projeto que decidirão se aceitam seu projeto.
Embora o Resumo Executivo possa incluir algumas informações técnicas, não deve fornecer detalhes
técnicos. O objetivo do resumo é convencer os tomadores de decisão sobre os benefícios comerciais
do seu design. As informações técnicas devem ser resumidas e organizadas de acordo com os objetivos
de maior prioridade do cliente para o projeto de design.
Meta do projeto
Esta seção deve indicar o objetivo principal do projeto de design de rede. A meta deve ser
orientada para os negócios e relacionada a um objetivo geral de que a organização tenha mais sucesso
em seu negócio principal. A seção Meta do Projeto não deve ter mais do que um parágrafo; muitas
vezes pode ser escrito como uma única frase. Escrevê-lo cuidadosamente lhe dará a oportunidade de
tornar óbvio para os tomadores de decisão que estão lendo o documento que você entende o propósito
principal e a importância do projeto de design de rede.
Segue um exemplo de seção de meta do projeto que foi escrita para um cliente de design real:
O objetivo deste projeto é desenvolver uma rede de área ampla (WAN) que suportará novas
aplicações multimídia de alta largura de banda e baixo atraso. As novas aplicações são
fundamentais para o sucesso da implementação de novos programas de formação para a
força de vendas. A nova WAN deverá facilitar a meta de aumentar as vendas nos Estados
Unidos em 50% no próximo ano fiscal.
Escopo do Projeto
A seção Escopo do Projeto fornece informações sobre a extensão do projeto, incluindo um resumo dos
departamentos e redes que serão afetados pelo projeto. A seção Escopo do Projeto especifica se
o projeto é para uma nova rede ou modificações em uma rede existente. Indica se o projeto é para um
único segmento de rede, um conjunto de LANs, uma rede de prédio ou campus, um conjunto de redes
WAN ou de acesso remoto ou, possivelmente, toda a rede corporativa.
Machine Translated by Google
O escopo deste projeto é atualizar a WAN existente que conecta todos os principais escritórios
de vendas nos Estados Unidos às sedes corporativas. A nova WAN será acessada
por funcionários de vendas, marketing e treinamento. Está além do escopo deste projeto
atualizar quaisquer LANs usadas por esses funcionários. Também está fora do escopo deste
projeto atualizar as redes nos escritórios satélites e de teletrabalho.
O escopo do projeto pode intencionalmente não cobrir alguns assuntos. Por exemplo, corrigir
problemas de desempenho com um aplicativo específico pode estar intencionalmente além do
escopo do projeto. Ao declarar antecipadamente as suposições feitas sobre o escopo do projeto,
você pode evitar qualquer percepção de que sua solução falha inadvertidamente em resolver certas
preocupações.
Requisitos de concepção
Embora a seção Objetivo do Projeto seja geralmente curta, a seção Requisitos de Projeto é sua
oportunidade de listar todos os principais requisitos comerciais e técnicos para o projeto de rede. A
seção Requisitos de Projeto deve listar os objetivos em ordem de prioridade. As metas críticas
devem ser marcadas como tal. Para revisar alguns exemplos de requisitos de projeto, consulte os
estudos de caso no Capítulo 10, “Selecionando tecnologias e dispositivos para redes de campus”
e no Capítulo 11, “Selecionando tecnologias e dispositivos para redes corporativas”.
Metas de negócios
As metas de negócios explicam o papel que o projeto da rede desempenhará para ajudar uma
organização a fornecer melhores produtos e serviços aos seus clientes. Os executivos que lerem
o documento de design terão maior probabilidade de aceitar o design da rede se reconhecerem,
na seção Metas de Negócios, que o designer da rede entende a missão comercial da
organização.
Muitos designers de rede têm dificuldade em escrever a seção Metas de Negócios porque estão
mais interessados em metas técnicas. Entretanto, é fundamental que você concentre seu
documento de projeto de rede na capacidade de seu projeto ajudar um cliente a resolver problemas
de negócios do mundo real.
Metas Técnicas
A seção Metas Técnicas documenta as seguintes metas discutidas no Capítulo 2,
“Analisando Metas Técnicas e Compensações”:
ÿ Disponibilidade: A quantidade de tempo que uma rede está disponível para os usuários, geralmente expressa
como um percentual de tempo de atividade ou como tempo médio entre falhas (MTBF) e tempo médio
para reparo (MTTR). A documentação de disponibilidade também pode incluir qualquer informação
coletada sobre o custo monetário associado ao tempo de inatividade da rede.
ÿ Segurança: Metas gerais e específicas para proteger a capacidade da organização de conduzir negócios
sem interferência de intrusos acessando indevidamente ou danificando equipamentos, dados ou
operações. Esta seção também deve listar os vários riscos de segurança que o cliente identificou
durante a fase de análise de requisitos do projeto de design.
ÿ Usabilidade: A facilidade com que os usuários da rede podem acessar a rede e seus serviços. Esta seção
pode incluir informações sobre metas para simplificar as tarefas do usuário relacionadas ao endereçamento
de rede, nomeação e descoberta de recursos.
ÿ Adaptabilidade: A facilidade com que um projeto e implementação de rede pode se adaptar a falhas de rede,
mudanças nos padrões de tráfego, requisitos comerciais ou técnicos adicionais, novas práticas de
negócios e outras mudanças.
A seção Metas Técnicas também deve descrever quaisquer compensações que o cliente esteja disposto a fazer.
Por exemplo, alguns clientes podem indicar que a acessibilidade pode ser sacrificada para cumprir metas
rigorosas de disponibilidade, ou a usabilidade pode ser sacrificada para cumprir metas rigorosas de segurança.
Conforme discutido no Capítulo 2, incluir um gráfico que categoriza os pesos comparativos das metas pode
ajudar os leitores de um documento de projeto de rede a compreender algumas das escolhas de projeto que
foram feitas.
Machine Translated by Google
Esta seção lista as principais comunidades de usuários, incluindo seus tamanhos, localizações e os principais
aplicativos que utilizam. Você pode usar a Tabela 4-1, “Comunidades de Usuários”, para resumir
informações sobre comunidades de usuários. Esta seção também deve listar os principais armazenamentos de dados
(servidores e hosts) e suas localizações. Use a Tabela 4-2, “Armazenamentos de dados”, para resumir informações
sobre armazenamentos de dados.
Aplicativos de rede
A seção Aplicativos de Rede lista e caracteriza a rede nova e existente
formulários. Informações sobre aplicações podem ser resumidas na seção “Rede
Gráfico de Requisitos Técnicos de Aplicações” mostrado na Tabela 2-2, e na tabela “Rede
Gráfico de características de tráfego de aplicativos” mostrado na Tabela 4-4. Se você quiser você pode
mescle essas duas tabelas para que haja apenas uma linha para cada aplicativo.
Os estudos de caso nos Capítulos 10 e 11 fornecem bons exemplos de informações relativas a aplicações de
rede, comunidades de usuários e armazenamentos de dados que deveriam ser incluídos em um projeto.
documento de projeto.
Projeto Lógico
A seção Projeto Lógico documenta os seguintes aspectos do projeto de sua rede:
ÿ Uma lista dos protocolos de comutação e roteamento que foram selecionados para implementação
o design e quaisquer recomendações específicas de implementação associadas a esses protocolos.
ÿ Justificativa do projeto, descrevendo por que várias escolhas foram feitas, à luz das necessidades do cliente
objetivos e o estado atual da rede.
Nota Nem todos os projetos incluem todos esses componentes. Com base nas necessidades do seu
cliente, você deve reconhecer se é necessário abordar todos os problemas incluídos na lista anterior no seu
documento de projeto de rede.
Projeto Físico
A seção Projeto Físico descreve os recursos e os usos recomendados para as tecnologias e dispositivos
selecionados para implementar o projeto. Pode incluir informações para redes de campus (conforme discutido
no Capítulo 10) e acesso remoto e WANs (conforme discutido no Capítulo 11). Esta seção também
pode incluir informações sobre quaisquer provedores de serviços selecionados.
Se for apropriado, a seção Projeto Físico deverá incluir informações sobre preços de dispositivos e serviços
de rede. Às vezes, o preço é negociável e não é apropriado incluí-lo no documento de design. O preço
também pode ser uma distração, tirando o foco da qualidade da solução de design. Em muitos casos, porém,
os clientes esperam ver os preços dos produtos e serviços no documento de design.
Machine Translated by Google
A seção Projeto Físico também deve conter informações sobre a disponibilidade dos produtos. Se o seu
projeto recomendar produtos que ainda não foram enviados, você deverá documentar uma data prevista de
envio, conforme fornecida pelo fornecedor do produto. Se você tiver informações sobre o ciclo de vida de
um produto (por exemplo, quando o fornecedor o tornará obsoleto), inclua-as também.
ÿ Objetivos de teste
ÿ Ferramentas de teste
ÿ Scripts de teste
ÿ Resultados e observações
Plano de implementação
O Plano de Implementação inclui recomendações para a implantação do design de rede. O nível de
detalhe nesta seção varia de projeto para projeto e depende do seu relacionamento com o cliente.
ÿ Um cronograma do projeto.
ÿ Um plano para comunicar o projeto aos usuários finais, administradores de rede e gerenciamento. Esta seção também
pode explicar como o progresso da implementação será comunicado (possivelmente por meio de reuniões de
status agendadas regularmente ou mensagens de e-mail).
ÿ Um plano para evoluir o projeto da rede à medida que surgem novos requisitos e metas de aplicação.
Cronograma do projeto
Tabela 14-1 Cronograma de alto nível desenvolvido para um cliente de projeto de rede
Data de Marco
Conclusão
1 de Junho Design concluído e uma versão beta do documento de design distribuída para
principais executivos, gerentes, administradores de rede e usuários finais
25 de junho Instalação de circuitos alugados entre todos os edifícios concluída pelo serviço WAN
fornecedor
10 de agosto Feedback recebido sobre a implementação dos Edifícios 2 a 5 de administradores de rede e usuários
finais
Orçamento do projeto
A seção Orçamento do Projeto deve documentar os fundos que o cliente tem disponíveis para
compras de equipamentos, contratos de manutenção e suporte, contratos de serviços, licenças de
software, treinamento e pessoal. O orçamento também pode incluir honorários de consultoria e
despesas de terceirização.
Retorno do investimento
Em muitos casos, a melhor maneira de convencer um cliente sobre um novo projeto de rede é convencê-
lo de que o projeto se pagará em um período de tempo razoável. O documento de projeto de
rede pode incluir uma análise de retorno do investimento (ROI) que explica a rapidez com que o
projeto ou o novo equipamento se pagarão.
A seguir está um exemplo de ROI concluído para um cliente real, o Cliente ABC. O objetivo desta
análise de ROI foi provar ao cliente que o equipamento de comutação WAN recomendado se pagará
rapidamente porque permitirá ao cliente diminuir o número de linhas T1 necessárias e, assim, reduzir
o custo de aluguel dessas linhas do local. companhia de telefone.
Análise de ROI para o cliente ABC O cliente ABC está considerando gastar US$ 1 milhão em novos
equipamentos de comutação WAN.
Se o Cliente ABC não gastar US$ 1 milhão em equipamentos e, em vez disso, aplicar o dinheiro em
outros investimentos por 5 anos, a Empresa ABC poderá ganhar aproximadamente 5% de juros, e o
US$ 1 milhão original valeria US$ 1,05 milhão. Isso significa que o investimento no equipamento
deveria ser considerado, na verdade, de US$ 1,05 milhão.
Foi assumido que o equipamento de comutação WAN terá uma vida útil de 5 anos antes de se tornar
obsoleto. Portanto, o custo anual de propriedade do equipamento foi calculado como US$ 1,05
milhão dividido por 5, ou US$ 210.000. O custo mensal de propriedade do equipamento é de US$
210.000 dividido por 12, ou US$ 17.500.
O custo mensal deve ser comparado ao custo de propriedade dos multiplexadores por divisão de tempo
(TDMs) existentes que compõem o projeto atual. Esse custo é 0 porque os TDMs são antigos e
totalmente pagos e depreciados.
Contudo, o custo de funcionamento da rede antiga deve ser comparado com o custo de funcionamento
da nova rede. O novo desenho permitirá ao Cliente ABC utilizar 8 linhas T1 em vez das 20 linhas
T1 exigidas no desenho antigo. Cada linha custa ao Cliente ABC $ 1.500 por mês. Isso significa que
20 linhas custam US$ 30.000 por mês e 8 linhas custam US$ 12.000 por mês.
A economia para o Cliente ABC com o novo design de rede é de US$ 30.000 – US$ 12.000, ou
US$ 18.000 por mês. Considerando que o custo do novo equipamento é de aproximadamente US$
17.500 por mês, pode-se concluir que o equipamento se pagará sozinho.
Machine Translated by Google
A maioria dos documentos de projeto inclui um ou mais apêndices que apresentam informações suplementares
sobre o projeto e a implementação. Informações suplementares podem incluir
mapas detalhados de topologia, configurações de dispositivos, detalhes de endereçamento e nomenclatura de rede,
e resultados abrangentes dos testes do projeto da rede.
Você também pode incluir informações comerciais, como uma lista de contatos no site do cliente
e na sua organização, incluindo endereços de e-mail, números de telefone, números de sinais sonoros,
e endereços físicos. Informações sobre para onde enviar equipamentos e qualquer remessa especial
requisitos ou procedimentos é um acréscimo útil em alguns casos.
Alguns documentos de projeto incluem informações sobre a empresa que apresenta o projeto
proposta, incluindo páginas de relatórios anuais, catálogos de produtos ou comunicados de imprensa recentes
favorável à empresa. O objetivo desse tipo de informação é garantir que o leitor
entende que a empresa está qualificada para desenvolver e implementar o desenho de rede proposto. Se for
apropriado, esta seção pode incluir recomendações de outros clientes para os quais a empresa forneceu uma
solução.
Resumo
Quando um cliente fornece uma RFP, sua proposta de projeto de rede deve seguir o formato prescrito na RFP.
Quando não estiver vinculado a uma RFP ou quando um cliente espera
documentação de projeto abrangente, você deve desenvolver um documento que descreva
requisitos, a rede existente, o projeto lógico e físico, e o orçamento e
despesas associadas à implementação do projeto.
O documento de design deve incluir um resumo executivo e uma meta principal do projeto. Isto
também deve documentar a topologia da rede, quaisquer esquemas de endereçamento e nomenclatura que você
projetado, recomendações de segurança e informações sobre protocolos, tecnologias e
produtos. Os resultados dos testes de projeto de rede podem ser incluídos para convencer seu cliente da validade
de seu projeto.
Também é importante que um documento de design contenha um plano para implementar a rede e medir o
sucesso da implementação. O plano deve recomendar
processos de gerenciamento e monitoramento de rede que podem confirmar que a implementação atende aos
requisitos de desempenho, disponibilidade, segurança, capacidade de gerenciamento, usabilidade,
e acessibilidade.
O plano deverá também mencionar um processo para evoluir a concepção da rede à medida que surgem novos
requisitos de aplicação. As redes empresariais continuam a mudar a um ritmo rápido à medida que as organizações
dependem cada vez mais das suas redes para as ajudar a atingir objectivos críticos de negócio. A
o design da rede deve acompanhar as novas aplicações que permitem às organizações aumentar a receita, reduzir
os custos operacionais e comunicar de forma mais eficaz com os clientes,
Machine Translated by Google
Muitos projetistas de rede inexperientes cometem o erro de pular imediatamente para a etapa de design
de seleção de fornecedores e produtos. O Design de Rede Top-Down apresentou os benefícios de
primeiro analisar requisitos e fluxos de tráfego e depois desenvolver um design lógico, seguido por um
design físico que especifica produtos e tecnologias.
Usar essa abordagem fortalecerá sua competência como projetista de rede e promoverá o sucesso de
seus clientes de projeto de rede.
Perguntas de revisão
1. De que forma o projeto de rede é um processo iterativo? Por que surge a necessidade de documentação
de rede em muitas fases de um projeto de design de rede?
3. Como a seção Objetivo do Projeto de um documento de projeto de rede difere da seção Requisitos
de Projeto? Por que é importante ter ambas as seções?
Cenário de projeto
Nos Capítulos 11 e 13, você aprendeu sobre o projeto de design de rede da Klamath Paper Products.
Desenvolva um cronograma de projeto de alto nível para o projeto de design de Klamath. Inclua as datas
de conclusão das principais tarefas de design, teste e implementação. Talvez você não saiba a
natureza exata de todas as tarefas ou quanto tempo elas levarão, mas com base no que aprendeu neste
livro, tente incluir tarefas realistas e datas de conclusão.
Machine Translated by Google
Glossário
classe para redes ATM. ABR fornece um por exemplo, para evitar pacotes com um determinado
mecanismo de feedback que permite o tráfego endereço IP deixe uma interface específica no
em relação ao tráfego total. A precisão é afetada site) do que upstream. Veja também DSL e
HDSL.
negativamente pela taxa de erro de bit (BER), célula
taxa de erro (CER), ou o número de quadros
Machine Translated by Google
acessibilidade Um objetivo comum de projeto de rede criptografia assimétrica Uma técnica de criptografia na
que especifica a importância de conter os custos qual uma chave diferente é usada para criptografar uma
associados ao desenvolvimento e implementação de um mensagem daquela usada para descriptografá-
projeto de rede, incluindo a compra e operação de la. Compare com criptografia simétrica.
equipamentos e serviços de rede.
Glossário 409
acesso.
Notificação de congestionamento explícita retroativa BECN . unidade de dados de protocolo de ponte Consulte BPDU.
Bit definido por uma rede Frame Relay em quadros que
broadcast Mensagem enviada a todos os nós de uma
viajam na direção oposta dos quadros que encontram um
rede. Compare com multicast e unicast.
caminho congestionado.
Compare com a FECN.
endereço de broadcast Endereço especial reservado
Taxa de erro de bits BER . Proporção de bits
para enviar uma mensagem a todos os nós.
recebidos que contêm erros em relação ao número
Na Camada 2, um endereço de broadcast é um endereço
total de bits recebidos.
de destino MAC de todos os 1s
Testador de taxa de erro de bit BERT . Dispositivo (FF:FF:FF:FF:FF:FF em hexadecimal). Na Camada 3,
que determina o BER num determinado canal de para IP, o endereço de broadcast é 255.255.255.255.
comunicação. Compare com endereço multicast e endereço unicast.
troca informações de acessibilidade com outros sistemas que recebe quadros de transmissão originados de
BGP. BGP Versão 4 (BGP4) é o protocolo de roteamento qualquer dispositivo dentro do conjunto. Os domínios de
interdomínio predominante usado na Internet. transmissão são limitados por roteadores (que não
encaminham quadros de transmissão). Um switch ou hub
não vincula um domínio de broadcast.
Domínio de nome de Internet BIND Berkeley.
Implementação de DNS desenvolvido e distribuído pela tempestade de transmissão Evento de rede indesejável
Universidade da Califórnia em Berkeley (Estados Unidos). no qual muitas transmissões são enviadas em rápida
sucessão através de vários segmentos de rede. Uma
tempestade de transmissão utiliza uma largura de banda
taxa de erro de bits Consulte BER.
de rede substancial, causa processamento extra nos nós
testador de taxa de erro de bits Consulte BERT. da rede e pode causar tempos limites de rede.
Machine Translated by Google
construindo rede Várias LANs dentro Protocolo CDP Cisco Discovery. Protocolo de descoberta
um edifício, geralmente conectado a uma rede backbone de dispositivos executado em equipamentos fabricados
de edifício. pela Cisco, incluindo roteadores,
servidores de acesso remoto e switches. Usando
tráfego em rajadas Tráfego de rede caracterizado por
CDP, um dispositivo pode anunciar sua existência para
curtos intervalos de atividade intensa
outros dispositivos e receber informações sobre
com calmarias entre os intervalos.
outros dispositivos na mesma LAN ou no
lado remoto de uma WAN.
C
Variação do atraso da célula CDV . No ATM, componente
modem a cabo Um modem que opera do atraso na transferência de células (CTD) que é
sobre o cabo coaxial que é usado pelo cabo induzido por buffer e agendamento celular.
Provedores de TV. Porque o cabo coaxial CDV é um parâmetro de atraso de QoS associado
fornece maior largura de banda que o telefone com serviço CBR e VBR.
linhas, um modem a cabo oferece muito mais rapidez
célula Unidade básica de dados para comutação ATM
acesso do que um modem analógico.
e multiplexação. As células contêm identificadores
cache Forma de replicação na qual que especificam o fluxo de dados para o qual eles
as informações aprendidas durante uma transação anterior pertencer. Cada célula consiste em um cabeçalho de 5
são usadas para processar transações posteriores. bytes e 48 bytes de carga útil.
rede de campus Um conjunto de segmentos LAN e variação de atraso celular Veja CDV.
redes de construção em uma área geográfica com alguns
taxa de erro de célula Consulte CER.
quilômetros de diâmetro.
taxa de perda celular Consulte CLR.
capacidade A capacidade de transporte de dados de
um circuito ou rede, medido em bits por atraso na transferência celular Consulte CTD.
segundo (bps). Porque este livro se concentra em
Taxa de erro da célula CER . No ATM, a proporção de
tecnologias de transmissão digital, utiliza
células transmitidas que apresentam erros para o
os termos capacidade e largura de banda são sinônimos.
total de células enviadas em uma transmissão por um
período de tempo específico.
Detecção de portadora Consulte o CD.
Autenticação de handshake de desafio
portadora detecta acesso múltiplo com prevenção de Protocolo Ver CAP.
colisão Consulte CSMA/ CA.
agregação de canal Um processo em que
portadora detecta acesso múltiplo com detecção de um dispositivo pode exibir automaticamente vários
colisão Consulte CSMA/ CD. circuitos à medida que os requisitos de largura de banda aumentam.
Taxa de bits constante CBR . Classe de QoS para ATM unidade de serviço de canal Consulte CSU.
redes. CBR é usado para conexões que
Aperto de mão do desafio CHAP
dependem de cronometragem precisa para garantir uma
Protocolo de autenticação. Recurso de segurança
entrega sem distorções. Compare com ABR, UBR,
suportado em links usando encapsulamento PPP
e VBR.
que identifica o final remoto de uma sessão PPP usando
Detecção de portadora de CD . Sinal que indica um protocolo de handshake e um valor de desafio variável
se uma interface está ativa. Além disso, um sinal que é único e
gerado por um modem indicando que uma chamada imprevisível. Compare com o PAP.
foi conectado.
Machine Translated by Google
Glossário 411
Roteamento entre domínios sem classe CIDR . codec codificador-decodificador. Dispositivo que
Técnica suportada por BGP4 e outros protocolos de normalmente usa modulação por código de pulso para
roteamento baseados em sumarização de rotas transformar sinais analógicos em um fluxo de bits digital e
(agregação). O CIDR permite que os roteadores agrupem sinais digitais novamente em analógicos.
rotas para reduzir a quantidade de informações de
colisão Na Ethernet, o resultado de dois nós transmitindo
roteamento transportadas pelos roteadores principais.
simultaneamente.
circuito Caminho de comunicação entre dois ou mais Serviço de política aberta comum Consulte COPS.
pontos.
Protocolo Cisco Discovery Consulte CDP. compressão A execução de dados por meio de um
algoritmo que reduz o espaço necessário para armazenar ou
Sistema operacional Cisco IOS Cisco Internetwork. Software
a largura de banda necessária para transmitir os dados.
Cisco que fornece funcionalidade, escalabilidade e
segurança comuns para produtos Cisco. O Cisco IOS
Software oferece suporte a uma ampla variedade de congestionamento Uma condição em que o tráfego da
protocolos, mídias, serviços e plataformas. rede atingiu ou está se aproximando da capacidade da
rede.
roteamento entre domínios sem classes Consulte CIDR. controle de admissão de conexão Conjunto de ações
células descartadas em relação às células que são taxa de bits constante Consulte CBR.
Serviço de Política Aberta Comum COPS . Um Portadora CSMA/CD detecta acesso múltiplo
Protocolo IETF que define um cliente/servidor com detecção de colisão. Acesso à mídia
modelo para apoiar o controle de políticas com mecanismo em que os dispositivos determinam se
Glossário 413
topologia de rede, disciplina de linha, notificação de direcionar quadros para os quais um próximo salto não está
erros, entrega ordenada de quadros e controle de fluxo. O listado explicitamente na tabela de roteamento.
armazenamento de dados Uma área em uma rede onde atraso 1. Tempo entre o início de uma transação por um
armazenamento de dados pode ser um servidor, um remetente. 2. Tempo necessário para mover um quadro
conjunto de servidores, um quadro principal, uma unidade da origem ao destino por um determinado caminho.
datagrama Agrupamento lógico de informações enviadas que foram multiplexados em um sinal físico comum de volta
como uma unidade da camada de rede através de um em vários fluxos de saída. Veja também multiplexação.
da rede da interface usuário-rede. Modems e placas de PIM de modo denso Um dos dois modos operacionais
interface são exemplos de DCE.
PIM. Com o PIM de modo denso, os pacotes são
encaminhados em todas as interfaces de saída até que
Compare com DTE.
ocorra a poda. Os receptores são densamente povoados
Roteamento de discagem sob demanda DDR . Técnica pela e presume-se que muitas redes downstream desejam
qual um roteador pode iniciar e fechar automaticamente receber e provavelmente usarão datagramas multicast que
uma sessão de comutação de circuito conforme a são encaminhados a eles. Consulte também PIM, podar e
cabeçalho de protocolo que foi adicionado por um dispositivo padrão desenvolvido pelo National Bureau of Standards
ou processo antes de transmitir os dados. Compare com dos EUA (agora chamado de Instituto Nacional de
Padrões e Tecnologia, ou NIST).
encapsulamento.
Machine Translated by Google
Protocolo de configuração de host dinâmico DHCP . Nível de sinal digital DS-1 1. Especificação de enquadramento
Fornece um mecanismo para alocar endereços IP usado na transmissão de sinais digitais a 1,544 Mbps em
dinamicamente para minimizar a configuração e permitir um circuito WAN.
que os endereços sejam reutilizados quando os hosts
Codepoint de serviços diferenciados DSCP .
não precisarem mais deles.
Um campo de 6 bits no cabeçalho IP usado para fins de
roteamento de discagem sob demanda Consulte DDR. classificação de pacotes e indicando como os pacotes
devem ser encaminhados. Substitui o campo de precedência
codepoint de serviços diferenciados Consulte DSCP.
de IP desatualizado.
sub-rede descontígua Uma sub-rede IP composta por duas E1. Freqüentemente referido em conjunto com a CSU,
ou mais redes físicas separadas por roteadores. como CSU/ DSU. Veja também CSU.
ensino à distância Um método de treinamento em que Equipamento terminal de dados DTE . Dispositivo na
os alunos assistem a uma aula em locais remotos extremidade do usuário de uma interface de rede do
usando videoconferência ou outras técnicas digitais ou usuário que serve como fonte de dados, destino ou ambos.
analógicas de vídeo e áudio. O DTE se conecta a uma rede de dados por meio de
Glossário 415
chave de criptografia Um código usado por Interface de dados distribuídos de fibra Consulte
controle de fluxo Técnica para garantir que uma entidade full mesh Termo que descreve uma rede na qual os
transmissora não sobrecarregue uma entidade receptora com dispositivos são organizados em uma topologia mesh,
dados. Quando os buffers no dispositivo receptor com cada nó da rede tendo um circuito físico ou um circuito
estão cheios, uma mensagem é enviada ao dispositivo virtual conectando-o a todos os outros nós da rede.
remetente para suspender a transmissão até que os
dados nos buffers sejam processados. Consulte também malha e malha parcial.
Glossário 417
H.323 Extensão do H.320 que permite videoconferência projeto de rede hierárquica Uma técnica para
em LANs e outras redes comutadas por pacotes e projetar topologias de redes escaláveis de campus
vídeo pela Internet. e empresas usando um modelo modular em camadas.
Consulte também camada de acesso, camada central e
camada de distribuição.
half duplex Capacidade de transmissão de dados em
apenas uma direção por vez entre uma estação emissora roteamento hierárquico Um modelo para
e uma estação receptora. distribuição de conhecimento de uma topologia de rede
Compare com full duplex. entre roteadores interligados. Com o roteamento
hierárquico, nenhum roteador precisa entender a
handshaking Processo pelo qual duas entidades do
topologia completa. Veja também resumo de rota.
protocolo são sincronizadas durante o estabelecimento
da conexão.
e, se falhar, um desses roteadores em espera herda IEEE são os padrões LAN predominantes atualmente.
a posição principal e o endereço do grupo Hot
Standby. Os hosts usam o endereço Hot Standby
IEEE 802.1D Especificação IEEE que descreve
como endereço de seu gateway padrão.
um algoritmo que evita loops de ponte criando uma
árvore geradora.
hub 1. Geralmente, um termo usado para descrever
IEEE 802.1p Protocolo LAN IEEE para suporte de
um dispositivo ou rede que serve como centro de
QoS em LANs. Especifica mecanismos em
uma topologia em estrela ou hub-and-spoke.
pontes para agilizar a entrega de tráfego de tempo
2. Em Ethernet e IEEE 802.3, um repetidor Ethernet
crítico e para limitar a extensão do tráfego multicast de
multiporta.
alta largura de banda dentro de uma LAN em
topologia hub-and-spoke Uma topologia que ponte. IEEE 802.1p agora é uma parte padrão do IEEE
consiste em uma rede central e um conjunto de redes 802.1D.
remotas, cada uma com uma conexão à rede central
IEEE 802.1Q Protocolo LAN IEEE para suporte a
e sem conexões diretas entre si. O tráfego entre
VLANs em diversas mídias.
redes remotas passa pela rede hub.
EU
Glossário 419
Instituto de Engenheiros Elétricos e Eletrônicos tráfego de voz em redes IP, em particular, a Internet.
Consulte IEEE. Veja também VoIP.
integridade Manter os dados inalterados e protegidos interconexão de redes Termo geral usado para se
contra adulterações à medida que atravessam a rede. referir à indústria e às tecnologias dedicadas à
conexão de redes.
Link entre switches Consulte ISL.
IOS Consulte Cisco IOS.
interface 1. Conexão entre dois sistemas ou
Telefonia via Internet Termo genérico usado para Protocolo de Internet (IP) IPv6 , versão 6.
descrever diversas abordagens para executar Substituição para IPv4.
Machine Translated by Google
Glossário 421
link Canal de comunicação de rede que consiste em Endereço MAC Endereço padronizado da camada
um circuito ou caminho de transmissão e todos os de enlace de dados necessário para cada porta ou
equipamentos relacionados entre um remetente e um dispositivo conectado a uma LAN. Outros dispositivos
receptor. na rede utilizam esses endereços para localizar portas
Glossário 423
fragmentação e remontagem quando uma conexão Sistema básico de entrada/saída de rede NetBIOS .
de usuário é dividida entre dois dispositivos de API usada por aplicativos em uma LAN para solicitar
acesso físico. Às vezes abreviado como MMP. Veja serviços de processos de rede de nível inferior.
também MPPP. Esses serviços incluem o estabelecimento e o
término da sessão e a transferência de
multihoming Anexar um host ou rede a vários
informações. NetBIOS é usado principalmente
segmentos de rede física.
pelos sistemas operacionais Windows.
Protocolo de resolução do próximo salto linhas de fibra óptica em uma variedade de velocidades.
Consulte NHRP. A taxa básica é de 51,84 Mbps (OC-1); cada nível de
sinal opera a uma velocidade divisível por esse número
Sistema de arquivos de rede NFS . Um conjunto de
(portanto, OC-3 funciona a 155,52 Mbps). Veja também
protocolos de sistema de arquivos distribuído desenvolvido
SONET e STS-1.
pela Sun Microsystems que permite acesso remoto a
arquivos em uma rede. carga oferecida A soma de todos os dados que todos
Sistema de gerenciamento de rede NMS . OSPF abre primeiro o caminho mais curto. Estado
Sistema responsável por gerenciar uma rede. do link, algoritmo de roteamento interno hierárquico
Um NMS é geralmente um computador poderoso e proposto como sucessor do RIP na comunidade
bem equipado, como uma estação de trabalho de da Internet. Os recursos do OSPF incluem roteamento
engenharia. Os NMSs se comunicam com os de menor custo, roteamento multicaminho e
agentes para ajudar a acompanhar as estatísticas e os balanceamento de carga. OSPF é um protocolo aberto
recursos da rede. e não proprietário.
Glossário 425
malha parcial Termo que descreve uma rede na qual atualizações Poison-Reverse Atualizações
os dispositivos são organizados em uma topologia de roteamento que indicam explicitamente que
de malha sem exigir que cada dispositivo tenha uma rede ou sub-rede está inacessível, em vez de
uma conexão direta com todos os outros sugerir que uma rede está inacessível por não incluí-
dispositivos. Compare com malha completa. Veja la nas atualizações. Atualizações Poison-reverse
também malha. são enviadas para derrotar loops de roteamento.
Central privada de PBX . Central telefônica digital porta 1. Interface em um dispositivo de interligação
ou analógica localizada nas instalações do assinante de redes (como um roteador ou switch). 2. Na
e usada para conectar redes telefônicas privadas terminologia TCP/IP, um processo da camada
e públicas. de transporte que envia e recebe informações das
camadas inferiores. As portas são numeradas e cada
Taxa de pico de células de PCR . Parâmetro para
porta numerada está associada a um processo
gerenciamento de tráfego ATM. Nas transmissões
específico.
CBR, uma fonte pode emitir células no PCR a
qualquer momento e por qualquer duração e os Protocolo ponto a ponto PPP . Protocolo que
compromissos de QoS negociados devem ser pertinentes. fornece conexões de rede roteador a roteador e
host a rede em circuitos síncronos e assíncronos. O
roteador fantasma Consulte roteador virtual.
PPP foi projetado para funcionar com vários protocolos
endereço físico Consulte endereço MAC. de camada de rede, como IP, IPv6, IPX e AppleTalk.
assinaturas digitais. Esta chave deverá ser mantida em é entregue diariamente. Compare com puxar.
segredo pelo proprietário; ele possui uma chave pública
correspondente.
resposta ARP em nome de um nó final ao host solicitante. RADIUS . Protocolo e banco de dados para
fluxo multicast por essa interface. RARP . Protocolo na pilha TCP/IP que fornece um método
Glossário 427
regenera e propaga sinais elétricos entre dois segmentos anunciados em protocolos de roteamento que faz
de rede. com que uma única rota de resumo seja anunciada
em vez de muitas rotas individuais.
supressão de padrões repetitivos Consulte RPS.
roteador Dispositivo da camada de rede que utiliza
Solicitação de comentários Consulte RFC.
uma ou mais métricas para determinar o caminho
resiliência Capacidade de uma rede resistir a ideal ao longo do qual o tráfego de rede deve
falhas e ainda manter a operação da rede. ser encaminhado. Os roteadores encaminham pacotes
de uma rede para outra com base em
Machine Translated by Google
informações da camada de rede. Os roteadores natureza (largura de banda, jitter, burst máximo e
também executam serviços da camada de rede assim por diante) dos fluxos de pacotes que desejam
na rede. receber.
Protocolo de informações de roteamento Consulte RIP. Protocolo de controle em tempo real RTCP .
tabela de roteamento Tabela armazenada em um Protocolo de transporte em tempo real RTP . Protocolo
roteador ou algum outro dispositivo de interligação IETF que fornece funções de transporte de rede ponta
de redes que rastreia rotas para destinos de rede a ponta para aplicações que transmitem dados em
específicos e, em alguns casos, métricas associadas tempo real, como áudio, vídeo ou dados de simulação,
a essas rotas. por meio de serviços de rede multicast ou unicast.
O RTP fornece serviços como identificação do tipo de
Protocolo de manutenção de tabela
carga útil, numeração de sequência, carimbo de
de roteamento Consulte RTMP.
data/hora e entrega de dados.
atualização de roteamento Mensagem enviada
Tempo de ida e volta RTT . Tempo necessário para
de um roteador para indicar a acessibilidade da rede e
uma comunicação de rede viajar da origem ao destino
informações de custo associadas. As
e voltar. O RTT inclui o tempo necessário para o
atualizações de roteamento são normalmente
destino processar a mensagem da origem e gerar
enviadas em intervalos regulares e após uma mudança na topologia da rede.
uma resposta.
Encaminhamento de caminho reverso RPF . Técnica de
multicasting na qual um datagrama multicast é
quadro runt Um quadro Ethernet com menos de
encaminhado para todos, exceto a interface receptora,
64 bytes.
se a interface receptora for aquela usada para
encaminhar datagramas unicast para a origem do
datagrama multicast. S
Supressão de padrão repetitivo RPS . Uma opção Protocolo de publicidade de serviço SAP . Protocolo
para circuitos de dados WAN que substitui sequências IPX que fornece um meio de informar os clientes da
repetidas de dados por uma única ocorrência da rede sobre os recursos e serviços de rede
sequência e um código que indica ao extremo quantas disponíveis por meio de roteadores e servidores.
Glossário 429
segmento 1. Uma única rede baseada em um Protocolo simples de gerenciamento de rede SNMP .
protocolo específico da Camada 2 e delimitada por Protocolo de gerenciamento de rede para redes TCP/IP.
repetidores, pontes ou switches. 2. Termo usado na O SNMP fornece um meio de monitorar e controlar
especificação TCP para descrever uma única unidade de dispositivos de rede e de gerenciar configurações, coleta
informações da camada de transporte. de estatísticas, desempenho e segurança.
eles. Consulte também PIM de modo denso, PIM e comutação store-and-forward Técnica de comutação
ponto de encontro. de quadros na qual os quadros são
completamente processado antes de ser enviado
Algoritmo SPF do caminho mais curto primeiro. Roteamento
para a porta apropriada. Este processamento inclui o
algoritmo que itera no comprimento do caminho para
cálculo da CRC e
determinar uma árvore geradora de caminho mais curto.
verificando o endereço de destino. Além disso, os
Comumente usado em algoritmos de roteamento
quadros devem ser armazenados temporariamente
link-state. Às vezes chamado de algoritmo de Dijkstra.
até que os recursos da rede (como um
atualizações de horizonte dividido Técnica de link) estão disponíveis para encaminhar o quadro.
roteamento em que informações sobre rotas são Compare com a comutação cut-through.
impedido de sair da interface do roteador
Par trançado blindado STP . Meio de fiação de dois ou
através do qual essa informação foi
quatro pares usado em uma variedade de
recebido. Atualizações de horizonte dividido são úteis em
redes. O cabeamento STP possui uma camada de
evitando loops de roteamento.
isolamento blindado para reduzir ruído e interferência.
falsificação foi projetada para impedir mecanismos que é especificado como a sub-rede pelo
de segurança de rede, como filtros máscara de sub-rede.
e listas de acesso.
máscara de sub-rede máscara de endereço de 32 bits usada
Linguagem padrão internacional para definir Sub-redes são redes segmentadas arbitrariamente por
rota estática Rota explicitamente configurada e switch 1. Dispositivo de rede que filtra, protege e inunda
inserida em uma tabela de roteamento. quadros com base no
Machine Translated by Google
Glossário 431
Endereço de destino MAC de cada quadro. Um pode ser alocada largura de banda em um único fio com
switch opera na camada de enlace de dados do base em intervalos de tempo pré-atribuídos.
modelo OSI. 2. Termo genérico para um
Refletômetro no domínio do tempo TDR . Dispositivo
dispositivo eletrônico ou mecânico que conecta
capaz de enviar sinais através de um meio de
dispositivos ou redes e retransmite dados
rede para verificar a continuidade do cabo e
entre dispositivos ou redes.
outros atributos. Os TDRs são usados para encontrar
criptografia simétrica Método de criptografia problemas de rede na camada física.
que fornece confidencialidade de dados.
Protocolo de emulação de terminal padrão Telnet
Quando duas estações finais usam criptografia
na pilha de protocolos TCP/IP. Telnet é usado para
simétrica, elas devem concordar com o algoritmo
conexão de terminal remoto, permitindo que
a ser usado e com a chave de criptografia que
os usuários façam login em sistemas remotos e
compartilharão. Compare com criptografia assimétrica.
usem recursos como se estivessem conectados a
um sistema local. Telnet é definido na RFC 854.
Hierarquia Digital Síncrona Consulte SDH.
Instalação WAN digital T1 fornecida por empresas refletômetro no domínio do tempo Veja TDR.
de telefonia nos Estados Unidos. T1 transmite
Hora de viver Veja TTL.
dados formatados em DS-1 a 1,544 Mbps. As
linhas T1 podem ser alugadas para uso privado. multiplexador por divisão de tempo Consulte TDM.
Sistema de controle de acesso do controlador multiplexação por divisão de tempo Consulte TDM.
de acesso ao terminal TACACS . Protocolo de
token Quadro que contém informações de controle.
autenticação que fornece autenticação de acesso
A posse do token permite que um dispositivo de
remoto e serviços relacionados, como registro de
rede transmita dados para a rede.
eventos. As senhas dos usuários são administradas
em um banco de dados central, e não em roteadores
individuais, fornecendo uma solução escalonável projeto de rede de cima para baixo Uma
de segurança de rede. metodologia de projeto de rede que exige a análise de
requisitos técnicos e de negócios e o
sistema de comutação tandem Consulte TSS.
desenvolvimento de um projeto lógico, incluindo
Protocolo de controle de transmissão TCP . uma topologia e protocolos, antes de selecionar
Protocolo de camada de transporte orientado à produtos e dispositivos para implementar o
conexão que fornece transmissão de dados full- projeto físico.
duplex confiável. TCP faz parte da pilha de
topologia Arranjo lógico de nós de rede e meios
protocolos TCP/IP.
dentro de uma rede
TDM 1. multiplexador por divisão de tempo. Um estrutura.
dispositivo que implementa multiplexação por divisão
traceroute Programa disponível em muitos
de tempo. 2. Multiplexação por divisão de tempo.
sistemas que rastreia o caminho que um pacote percorre
Técnica na qual informações de múltiplos canais
Machine Translated by Google
para um destino. É usado principalmente para depurar pelo campo DSCP . Consulte também precedência
problemas de roteamento entre hosts. e DSCP. 2. Subcampo desatualizado de 4 bits com
Protocolo de controle de transmissão Consulte TCP. Taxa de bits não especificada UBR . Classe de QoS
para redes ATM. O UBR permite que qualquer
ponte transparente Esquema de ponte
quantidade de dados até um máximo especificado seja
frequentemente usado em redes Ethernet e IEEE
enviada pela rede, mas não há garantias em termos
802.3, no qual as pontes passam quadros ao longo de
de taxa de perda de células e atraso.
um salto por vez, com base em tabelas que associam
Compare com ABR, CBR e VBR.
nós finais às portas da ponte. A ponte transparente
tem esse nome porque a presença de pontes é Protocolo de datagrama de usuário UDP .
transparente para os nós finais da rede. Protocolo da camada de transporte sem conexão na
pilha de protocolos TCP/IP. O UDP é um protocolo
camada de transporte Camada 4 do modelo de
simples que troca datagramas sem confirmação ou
referência OSI. Esta camada é responsável pela
entrega garantida, exigindo que o processamento e
comunicação de rede confiável entre os nós finais. A
a retransmissão de erros sejam tratados por outros
camada de transporte fornece mecanismos para o
protocolos.
estabelecimento, manutenção e terminação de
O UDP é definido na RFC 768.
circuitos virtuais; detecção e recuperação de falhas
de transporte; e controle do fluxo de informações. Interface usuário-rede UNI . Especificação ATM que
define uma norma de interoperabilidade para a
interface entre produtos baseados em ATM (um
TTL é hora de viver. Campo no cabeçalho IP que
router ou um comutador ATM) localizados numa rede
indica por quanto tempo um pacote é considerado
privada e os comutadores ATM localizados nas redes
válido.
públicas das operadoras.
Sistema de comutação tandem TSS . Comutador
intermediário que interconecta circuitos do comutador
unicast Mensagem enviada para um único nó da
de uma central telefônica da companhia telefônica ao
rede. Compare com transmissão e multicast.
comutador de uma segunda central na mesma central.
Glossário 433
Controle de parâmetros de uso UPC . No ATM, o Taxa de bits variável VBR . Classe de QoS para redes
conjunto de ações realizadas pela rede para monitorar ATM. O VBR é subdividido em classe Tempo Real
e controlar o tráfego no ponto de acesso do sistema (RT) e classe Tempo Não Real (NRT). VBR (RT) é
final. usado para conexões nas quais existe uma relação de
temporização fixa entre amostras. VBR (NRT) é usado
usabilidade A facilidade com que os usuários da rede
para conexões nas quais não há relacionamento de
podem acessar uma rede e seus serviços, incluindo a
tempo fixo entre amostras, mas que ainda precisam de
facilidade de endereçamento de rede, nomeação e
QoS garantida. Compare com ABR, CBR e UBR.
descoberta de recursos.
Par trançado não blindado UTP . Meio de fio de circuito virtual Circuito lógico criado para garantir
dois ou quatro pares usado em diversas redes. Não comunicação confiável entre dois dispositivos de
Detecção de atividade de voz VAD . Uma tecnologia que roteador virtual No HSRP, o terceiro roteador não
comprime o tráfego de voz ao não enviar pacotes físico criado quando dois ou mais roteadores físicos
na ausência de fala. compartilham o mesmo endereço IP virtual e endereço
Outros tipos de tráfego podem usar a largura de MAC virtual. Veja também HSRP.
banda extra economizada.
taxa de bits variável Consulte VBR. LAN virtual VLAN . Grupo de dispositivos em uma ou
mais LANs que são configurados (usando software
mascaramento de sub-rede de comprimento variável
de gerenciamento) para que possam se comunicar
Consulte VLSM.
como se estivessem conectados ao mesmo fio quando
variância 1. Em estatística, uma medida de quão estiverem localizados em vários segmentos de LAN
amplamente os dados se dispersam do diferentes.
Machine Translated by Google
Tronco VLAN Um único link físico que Enfileiramento justo ponderado do WFQ . Algoritmo de
suporta mais de uma VLAN. gerenciamento de congestionamento que identifica
conversas (na forma de fluxos de tráfego),
Protocolo de entroncamento VLAN Consulte VTP.
separa os pacotes que pertencem a cada conversa e
Mascaramento de sub-rede de comprimento variável VLSM . garante que a capacidade seja
Capacidade de especificar uma sub-rede diferente compartilhada de forma justa entre essas conversas
máscara para o mesmo número de rede em sub-redes individuais.
Índice
Autorização 436
cálculo, 32
lista de verificação,
recuperação de desastres, análise, 28-29
22-23 de projeto de rede, 13-14
tempo de inatividade, custo
MTBF, 31-32 C
MTTR, 31-32
acesso remoto por modem a cabo, 323-325
especificando requisitos, 29-32 tamanho
cabos
médio do quadro, determinando, 79
coaxial, 287
WLANs, 144-147
analisando, 3
clientes, trabalhando com, 8-10
Machine Translated by Google
D 194-195
DHCP, 172-173
125-128
Machine Translated by Google
DSL, 325-326
PPP, autenticação
P 321-323 , 322-323
redistribuição, 227-228
Machine Translated by Google
Zeroconf 447
autenticação, privacidade
V 254-256, segurança
258-259, 253-260
VLANs, 141-144 Software VPN, cabeamento
DTP, 208 259-260, caracterização, 65-68
IEEE 802.1Q, 207-208 redundância de estação de trabalho para
VTP, 208-209 roteador, 150-151
C
Planejamento de rede WANDL e
Ferramentas de análise, 364
WANs
ATM, largura de
banda 337-338, provisionamento, projeto
de design de exemplo 329-330,
topologias planas 341-348, 122-123
Machine Translated by Google
Visite ciscopress.com/newsletters.
• OnSecurity
Visualize-os em ciscopress.com/podcasts.
Conecte-se com autores e editores da Cisco Press via Facebook e Twitter, visite
informe.com/socialconnect.