Você está na página 1de 363

Recomendações

• Site de aprendizado da Huawei

• http://learning.huawei.com/en

• Huawei e-Learning

• https://ilearningx.huawei.com/portal/#/portal/EBG/51

• Certificação Huawei

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_31 & lang = pt

• Encontre treinamento

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_trai ningsearch & lang =

pt

Mais Informações

• Huawei learning APP

版权所有 © 201 9 华为 技术 有限公司


Certificação Huawei

HCIA-

Roteamento e Comutação

ENTRADA

Tecnologia e dispositivo de rede da Huawei

Tecnologias Huawei Co., Ltd.


Direitos autorais © Huawei Technologies Co., Ltd. 2019.

Todos os direitos reservados.

A Huawei possui todos os direitos autorais, exceto as referências a outras partes. Nenhuma parte disso

documento pode ser reproduzido ou transmitido de qualquer forma ou por qualquer meio sem

consentimento prévio por escrito da Huawei Technologies Co., Ltd.

Marcas comerciais e permissões

e outras marcas comerciais da Huawei são marcas comerciais da Huawei Technologies Co., Ltd.

Todas as outras marcas comerciais e nomes comerciais mencionados neste documento são de propriedade de seus respectivos

proprietários.

Aviso prévio

As informações neste manual estão sujeitas a alterações sem aviso prévio. Foram feitos todos os esforços na

preparação deste manual para garantir a precisão do conteúdo, mas todas as declarações, informações e

recomendações contidas neste manual não constituem garantia de nenhum tipo, expressa ou implícita.

Certificação Huawei

HCIA-Routing & Switching Huawei Networking Technology

e dispositivo

Entrada

Versão 2.5
Sistema de Certificação Huawei

Baseando-se em seu forte sistema de treinamento e certificação técnica e profissional e de acordo com clientes de

diferentes níveis de tecnologia de TIC, a certificação da Huawei está comprometida em fornecer aos clientes uma

certificação profissional autêntica e atende à necessidade do desenvolvimento de engenheiros de qualidade capazes

de oferecer suporte Redes corporativas em face de uma indústria de TIC em constante mudança. O portfólio de

certificação da Huawei para roteamento e comutação (R&S) é composto por três níveis para apoiar e validar o

crescimento e o valor das habilidades e conhecimentos dos clientes em tecnologias de roteamento e comutação.

O nível de certificação Huawei Certified Network Associate (HCIA) valida as habilidades e os conhecimentos dos

engenheiros de rede IP para implementar e dar suporte a redes corporativas de pequeno a médio porte. A certificação

HCIA fornece uma rica base de habilidades e conhecimentos para o estabelecimento de redes corporativas, além da

capacidade de implementar serviços e recursos nas redes corporativas existentes, para apoiar efetivamente as

verdadeiras operações da indústria.

A certificação HCIA abrange as habilidades básicas para TCP / IP, roteamento, comutação e tecnologias de rede IP

relacionadas, juntamente com os produtos de comunicação de dados da Huawei, e habilidades para operação e

gerenciamento da plataforma de roteamento versátil (VRP).

A certificação Huawei Certified Network Professional (HCIP-R & S) é destinada a engenheiros de rede empresariais

envolvidos em projeto e manutenção, bem como a profissionais que desejam desenvolver um conhecimento profundo

das tecnologias de roteamento, comutação, eficiência de rede e otimização. O HCIP-R & S consiste em três unidades,

incluindo Implementação de rede de roteamento e comutação corporativa (IERS), Melhoria do desempenho da rede

corporativa (IENP) e Implementação de projeto de engenharia de rede corporativa (IEEP), que inclui princípios

avançados de tecnologia de roteamento e comutação IPv4, segurança de rede, alta disponibilidade e QoS, bem como

a aplicação das tecnologias cobertas nos produtos Huawei.

A certificação Huawei Certified Internet Expert (HCIE-R & S) foi projetada para imbuir os engenheiros com uma

variedade de tecnologias de rede IP e proficiência em manutenção, para o diagnóstico e solução de problemas dos

produtos Huawei, para equipar os engenheiros com competência profunda no planejamento, design e otimização de

redes IP em larga escala.


CONTEÚDO

Introdução aos Meios de Transmissão .............................................. .................... 1

Enquadramento Ethernet ................................................ ................................................. 14

Endereçamento IP ................................................ .................................................. ..... 34

Protocolo de mensagens de controle da Internet .............................................. .................... 61

Protocolo de Resolução de Endereço ............................................... ............................. 76

Protocolos da camada de transporte ............................................... ................................... 91

Cenário de encaminhamento de dados ............................................... ................................. 107

Fundação VRP ................................................ ................................................. 124

Navegando na CLI ............................................... .............................................. 139

Navegação e gerenciamento do sistema de arquivos ............................................. ........ 157

Gerenciamento de imagem do sistema operacional VRP ............................................. .... 176

Estabelecendo uma única rede comutada ............................................. ........... 190

Protocolo Spanning Tree ............................................... ..................................... 202


Protocolo Rapid Spanning Tree .............................................. ........................... 234

Conhecimentos básicos de roteamento IP ............................................. .......................... 260

Rotas estáticas de IP ............................................... .................................................. 274

Rotear Estado do Link com OSPF ............................................. ............................. 290

Princípios do protocolo DHCP ............................................... ............................... 319

Princípios do protocolo FTP ............................................... ...................................... 336

Princípios do protocolo Telnet ............................................... ................................. 347


• Uma rede pode ser entendida como a capacidade de duas ou mais entidades se comunicarem por um
determinado meio. O desenvolvimento de qualquer rede depende desse mesmo princípio para estabelecer a
comunicação. Geralmente, as entidades de uma rede responsáveis ​pela transmissão e recepção da
comunicação são conhecidas como estações finais, enquanto os meios pelos quais a comunicação é ativada
são entendidos como o meio. Dentro de uma rede corporativa, o meio existe de várias formas, de um cabo físico
a ondas de rádio.
• O cabo coaxial representa uma forma mais histórica de meio de transmissão que hoje pode ter uso limitado na
rede corporativa. Como meio de transmissão, o cabo coaxial compreende geralmente dois padrões, as formas
10Base2 e 10Base5, conhecidas como Thinnet ou Thinwire e Thicknet ou Thickwire, respectivamente.

• Os padrões suportam uma capacidade de transmissão de 10 Mbps transmitida como sinais de banda base
para as distâncias respectivas de 185 e 500 metros. Nas redes corporativas atuais, a capacidade de
transmissão é extremamente limitada para qualquer aplicação significativa. O conector Bayonet
Neill-Concelman (BNC) é a forma comum de conector usado para cabos coaxiais finos 10Base2, enquanto
um conector tipo N foi aplicado ao meio de transmissão mais espesso 10Base5.
• O cabeamento Ethernet tornou-se o padrão para muitas redes empresariais, fornecendo um meio de transmissão
que suporta uma capacidade de transmissão muito maior. O meio suporta um par de quatro fios de cobre
contidos em uma bainha que pode ou não ser protegida contra interferências elétricas externas. A capacidade de
transmissão é determinada principalmente com base na categoria de cabo com a categoria 5 (CAT5) suportando
capacidade de transmissão Fast Ethernet de até 100Mbps, enquanto uma capacidade de transmissão Gigabit
Ethernet mais alta é suportada pelos padrões estendidos de categoria 5 (CAT5e) e superiores.

• A transmissão pela Ethernet como meio físico também é suscetível à atenuação, fazendo com que o alcance da
transmissão seja limitado a 100 metros. O conector RJ-45 é usado para fornecer conectividade com o
cabeamento de pares de fios, exigindo pedidos específicos de pinos dentro do conector RJ-45, para garantir a
transmissão e recepção corretas pelas estações finais no meio de transmissão.
• A mídia óptica usa a luz como meio de transmissão de sinal, em oposição aos sinais elétricos encontrados nos
tipos de mídia Ethernet e coaxial. O meio de fibra óptica suporta uma variedade de padrões de transmissão de
10Mbps, 100Mbps, 1Gbps e também 10Gbps (10GBASE). A fibra monomodo ou multimodo define o uso de um
meio de transmissão óptica para propagação da luz, em que o modo único refere-se a um único modo de
transmissão óptica sendo propagado e é comumente usado para transmissão de alta velocidade em longas
distâncias.

• O modo múltiplo suporta a propagação de vários modos de transmissão óptica suscetíveis à atenuação como
resultado da dispersão da luz ao longo do meio óptico e, portanto, não é capaz de suportar a transmissão a
distâncias maiores. Este modo é frequentemente aplicado a redes locais que abrangem um alcance de
transmissão muito menor. Há um número extenso de padrões de conectores de fibra, sendo que algumas das
formas mais comuns são reconhecidas como conector ST, LC e SC ou conector de encaixe.
• Serial representa um padrão desenvolvido inicialmente há mais de 50 anos para oferecer suporte à transmissão
confiável entre dispositivos, durante os quais muitas evoluções do padrão ocorreram. A conexão serial é
projetada para suportar a transmissão de dados como um fluxo serial de bits. O padrão comum implementado é
chamado de (padrão recomendado) RS-232, mas é um pouco limitado tanto pela distância quanto pela
velocidade. Os padrões originais RS-232 definem que as velocidades de comunicação suportadas não sejam
maiores que 20Kbps, com base em um comprimento de cabo de 50 pés (15 metros); no entanto, é improvável
que as velocidades de transmissão para serial sejam inferiores a 115 Kbps. O comportamento geral da serial
significa que, à medida que o comprimento do cabo aumenta, a taxa de bits suportada diminui, com uma
aproximação de que um cabo de cerca de 150 metros ou 10 vezes o padrão original,

• Outros padrões de série têm a capacidade de atingir faixas de transmissão muito maiores, como é o caso dos
padrões RS-422 e RS-485 que abrangem distâncias de até 4900 pés (1200 metros) e geralmente são
suportados por conectores V.35 que eram tornou-se obsoleto no final dos anos 80, mas ainda é
frequentemente encontrado e mantido atualmente em suporte a tecnologias como Frame Relay e ATM,
quando implementadas. O próprio RS-232 não define padrões de conector, no entanto, duas formas comuns
de conector que suportam o padrão RS-232 incluem os conectores DB-9 e DB-25. Os padrões seriais mais
recentes foram desenvolvidos para substituir grande parte da tecnologia serial RS-232 existente, incluindo os
padrões FireWire e USB (Universal Serial Bus), sendo que este último está se tornando comum em muitos
produtos e dispositivos mais recentes.
• Para permitir a comunicação através de links físicos, os sinais devem ser transmitidos entre as estações
transmissoras e receptoras. Esse sinal varia de acordo com o meio que está sendo usado, como no caso de
transmissão óptica e sem fio. O principal objetivo do sinal é garantir que a sincronização (ou cronometragem)
entre o remetente e o receptor em um meio físico seja mantida, bem como suportar a transmissão do sinal de
dados de uma forma que possa ser interpretada pelo remetente e pelo receptor.

• Uma forma de onda é geralmente reconhecida como uma propriedade da codificação de linha, onde a tensão é

convertida em uma representação binária de valores 0 e 1 que pode ser convertida pela estação receptora. Existem

vários padrões de codificação de linha, com os padrões Ethernet 10Base suportando um padrão de codificação de linha

conhecido como codificação Manchester. A Ethernet rápida com uma faixa de frequência de 100 MHz chama uma

frequência mais alta do que a suportada ao usar a codificação Manchester.

• Uma forma alternativa de codificação de linha é, portanto, usada como NZRI, que por si só contém variações

dependentes da mídia física, oferecendo suporte ao MLT-3 para 100Base-TX e 100Base-FX, juntamente com a

codificação de linha estendida conhecida como codificação 4B / 5B para lidar com possíveis problemas de relógio. O

100Base-T4, por exemplo, usa outro formulário conhecido como codificação de linha estendida 8B / 6T. A Gigabit

Ethernet suporta codificação de linha 8B / 10B, com exceção do 1000Base-T, que depende de uma codificação de bloco

complexa conhecida como 4D-PAM5.


• A Ethernet representa o que se entende por uma rede de acesso múltiplo, na qual duas ou mais estações finais
compartilham um meio de transmissão comum para o encaminhamento de dados. A rede compartilhada é, no entanto,
suscetível a colisões de transmissão, onde os dados são encaminhados pelas estações finais simultaneamente por
um meio comum. Um segmento em que essas ocorrências são possíveis é chamado de domínio de colisão
compartilhado.

• As estações finais em um domínio de colisão dependem da contenção para a transmissão de dados para um destino
pretendido. Esse comportamento contencioso exige que cada monitor de estação final receba dados no segmento
antes de fazer qualquer tentativa de transmissão, em um processo chamado de detecção de colisão de acesso
múltiplo de detecção de portadora (CSMA / CD). No entanto, mesmo após tomar tais precauções, o potencial para a
ocorrência de colisões como resultado da transmissão simultânea por duas estações terminais permanece altamente
provável.
• Os modos de transmissão são definidos na forma half e full duplex, para determinar o comportamento
envolvido na transmissão de dados pelo meio físico.

• Half duplex refere-se à comunicação de dois ou mais dispositivos em um meio físico compartilhado no qual
existe um domínio de colisão e, com ele, é necessário o CSMA / CD para detectar essas colisões. Isso começa
com a estação ouvindo a recepção do tráfego em sua própria interface e, quando estiver quieta por um
determinado período, continuará a transmitir seus dados. Se ocorresse uma colisão, a transmissão cessaria,
seguida pelo início de um algoritmo de retorno para impedir novas transmissões até que um temporizador de
valor aleatório expire, após o qual a retransmissão pode ser tentada novamente.

• O full duplex define a comunicação bidirecional simultânea sobre pares de fios ponto a ponto dedicados,
garantindo que não haja possibilidade de colisões e, portanto, não há necessidade de CSMA / CD.
• A transmissão Gigabit Ethernet é suportada pelo cabeamento CAT 5e e superior, e também qualquer forma de cabeamento

de fibra óptica 1000Base ou superior.

• Um domínio de colisão é um segmento de rede para o qual o mesmo meio físico é usado para comunicação
bidirecional. Os dados transmitidos simultaneamente entre hosts no mesmo meio de rede compartilhado são
suscetíveis a uma colisão de sinais antes que esses sinais cheguem ao destino pretendido. Isso geralmente
resulta em sinais malformados, maiores ou menores que o tamanho aceitável para transmissão (64 bytes - 1500
bytes), também conhecidos como runts e gigantes, sendo recebidos pelo destinatário.

• O CSMA / CD é um mecanismo para detectar e minimizar a possibilidade de eventos de colisão que provavelmente
ocorrerão em uma rede compartilhada. O CSMA exige que o host transmissor escute primeiro os sinais no meio
compartilhado antes da transmissão. Caso nenhuma transmissão seja detectada, a transmissão poderá prosseguir.
Na infeliz circunstância de que os sinais são transmitidos simultaneamente e ocorre uma colisão, os processos de
detecção de colisão são aplicados para interromper a transmissão por um período de tempo gerado localmente,
para permitir que os eventos de colisão sejam eliminados e para evitar que outras colisões ocorram entre os hosts
transmissores.
• A comunicação por redes depende da aplicação de regras que governam como os dados são transmitidos e
processados ​de uma maneira que é entendida pelas entidades de envio e de recebimento. Como resultado,
vários padrões foram desenvolvidos ao longo do tempo, com alguns padrões sendo amplamente adotados.
Existe, no entanto, uma clara distinção entre os padrões que gerenciam o fluxo de dados físicos e os padrões
responsáveis ​pelo encaminhamento lógico e pela entrega do tráfego.

• Os padrões IEEE 802 representam um padrão universal para gerenciar a transmissão física de dados através
da rede física e incluem padrões, incluindo o padrão Ethernet 802.3 para transmissão física através de redes
locais.

• Existem padrões alternativos para transmissão em redes de longa distância operando em mídia baseada em série,
incluindo Ethernet, PPP e HDLC. O TCP / IP foi amplamente adotado como o conjunto de protocolos que define os
padrões da camada superior, regulamentando as regras (protocolos) e o comportamento envolvido no gerenciamento
do encaminhamento e entrega lógicos entre as estações finais.
• O modelo de referência TCP / IP se preocupa principalmente com os princípios básicos do conjunto de protocolos,
que podem ser entendidos como a transmissão e entrega lógica de tráfego entre estações finais. Como tal, o
modelo de referência de protocolo TCP / IP fornece uma representação de quatro camadas da rede, resumindo o
comportamento de encaminhamento físico sob a camada da interface de rede, pois a operação da camada inferior
não é a preocupação do conjunto de protocolos TCP / IP.

• O foco principal permanece na camada de rede (ou Internet), que trata de como o tráfego é logicamente
encaminhado entre redes, e a camada de transporte (às vezes chamada de host para host) que gerencia a
entrega de tráfego de ponta a ponta, garantindo confiabilidade do transporte entre as estações finais de origem
e de destino. A camada de aplicativo representa uma interface através de uma variedade de protocolos que
permitem que os serviços sejam aplicados aos processos de aplicativos do usuário final.
• Embora o modelo de referência TCP / IP seja suportado principalmente como modelo padrão com base no
conjunto de protocolos TCP / IP, o foco do modelo de referência TCP / IP não separa claramente e distingue a
funcionalidade ao se referir à transmissão física da camada inferior.

• Em vista disso, a interconexão de sistemas abertos, ou modelo de referência OSI, é frequentemente


reconhecida como o modelo de referência aos padrões IEEE 802 devido à clara distinção e representação do
comportamento das camadas inferiores que se aproxima dos padrões do modelo de referência LAN / MAN que
são definidos como parte dos padrões IEEE 802-1990 documentados para redes locais e metropolitanas. Além
disso, o modelo que geralmente é uma referência ao conjunto de protocolos ISO, fornece uma análise detalhada
do processamento da camada superior.
• Como os dados do aplicativo da camada superior são determinados para transmissão pela rede a partir de um
sistema final, uma série de processos e instruções deve ser aplicada aos dados antes que a transmissão possa
ser alcançada com sucesso. Esse processo de anexar e aguardar instruções aos dados é conhecido como
encapsulamento e para o qual cada camada do modelo de referência foi projetada para representar.

• À medida que as instruções são aplicadas aos dados, o tamanho geral dos dados aumenta. As instruções
adicionais representam sobrecarga para os dados existentes e são reconhecidas como instruções para a
camada na qual as instruções foram aplicadas. Para outras camadas, as instruções encapsuladas não são
diferenciadas dos dados originais. O anexo final das instruções é realizado como parte dos padrões de protocolo
da camada inferior (como o padrão Ethernet IEEE 802.3) antes de ser transportado como um sinal codificado
em um meio físico.
• Como parte do padrão Ethernet IEEE 802.3, os dados são encapsulados com instruções na forma de cabeçalho e
trailer, antes que possam ser propagados pela mídia física na qual a Ethernet é suportada. Cada estágio do
encapsulamento é referido por uma unidade de dados de protocolo ou PDU, que na camada de enlace de dados é
conhecida como quadro.

• Os quadros Ethernet contêm instruções que governam como e se os dados podem ser transmitidos pela mídia
entre dois ou mais pontos. Os quadros Ethernet vêm em dois formatos gerais, cuja seleção é altamente
dependente dos protocolos que foram definidos antes do encapsulamento do quadro.
• Dois formatos de quadro são reconhecidos como padrão para redes baseadas em Ethernet. O padrão de tipo de
quadro DIX versão 2 foi desenvolvido originalmente no início dos anos 80, onde hoje é reconhecido como o tipo
de quadro Ethernet II. A Ethernet II foi finalmente aceita e integrada aos padrões IEEE 802, destacada como
parte da seção 3.2.6 da documentação dos padrões IEEE 802.3x-1997. O IEEE

O padrão 802.3 Ethernet foi desenvolvido originalmente em 1983, com as principais diferenças entre os formatos
de quadro, incluindo uma alteração no campo de tipo projetada para identificar o protocolo para o qual os dados
devem ser encaminhados após o processamento das instruções do quadro. No formato Ethernet IEEE 802.3, isso
é representado como um campo de comprimento que se baseia em um conjunto estendido de instruções referidas
como 802.2 LLC para identificar o protocolo de encaminhamento.

• Ethernet II e IEEE 802.3 associam-se a protocolos da camada superior que se distinguem por um intervalo de
valores de tipo, onde os protocolos que suportam um valor menor ou igual a 1500 (ou 05DC em hexadecimal)
empregam o tipo de quadro IEEE 802.3 Ethernet na camada de enlace de dados. Os protocolos representados
por um valor de tipo maior ou igual a 1536 (ou 0600 em hexadecimal) empregam o padrão Ethernet II e
representam a maioria de todos os quadros nas redes baseadas em Ethernet.

• Outros campos encontrados no quadro incluem os campos de endereço MAC de destino e de origem que
identificam o remetente e o (s) destinatário (s), bem como o campo de sequência de verificação do quadro
usado para confirmar a integridade do quadro durante a transmissão.
• O quadro Ethernet II faz referência a um valor do tipo hexadecimal que identifica o protocolo da camada
superior. Um exemplo comum disso é o IP (Internet Protocol), representado por um valor hexadecimal de
0x0800. Como esse valor para IP representa um valor maior que 0x0600, é determinado que o tipo de quadro
Ethernet II deve ser aplicado durante o encapsulamento. Outro protocolo comum que se baseia no tipo de
quadro Ethernet II na camada de enlace de dados é o ARP e é representado pelo valor hexadecimal de 0x0806.
• Para o tipo de quadro IEEE 802.3, o campo de tipo está contido como parte do cabeçalho da extensão SNAP e
não é tão comumente aplicado aos protocolos nas redes atuais, em parte devido ao requisito de instruções
adicionais que resultam em sobrecarga adicional por quadro. Alguns protocolos mais antigos que existem há
muitos anos, mas que ainda são aplicados no suporte a redes Ethernet, provavelmente aplicarão o tipo de
quadro IEEE 802.3. Um exemplo claro disso é encontrado no caso do STP (Spanning Tree Protocol)
representado por um valor de 0x03 no campo de tipo do cabeçalho SNAP.
• As redes baseadas em Ethernet alcançam a comunicação entre duas estações finais em uma rede local usando
o endereçamento MAC (Media Access Control) que permite distinguir os sistemas finais em uma rede de
múltiplos acessos. O endereço MAC é um endereço físico gravado na placa de interface de rede à qual o meio
físico está conectado. Esse mesmo endereço MAC é recuperado e usado como o endereço MAC de destino do
receptor pretendido pelo remetente, antes que o quadro seja transferido para a camada física para
encaminhamento pela mídia conectada.
• Cada endereço MAC é um valor de 48 bits normalmente representado em um hexadecimal (base

16) e composto por duas partes que tentam garantir que todos os endereços MAC sejam globalmente
exclusivos. Isso é alcançado pela definição de um identificador organizacional exclusivo, específico do
fornecedor, com base no qual é possível rastrear a origem de um produto até seu fornecedor, com base nos
primeiros 24 bits do endereço MAC. Os 24 bits restantes do endereço MAC são um valor incremental e
exclusivo atribuído a cada produto (por exemplo, uma placa de interface de rede ou produto similar que suporta
interfaces de porta para as quais um MAC é necessário).
• A transmissão de quadros dentro de uma rede local é obtida usando um dos três métodos de encaminhamento,
o primeiro deles é unicast e refere-se à transmissão de um único local de origem para um único destino. Cada
interface do host é representada por um endereço MAC exclusivo, contendo um identificador exclusivo da
organização, para o qual os 8 º O bit do octeto mais significativo (ou primeiro byte) no campo de endereço MAC
identifica o tipo de endereço. Este 8 º O bit é sempre definido como 0 onde o endereço MAC é um endereço MAC
do host e significa que qualquer quadro que contenha esse endereço MAC no campo de endereço MAC de
destino é destinado apenas a um único destino.

• Onde os hosts existem em um domínio de colisão compartilhado, todos os hosts conectados receberão a
transmissão unicast, mas o quadro será geralmente ignorado por todos os hosts em que o endereço MAC no
campo MAC de destino do quadro não corresponde ao valor MAC do host receptor em uma determinada
interface, deixando apenas o host pretendido para aceitar e processar os dados recebidos. As transmissões
Unicast são encaminhadas apenas de uma única interface física para o destino pretendido, mesmo nos casos
em que várias interfaces possam existir.
• A transmissão de transmissão representa um método de encaminhamento que permite que os quadros sejam
inundados a partir de uma única fonte recebida por todos os destinos em uma rede local. Para permitir que o
tráfego seja transmitido para todos os hosts em uma rede local, o campo de endereço MAC de destino do quadro
é preenchido com um valor definido em hexadecimal como FF: FF: FF: FF: FF: FF e qual especifica que todos os
destinatários de um quadro com este endereço definido devem aceitar o recebimento desse quadro e processar o
cabeçalho e o trailer do quadro.

• As transmissões são usadas por protocolos para facilitar uma série de processos importantes da rede, incluindo
a descoberta e manutenção da operação da rede, mas também geram tráfego excessivo que geralmente causa
interrupções nos sistemas finais e utilização da largura de banda que tendem a reduzir o desempenho geral da
rede.
• Uma alternativa mais eficiente à transmissão que começou a substituir o uso de transmissões em muitas
tecnologias mais recentes é o tipo de quadro multicast. O encaminhamento multicast pode ser entendido como
uma forma de transmissão seletiva que permite que hosts selecionados escutem um endereço MAC multicast
específico, além do endereço MAC unicast associado ao host, e processem quaisquer quadros que contenham
o endereço MAC multicast no MAC de destino. campo do quadro.

• Como não há distinção relativa entre endereços MAC unicast e formatos de endereço MAC multicast, o
endereço multicast é diferenciado usando o 8 º pouco do primeiro octeto. Onde esse valor de bit representa um
valor 1, ele identifica que o endereço faz parte do intervalo de endereços MAC de difusão seletiva, em oposição
aos endereços MAC de difusão seletiva, onde esse valor é sempre 0.

• Em uma rede local, a verdadeira capacidade do comportamento multicast na camada de enlace de dados é
limitada, pois o encaminhamento permanece semelhante ao de um quadro de transmissão no qual as interrupções
ainda prevalecem em toda a rede. A única diferença clara com a tecnologia de transmissão está no
processamento seletivo ao receber estações finais. À medida que as redes se expandem para oferecer suporte a
várias redes locais, a verdadeira capacidade da tecnologia multicast como meio eficiente de transmissão se torna
mais aparente.
• Como o tráfego está preparado para ser encaminhado pela rede física, é necessário que os hosts em domínios
de colisão compartilhados determinem se algum tráfego está atualmente ocupando o meio de transmissão. A
mídia de transmissão, como no caso do 10Base2, fornece um meio compartilhado sobre o qual o CSMA / CD
deve ser aplicado para garantir que as colisões sejam tratadas caso ocorram. Se a transmissão de um quadro
for detectada no link, o host atrasará o encaminhamento de seus próprios quadros até que a linha fique
disponível, após o que o host começará a encaminhar quadros da interface física para o destino pretendido.

• Onde dois hosts estão conectados por um meio capaz de suportar a transmissão full duplex, como no caso de
mídias como 10BaseT, não é possível que os quadros transmitidos sofram colisões, pois a transmissão e o
recebimento dos quadros ocorrem em fios separados e, portanto, não há requisito para que o CSMA / CD seja
implementado.
• Depois que um quadro é encaminhado a partir da interface física do host, ele é transportado pelo meio para o
destino pretendido. No caso de uma rede compartilhada, o quadro pode ser recebido por vários hosts que
avaliarão se o quadro se destina à sua interface, analisando o endereço MAC de destino no cabeçalho do
quadro. Se o endereço MAC de destino e o endereço MAC do host não forem os mesmos ou o endereço MAC
de destino não for um endereço de difusão ou multicast MAC que o host esteja ouvindo, o quadro será ignorado
e descartado.

• Para o destino pretendido, o quadro será recebido e processado, inicialmente confirmando que o quadro é
destinado à interface física do host. O host também deve confirmar que a integridade do quadro foi mantida
durante a transmissão, utilizando o valor do campo FCS (Frame Check Sequence) e comparando esse valor
com um valor determinado pelo host receptor. Se os valores não corresponderem, o quadro será considerado
corrompido e será descartado posteriormente.

• Para quadros válidos, o host precisará determinar o próximo estágio do processamento analisando o campo de
tipo do cabeçalho do quadro e identificando o protocolo ao qual esse quadro se destina. Neste exemplo, o
campo de tipo de quadro contém um valor hexadecimal de 0x0800 que identifica que os dados retirados do
quadro devem ser encaminhados para o Protocolo da Internet, antes do qual o cabeçalho e o trailer do quadro
são descartados.
• Os quadros da camada de vínculo de dados contêm um campo Tipo que faz referência ao próximo protocolo ao qual os

dados contidos no quadro devem ser encaminhados. Exemplos comuns de protocolos de encaminhamento incluem IP

(0x0800) e ARP (0x0806).

• O endereço MAC de destino contido no cabeçalho do quadro é analisado pela estação final receptora e
comparado ao endereço MAC associado à interface na qual o quadro foi recebido. Se o endereço MAC de
destino e o endereço MAC da interface não corresponderem, o quadro será descartado.
• Antes de descartar o cabeçalho do quadro e o trailer, é necessário que o próximo conjunto de instruções seja
processado para ser determinado a partir do cabeçalho do quadro. Como destacado, isso é identificado
determinando o valor do campo no campo de tipo, que nesta instância representa um quadro destinado ao
protocolo IP após a conclusão do processo do quadro.

• A principal função do quadro é determinar se o destino físico pretendido foi atingido, se a integridade do quadro
permaneceu intacta. O foco desta seção identificará como os dados são processados ​após o descarte dos
cabeçalhos de quadros e a propagação dos dados restantes para o Protocolo da Internet.
• O cabeçalho IP é usado para suportar duas operações principais, roteamento e fragmentação. O roteamento é o
mecanismo que permite que o tráfego de uma determinada rede seja encaminhado para outras redes, uma vez
que a camada de enlace representa uma única rede para a qual existem limites de rede. Fragmentação
refere-se à divisão de dados em blocos gerenciáveis ​que podem ser transmitidos pela rede.

• O cabeçalho IP é transportado como parte dos dados e representa uma sobrecarga de pelo menos 20 bytes que
referencia como o tráfego pode ser encaminhado entre redes, onde o destino pretendido existe em uma rede
diferente da rede na qual os dados foram originalmente transmitidos. O campo version identifica a versão do IP
atualmente suportada; nesse caso, a versão é conhecida como versão quatro ou IPv4. O campo DS foi
originalmente referido como o tipo de campo de serviço, mas agora opera como um campo de suporte a
serviços diferenciados, usado principalmente como um mecanismo para aplicar qualidade de serviço (QoS) para
otimização do tráfego de rede e é considerado fora do escopo deste treinamento.

• O endereçamento IP de origem e destino são endereços lógicos atribuídos aos hosts e usados ​para referenciar
o remetente e o destinatário pretendido na camada de rede. O endereçamento IP permite avaliar se existe um
destino pretendido na mesma rede ou em uma rede diferente como forma de auxiliar o processo de roteamento
entre redes, a fim de alcançar destinos além da rede local.
• Cada endereço IPv4 representa um valor de 32 bits que geralmente é exibido em um formato decimal
pontilhado, mas para uma compreensão detalhada do comportamento subjacente também é representado em
um formato binário (Base 2). Os endereços IP atuam como identificadores dos sistemas finais e de outros
dispositivos da rede, como um meio de permitir que esses dispositivos sejam alcançados localmente e por
fontes localizadas remotamente, além dos limites da rede atual.

• O endereço IP consiste em dois campos de informações que são usados ​para especificar claramente a rede à qual
um endereço IP pertence, bem como um identificador de host dentro do intervalo da rede, que é, na maioria das
vezes, exclusivo na rede especificada.
• Cada intervalo de rede contém dois endereços importantes que são excluídos do intervalo de rede atribuível a
hosts ou outros dispositivos. O primeiro desses endereços excluídos é o endereço de rede que representa uma
determinada rede, em oposição a um host específico dentro da rede. O endereço de rede é identificável
consultando o campo host do endereço de rede, no qual os valores binários dentro desse intervalo são todos
definidos como 0, para os quais também deve ser observado que um valor binário de 0 pode nem sempre
representar um valor 0 na notação decimal pontilhada.

• O segundo endereço excluído é o endereço de broadcast usado pela camada de rede para se referir a qualquer
transmissão que se espera que seja enviada para todos os destinos em uma determinada rede. O endereço de
broadcast é representado dentro do campo host do endereço IP, onde os valores binários desse intervalo são
todos definidos como 1. Os endereços host compõem o intervalo existente entre a rede e os endereços de
broadcast.
• O uso de notações binárias, decimais e hexadecimais é comumente aplicado em redes IP para representar
esquemas, protocolos e parâmetros de endereçamento e, portanto, o conhecimento da construção fundamental
dessas formas básicas é importante para entender o comportamento e a aplicação de valores nas redes IP.

• Cada sistema de numeração é representado por um valor base diferente que destaca o número de valores
usados ​como parte do intervalo de notações base. No caso do binário, apenas dois valores são usados, 0 e 1,
que em combinação podem fornecer um número crescente de valores, geralmente representados como 2 à
potência de x, em que x indica o número de valores binários. Hexadecimal representa uma notação de base 16
com valores que variam de 0 a F, (0-9 e AF), em que A representa o próximo valor após 9 e F, portanto,
representa um valor equivalente a 15 em decimal ou 1111 em binário.
• Entende-se por byte que contém 8 bits e atua como uma notação comum em redes IP; portanto, um byte
representa um valor de bit de 256, variando de 0 a 255. Essas informações são claramente representadas pela
conversão da notação decimal no binário e no aplicativo. da energia base para cada valor binário, para atingir a
faixa de 256 bits. Uma tradução do sistema de numeração para binário pode ser vista no exemplo para permitir
a familiarização com os padrões de numeração associados ao binário. O exemplo também demonstra
claramente como os valores de endereço de broadcast em decimal, binário e hexadecimal são representados
para permitir que as transmissões sejam alcançadas no endereçamento IP e MAC nas camadas de rede e
enlace de dados.
• A combinação de 32 bits em um endereço IP se correlaciona com quatro octetos ou bytes, para os quais cada
um pode representar um intervalo de valores de 256, fornecendo um número teórico de 4'294'967'296 possíveis
endereços IP, no entanto, na verdade, apenas uma fração do o número total de endereços pode ser atribuído
aos hosts. Cada bit em um byte representa uma potência base e, como tal, cada octeto pode representar uma
classe de rede específica, com cada classe de rede baseada em um único octeto ou em uma combinação de
octetos. Três octetos foram usados ​como parte deste exemplo para representar a rede com o quarto octeto
representando o intervalo de host suportado pela rede.
• O número de octetos suportados por um endereço de rede é determinado pelas classes de endereços que
dividem o escopo de endereço do IPv4. As classes A, B e C são intervalos de endereços atribuíveis, cada um dos
quais suporta um número variado de redes e um número de hosts atribuíveis a uma determinada rede. A classe
A, por exemplo, consiste em 126 redes em potencial, cada uma das quais pode suportar 2 24, ou 16'777'216
endereços de host em potencial, tendo em mente que os endereços de rede e transmissão de um intervalo de
classe não são atribuíveis aos hosts.

• Na verdade, uma única rede Ethernet nunca poderia suportar um número tão grande de hosts, uma vez que a
Ethernet não é bem dimensionada, devido em parte a transmissões que geram tráfego de rede excessivo em
uma única rede local. Os intervalos de endereços da classe C permitem uma rede muito mais balanceada que
se adapta bem às redes Ethernet, fornecendo pouco mais de 2 milhões de redes em potencial, com cada rede
capaz de suportar cerca de 256 endereços, dos quais 254 são atribuíveis aos hosts.

• A classe D é um intervalo reservado para multicast, para permitir que os hosts escutem um endereço específico dentro

desse intervalo e, se o endereço de destino de um pacote contiver um endereço multicast para o qual o host está

escutando, o pacote deverá ser processado da mesma maneira como um pacote destinado aos endereços IP atribuídos

pelos hosts. Cada classe é facilmente distinguível em binário, observando o valor do bit no primeiro octeto, onde um

endereço de classe A, por exemplo, sempre começa com 0 para o bit de ordem superior, enquanto que na Classe B os

dois primeiros bits de ordem superior são sempre definidos como 1 e 0, permitindo que todas as classes sejam

facilmente determinadas em binário.


• No IPv4, endereços e intervalos de endereços específicos foram reservados para fins especiais. Existem
intervalos de endereços privados nos intervalos de classe A, B e C para prolongar o rápido declínio no número
de endereços IP disponíveis. O número de sistemas e dispositivos finais reais que atualmente exigem
endereçamento IP no mundo excede os endereços 4'294'967'296 do intervalo de endereços IPv4 de 32 bits e,
portanto, uma solução para esse problema crescente foi alocar intervalos de endereços privados que poderiam
ser atribuído a redes privadas, para permitir a conservação de endereços de rede pública que facilitam a
comunicação através de infra-estruturas de rede pública, como a Internet.

• As redes privadas tornaram-se comuns em toda a rede corporativa, mas os hosts não conseguem interagir com a
rede pública, o que significa que os intervalos de endereços podem ser reutilizados em muitas redes empresariais
diferentes. O tráfego vinculado às redes públicas, no entanto, deve passar por uma tradução de endereços antes
que os dados possam chegar ao destino pretendido.

• Outros endereços especiais incluem um intervalo de diagnóstico indicado pelo endereço de rede 127.0.0.0, bem
como o primeiro e o último endereços no intervalo de endereços IPv4, para os quais 0.0.0.0 representa qualquer
rede e cuja aplicação deve ser introduzida com mais detalhes com princípios de roteamento. O endereço

255.255.255.255 representa um endereço de transmissão para a rede IPv4 (0.0.0.0), no entanto, o escopo de
qualquer transmissão em IP é restrito aos limites da rede local a partir da qual a transmissão é gerada.
• Para que um host encaminhe o tráfego para um destino, é necessário que ele tenha conhecimento da rede de
destino. Um host está naturalmente ciente da rede à qual pertence, mas geralmente não está ciente de outras
redes, mesmo quando essas redes podem ser consideradas parte da mesma rede física. Como tal, os hosts não
encaminham os dados destinados a um determinado destino até que o host aprenda sobre a rede e, com isso, a
interface pela qual o destino pode ser alcançado.

• Para um host encaminhar tráfego para outro host, é necessário primeiro determinar se o destino faz parte da
mesma rede IP. Isso é obtido através da comparação da rede de destino com a rede de origem (endereço IP do
host) da qual os dados são originários. Onde os intervalos de rede coincidem, o pacote pode ser encaminhado
para as camadas inferiores onde o enquadramento Ethernet preside, para processamento. No caso em que a
rede de destino pretendida varia da rede de origem, espera-se que o host tenha conhecimento da rede
pretendida e da interface pela qual um pacote / quadro deve ser encaminhado antes que o pacote possa ser
processado pelas camadas inferiores. Sem essas informações, o host continuará a descartar o pacote antes
mesmo de atingir a camada de enlace de dados.
• A identificação de um segmento de rede exclusivo é governado pelo
implementação de um valor de máscara usado para distinguir o número de bits que representam o segmento de
rede, para o qual os bits restantes são entendidos como representando o número de hosts suportados em um
determinado segmento de rede. Um administrador de rede pode dividir um endereço de rede em sub-redes para
que os pacotes de broadcast sejam transmitidos dentro dos limites de uma única sub-rede. A máscara de
sub-rede consiste em uma sequência de valores 1 contínuos e ininterruptos, seguida por uma seqüência
ininterrupta semelhante de 0 valores. Os valores 1 correspondem ao campo do ID da rede, enquanto os valores 0
correspondem ao campo do ID do host.
• Para cada classe de endereço de rede, uma máscara de sub-rede correspondente é aplicada para especificar o
tamanho padrão do segmento de rede. Qualquer rede considerada como parte do intervalo de endereços da
classe A é fixada com uma máscara de sub-rede padrão pertencente a 8 bits à esquerda, que compreendem o
primeiro octeto do endereço IP, com os três octetos restantes disponíveis para atribuição de ID do host.

• De maneira semelhante, a rede de classe B reflete uma máscara de sub-rede padrão de 16 bits, permitindo um
número maior de redes dentro do intervalo de classe B ao custo do número de hosts que podem ser atribuídos
por rede padrão. O padrão da rede da classe C é uma máscara de 24 bits que fornece um grande número de
redes em potencial, mas limita bastante o número de hosts que podem ser atribuídos na rede padrão. As redes
padrão fornecem um limite comum para os intervalos de endereços, no entanto, no caso dos intervalos de
endereços das classes A e B, não fornecem uma escala prática para a alocação de endereços para redes
baseadas em Ethernet.
• A aplicação da máscara de sub-rede a um determinado endereço IP permite a identificação da rede à qual o
host pertence. A máscara de sub-rede também identificará o endereço de broadcast da rede, bem como o
número de hosts que podem ser suportados como parte do alcance da rede. Essas informações fornecem a
base para um planejamento eficaz de endereços de rede. No exemplo dado, um host foi identificado com o
endereço 192.168.1.7 como parte de uma rede com uma máscara de sub-rede padrão de 24 bits (classe C)
aplicada. Ao distinguir qual parte do endereço IP constitui os segmentos de rede e host, o endereço de rede
padrão pode ser determinado para o segmento.

• Isso é entendido como o endereço em que todos os valores de bits do host estão definidos como 0, nesse caso
gerando um endereço de rede padrão 192.168.1.0. Onde os valores do host são representados por uma
sequência contínua de 1 valores, o endereço de broadcast da rede pode ser determinado. Onde o último octeto
contém uma cadeia de 1 valores, ele representa um valor decimal 255, para o qual um endereço de broadcast
192.168.1.255 pode ser derivado.

• Os possíveis endereços de host são calculados com base na fórmula 2 n onde n representa o número de bits do
host definidos pela máscara de sub-rede. Nesse caso, n representa um valor de 8 bits de host, em que 2 8 fornece
um valor resultante de 256. O número de endereços de host utilizáveis, no entanto, exige que os endereços de
rede e transmissão sejam deduzidos desse resultado para fornecer um número de endereços de host válidos de
254.
• O cenário de caso fornece um intervalo de endereços de classe B comum ao qual é necessário determinar a
rede à qual o host especificado pertence, juntamente com o endereço de broadcast e o número de hosts válidos
suportados pela rede especificada. Aplicando os mesmos princípios do intervalo de endereços da classe C, é
possível determinar o endereço de rede do host, juntamente com o intervalo de hosts na rede especificada.
• Uma das principais restrições da máscara de sub-rede padrão ocorre quando vários intervalos de endereços de
rede são aplicados a uma determinada empresa para gerar limites lógicos entre os hosts na rede corporativa
física. A aplicação de um esquema básico de endereçamento pode exigir que um número limitado de hosts seja
associado a uma determinada rede, para a qual várias redes são aplicadas para fornecer a segmentação lógica
da rede. Entretanto, ao fazer isso, uma grande quantidade de espaço de endereço permanece sem uso,
exibindo a ineficiência do aplicativo de máscara de sub-rede padrão.
• Como forma de resolver as limitações das máscaras de sub-rede padrão, é introduzido o conceito de máscaras de

sub-rede de comprimento variável, que permite que uma máscara de sub-rede padrão seja dividida em várias sub-redes,

que podem ter um comprimento fixo (também conhecido como sub-rede de comprimento fixo) máscaras ou FLSM) ou de

comprimento variável conhecido geralmente pelo termo VLSM. A implementação dessas máscaras de sub-rede consiste

em pegar uma rede baseada em classe padrão e dividir a rede através da manipulação da máscara de sub-rede.

• No exemplo dado, uma variação simples foi feita na rede padrão da classe C, que por padrão é governada por
uma máscara de 24 bits. A variação vem na forma de um bit emprestado do ID do host que foi aplicado como
parte do endereço de rede. Onde o desvio de bits ocorre em comparação com a rede padrão, os bits adicionais
representam o que é conhecido como ID de sub-rede.

• Nesse caso, um único bit foi usado para representar a sub-rede para a qual duas sub-redes podem ser
derivadas, uma vez que um valor de bit único pode representar apenas dois estados de 1 ou 0. Quando o bit é
definido como 0, ele representa um valor de 0, onde é definido como 1, representa um valor de 128. Ao definir
os bits do host como 0, o endereço da sub-rede pode ser encontrado para cada sub-rede, definindo os bits do
host como 1, a transmissão O endereço de cada sub-rede é identificável. O número de hosts suportados neste
caso representa um valor 2 7 menos o endereço da sub-rede e o endereço de broadcast de cada sub-rede,
resultando em cada sub-rede suportando um total de 126 endereços de host válidos.
• Em relação ao problema das limitações de endereço nas quais as redes padrão resultaram em desperdício excessivo de

endereços, o conceito de máscaras de sub-rede de comprimento variável pode ser aplicado para reduzir o desperdício

de endereços e fornecer um esquema de endereçamento mais eficaz à rede corporativa.

• Foi definido um único intervalo de endereços padrão da classe C, para o qual são necessárias máscaras de
sub-rede de comprimento variável para acomodar cada uma das redes lógicas em um único intervalo de
endereços padrão. A atribuição efetiva de máscara de sub-rede requer que seja determinado o número de bits
do host necessário para acomodar o número necessário de hosts, para o qual os bits restantes do host podem
ser aplicados como parte do ID da sub-rede, que representa a variação no ID da rede da rede padrão endereço.
• O roteamento entre domínios sem classe foi inicialmente apresentado como uma solução para lidar com problemas
que estavam ocorrendo como resultado do rápido crescimento do que agora é conhecido como Internet. As principais
preocupações eram a exaustão iminente do espaço de endereço da classe B que era comumente adotado pelas
organizações de médio porte como o intervalo de endereços mais adequado, onde a classe C era inadequada e a
classe A era muito vasta e o gerenciamento dos 65534 endereços de host poderia ser alcançado através do VLSM.
Além disso, o crescimento contínuo significava que dispositivos de gateway, como roteadores, estavam começando a
lutar para acompanhar o crescente número de redes com as quais se esperava que esses dispositivos manipulassem.
A solução fornecida envolve a transição para um sistema de endereçamento sem classe no qual os limites de classe
foram substituídos por prefixos de endereço.

• Essa notação funciona com o princípio de que intervalos de endereços de classe, como o da classe C, podem
ter um prefixo de 24 bits que representa a sub-rede ou o limite da rede principal e para o qual é possível resumir
vários prefixos de rede em uma única rede maior prefixo de endereço que representa as mesmas redes, mas
como um único prefixo de endereço. Isso ajudou a aliviar o número de rotas contidas particularmente em
dispositivos de roteamento em grande escala que operam em escala global e forneceu um meio mais eficaz de
gerenciamento de endereços. O resultado do CIDR teve efeitos de longo alcance e acredita-se que diminuiu
efetivamente a taxa de exaustão geral do espaço de endereço IPv4.
• O encaminhamento de pacotes exige que o pacote determine primeiro um caminho de encaminhamento para
uma determinada rede e a interface através da qual um pacote deve ser encaminhado, antes de ser
encapsulado como um quadro e encaminhado a partir da interface física. No caso em que a rede pretendida é
diferente da rede de origem, o pacote deve ser encaminhado para um gateway através do qual o pacote é
capaz de atingir o destino pretendido.

• Em todas as redes, o gateway é um dispositivo capaz de manipular pacotes e tomar decisões sobre como os
pacotes devem ser roteados, a fim de atingir o destino pretendido. O dispositivo em questão, no entanto, deve
estar ciente de uma rota para a rede IP de destino pretendida antes que o roteamento de pacotes possa ocorrer.
Onde as redes são divididas por um gateway físico, o endereço IP da interface (na mesma rede ou sub-rede)
através do qual esse gateway pode ser alcançado é considerado o endereço do gateway.

• No caso de hosts que pertencem a redes diferentes que não são divididas por um gateway físico, é de
responsabilidade do host funcionar como gateway, para o qual o host deve primeiro estar ciente da rota da rede
na qual os pacotes estão deve ser encaminhado e deve especificar o endereço IP da interface do host como o
endereço IP do gateway, através do qual a rede de destino desejada pode ser alcançada.
• Os dados dos pacotes encaminhados existem em muitos formatos e consistem em tamanhos variados,
geralmente o tamanho dos dados a serem transmitidos excede o tamanho suportado para transmissão. Onde
isso ocorre, é necessário que o bloco de dados seja dividido em blocos menores de dados antes que a
transmissão possa ocorrer. O processo de decompor esses dados em blocos gerenciáveis ​é conhecido como
fragmentação.

• Os campos de identificação, sinalizadores e deslocamento de fragmento são usados ​para gerenciar a


remontagem de fragmentos de dados depois que eles são recebidos no destino final pretendido. A identificação
distingue entre blocos de dados de fluxos de tráfego que podem se originar do mesmo host ou hosts diferentes.
O campo flags determina qual de um número de fragmentos representa o último fragmento no qual o início de
um timer é iniciado antes da remontagem e para notificar que a remontagem do pacote deve começar.

• Finalmente, o deslocamento do fragmento rotula o valor do bit para cada fragmento como parte de vários
fragmentos, o primeiro fragmento é definido com um valor de 0 e os fragmentos subsequentes especificam o
valor do primeiro bit após o fragmento anterior, por exemplo, onde o fragmento inicial contém bits de dados de 0
a 1259, o fragmento a seguir receberá um valor de deslocamento de 1260.
• À medida que os pacotes são encaminhados entre redes, é possível que pacotes caiam em loops onde as rotas
para redes IP não foram definidas corretamente nos dispositivos responsáveis ​pelo roteamento de tráfego entre
várias redes. Isso pode resultar na perda de pacotes dentro de um ciclo de encaminhamento de pacotes que
não permite que um pacote chegue ao destino pretendido. Onde isso ocorre, o congestionamento na rede
ocorrerá à medida que mais e mais pacotes destinados ao mesmo destino estiverem sujeitos ao mesmo destino,
até que a rede seja inundada com pacotes incorretos.

• Para impedir que esse congestionamento ocorra no caso de tais loops, um campo de tempo de vida (TTL) é
definido como parte do cabeçalho IP, que diminui em um valor de 1 cada vez que um pacote atravessa um
dispositivo da camada 3 para alcançar uma determinada rede. O valor TTL inicial pode variar dependendo da
fonte de origem; no entanto, se o valor TTL diminuir para um valor 0, o pacote será descartado e uma
mensagem de erro (ICMP) será retornada à fonte, com base no endereço IP de origem que pode pode ser
encontrado no cabeçalho IP do pacote errante.
• Após a verificação de que o pacote alcançou o destino pretendido, a camada de rede deve determinar o
próximo conjunto de instruções a serem processadas. Isso é determinado analisando o campo de protocolo do
cabeçalho IP. Como no campo de tipo do cabeçalho do quadro, um valor hexadecimal é usado para especificar
o próximo conjunto de instruções a serem processadas.

• Deve-se entender que o campo protocolo pode se referir a protocolos na camada de rede, como no caso do
Internet Control Message Protocol (ICMP), mas também pode se referir a protocolos da camada superior, como
o Transmission Control Protocol (06 / 0x06) ou User Datagram Protocol (17 / 0x11), ambos existentes como
parte da camada de transporte nos modelos de referência TCP / IP e OSI.
• A máscara de sub-rede IP é um valor de 32 bits que descreve a divisão lógica entre os valores de bits de um
endereço IP. O endereço IP é, como tal, dividido em duas partes para as quais os valores de bits representam
uma rede ou sub-rede e o host em uma determinada rede ou sub-rede.

• Pacotes IP que não conseguem acessar a rede pretendida são suscetíveis de serem encaminhados
indefinidamente entre redes na tentativa de descobrir seu destino final. O recurso Time To Live (TTL) é usado
para garantir que uma vida útil seja aplicada a todos os pacotes IP, para garantir que, no caso em que um
pacote IP não possa alcançar seu destino, ele será encerrado. O valor TTL pode variar dependendo da fonte
original.

• Os gateways representam pontos de acesso entre redes IP para as quais o tráfego pode ser redirecionado ou
roteado no caso de a rede de destino pretendida variar da rede na qual o pacote se originou.
• O Internet Control Message Protocol é parte integrante do IP projetado para facilitar a transmissão de
mensagens de notificação entre gateways e hosts de origem, onde são necessárias solicitações de informações
de diagnóstico, suporte ao roteamento e como meio de relatar erros no processamento de datagramas. O
objetivo dessas mensagens de controle é fornecer feedback sobre os problemas no ambiente de comunicação e
não garante que um datagrama seja entregue ou que uma mensagem de controle seja retornada.
• As mensagens de redirecionamento do ICMP representam um cenário comum em que o ICMP é usado como
um meio de facilitar as funções de roteamento. No exemplo, um pacote é encaminhado para o gateway pelo
host A com base no endereço de gateway do host A. O gateway identifica que o pacote recebido está destinado
a ser encaminhado para o endereço do próximo gateway que faz parte do mesmo rede como o host que
originou o pacote, destacando um comportamento de encaminhamento não ideal entre o host e os gateways.

• Para resolver isso, uma mensagem de redirecionamento é enviada ao host. A mensagem de redirecionamento
aconselha o host a enviar seu tráfego para o destino pretendido diretamente ao gateway ao qual a rede de
destino está associada, pois isso representa um caminho mais curto para o destino. O gateway continua, no
entanto, a encaminhar os dados do pacote original para o destino pretendido.
• As mensagens de eco do ICMP representam um meio de diagnóstico para determinar principalmente a conectividade
entre uma determinada origem e destino, mas também fornece informações adicionais, como o tempo de ida e volta
para a transmissão como um diagnóstico para medir o atraso. Os dados recebidos na mensagem de eco são
retornados como uma mensagem de resposta de eco separada.
• O ICMP fornece várias mensagens de relatório de erros que geralmente determinam problemas de acessibilidade e
geram relatórios de erros específicos que permitem um entendimento mais claro da perspectiva do host sobre o
motivo pelo qual a transmissão ao destino pretendido falhou.

• Exemplos típicos incluem casos em que os loops podem ter ocorrido na rede e, consequentemente, causaram a
expiração do parâmetro time to live no cabeçalho IP, resultando na geração de uma mensagem de erro "ttl
excedido em trânsito". Outros exemplos incluem um destino pretendido inacessível, o que pode estar
relacionado a um problema mais específico da rede pretendida que não é conhecida pelo gateway de
recebimento ou que o host pretendido na rede de destino não está sendo descoberto. Em todos os eventos,
uma mensagem ICMP é gerada com um destino com base no endereço IP de origem encontrado no cabeçalho
IP, para garantir que a mensagem notifique o host de envio.
• As mensagens ICMP são enviadas usando o cabeçalho IP básico, que funciona em conjunto como parte
integrante da mensagem ICMP, como é o caso do parâmetro TTL usado para fornecer suporte para determinar
se um destino é acessível. O formato da mensagem ICMP se baseia em dois campos para identificação da
mensagem na forma de um formato de tipo / código, em que o campo de tipo fornece uma descrição geral do
tipo de mensagem e o código e um parâmetro mais específico para o tipo de mensagem.

• Uma soma de verificação fornece um meio de validar a integridade da mensagem ICMP. Outros 32 bits são incluídos para

fornecer parâmetros variáveis, geralmente não utilizados e, portanto, configurados como 0 quando a mensagem ICMP é

enviada; no entanto, em casos como um redirecionamento ICMP, o campo contém o endereço IP do gateway para o qual

um host deve redirecionar pacotes. O campo de parâmetro, no caso de solicitações de eco, conterá um identificador e um

número de sequência, usados ​para ajudar a origem a associar solicitações de eco enviadas às respostas de eco recebidas,

especialmente no caso de várias solicitações serem encaminhadas para um determinado destino.

• Como meio final de rastrear dados para um processo específico, a mensagem ICMP pode transportar o
cabeçalho IP e uma parte dos dados que contém informações da camada superior que permitem à fonte
identificar o processo para o qual ocorreu um erro, como os casos em que o O ICMP TTL expira em trânsito.
• Existe um grande número de valores do tipo ICMP para definir claramente as diferentes aplicações do protocolo de
controle ICMP. Em alguns casos, o campo de código não é necessário para fornecer uma entrada mais específica
ao campo de tipo, como é encontrado nos pedidos de eco que possuem um campo de tipo 8 e a resposta
correspondente, que é gerada e enviada como uma mensagem ICMP separada para o campo endereço de origem
do remetente e definido usando um campo de tipo 0.

• Como alternativa, certos campos de tipo definem um tipo muito geral para o qual a variação é entendida através
do campo de código, como no caso do parâmetro do tipo 3. Um campo de tipo 3 especifica que um determinado
destino é inacessível, enquanto o campo de código reflete a ausência específica da rede, host, protocolo, porta
(TCP / UDP), capacidade de executar fragmentação (código 4) ou rota de origem ( código 5) no qual um pacote,
para o qual um caminho de encaminhamento através da rede é definido estrita ou parcialmente, falha em atingir
seu destino.
• A aplicação do ICMP pode ser entendida através do uso de ferramentas como o Ping. O aplicativo Ping pode
ser usado como uma ferramenta para determinar se um destino é acessível e coletar outras informações
relacionadas. Os parâmetros do aplicativo Ping permitem que um usuário final especifique o comportamento do
sistema final na geração de mensagens ICMP, levando em consideração o tamanho do datagrama ICMP, o
número de mensagens ICMP geradas pelo host e também a duração em que ele é esperado que uma resposta
seja recebida antes que ocorra um tempo limite. Isso é importante quando ocorre um grande atraso, pois o
aplicativo Ping pode informar um tempo limite antes que a mensagem do ICMP tenha a oportunidade de retornar
à fonte.
• A saída geral de uma resposta ICMP para uma solicitação ICMP gerada por Ping detalha o destino para o qual o
datagrama foi enviado e o tamanho do datagrama gerado. Além disso, o número de sequência do campo de
sequência que é transportado como parte da resposta de eco (tipo 0) é exibido junto com o valor TTL retirado do
cabeçalho IP, bem como o tempo de ida e volta que é transportado novamente como parte do campo Opções
de IP no cabeçalho IP.
• Outra aplicação comum ao ICMP é o traceroute, que fornece um meio de medir o caminho de encaminhamento
e o atraso, salto por salto, entre várias redes, através da associação com o valor TTL no cabeçalho IP.

• Para um determinado destino, a acessibilidade para cada salto ao longo do caminho é medida pela definição
inicial de um valor TTL no cabeçalho IP de 1, fazendo com que o valor TTL expire antes que o gateway receptor
possa propagar mais a mensagem ICMP, gerando, assim, uma mensagem TTL expirou em trânsito junto com
informações de registro de data e hora, permitindo uma avaliação salto a salto do caminho percorrido pela rede
pelo datagrama até o destino e uma medição do tempo de ida e volta. Isso fornece um meio eficaz de identificar
o ponto de qualquer perda ou atraso de pacote que possa ocorrer na rede e também ajuda na descoberta de
loops de roteamento.
• A implementação do traceroute nos roteadores da série Huawei ARG3 adota o uso do protocolo da camada de
transporte UDP para definir uma porta de serviço como destino. Cada salto envia três pacotes de teste, para os
quais o valor TTL é inicialmente definido como um valor 1 e incrementado após cada três pacotes. Além disso,
uma porta de destino UDP 33434 é especificada para o primeiro pacote e incrementada para cada pacote de
análise sucessivo enviado. Um resultado de salto por salto é gerado, permitindo que o caminho seja determinado,
bem como qualquer atraso geral que possa ocorrer a ser descoberto.

• Isso é obtido medindo a duração entre o envio da mensagem ICMP e o recebimento do erro TTL
correspondente em trânsito no ICMP. Ao receber um pacote, o destino final é incapaz de descobrir a porta
especificada no pacote e, portanto, retorna um pacote ICMP Tipo 3, Código 3 (Porta Inacessível) e, após três
tentativas, o teste de traceroute termina. O resultado do teste de cada sonda é exibido pela fonte, de acordo
com o caminho percorrido da fonte até o destino.

Se ocorrer uma falha quando a rota de rastreamento


comando for utilizado, as seguintes informações podem ser exibidas:

• ! H: O host está inacessível.

• ! N: A rede está inacessível.

• !: A porta está inacessível.

• ! P: O tipo de protocolo está incorreto.

• ! F: O pacote está fragmentado incorretamente.

• ! S: A rota de origem está incorreta.


• O aplicativo Ping usa a mensagem de solicitação de eco do tipo 8 para tentar descobrir o destino. Uma mensagem
de resposta de eco separada, definida por um campo de tipo
0, é retornado à fonte original com base no endereço IP de origem no campo do cabeçalho IP.

• Caso o valor TTL de um datagrama IP atinja 0 antes que o datagrama possa atingir o destino pretendido, o
dispositivo de gateway que recebe o datagrama continuará a descartá-lo e retornará uma mensagem ICMP à
fonte para notificar que o datagrama em questão não conseguiu alcançar o destino pretendido. O motivo
específico será definido pelo valor do código para refletir, por exemplo, se a falha ocorreu devido a uma falha na
descoberta do host, uma porta no host ou se o serviço para um determinado protocolo não era suportado etc.
• Como os dados são encapsulados, o protocolo IP na camada de rede pode especificar o endereço IP de destino ao
qual os dados são destinados, bem como a interface através da qual os dados devem ser transmitidos, no entanto,
antes que a transmissão possa ocorrer, a fonte deve estar ciente do endereço Ethernet (MAC) de destino para o qual
os dados devem ser transmitidos. O ARP (Address Resolution Protocol) representa uma parte crítica do conjunto de
protocolos TCP / IP que permite a descoberta de endereços de encaminhamento MAC para facilitar a acessibilidade
de IP. O próximo salto da Ethernet deve ser descoberto antes que o encapsulamento de dados possa ser concluído.
• O pacote ARP é gerado como parte do processo de descoberta de endereço de destino físico. A descoberta
inicial conterá informações parciais, pois o endereço de hardware de destino ou o endereço MAC deve ser
descoberto. O tipo de hardware refere-se à Ethernet com o tipo de protocolo referente ao IP, definindo as
tecnologias associadas à descoberta do ARP. O comprimento do hardware e do protocolo identifica o
comprimento do endereço para o endereço MAC Ethernet e o endereço IP e é definido em bytes.

• O código de operação especifica um dos dois estados, em que a descoberta do ARP é configurada como
PEDIDO, para o qual a recepção da transmissão do ARP pelo destino identificará que uma resposta deve ser
gerada. A resposta gerará REPLY para a qual nenhuma operação adicional é necessária pelo host receptor
deste pacote e, em seguida, a qual o pacote ARP será descartado. O endereço de hardware de origem
refere-se ao endereço MAC do remetente no segmento físico no qual o ARP é gerado. O endereço do protocolo
de origem refere-se ao endereço IP do remetente.

• O endereço de hardware de destino especifica o endereço físico (Ethernet) para o qual os dados podem ser
encaminhados pelos padrões do protocolo Ethernet, no entanto, essas informações não estão presentes em
uma solicitação ARP, substituídas por um valor igual a 0. O endereço do protocolo de destino identifica o IP
pretendido destino para o qual a acessibilidade pela Ethernet deve ser estabelecida.
• A camada de rede representa um caminho lógico entre uma origem e um destino. Atingir um destino IP
pretendido depende, em primeiro lugar, de estabelecer um caminho físico para o destino pretendido e, para
fazer isso, uma associação deve ser feita entre o destino IP pretendido e a interface física do próximo salto para
a qual o tráfego pode ser encaminhado.

• Para um determinado destino, o host determinará o endereço IP para o qual os dados devem ser encaminhados, no
entanto, antes que o encapsulamento dos dados possa começar, o host deve determinar se um caminho de
encaminhamento físico é conhecido. Se o caminho de encaminhamento é conhecido, o encapsulamento para o
destino pode prosseguir, no entanto, muitas vezes o destino não é conhecido e o ARP deve ser implementado antes
que o encapsulamento de dados possa ser executado.
• O cache do ARP (pronunciado como [kash]) é uma tabela para associação de endereços IP de destino do host e
endereços físicos associados (MAC). Qualquer host que esteja envolvido na comunicação com um destino local
ou remoto precisará primeiro conhecer o MAC de destino por meio do qual a comunicação pode ser estabelecida.

• Os endereços aprendidos preencherão a tabela de cache do ARP e permanecerão ativos por um período fixo de
tempo, durante o qual o destino pretendido pode ser descoberto sem a necessidade de processos adicionais de
descoberta do ARP. Após um período fixo, a tabela de cache do ARP removerá as entradas do ARP para
manter a integridade da tabela de cache do ARP, pois qualquer alteração no local físico de um host de destino
pode resultar no host de envio endereçando inadvertidamente os dados para um destino no qual o host de
destino não reside mais.

• A pesquisa de cache do ARP é a primeira operação que um sistema final executará antes de determinar se é
necessário gerar uma solicitação de ARP. Para destinos além dos limites da própria rede de hosts, é realizada
uma pesquisa em cache ARP para descobrir o endereço de destino físico do gateway, através do qual a rede de
destino pretendida pode ser alcançada.
• Onde uma entrada de cache do ARP não pode ser determinada, o processo de solicitação do ARP é executado.
Esse processo envolve a geração de um pacote de solicitação ARP e a população dos campos com os endereços
de protocolo de origem e destino, bem como o endereço de hardware de origem. O endereço do hardware de
destino é desconhecido. Como tal, o endereço de hardware de destino é preenchido com um valor equivalente a 0.
A solicitação ARP é encapsulada em um cabeçalho e trailer de quadro Ethernet como parte do processo de
encaminhamento. O endereço MAC de origem do cabeçalho do quadro é definido como o endereço de origem do
host de envio.

• Atualmente, o host não tem conhecimento da localização do destino e, portanto, deve enviar a solicitação ARP
como uma transmissão para todos os destinos dentro do mesmo limite da rede local. Isso significa que um
endereço de broadcast é usado como o endereço MAC de destino. Depois que o quadro é preenchido, ele é
encaminhado para a camada física, onde é propagado ao longo do meio físico ao qual o host está conectado. O
pacote ARP transmitido será inundado por toda a rede para todos os destinos, incluindo qualquer gateway que
possa estar presente; no entanto, o gateway impedirá que essa transmissão seja encaminhada para qualquer
rede além da rede atual.
• Se o destino de rede pretendido existir, o quadro chegará à interface física do destino no ponto em que o
processamento da camada inferior será seguido. As transmissões de ARP significam que todos os destinos
dentro dos limites da rede receberão o quadro inundado, mas deixarão de processar a solicitação de ARP, pois
o endereço do protocolo de destino não corresponde ao endereço IP desses destinos.

• Onde o endereço IP de destino corresponder ao host de recebimento, o pacote ARP será processado. O host
receptor primeiro processará o cabeçalho do quadro e, em seguida, processará a solicitação ARP. O host de
destino usará as informações do campo de endereço de hardware de origem no cabeçalho do ARP para preencher
sua própria tabela de cache do ARP, permitindo que um quadro de unicast seja gerado para qualquer
encaminhamento de quadro que possa ser necessário, para a origem da qual o ARP solicitação foi recebida.
• O destino determinará que o pacote ARP recebido é uma solicitação ARP e continuará a gerar uma resposta
ARP que será retornada à fonte, com base nas informações encontradas no cabeçalho ARP. Um pacote ARP
separado é gerado para a resposta, para o qual os campos de endereço do protocolo de origem e destino serão
preenchidos. No entanto, o endereço do protocolo de destino no pacote de solicitação do ARP agora representa
o endereço do protocolo de origem no pacote de resposta do ARP e, da mesma forma, o endereço do protocolo
de origem da solicitação do ARP se torna o endereço do protocolo de destino na resposta do ARP.

• O campo de endereço de hardware de destino é preenchido com o MAC da fonte, descoberto como resultado
do recebimento da solicitação ARP. Para o endereço de hardware de destino exigido da solicitação do ARP, ele
é incluído como o endereço de hardware de origem da resposta do ARP e o código de operação está definido
para responder, para informar o destino da finalidade do pacote ARP recebido, após o qual o destino é capaz de
descartar o pacote ARP sem qualquer comunicação adicional. A resposta do ARP é encapsulada no cabeçalho
e no trailer do quadro Ethernet, com o endereço MAC de destino do quadro Ethernet contendo a entrada MAC
na tabela de cache do ARP, permitindo que o quadro seja encaminhado como um quadro unicast de volta ao
host que originou o ARP solicitação.
• Ao receber a resposta do ARP, o host de origem validará se o destino pretendido está correto com base no
cabeçalho do quadro, identificará que o cabeçalho do pacote é ARP do campo de tipo e descartará os
cabeçalhos do quadro. A resposta do ARP será processada, com o endereço de hardware de origem da
resposta do ARP sendo usado para preencher a tabela de cache do ARP do host de origem (Host A).

• Após o processamento da resposta ARP, o pacote é descartado e as informações MAC de destino são usadas
para facilitar o processo de encapsulamento do aplicativo ou protocolo inicial que originalmente solicitou a
descoberta do destino na camada de enlace de dados.
• O protocolo ARP também é aplicado a outros casos, como onde os gateways de sub-rede transparentes
devem ser implementados para facilitar a comunicação nas redes de link de dados, onde os hosts são
considerados parte da mesma sub-rede. Isso é conhecido como ARP do proxy, pois o gateway opera como
um proxy para as duas redes de conexão de dados. Quando uma solicitação ARP é gerada para um destino
considerado parte da mesma sub-rede, a solicitação será recebida pelo gateway. O gateway é capaz de
determinar que o destino pretendido existe além da rede de vínculo de dados na qual a solicitação ARP foi
gerada.

• Como as solicitações de ARP não podem ser encaminhadas além dos limites do domínio de transmissão, o
gateway continuará gerando sua própria solicitação de ARP para determinar a acessibilidade ao destino
pretendido, usando seus próprios endereços de protocolo e hardware como endereços de origem para a
solicitação de ARP gerada. Se o destino pretendido existir, uma resposta ARP será recebida pelo gateway para o
qual o endereço de hardware de origem do destino será usado para preencher a tabela de cache ARP do
gateway.

• O gateway, ao confirmar a acessibilidade ao destino pretendido, gerará uma resposta ARP para a fonte original
(Host A) usando o endereço de hardware da interface na qual a resposta ARP foi encaminhada. Como resultado,
o gateway operará como um agente entre as duas redes de enlace de dados para facilitar a comunicação da
camada de enlace de dados, com os dois hosts encaminhando o tráfego destinado a destinos em diferentes
redes de enlace de dados para o endereço físico relevante do gateway "Proxy".
• No caso de um novo hardware ser introduzido em uma rede, é imperativo que o host determine se o endereço
do protocolo ao qual foi atribuído é exclusivo na rede, para evitar conflitos de endereços duplicados. Uma
solicitação ARP é gerada como um meio de determinar se o endereço do protocolo é exclusivo, definindo o
endereço de destino na solicitação ARP como igual ao endereço IP do host.

• A solicitação ARP é inundada em toda a rede para todos os destinos da camada de link, definindo o MAC de
destino como broadcast, para garantir que todas as estações finais e gateways recebam o quadro inundado.
Todos os destinos processarão o quadro e, se qualquer destino descobrir que o endereço IP de destino na
solicitação ARP corresponde ao endereço de uma estação final ou gateway de recebimento, uma resposta ARP
será gerada e retornada ao host que gerou a solicitação ARP.

• Por meio desse método, o host de origem é capaz de identificar a duplicação do endereço IP na rede e sinalizar
um conflito de endereço IP para solicitar que um endereço exclusivo seja atribuído. Esse meio de gerar uma
solicitação com base no próprio endereço IP do host define os princípios básicos do ARP gratuito.
• O host é necessário para determinar inicialmente se ele já está ciente de um endereço de encaminhamento da
camada de link em seu próprio cache ARP (tabela de endereços MAC). Se uma entrada for descoberta, o sistema
final poderá criar o quadro para encaminhamento sem a assistência do protocolo de resolução de endereços. Se
uma entrada não puder ser encontrada, no entanto, o processo ARP será iniciado e uma solicitação ARP será
transmitida na rede local.

• Mensagens ARP gratuitas são geralmente geradas no ponto em que um endereço IP é configurado ou
alterado para um dispositivo conectado à rede e a qualquer momento em que um dispositivo esteja
fisicamente conectado à rede. Nos dois casos, o processo ARP gratuito deve garantir que o endereço IP
usado permaneça exclusivo.
• O TCP é um protocolo de ponta a ponta orientado a conexão que existe como parte da camada de transporte da
pilha de protocolos TCP / IP, para oferecer suporte a aplicativos que abrangem ambientes de várias redes. O
protocolo de controle de transmissão fornece um meio de comunicação confiável entre processos entre pares de
processos em computadores host conectados a redes de comunicação de computador distintas, mas
interconectadas. O TCP conta com protocolos de camada inferior para fornecer a acessibilidade entre hosts de
suporte ao processo, sobre os quais um serviço de conexão confiável é estabelecido entre pares de processos.
O comportamento orientado à conexão do TCP envolve trocas anteriores entre a origem e o destino, através
das quais uma conexão é estabelecida antes dos segmentos da camada de transporte serem comunicados.
• Como meio de permitir que muitos processos em um único host usem os recursos de comunicação TCP
simultaneamente, o TCP fornece um conjunto de portas lógicas em cada host. O valor da porta, juntamente com
o endereço da camada de rede, é chamado de soquete, para o qual um par de soquetes fornece um
identificador exclusivo para cada conexão, principalmente quando um soquete é usado simultaneamente em
várias conexões. Ou seja, um processo pode precisar distinguir entre vários fluxos de comunicação entre si e
outro processo (ou processos), para o qual cada processo pode ter um número de portas através das quais se
comunica com a porta ou portas de outros processos.

• Certos processos podem possuir portas e esses processos podem iniciar conexões nas portas que eles possuem.
Essas portas são entendidas como portas de sistema atribuídas pela IANA ou portas conhecidas e existem no
intervalo de valores de porta de 0 a 1023. Um intervalo de usuário ou portas registradas atribuídas pela IANA também
existe no intervalo de 1024 a 49151, com portas dinâmicas, também conhecidas como portas privadas ou efêmeras no
intervalo de 49152 a 65535, que não estão restritas a nenhuma aplicação específica. Os hosts geralmente receberão
um valor de porta do usuário para o qual um soquete é gerado para um determinado aplicativo.

• Exemplos comuns de aplicativos baseados em TCP para os quais foram atribuídos números de porta
conhecidos incluem FTP, HTTP, TELNET e SMTP, que geralmente funcionam com outros protocolos de correio
conhecidos, como POP3 (porta 110) e IMAP4 (porta 143) .
• O cabeçalho TCP permite que aplicativos baseados em TCP estabeleçam fluxos de dados orientados a conexão que
são entregues com confiabilidade e aos quais o controle de fluxo é aplicado. Um número de porta de origem é
gerado onde um host pretende estabelecer uma conexão com um aplicativo baseado em TCP, para o qual a porta
de destino se relaciona com uma porta conhecida / registrada à qual um aplicativo conhecido / registrado está
associado.

• Os bits de código representam funções no TCP e incluem um bit urgente (URG) usado em conjunto com o campo
ponteiro urgente para notificações de dados urgentes direcionadas pelo usuário, reconhecimento de octetos recebidos
em associação com o campo de reconhecimento (ACK), a função push para encaminhamento de dados (PSH ),
operações de redefinição de conexão (RST), sincronização de números de sequência (SYN) e indicação de que não há
mais dados a serem recebidos do remetente (FIN). Bits de código adicionais foram introduzidos na forma de
sinalizadores ECN-Echo (ECE) e Congestion Window Reduced (CWR), como um meio de oferecer suporte à
notificação de congestionamento para aplicativos TCP sensíveis ao atraso.

• A nonce sum (NS) da notificação explícita de congestionamento (ECN) foi introduzida como uma alteração de
acompanhamento para eliminar o abuso potencial de ECN, onde dispositivos ao longo do caminho de transmissão
podem remover marcas de congestionamento de ECN. O campo Opções contém parâmetros que podem ser incluídos
como parte do cabeçalho TCP, geralmente usado durante o estabelecimento da conexão inicial, como no caso do
valor de tamanho máximo de segmento (MSS) que pode ser usado para definir o tamanho do segmento que o
receptor deve usar. O tamanho do cabeçalho TCP deve ser uma soma de 32 bits e, se esse não for o caso, será
realizado o preenchimento de 0 valores.
• Quando dois processos desejam se comunicar, cada TCP deve primeiro estabelecer uma conexão (inicialize a
sincronização da comunicação em cada lado). Quando a comunicação é concluída, a conexão é encerrada ou
fechada para liberar os recursos para outros usos. Como as conexões devem ser estabelecidas entre hosts não
confiáveis ​e sobre o domínio da Internet não confiável, um mecanismo de handshake com números de
sequência baseados em relógio é usado para evitar a inicialização incorreta das conexões.

• Uma conexão progride através de uma série de estados durante o estabelecimento. O estado LISTEN representa
um TCP aguardando uma solicitação de conexão de qualquer TCP e porta remotos. SYN-SENT ocorre após o
envio de uma solicitação de conexão e antes que uma solicitação correspondente seja recebida. O estado
SYN-RECEIVED ocorre enquanto aguarda uma confirmação da solicitação de conexão, após receber e enviar
uma solicitação de conexão. O estado ESTABELECIDO ocorre após o handshake no momento em que uma
conexão aberta é criada e os dados recebidos podem ser entregues ao usuário.

• O mecanismo de handshake de três vias do TCP começa com um número de sequência inicial sendo gerado
pelo TCP inicial como parte do processo de sincronização (SYN). O segmento TCP inicial é então definido com o
bit de código SYN e transmitido ao TCP de destino IP pretendido para alcançar um estado SYN-SENT. Como
parte do processo de reconhecimento, o TCP emparelhamento gerará um número de sequência inicial próprio
para sincronizar o fluxo TCP na outra direção. Esse TCP emparelhado transmitirá esse número de sequência,
bem como um número de confirmação que é igual ao número de sequência recebido incrementado por um,
juntamente com os bits de código SYN e ACK definidos no cabeçalho TCP para obter um estado
SYN-RECEIVED.

• A etapa final do handshake de conexão envolve o TCP inicial reconhecendo o número de sequência do TCP
emparelhado, configurando o número de reconhecimento para igualar o número de sequência recebido mais um,
juntamente com o bit ACK no cabeçalho TCP, permitindo que um estado ESTABELECIDO seja alcançado .
• Como a transmissão TCP é enviada como um fluxo de dados, todos os octetos podem ser sequenciados e,
portanto, cada octeto pode ser reconhecido. O número de reconhecimento é usado para conseguir isso,
respondendo ao remetente como confirmação do recebimento de dados, fornecendo confiabilidade no transporte
de dados. O processo de reconhecimento, no entanto, é cumulativo, o que significa que uma sequência de
octetos pode ser confirmada por um único reconhecimento, relatando à fonte o número de sequência que segue
imediatamente o número de sequência que foi recebido com êxito.

• No exemplo, vários bytes (octetos) são transmitidos juntos antes que o reconhecimento TCP seja fornecido.
Caso um octeto não seja transmitido ao destino, a sequência de octetos transmitidos será confirmada apenas no
ponto em que a perda ocorreu. A confirmação resultante refletirá o octeto que não foi recebido para reiniciar a
transmissão a partir do ponto no fluxo de dados no qual o octeto foi perdido.

• A capacidade de acumular vários octetos juntos antes de uma confirmação permite que o TCP opere com muito
mais eficiência; no entanto, é necessário um equilíbrio para garantir que o número de octetos enviados antes
que uma confirmação seja necessária não seja muito extremo, pois se um octeto não for recebido, todo o fluxo
de octetos a partir do ponto da perda deve ser retransmitido.
• O campo da janela TCP fornece um meio de controle de fluxo que controla a quantidade de dados enviados
pelo remetente. Isso é obtido retornando uma "janela" com cada segmento TCP para o qual o campo ACK está
definido, indicando um intervalo de números de sequência aceitáveis ​além do último segmento recebido com
sucesso. A janela indica o número permitido de octetos que o remetente pode transmitir antes de receber mais
permissões.

• No exemplo, a transmissão TCP do host A para o servidor A contém o tamanho atual da janela do host A. O
tamanho da janela do servidor A é determinado como parte do handshake, que com base na transmissão pode
ser assumido como 2048. Uma vez que os dados equivalem a o tamanho da janela foi recebido, uma
confirmação será retornada, relativa ao número de bytes recebidos, mais um. Depois disso, o host A continuará
transmitindo o próximo lote de dados.

• Um tamanho de janela TCP 0 negará efetivamente o processamento de segmentos, com exceção dos segmentos em

que os bits de código ACK, RST e URG estão definidos para os segmentos recebidos. Onde existe um tamanho de

janela 0, o remetente ainda deve verificar periodicamente o status do tamanho da janela de recebimento de TCP para

garantir que qualquer alteração no tamanho da janela seja efetivamente relatada, o período de retransmissão é

geralmente de dois minutos. Quando um remetente envia segmentos periódicos, o TCP receptor ainda deve confirmar

com um anúncio de número de sequência do tamanho atual da janela 0.


• Como parte do processo de finalização da conexão TCP, vários estados são definidos pelos quais o TCP fará a
transição. Esses estados incluem FIN-WAIT-1, que representa a espera de uma solicitação de finalização de
conexão (FIN) do TCP remoto ou um reconhecimento de uma solicitação de finalização de conexão que foi
enviada anteriormente. O FIN-WAIT-2 representa a espera de uma solicitação de encerramento de conexão do
TCP remoto a seguir, que geralmente passa para um estado TIME-WAIT. Um estado CLOSE-WAIT indica a
espera de uma solicitação de encerramento de conexão definida localmente, normalmente quando o aplicativo
de um servidor está em processo de fechamento.

• O estado LAST-ACK representa a espera de uma confirmação da solicitação de término da conexão enviada
anteriormente para o TCP remoto (que inclui uma confirmação da solicitação de término da conexão). Por fim,
um estado TIME-WAIT ocorre e aguarda o tempo suficiente para garantir que o TCP remoto receba o
reconhecimento de sua solicitação de encerramento de conexão. Esse período é gerenciado pelo cronômetro
Max Segment Lifetime (MSL) que define um período de espera de 2 minutos. Após um período de espera igual
a duas vezes a MSL, a conexão TCP é considerada fechada / encerrada.
• O User Datagram Protocol, ou UDP, representa uma alternativa ao TCP e é aplicado onde o TCP atua como um
mecanismo de transporte ineficiente, principalmente no caso de tráfego sensível com grande atraso. Onde o
TCP é considerado um segmento, o UDP é reconhecido como uma forma de datagrama da Unidade de Dados
de Protocolo (PDU), para a qual um datagrama pode ser entendido como uma entidade independente e
independente, contendo informações suficientes para serem roteadas a partir da fonte. ao sistema final de
destino sem depender de trocas anteriores entre esses sistemas finais de origem e destino e a rede de
transporte, conforme definido na RFC 1594. Com efeito, isso significa que o tráfego UDP não requer o
estabelecimento de uma conexão antes do envio de dados.

• A estrutura e operação simplificadas do UDP tornam ideal para os programas aplicativos enviar mensagens
para outros programas, com um mínimo de mecanismo de protocolo, como no caso de reconhecimentos e
janelas, por exemplo, como encontrado nos segmentos TCP. Em contrapartida, no entanto, o UDP não garante
a entrega da transmissão de dados, nem a proteção contra a duplicação de datagramas.
• O cabeçalho UDP fornece uma abordagem minimalista da camada de transporte, implementando apenas uma
construção básica para ajudar a identificar a porta de destino à qual o tráfego baseado em UDP é destinado, bem
como um campo de comprimento e um valor de soma de verificação que garante a integridade do cabeçalho UDP .
Além disso, a sobrecarga mínima atua como um meio ideal para permitir que mais dados sejam transportados por
pacote, favorecendo o tráfego em tempo real, como comunicações de voz e vídeo, em que o TCP fornece uma
sobrecarga de 20 bytes e mecanismos que influenciam atrasos, como no caso de reconhecimentos. , no entanto, a
falta desses campos significa que a entrega do datagrama não é garantida.
• Como a transmissão de datagrama UDP não é enviada como um fluxo de dados, a transmissão de dados é
suscetível à duplicação de datagramas. Além disso, a falta de números de sequência no UDP significa que é
provável que a entrega da transmissão de dados por vários caminhos seja recebida no destino em uma ordem
incorreta e não sequenciada.

• Onde os dados de fluxo são transportados por UDP, como no caso de aplicativos de voz e vídeo, podem ser
aplicados mecanismos de protocolo adicionais para aprimorar a capacidade do UDP, como no caso do protocolo
de transporte em tempo real (RTP), que ajuda a suportar a incapacidade. do UDP, fornecendo um mecanismo de
seqüenciamento usando timestamps para manter a ordem desses fluxos de dados de áudio / vídeo, suportando
efetivamente o comportamento orientado à conexão parcial através de um protocolo de transporte sem conexão.
• O comportamento geral de encaminhamento de UDP é altamente benéfico para atrasar o tráfego sensível,
como voz e vídeo. Deve-se entender que, no caso de um protocolo de transporte orientado a conexão, os dados
perdidos exigiriam replicação após um período de atraso, durante o qual é esperado um reconhecimento pelo
remetente. Caso a confirmação não seja recebida, os dados serão retransmitidos.

• Para fluxos de dados sensíveis ao atraso, isso resultaria em transmissões de áudio e vídeo incompreensíveis
devido ao atraso e à duplicação, como resultado da retransmissão a partir do ponto em que os reconhecimentos
são gerados. Nesses casos, a perda mínima do fluxo de dados é preferível à retransmissão e, como tal, o UDP
é selecionado como o mecanismo de transporte, para apoiar o tráfego sensível ao atraso.
• O campo de reconhecimento no cabeçalho TCP confirma o recebimento do segmento recebido pelo processo
TCP no destino. O número de sequência no cabeçalho TCP do datagrama IP recebido é obtido e incrementado
em 1. Esse valor se torna o número de reconhecimento no cabeçalho TCP retornado e é usado para confirmar o
recebimento de todos os dados, antes de ser encaminhado junto com o conjunto de bits de código ACK para 1,
para o remetente original.

• O handshake de três vias envolve bits de código SYN e ACK para estabelecer e confirmar a conexão entre
os dois sistemas finais, entre os quais a transmissão de datagramas deve ocorrer.
• O encaminhamento de dados pode ser definido coletivamente como local ou remoto, para o qual o processo de
encaminhamento depende da aplicação da pilha de protocolos, a fim de alcançar a transmissão de ponta a ponta.
Os sistemas finais podem fazer parte da mesma rede ou localizados em redes diferentes; no entanto, o princípio
geral de encaminhamento para permitir a transmissão entre hosts segue um conjunto claro de protocolos que foram
introduzidos como parte da unidade. O modo como esses protocolos funcionam juntos deve ser reforçado, bem
como a construção do relacionamento entre os protocolos TCP / IP da camada superior e os padrões de protocolo
Ethernet baseados na camada de link inferior.
• Um sistema final que pretende encaminhar dados para um determinado destino deve determinar inicialmente se é
possível ou não alcançar o destino pretendido. Para conseguir isso, o sistema final deve passar por um processo
de descoberta de caminho. Um sistema final deve ser entendido como capaz de suportar a operação em todas as
camadas, pois sua função principal é hospedar aplicativos. Em relação a isso, ele também deve ser capaz de
suportar operações da camada inferior, como roteamento e encaminhamento da camada de link (comutação), a
fim de ser capaz de encaminhamento de dados da camada superior / de aplicação. O sistema final, portanto,
contém uma tabela que representa a acessibilidade da camada de rede à rede para a qual os dados da camada
superior são destinados.

• Os sistemas finais geralmente estarão cientes da rede em que residem, mas podem não ter um caminho de
encaminhamento nos casos em que a descoberta de rede remota não foi alcançada. No exemplo dado, o host A
possui um caminho para a rede destinada por meio do endereço 'any network' que foi brevemente introduzido
como parte da seção Endereçamento IP. A tabela de encaminhamento identifica que o tráfego deve ser
encaminhado para o gateway como um salto seguinte através da interface associada ao endereço lógico de
10.1.1.1.
• Após a descoberta de uma rota viável em direção à rede de destino pretendida, um próximo salto físico também
deve ser descoberto para facilitar o encaminhamento de quadros. O conjunto de protocolos TCP / IP é
responsável por determinar isso antes que o encapsulamento de pacotes possa prosseguir. A etapa inicial
envolve determinar se existe um caminho físico para o próximo salto identificado como parte do processo de
descoberta de caminhos.

• Isso requer que a tabela de cache do ARP seja consultada para identificar se é conhecida uma associação entre
o próximo salto pretendido e o caminho físico. A partir do exemplo, pode ser visto que uma entrada para o
endereço do gateway do próximo salto está presente na tabela de cache do ARP. Onde uma entrada não pode
ser encontrada, o ARP (Address Resolution Protocol) deve ser iniciado para executar a descoberta e resolver o
caminho físico.
• Quando a descoberta do encaminhamento de caminho lógico e físico estiver concluída, é possível que o
encapsulamento de dados seja realizado para uma transmissão bem-sucedida em redes baseadas em IP /
Ethernet. Os processos da camada superior em termos de criptografia e compactação podem ser executados após
o encapsulamento da camada de transporte, identificando as portas de origem e destino pelas quais os dados da
camada superior devem ser encaminhados.

• No caso do TCP, os campos de sequência e reconhecimento serão preenchidos, os bits de código definidos
conforme necessário com o bit ACK comumente aplicado. O campo da janela será preenchido com o tamanho atual
da janela suportada, para a qual o host notificará o buffer máximo de dados que pode ser suportado antes que os
dados sejam confirmados.

• Os valores que representam os campos TCP são incluídos como parte da soma de verificação, que é calculada
usando um processo de cálculo de elogio, para garantir que a integridade do segmento TCP seja mantida assim
que o cabeçalho TCP for recebido e processado no destino final. No caso de operações básicas de código TCP,
os dados da camada superior nem sempre podem ser transportados no segmento, como no caso da
sincronização de conexão e confirmações para os dados recebidos.
• Após o encapsulamento da camada de transporte, geralmente é necessário que sejam fornecidas instruções,
detalhando como a transmissão por uma ou mais redes deve ser alcançada. Isso envolve listar a fonte IP, bem
como o destino final ao qual o pacote é destinado. Os pacotes IP geralmente são limitados a um tamanho de
1500 bytes por Ethernet, incluindo os cabeçalhos da camada de rede e transporte, bem como quaisquer dados
da camada superior. O tamanho inicial do pacote será determinado pela Ethernet como a unidade máxima de
transmissão ou MTU à qual os pacotes serão compatíveis, portanto, a fragmentação não ocorrerá na fonte.

• No caso de o MTU mudar ao longo do caminho de encaminhamento, somente a fragmentação será executada.
O campo Time to Live será preenchido com um valor definido, dependendo do sistema, nos roteadores da série
ARG3, este é definido com um valor inicial de 255. O campo de protocolo é preenchido com base no protocolo
encapsulado antes do IP. Nesse caso, o protocolo em questão é o TCP para o qual o cabeçalho IP preencherá
o campo do protocolo com um valor 0x06 como instrução para o próximo processamento de cabeçalho. O
endereçamento IP de origem e destino refletirá a origem e o destino final.
• O encapsulamento da camada de link depende dos padrões Ethernet IEEE 802.3 para transmissão física de dados
da camada superior através de redes Ethernet. O encapsulamento nas camadas inferiores é realizado
determinando inicialmente o tipo de quadro usado.

• Onde o protocolo da camada superior é representado por um valor de tipo maior que 1536 (0x0600), como é o
caso do IP (0x0800), o tipo de quadro Ethernet II é adotado. O campo de tipo do cabeçalho do quadro Ethernet
II é preenchido com o valor do tipo 0x0800 para refletir que o próximo protocolo a ser processado após o
processamento do quadro será IP. O endereço MAC de destino determina o próximo salto físico, que neste caso
representa o gateway de rede.
• Como parte da operação da camada de link, é imperativo garantir que o meio de transmissão esteja livre de
sinais no domínio de colisão compartilhado. O host primeiro escutará qualquer tráfego na rede como parte do
CSMA / CD e, se a linha permanecer limpa, se preparará para transmitir os dados. É necessário que a interface
física receptora esteja ciente do quadro recebido, para evitar a perda dos valores iniciais de bits que tornariam os
quadros iniciais incompletos. Portanto, os quadros são precedidos por um valor de 64 bits, indicando o destino
da camada de link da chegada iminente do quadro.

• Os 56 bits iniciais representam um padrão 1, 0 alternado, chamado preâmbulo, e é seguido imediatamente por
um octeto, entendido como o SFD (Start of Frame Delimiter). Os dois bits finais do SFD desviam de um padrão
alternativo para uma combinação de 1,1 bits que notifica que os bits a seguir representam os primeiros valores
de bits do endereço MAC de destino e, portanto, o início do cabeçalho do quadro.
• Como um quadro é recebido pelo destino da camada de link, ele deve passar por várias verificações para
determinar sua integridade e validade. Se o quadro foi transmitido através de uma rede Ethernet compartilhada,
outras estações finais também podem receber uma instância do quadro transmitido, no entanto, como o
endereço MAC de destino do quadro é diferente do endereço MAC da estação final, o quadro será descartado.

• Os quadros recebidos no destino pretendido realizarão a verificação de erros calculando o valor de elogio com
base nos campos atuais do quadro e comparando-o com o valor no campo Sequência de verificação do quadro
(FCS). Se os valores não corresponderem, o quadro será descartado. Os sistemas intermediários e finais que
recebem quadros válidos precisarão determinar se o quadro é destinado à sua interface física comparando o
endereço MAC de destino com o endereço MAC da interface (ou dispositivo em alguns casos).

• Se houver uma correspondência, o quadro é processado e o campo de tipo é usado para determinar o próximo cabeçalho a

ser processado. Depois que o próximo cabeçalho é determinado, o cabeçalho do quadro e o trailer são descartados.
• O pacote é recebido pela camada de rede e, em particular, pelo IP, momento em que o cabeçalho do IP é
processado. Existe um valor de soma de verificação em cada camada da pilha de protocolos para manter a
integridade em todas as camadas de todos os protocolos. O IP de destino é usado para determinar se o pacote
atingiu seu destino final. No entanto, o gateway determina que esse não é o caso, pois o IP de destino e o IP
pertencente ao gateway não coincidem.

• O gateway deve, portanto, determinar o curso de ação a ser seguido em relação ao roteamento do pacote para
uma interface alternativa e encaminhar o pacote para a rede à qual se destina. No entanto, o gateway primeiro
deve garantir que o valor TTL não tenha atingido 0 e que o tamanho do pacote não exceda o valor máximo da
unidade de transmissão para o gateway. Caso o pacote seja maior que o valor MTU do gateway, a
fragmentação geralmente começará.

• Depois que o destino de um pacote for localizado na tabela de encaminhamento do gateway, o pacote será
encapsulado em um novo cabeçalho de quadro que consiste em novos endereços MAC de origem e destino
para o segmento da camada de link, para o qual o quadro resultante deve ser encaminhado antes sendo
novamente transmitido para o próximo salto físico. Onde o próximo salto físico não for conhecido, o ARP será
novamente utilizado para resolver o endereço MAC.
• Os quadros recebidos no destino final determinarão inicialmente se o quadro chegou ao local pretendido. O
exemplo mostra dois servidores em uma rede Ethernet compartilhada pela qual ambos recebem uma cópia do
quadro.

• O quadro é finalmente descartado pelo servidor B, pois o valor MAC de destino e o endereço MAC da interface
do servidor B não coincidem. O servidor A, no entanto, recebe com êxito o quadro e descobre que os campos
MAC são os mesmos; a integridade do quadro com base no FCS também pode ser entendida como correta. O
quadro usará o campo de tipo para identificar 0x0800 como o próximo cabeçalho, após o qual o cabeçalho e o
trailer do quadro são descartados e o pacote é recebido por IP.
• Ao chegar ao destino final, o cabeçalho do pacote IP deve facilitar vários processos. O primeiro inclui a
validação da integridade do cabeçalho do pacote através do campo de soma de verificação, aplicando
novamente uma comparação de valor de elogio com base na soma dos campos do cabeçalho IP. Onde correto,
o cabeçalho IP será usado para determinar se o IP de destino corresponde ao endereço IP da estação final
atual, que neste caso é verdadeira.

• Se alguma fragmentação ocorreu durante a transmissão entre a origem e o destino, o pacote deve ser
remontado neste momento. O campo de identificação coletará os fragmentos pertencentes a uma única fonte de
dados, o deslocamento determinará a ordem e o campo flags especificará quando a remontagem deve
começar, uma vez que todos os fragmentos devem ser recebidos primeiro e um fragmento com o sinalizador 0
será reconhecido como o último fragmento a ser recebido.

• Um cronômetro continuará durante o período em que a remontagem deve ser concluída, se a remontagem
falhar nesse período, todos os fragmentos serão descartados. O campo do protocolo será usado para identificar
o próximo cabeçalho para processamento e o cabeçalho do pacote será descartado. Deve-se notar que o
próximo cabeçalho nem sempre pode ser um cabeçalho da camada de transporte, um exemplo claro de onde
isso pode ser entendido é o caso do ICMP, que também é um protocolo da camada de rede com um valor de
campo de protocolo 0x01 .
• No caso em que um cabeçalho de pacote é descartado, o segmento ou datagrama resultante é passado para a
camada de transporte para processamento baseado em aplicativo. As informações do cabeçalho são recebidas
neste caso pelo TCP (0x06).

• No exemplo, pode ser entendido que uma conexão TCP já foi estabelecida e o segmento representa uma
confirmação para a transmissão do tráfego HTTP do servidor HTTP para o host de confirmação. O host é
representado pela porta 1027 como um meio de distinguir entre várias conexões HTTP que podem existir entre
o mesmo host de origem e servidor de destino. Ao receber essa confirmação, o servidor HTTP continuará
encaminhando para o host dentro dos limites do tamanho da janela do host.
• Antes do encapsulamento e encaminhamento de dados, uma fonte deve ter conhecimento do destino IP ou de um
endereço de encaminhamento equivalente, como um endereço padrão para o qual os dados podem ser
encaminhados. Além disso, é necessário que o endereço de encaminhamento seja associado a um próximo salto
físico para o qual os dados possam ser encaminhados na rede local.

• Qualquer quadro que é recebido por um gateway ou sistema final (host) ao qual não se destina, é
descartado posteriormente, após a inspeção do endereço MAC de destino no cabeçalho do quadro.

• A entrega de dados depende do número da porta de destino nos cabeçalhos TCP e UDP para identificar o
aplicativo ao qual os dados se destinam. Após a análise desse valor pelo protocolo TCP ou UDP, os
dados são encaminhados.

• A porta de origem do cabeçalho TCP para o tráfego HTTP distingue entre as diferentes sessões do aplicativo que
estão ativas. O tráfego HTTP de retorno do servidor HTTP pode identificar cada sessão individual do navegador da
Web com base nesse número da porta de origem. Por exemplo, a porta de origem de duas solicitações separadas
para tráfego HTTP originário da fonte IP 10.1.1.1 pode ser originária das portas de origem 1028 e 1035, no entanto,
a porta de destino em ambos os casos permanece como porta 80, o servidor HTTP.
• Até agora, a rede Ethernet foi entendida como uma coleção de dispositivos que se comunicam por mídia
compartilhada, como 10Base2, através da qual os hosts podem se comunicar com hosts ou sistemas finais
vizinhos. Foi determinado que a rede Ethernet é uma rede contenciosa, o que significa que os hosts devem
competir pelo acesso à mídia, que se torna cada vez mais limitado à medida que mais e mais dispositivos são
conectados por essa mídia compartilhada; o que causa limitações adicionais na escalabilidade e o potencial
crescente de colisões.

• Como resultado, a necessidade de detecção de colisão na forma de CSMA / CD está sempre presente nessas
redes Ethernet compartilhadas. Após a adoção de mídia comutada como a do 100BaseT, a transmissão e a
recepção de dados foram isoladas nos canais (pares de fios), permitindo eliminar o potencial de colisões. Esse
meio, como uma forma de Ethernet não compartilhada, fornece apenas um meio de comunicação ponto-ponto,
no entanto, usado junto com outros dispositivos, como hubs, uma rede Ethernet compartilhada é novamente
possível, juntamente com o potencial de colisões.

• O switch foi introduzido como parte da evolução da ponte e é capaz de dividir o domínio de colisão
compartilhado em vários domínios de colisão. Os domínios de colisão operam como uma coleção de links ponto
a ponto, para os quais a ameaça de colisão é removida e o tráfego da camada de link é isolado, para permitir
taxas de transmissão mais altas que otimizam o fluxo de tráfego na rede Ethernet.
• Um domínio de transmissão é capaz de ser composto por um único ou vários domínios de colisão, e qualquer
transmissão de transmissão está contida dentro dos limites de um domínio de transmissão. A borda do limite de
um domínio de transmissão é normalmente definida por um gateway que atua como meio, por meio do qual
outras redes são acessíveis, e restringirá o encaminhamento de qualquer tráfego de transmissão além da
interface na qual a transmissão é recebida.

• Roteadores são sinônimos do termo gateway para o qual os dois são frequentemente usados ​de forma intercambiável.

Uma única rede IP geralmente pode ser entendida como um domínio de broadcast, que se refere ao escopo de um

segmento da camada de link. Os roteadores geralmente são responsáveis ​pelo roteamento de datagramas da Internet

(pacotes IP) para um determinado destino, com base no conhecimento de um endereço de encaminhamento para a rede

de destino, encontrado em uma tabela de encaminhamento gerenciado internamente.


• A Versatile Routing Platform (VRP) representa a base de muitos produtos da Huawei, incluindo roteadores e
switches. Seu design passou por muitas evoluções para permitir a melhoria contínua do gerenciamento e
encaminhamento de dados. O projeto arquitetônico resultou em modularidade cada vez mais aprimorada que
permite maior desempenho geral. A configuração, o gerenciamento e o monitoramento de dispositivos usando
VRP são baseados em um sistema de linha de comando hierárquico e padronizado para o qual uma
familiaridade deve ser desenvolvida para oferecer suporte à navegação e operação de produtos Huawei
gerenciados usando o software VRP.
• A familiaridade com as versões do sistema operacional de rede VRP (NOS) ajuda a garantir que a versão
atualmente em uso esteja atualizada e oferece suporte a certos recursos que podem ser necessários em uma
rede corporativa. A tendência geral para a maioria dos dispositivos Huawei é operar atualmente com o VRP
versão 5.x, em que x pode variar dependendo do produto e da versão do VRP. O VRP versão 8 é uma revisão
recente do VRP criada com uma arquitetura altamente refinada para a próxima geração de tecnologias e
construída em torno da necessidade de maior eficiência, mas não está presente em todos os produtos da Huawei.
• Os roteadores corporativos (AR) da série AR incluem o AR150, AR200, AR1200, AR2200 e AR3200. Eles são a
próxima geração de produtos Huawei e fornecem funcionalidade de roteamento, comutação, sem fio, voz e
segurança. A série AR está posicionada entre a rede corporativa e uma rede pública, funcionando como um
gateway de entrada e saída de dados transmitidos entre as duas redes. A implantação de vários serviços de
rede nos roteadores da série AR reduz os custos de operação e manutenção (O&M), bem como os custos
associados ao estabelecimento de uma rede corporativa. Os roteadores da série AR de especificações
diferentes podem ser usados ​como gateways com base na capacidade do usuário de uma empresa.

• O comutador Ethernet da série Sx7 fornece a funcionalidade de transporte de dados e foi desenvolvido pela
Huawei para atender aos requisitos de acesso confiável e transmissão de alta qualidade de vários serviços na
rede corporativa. Essa série de comutadores está posicionada para operação de camada de acesso ou
agregação na rede corporativa e fornece uma grande capacidade de comutação, alta densidade de portas e
recursos de encaminhamento de pacotes com baixo custo.

• O gerenciamento dos roteadores da série ARG3 e da série Sx7 do comutador pode ser alcançado através do
estabelecimento de uma conexão com a interface do console e, no caso do AR2200, também é possível estabelecer
uma conexão através de uma interface Mini USB.
• Um cabo do console é usado para depurar ou manter um dispositivo estabelecido localmente, como um roteador
ou switch, e fará interface com a porta do console desses dispositivos. A interface do console do comutador da
série S5700 e do roteador AR2200 é uma conexão do tipo RJ-45, enquanto a interface à qual a conexão do host é
feita representa uma forma RS-232 de conector serial. Freqüentemente, esses conectores seriais não estão mais
presentes em dispositivos mais novos que podem ser usados ​para estabelecer conectividade, como computadores
laptop, e, portanto, é realizada uma conversão de RS-232 para USB. Para a maioria dos dispositivos de desktop,
no entanto, uma conexão de console baseada em RS-232 pode ser estabelecida em uma porta COM no
dispositivo host.
• O estabelecimento do console é configurado através de um dos vários programas de emulação de terminal disponíveis.

Os usuários do Windows geralmente aplicam o aplicativo HyperTerminal, como mostrado no exemplo, para fazer

interface com o sistema operacional VRP. Seguindo a especificação da porta COM que deve ser usada para estabelecer

a conexão, as configurações da porta devem ser definidas.

• O exemplo define as configurações de porta que devem ser aplicadas, para as quais o botão de restauração
padrão será automaticamente reatribuído caso alguma alteração tenha sido feita nessas configurações. Uma vez
pressionado o botão OK, será estabelecida uma sessão com o VRP do dispositivo. Se o dispositivo estiver
operando com as configurações padrão de fábrica, será solicitada uma senha ao usuário, que será atribuída como
a senha de login padrão para futuras tentativas de conexão.
• O roteador Huawei AR2200 também suporta os meios de conectividade do terminal através de uma conexão
USB. Existe uma interface mini USB tipo B no painel frontal do roteador da série AR2200, através do qual os
hosts são capazes de estabelecer uma conexão baseada em USB como uma alternativa serial à do RS-232.
• Uma pequena variação no processo de configuração requer que o mini USB primeiro estabeleça drivers para
permitir a funcionalidade USB. O driver mini USB pode ser obtido visitando
http://support.huawei.com/enterprise e, no caminho Suporte> Software> Redes empresariais> Roteador>
Roteador de acesso> AR> AR2200, escolha a opção VRP relevante e o caminho do patch e faça o download
do arquivo AR & SRG_MiniUSB_driver.zip. Observe que o driver mini USB é compatível apenas com os
sistemas operacionais Windows XP, Windows Vista e Windows 7.

• Ao atualizar o software do dispositivo ou instalar um patch, o valor do hash MD5 pode ser verificado para
confirmar a validade do software. Para impedir que o software seja modificado ou substituído, é recomendável
executar esta operação.

• A instalação exige que o usuário clique duas vezes no arquivo de instalação do driver no PC e clique em Avançar. Em

segundo lugar, selecione Aceito os termos do contrato de licença e clique em Avançar. Clique no botão Alterar para

alterar o diretório do driver, se necessário, e clique em Avançar. Clique em Instalar e descompacte o driver. Quando o

sistema terminar de descompactar o driver, clique em Concluir.

• Os usuários devem encontrar a pasta DISK1 no diretório do driver especificado e clicar duas vezes no arquivo setup.exe.

Após a abertura de uma segunda janela de instalação, clique em Avançar. Os usuários devem selecionar novamente Eu

aceito os termos do contrato de licença e clique em Avançar para instalar o driver. Depois de concluído, clique em Concluir

para concluir a instalação do driver. Clique com o botão direito do mouse em Meu computador e escolha Gerenciar>

Gerenciador de dispositivos> Portas (COM e LPT). O sistema deve exibir o dispositivo TUSB3410 indicando o driver que foi

instalado.
• Assim como na conexão do console RS-232, a conexão serial Mini USB requer o estabelecimento de um software
de emulação de terminal para permitir a interação com a linha de comando do VRP.

• Use o software de emulação de terminal para efetuar login no dispositivo através da porta mini USB (para a qual
o Windows HyperTerminal é usado como exemplo). No PC host, inicie o aplicativo HyperTerminal, para o qual o
local pode variar para cada versão do Windows, e crie uma conexão fornecendo um nome de conexão de
terminal adequado e clique em OK. Selecione a porta de conexão relevante (COM) e defina os parâmetros de
comunicação para a porta serial do PC. Esses parâmetros devem corresponder aos valores padrão definidos ao
pressionar o botão Restaurar padrões.

• Depois de pressionar Enter, as informações do console são exibidas solicitando uma senha de login. Digite uma
senha relevante e uma senha de confirmação, e o sistema salvará a senha.
• Qualquer transmissão gerada por um sistema final em uma rede local será encaminhada para todos os
destinos. Depois que um quadro é transmitido para um roteador ou dispositivo que atua como um gateway
para a rede, o quadro será analisado e, se for determinado que o destino é para um host definido localmente
que não seja o gateway, o quadro será descartado. Isso define os limites de qualquer domínio de broadcast.

• O VRP versão 5 é suportado por um grande número de produtos atuais da Huawei, enquanto os produtos de
ponta podem ser suportados pelo VRP versão 8.
• O processo de inicialização / inicialização é a fase inicial da operação para qualquer administrador ou engenheiro
que acesse produtos baseados na Huawei que operam com VRP. A tela de inicialização informa os
procedimentos de operação de inicialização do sistema, bem como a versão da imagem VRP atualmente
implementada no dispositivo, juntamente com o local de armazenamento de onde é carregado. Após o
procedimento inicial de inicialização, uma opção para a configuração automática das configurações iniciais do
sistema solicita uma resposta, para a qual o administrador pode optar por seguir as etapas de configuração ou
configurar manualmente os parâmetros básicos do sistema. O processo de configuração automática pode ser
encerrado selecionando a opção yes no prompt fornecido.
• A estrutura de comando hierárquica do VRP define várias visualizações de comando que governam os comandos
para os quais os usuários podem executar operações. A interface da linha de comandos possui várias visualizações
de comando, das quais visualizações comuns foram introduzidas no exemplo. Cada comando é registrado para
execução em uma ou mais visualizações de comando, e esses comandos podem ser executados somente após a
inserção da visualização de comando apropriada. A visão de comando inicial do VRP é a Visão do Usuário, que
opera como uma visão de comando de observação para observar status de parâmetros e estatísticas gerais

em formação. Para aplicação de alterações no sistema


parâmetros, os usuários devem acessar a Visualização do sistema. Também é possível encontrar vários níveis de

subcomando, na forma de visualizações de interface e protocolo, por exemplo, onde as tarefas no nível do sub-sistema

podem ser executadas.

• As visualizações da linha de comando podem ser determinadas com base nos parênteses e nas informações
contidas nesses parênteses. A presença de divisas identifica que o usuário está atualmente na Visualização do
Usuário, enquanto colchetes mostram que ocorreu uma transição para a Visualização do Sistema.
• O exemplo demonstra uma seleção de teclas de atalho comuns definidas pelo sistema que são amplamente
usadas para simplificar o processo de navegação na interface da linha de comandos VRP. Comandos adicionais
são os seguintes:

• CTRL + B move o cursor para trás um caractere.

• CTRL + D exclui o caractere onde o cursor está localizado.

• CTRL + E move o cursor para o final da linha atual.

• CTRL + F move o cursor para frente um caractere.

• CTRL + H exclui o caractere no lado esquerdo do cursor.

• CTRL + N exibe o próximo comando no buffer de comando histórico.

• CTRL + P exibe o comando anterior no buffer de comando histórico.

• CTRL + W exclui a palavra no lado esquerdo do cursor.

• CTRL + X exclui todos os caracteres no lado esquerdo do cursor.

• CTRL + Y exclui todos os caracteres no lado direito do cursor.

• ESC + B move o cursor uma palavra para trás.

• ESC + D exclui a palavra no lado direito do cursor.

• ESC + F move o cursor para frente uma palavra.


• Funções de tecla adicionais podem ser usadas para executar operações semelhantes; a operação de backspace tem o

mesmo comportamento que usar CTRL + H para excluir um caractere à esquerda do cursor. As teclas de cursor

esquerda (←) e direita (→) podem ser usadas para executar a mesma operação que as funções das teclas de atalho

CTRL + B e CTRL + F. A tecla do cursor para baixo (↓) funciona da mesma forma que Ctrl + N e a tecla do cursor para

cima (↑) atua como uma alternativa à operação CTRL + P.

• Além disso, as funções da linha de comando oferecem suporte a um meio de preenchimento automático, onde
uma palavra de comando é exclusiva. O exemplo demonstra como a palavra de comando interface pode ser
preenchido automaticamente pela conclusão parcial da palavra, a tal ponto que o comando é único, seguido pela
tecla tab que fornecerá a conclusão automática da palavra de comando. Onde a palavra de comando não é
exclusiva, a função de tabulação percorre as possíveis opções de conclusão cada vez que a tecla Tab é
pressionada.
• Existem duas formas de recurso de ajuda que podem ser encontradas no VRP: elas vêm na forma de ajuda parcial e
funções completas de ajuda. Ao inserir uma sequência de caracteres seguida diretamente por um ponto de
interrogação (?), O VRP implementará a função de ajuda parcial para exibir todos os comandos que começam com
essa sequência de caracteres. Um exemplo disso é demonstrado. No caso do recurso de ajuda completa, um ponto de
interrogação (?) Pode ser colocado na linha de comando em qualquer exibição para exibir todos os nomes de
comandos possíveis, juntamente com as descrições de todos os comandos pertencentes a essa exibição. Além disso, o
recurso de ajuda completa suporta a entrada de um comando seguido por um ponto de interrogação (?) Que é
separado por um espaço. Todas as palavras-chave associadas a este comando, bem como descrições simples, são
exibidas.
• Para a maioria dos setores, é provável que existam vários dispositivos, cada um dos quais precisa ser gerenciado.
Dessa forma, uma das primeiras tarefas importantes do comissionamento de dispositivos envolve a definição de
nomes de dispositivos para identificar exclusivamente cada dispositivo na rede. O parâmetro do nome do sistema no
roteador da série AR2200 é configurado como Huawei por padrão. Para o comutador da série S5720, o nome do
sistema padrão é HUAWEI. A implementação do nome do sistema entra em vigor imediatamente após a conclusão
da configuração.
• O relógio do sistema reflete o registro de data e hora do sistema e pode ser configurado para obedecer às regras
de qualquer região. O relógio do sistema deve ser definido corretamente para garantir a sincronização com outros
dispositivos e é calculado usando a fórmula: UTC (Horário Universal Coordenado) + Deslocamento do fuso horário
+ Deslocamento do horário de verão. O comando clock datetime é usado para definir o relógio do sistema após o

HH: MM: AA AAAA-MM-DD Fórmula. Deve-se notar, no entanto, que se o fuso horário não tiver sido configurado
ou estiver definido como 0, a data e a hora definidas serão consideradas UTC; portanto, é recomendável que o
fuso horário do relógio seja definido primeiro antes de configurar a hora e a data do sistema.

• A configuração do fuso horário local é alcançada usando o comando clock fuso horário e é implementada com
base no nome do fuso horário {add | menos} deslocamento fórmula, em que o valor agregado indica que o tempo
de nome do fuso horário é igual à hora UTC mais a diferença horária e menos indica a hora da nome do fuso
horário é igual à hora UTC menos a diferença horária.

• Certas regiões exigem que o horário de verão seja implementado para manter a sincronização do relógio com
qualquer alteração no fuso horário durante períodos específicos do ano. O VRP é capaz de suportar recursos de
horário de verão para datas fixas e datas determinadas com base em um conjunto de regras predeterminadas.
Por exemplo, o horário de verão no United Kingom ocorre no último domingo de março e no último domingo de
outubro, portanto, regras podem ser aplicadas para garantir que as alterações ocorram com base nessas datas
flutuantes.
• O comando header fornece um meio para exibir notificações durante a conexão com um dispositivo. O cabeçalho
de login indica um cabeçalho que é exibido quando a conexão do terminal é ativada e o usuário está sendo
autenticado pelo dispositivo. O cabeçalho do shell indica um cabeçalho que é exibido quando a sessão é
configurada, após o usuário efetuar login no dispositivo. As informações do cabeçalho podem ser aplicadas como
uma sequência de texto ou recuperadas de um arquivo especificado. Onde uma sequência de texto é usada, um
caractere inicial e final deve ser definido como um marcador para identificar a sequência de informações, onde no
exemplo o caractere “define a sequência de informações. A sequência representa um valor no intervalo de 1 a
2000 caracteres, incluindo espaços. O comando de cabeçalho baseado em informações segue o formato de cabeçalho
{login | Concha } em formação texto onde informação representa a cadeia de informações, incluindo marcadores
de início e fim.

• No caso de um cabeçalho baseado em arquivo, o cabeçalho de formato { login | Concha } Arquivo nome do arquivo é aplicado,

onde nome do arquivo representa o diretório e o arquivo dos quais a cadeia de informações pode ser recuperada.
• O sistema estrutura o acesso às funções de comando hierarquicamente para proteger a segurança do sistema. O
administrador do sistema define níveis de acesso do usuário que concedem acesso a usuários específicos a níveis
de comando específicos. O nível de comando de um usuário é um valor que varia de 0 a 3, enquanto o nível de
acesso do usuário é de 0 a 15. O nível 0 define um nível de visita para o qual o acesso a comandos que executam
ferramentas de diagnóstico de rede (como ping e traceroute), bem como comandos como conexões de clientes
telnet e selecione comandos de exibição.

• O nível de monitoramento é definido no nível de usuário 1, para o qual os níveis de comando 0 e 1 podem ser
aplicados, permitindo que a maioria dos comandos de exibição seja usada, com exceção dos comandos de
exibição que mostram a configuração atual e salva. Um nível de usuário 2 representa o nível de configuração para
o qual os níveis de comando até 2 podem ser definidos, permitindo o acesso a comandos que configuram serviços
de rede fornecidos diretamente aos usuários, incluindo comandos de roteamento e de camada de rede. O nível
final é o nível de Gerenciamento, que representa um nível de usuário de 3 a 15 e um nível de comando de até 3,
permitindo o acesso a comandos que controlam operações básicas do sistema e fornecem suporte para serviços.

• Esses comandos incluem sistema de arquivos, FTP, TFTP, comutação de arquivos de configuração, controle da fonte de

alimentação, controle da placa de backup, gerenciamento de usuários, configuração de nível, configuração de parâmetros

internos do sistema e comandos de depuração para diagnóstico de falhas. O exemplo dado demonstra como um privilégio de

comando pode ser alterado, onde, neste caso, o comando salvar encontrado na visualização do usuário requer um nível de

comando 3 antes que o comando possa ser usado.


• Cada interface do usuário é representada por uma visualização da interface do usuário ou da linha de comandos
fornecida pelo sistema. A visualização da linha de comandos é usada para configurar e gerenciar todas as interfaces
físicas e lógicas no modo assíncrono. Os usuários que desejam fazer interface com um dispositivo deverão
especificar determinados parâmetros para permitir que uma interface do usuário se torne acessível. Duas formas
comuns de interface do usuário implementadas são a interface do console (CON) e a interface do terminal de teletipo
virtual (VTY).

• A porta do console é uma porta serial assíncrona fornecida pela placa de controle principal do dispositivo e usa um
número relativo de 0. VTY é uma linha de terminal lógica que permite que uma conexão seja configurada quando um
dispositivo usa serviços de telnet para conectar-se a um dispositivo. terminal para acesso local ou remoto a um
dispositivo. No máximo 15 usuários podem usar a interface lógica do usuário do VTY para efetuar login no
dispositivo, estendendo o intervalo de 0 a 4 obtido aplicando o interface do usuário maximum-vty 15 comando. Se o
número máximo definido de usuários de logon for 0, nenhum usuário poderá fazer login no roteador por telnet ou
SSH. o exibir interface do usuário O comando pode ser usado para exibir informações relevantes sobre a interface do
usuário.
• Para as interfaces do console e do terminal VTY, determinados atributos podem ser aplicados para modificar o

comportamento como um meio de estender os recursos e melhorar a segurança. Um usuário permite que uma conexão

permaneça ociosa por um determinado período de tempo, apresentando um risco à segurança do sistema. O sistema

aguardará um período de tempo limite antes de encerrar automaticamente a conexão. Esse período de tempo limite inativo

na interface do usuário é definido como 10 minutos por padrão.

• Onde for necessário aumentar ou reduzir o número de linhas exibidas na tela de um terminal ao usar o exibição comando,
por exemplo, o comando screenlength pode ser aplicado. Por padrão, é definido como 24, mas pode ser
aumentado para um máximo de 512 linhas. No entanto, um comprimento de tela 0 não é recomendado, pois
nenhuma saída será exibida.

• Para cada comando usado, um registro é armazenado no buffer de comando do histórico que pode ser recuperado
através da navegação usando as funções das teclas (↑) ou CTRL + P e (↓) ou Ctrl + N. O número de comandos
gravados no buffer de comando do histórico pode ser aumentado usando o comando max-size do comando histórico
comando para definir até 256 comandos armazenados. O número de comandos armazenados por padrão é 10.
• O acesso às interfaces do terminal do usuário fornece um ponto de entrada claro para usuários não autorizados

acessarem um dispositivo e implementarem alterações na configuração. Como tal, a capacidade de restringir o acesso e

limitar as ações que podem ser executadas é necessária como um meio de segurança do dispositivo. A configuração do

privilégio e da autenticação do usuário são dois meios pelos quais a segurança do terminal pode ser aprimorada. O

privilégio do usuário permite que um nível de usuário seja definido, o que restringe a capacidade do usuário a um

intervalo de comandos específico. O nível do usuário pode ser qualquer valor no intervalo de 0 -

15, onde os valores representam um nível de visita (0), nível de monitoramento (1), nível de configuração (2) e nível de

gerenciamento (3), respeitosamente.

• A autenticação restringe a capacidade do usuário de acessar uma interface de terminal solicitando que o
usuário seja autenticado usando uma senha ou uma combinação de nome de usuário e senha antes do acesso
via interface de usuário ser concedido. No caso de conexões VTY, todos os usuários devem ser autenticados
antes que o acesso seja possível. Para todas as interfaces de usuário, existem três modos de autenticação
possíveis, na forma de AAA, autenticação de senha e não autenticação.
AAA fornece ao usuário
autenticação com alta segurança para a qual um nome de usuário e senha devem ser inseridos para o login. A
autenticação de senha requer que apenas a senha de login seja necessária, portanto, uma única senha pode
ser aplicada a todos os usuários. O uso de não autenticação remove qualquer autenticação aplicada a uma
interface do usuário. Deve-se observar que a interface do console, por padrão, usa o modo de não autenticação.

• É geralmente recomendado que, para cada usuário ao qual seja concedido acesso telnet, o usuário seja identificado

através de nomes de usuário e senhas para permitir a distinção de usuários individuais. Cada usuário também deve

receber níveis de privilégio, com base na função e na responsabilidade de cada usuário.


• Para executar serviços IP em uma interface, um endereço IP deve ser configurado para a interface. Geralmente,
uma interface precisa apenas do endereço IP primário. Em casos especiais, é possível que um endereço IP
secundário seja configurado para a interface. Por exemplo, quando uma interface de um roteador como o
AR2200 se conecta a uma rede física e os hosts nessa rede física pertencem a dois segmentos de rede.

• Para permitir que o AR2200 se comunique com todos os hosts na rede física, configure um endereço IP primário
e um endereço IP secundário para a interface. A interface possui apenas um endereço IP primário. Se um novo
endereço IP primário estiver configurado em uma interface que já tenha um endereço IP primário, o novo
endereço IP substituirá o original. O endereço IP pode ser configurado para uma interface usando o comando
endereço IP < endereço IP> { mascarar | comprimento da máscara}

Onde mascarar representa a máscara de sub-rede de 32 bits, por exemplo, 255.255.255.0 e comprimento da máscara representa o valor

alternativo do comprimento da máscara, por exemplo, 24, e ambos podem ser usados ​de forma intercambiável.

• A interface de loopback representa uma interface lógica que é aplicada para representar um endereço de host de
rede ou IP e é frequentemente usada como uma forma de interface de gerenciamento no suporte a vários
protocolos através dos quais a comunicação é feita com o endereço IP da interface de loopback, em oposição ao
endereço IP da interface física na qual os dados estão sendo recebidos.
• A interface do console é capaz de suportar apenas um único usuário a qualquer momento; isso é representado pela

visualização da interface do usuário do console 0.

• A interface de loopback representa uma interface lógica que não está presente em um roteador até que seja criada. Uma

vez criada, a interface de loopback é considerada ativa. Nos dispositivos ARG3, as interfaces de loopback podem, no

entanto, ser desligadas.


• O sistema de arquivos gerencia arquivos e diretórios nos dispositivos de armazenamento. Ele pode criar, excluir, modificar ou

renomear um arquivo ou diretório ou exibir o conteúdo de um arquivo.

• O sistema de arquivos tem duas funções: gerenciar dispositivos de armazenamento e gerenciar os arquivos
armazenados nesses dispositivos. Vários diretórios são definidos dentro dos quais os arquivos são
armazenados em uma hierarquia lógica. Esses arquivos e diretórios podem ser gerenciados por meio de várias
funções que permitem alterar ou exibir diretórios, exibir arquivos em tais diretórios ou subdiretórios e criar ou
excluir diretórios.

• Exemplos comuns de comandos do sistema de arquivos para navegação geral incluem o CD


comando usado para alterar o diretório atual, pwd para visualizar o diretório atual e dir para exibir o conteúdo de
um diretório, como mostrado no exemplo. O acesso ao sistema de arquivos é obtido na Visualização do
Usuário.
• Fazer alterações nos diretórios existentes do sistema de arquivos geralmente se relaciona à capacidade de criar
e excluir diretórios existentes no sistema de arquivos. Dois comandos comuns usados ​neste caso. o diretório
mkdir O comando é usado para criar uma pasta em um diretório especificado em um dispositivo de
armazenamento designado, em que diretório refere-se ao nome dado ao diretório e para o qual o nome do
diretório pode ser uma sequência de 1 a 64 caracteres. Para excluir uma pasta dentro do sistema de arquivos, o diretório
rmdir comando é usado, com diretório novamente referindo-se ao nome do diretório. Note-se que um diretório só
pode ser excluído se não houver arquivos contidos nesse diretório.
• Fazer alterações nos arquivos em um sistema de arquivos inclui copiar, mover, renomear, compactar, excluir,
desfazer exclusão, excluir arquivos na lixeira, executar arquivos em lote e configurar os modos de prompt. A
criação de uma duplicata de um arquivo existente pode ser feita usando o comando copy source-filename
destination-filename, em que se o nome do arquivo de destino for igual ao de um arquivo existente
(nome-do-arquivo-fonte), o sistema exibirá uma mensagem indicando que o arquivo existente será substituído.
Um nome de arquivo de destino não pode ser igual ao de um arquivo de inicialização; caso contrário, o sistema
exibe uma mensagem indicando que a operação é inválida e que o arquivo é um arquivo de inicialização.

• O comando move source-filename destination-filename pode ser usado para mover arquivos para outro
diretório. Depois que o comando move foi executado com sucesso, o arquivo original é cortado e movido para o
arquivo de destino definido. Deve-se notar, no entanto, que o comando move só pode mover arquivos no
mesmo dispositivo de armazenamento.
• Para a remoção de arquivos em um sistema de arquivos, a função de exclusão pode ser aplicada usando o comando delete
[ / não reservado] [/ force] {filename | nome do dispositivo }.
Geralmente, os arquivos excluídos são direcionados para uma lixeira de onde os arquivos podem ser recuperados
usando o anular exclusão { filename | nome do dispositivo } comando, no entanto, se o comando / unreserved for
usado, o arquivo será excluído permanentemente. O sistema geralmente exibe uma mensagem solicitando
confirmação da exclusão do arquivo, no entanto, se o / força está incluído, nenhum prompt será fornecido. o nome do
arquivo
parâmetro refere-se ao arquivo que deve ser excluído, enquanto o nome do dispositivo
O parâmetro define o local de armazenamento.

• Onde um arquivo é direcionado para a lixeira, ele não é excluído permanentemente e pode ser facilmente
recuperado. Para garantir que esses arquivos na lixeira sejam excluídos permanentemente, o arquivo redefinir lixeira
[nome do arquivo] comando pode ser aplicado, onde o
nome do arquivo O parâmetro pode ser usado para definir um arquivo específico para exclusão permanente.
• Quando ligado, o dispositivo recupera arquivos de configuração de um caminho de salvamento padrão para se
inicializar, que é armazenado na RAM do dispositivo. Se os arquivos de configuração não existirem no caminho de
salvamento padrão, o roteador utilizará os parâmetros de inicialização padrão.

• O arquivo de configuração atual indica as configurações em vigor no dispositivo quando ele está realmente em
execução. Quando a configuração é salva, a configuração atual é armazenada em um arquivo de configuração
salva no local de armazenamento do dispositivo. Se o dispositivo carregou o arquivo de configuração atual com
base nos parâmetros de inicialização padrão, um arquivo de configuração salvo não existirá no local de
armazenamento do caminho de salvamento padrão, mas será gerado assim que a configuração atual for salva.
• Usando o exibir configuração atual comando, os parâmetros do dispositivo que entram em vigor podem ser
consultados. Se valores padrão de determinados parâmetros estiverem sendo utilizados, esses parâmetros não
serão exibidos. O comando de configuração atual inclui vários parâmetros que permitem a filtragem da lista de
comandos durante o uso da função de exibição. o exibir configuração atual | begin {expressão regular} é um
exemplo de como a configuração atual pode ser usada para exibir parâmetros ativos que começam com uma
palavra-chave ou expressão específica. Uma alternativa para esse comando é o exibir configuração atual | inclua
{expressão regular}

que permite parâmetros que incluem uma palavra-chave ou expressão específica no arquivo de configuração
atual.

• o exibir configuração salva [último | Tempo ] mostra a saída do arquivo de configuração armazenado usado na
inicialização para gerar a configuração atual. Onde o
último parâmetro é usado, ele exibe o arquivo de configuração usado na inicialização atual. O arquivo de
configuração é exibido apenas quando está configurado para a inicialização atual. o Tempo O parâmetro exibirá o
horário em que a configuração foi salva pela última vez.
• Usando o salvar [arquivo de configuração] O comando salvará as informações de configuração atuais em um caminho de

armazenamento padrão. o arquivo de configuração O parâmetro permite que as informações de configuração atuais sejam

salvas em um arquivo especificado. Executando o Salve •

comando com o arquivo de configuração O parâmetro não afeta o arquivo de configuração de inicialização atual
do sistema. Quando arquivo de configuração é o mesmo que o arquivo de configuração armazenado no caminho
de armazenamento padrão do sistema, a função deste comando é a mesma que a do Salve • comando.

• O exemplo demonstra o uso do Salve • comando para salvar a configuração atual, que por padrão será
armazenada no arquivo vrpcfg.zip padrão no local de armazenamento padrão do dispositivo.
• O arquivo de configuração de salvamento usado atualmente pode ser descoberto através do uso do inicialização de exibição comando.

Além disso, o inicialização de exibição O comando pode ser usado para consultar o nome do arquivo de software do sistema atual, o

nome do próximo arquivo de software do sistema, o nome do arquivo de software do sistema de backup, os nomes dos quatro

arquivos de software do sistema atualmente usados ​(se usados) e os nomes dos seguintes. quatro arquivos de software do sistema.

Os quatro arquivos de software do sistema são o arquivo de configuração, o arquivo de voz, o arquivo de correção e o arquivo de

licença acima mencionados.


• Após a descoberta do arquivo de configuração salvo na inicialização, pode ser necessário definir um novo arquivo de

configuração para ser carregado na próxima inicialização. Se um arquivo de configuração específico não for especificado, o

arquivo de configuração padrão será carregado na próxima inicialização.

• A extensão do nome de arquivo do arquivo de configuração deve ser .cfg ou .zip, e o arquivo deve ser
armazenado no diretório raiz de um dispositivo de armazenamento. Quando o roteador é ligado, ele lê o arquivo
de configuração da memória flash por padrão para inicializar. Os dados neste arquivo de configuração são a
configuração inicial. Se nenhum arquivo de configuração for salvo na memória flash, o roteador utilizará os
parâmetros padrão para iniciar.

• Com o uso da configuração salva de inicialização [ arquivo de configuração] onde o parâmetro arquivo de configuração
é o arquivo de configuração a ser usado na inicialização, é possível definir um novo arquivo de configuração para
inicializar na próxima inicialização do sistema.
• Quando o comparar configuração [arquivo de configuração] [número da linha atual número da saveline] Quando o
comando é usado, o sistema executa uma comparação linha a linha da configuração salva com a configuração
atual iniciando na primeira linha. Se o número da linha atual salvar número da linha Se os parâmetros são
especificados, o sistema ignora a configuração não relevante antes das linhas comparadas e continua a
encontrar diferenças entre os arquivos de configuração.

• O sistema continuará a emitir as diferenças de configuração entre a configuração salva e os arquivos de


configuração atuais. As informações da saída de comparação são restritas a 150 caracteres por padrão. Se a
comparação exigir menos de 150 caracteres, todas as variações até o final de dois arquivos serão exibidas.
• o redefinir configuração salva O comando é usado para excluir um arquivo de configuração de inicialização do
dispositivo do dispositivo de armazenamento. Quando executado, o sistema compara os arquivos de configuração
usados ​na inicialização atual e a próxima inicialização ao excluir o arquivo de configuração do roteador.

• Se os dois arquivos de configuração forem iguais, eles serão excluídos ao mesmo tempo após a execução deste

comando. O arquivo de configuração padrão é usado quando o roteador é iniciado na próxima vez. Se os dois arquivos

de configuração forem diferentes, o arquivo de configuração usado na inicialização atual será excluído após a execução

deste comando.

• Se nenhum arquivo de configuração estiver configurado para a inicialização atual do dispositivo, o sistema exibirá
uma mensagem indicando que o arquivo de configuração não existe após a execução deste comando. Depois que o
comando de redefinição da configuração salva for usado, será solicitado um prompt para confirmar a ação, para a
qual o usuário deve confirmar, conforme mostrado no exemplo.
• Os dispositivos de armazenamento dependem do produto e incluem memória flash, cartões SD ou unidades flash
USB. O roteador AR2200E, por exemplo, possui uma memória flash embutida e um cartão SD embutido (no slot
sd1). O roteador fornece dois slots USB reservados (usb0 e usb1) e um slot para cartão SD (sd0). Para o S5700,
ele inclui uma memória flash embutida com capacidade que varia dependendo do modelo, com 64 MB suportados
nos modelos S5700C-HI, S5700-LI, S5700S-LI e S5710-EI e 32 MB para todos os outros. Os detalhes sobre os
dispositivos de armazenamento de produtos Huawei podem ser detalhados usando o versão de exibição comando
como mostrado.
• A formatação de um dispositivo de armazenamento provavelmente resultará na perda de todos os arquivos no dispositivo de

armazenamento e os arquivos não poderão ser restaurados; portanto, deve-se tomar cuidado extra ao executar qualquer formato

comando e deve ser evitado, a menos que seja absolutamente necessário. O formato [ dispositivo de armazenamento] comando é

usado junto com o dispositivo de armazenamento parâmetro para definir o local de armazenamento que deve ser formatado.
• Quando o dispositivo do terminal mostra que o sistema falhou, o fixdisk O comando pode ser usado para tentar
corrigir o sistema de arquivos anormal no dispositivo de armazenamento, no entanto, não fornece nenhuma
garantia sobre se o sistema de arquivos pode ser restaurado com êxito. Como o comando é usado para corrigir
problemas, se nenhum problema ocorreu no sistema, não é recomendável que esse comando seja executado.
Também deve ser observado que este comando não corrige problemas no nível do dispositivo.
• O atributo do sistema de arquivos d representa que a entrada é um diretório no sistema de arquivos. Note-se que
este diretório só pode ser excluído depois que todos os arquivos contidos no diretório forem excluídos. Os
valores restantes de rwx referem-se a se o diretório (ou arquivo) pode ser lido, gravado e / ou executado.

• Uma configuração pode ser salva com um nome separado do nome do arquivo vrpcfg.zip padrão e armazenada no
dispositivo de armazenamento do roteador ou comutador. Se esse arquivo precisar ser usado como o arquivo de
configuração ativo no sistema, o comando startup-saved-configuration <nome-do-arquivo-da-configuração> deve
ser usado onde o nome-do-arquivo-da-configuração se refere ao nome e à extensão do arquivo.
• A plataforma VRP é constantemente atualizada para manter o alinhamento com as mudanças na tecnologia e dar
suporte a novos avanços no hardware. A imagem VRP é geralmente definida por uma versão VRP e um número
de versão do produto. Os produtos das séries Huawei ARG3 e Sx7 geralmente se alinham com o VRP versão 5,
ao qual diferentes versões de produtos estão associadas.

• À medida que a versão do produto aumenta, os recursos suportados pela versão também aumentam. O formato
da versão do produto inclui um código de produto Vxxx, Rxxx indica uma versão principal e Cxx uma versão
secundária. Se um service pack for usado para corrigir a versão do produto VRP, um valor de SPC também
poderá ser incluído no número da versão do produto VRP. Exemplos típicos das atualizações de versão do VRP
para o AR2200E incluem:

• Versão 5.90 (AR2200 V200R001C00)

• Versão 5.110 (AR2200 V200R002C00)

• Versão 5.160 (AR2200 V200R007C00)


• A transferência de arquivos refere-se aos meios pelos quais os arquivos são enviados ou recuperados de um servidor
remoto ou local de armazenamento. Dentro da rede IP, este aplicativo pode ser implementado para uma ampla
variedade de propósitos. Como parte da prática efetiva, é comum duplicar e fazer backup de arquivos importantes em
um local de armazenamento remoto para evitar perdas que possam afetar as operações críticas dos sistemas. Isso
inclui arquivos como a imagem VRP de produtos que (se a imagem existente sofrer perda pelo uso do comando
format ou outras formas de erro), podem ser recuperados remotamente e usados ​para recuperar operações do
sistema. Princípios semelhantes se aplicam a arquivos de configuração importantes e à manutenção de registros de
atividades em dispositivos armazenados em arquivos de log, que podem ser armazenados a longo prazo no servidor
remoto.
• O FTP é um protocolo de aplicativo padrão baseado no conjunto de protocolos TCP / IP e usado para transferir
arquivos entre clientes locais e servidores remotos. O FTP usa duas conexões TCP para copiar um arquivo de um
sistema para outro. As conexões TCP geralmente são estabelecidas no modo cliente-servidor, uma para controle (o
número da porta do servidor é 21) e a outra para transmissão de dados (o número da porta do servidor é 20). O
FTP como protocolo de transferência de arquivos é usado para controlar as conexões emitindo comandos do
cliente (RTA) para o servidor e transmite respostas do servidor para o cliente, minimizando o atraso na
transmissão. Em termos de transmissão de dados, o FTP transmite dados entre o cliente e o servidor, maximizando
a taxa de transferência.

• O TFTP (Trivial File Transfer Protocol) é um protocolo simples de transferência de arquivos, sobre o qual um
roteador pode funcionar como um cliente TFTP para acessar arquivos em um servidor TFTP. Ao contrário do
FTP, o TFTP não possui interface de acesso interativo complexo e controle de autenticação. A implementação
do TFTP é baseada no UDP (User Datagram Protocol). O cliente inicia a transferência TFTP. Para baixar
arquivos, o cliente envia um pacote de solicitação de leitura ao servidor TFTP, recebe pacotes do servidor e
retorna uma confirmação ao servidor. Para fazer upload de arquivos, o cliente envia um pacote de solicitação de
gravação ao servidor TFTP, envia pacotes ao servidor e recebe uma confirmação do servidor.
• O exemplo demonstra como a conexão entre um servidor FTP e o cliente é estabelecida para recuperar uma imagem
VRP que pode ser usada como parte do processo de atualização do sistema. Antes de qualquer transferência de
dados, é necessário estabelecer a conectividade subjacente pela qual os arquivos podem ser transferidos. Isso
começa fornecendo um endereço IP adequado para o cliente e o servidor. Onde os dispositivos estão conectados
diretamente, podem ser aplicadas interfaces que pertencem à mesma rede. Onde os dispositivos pertencem a redes
localizadas em uma grande área geográfica, os dispositivos devem estabelecer um endereçamento IP relevante
dentro de suas redes e ser capazes de descobrir um caminho de rede relevante através do IP através do qual a
conectividade cliente / servidor pode ser estabelecida.
• Um usuário deve determinar, para qualquer atualização do sistema, se existe espaço de armazenamento adequado para

armazenar o arquivo a ser recuperado. Os comandos do sistema de arquivos podem ser usados ​para determinar o

status atual do sistema de arquivos, incluindo quais arquivos estão atualmente presentes no local de armazenamento de

arquivos do dispositivo e também a quantidade de espaço disponível no momento. Onde o espaço de armazenamento

não é adequado para a transferência de arquivos, determinados arquivos podem ser excluídos ou enviados para o

servidor FTP, caso ainda sejam necessários para uso futuro.

• O exemplo demonstra o uso do excluir comando do sistema de arquivos para remover o arquivo de imagem
existente. Observe que a imagem do sistema, enquanto excluída, não afetará a operação atual do dispositivo
enquanto ele permanecer operacional, portanto, o dispositivo não deve ser desligado ou reiniciado antes que um
novo arquivo de imagem VRP seja restaurado no local de armazenamento do dispositivo e definido para ser
usado na próxima inicialização do sistema.
• A recuperação de arquivos de um servidor FTP exige que uma conexão seja estabelecida primeiro antes que
qualquer transferência de arquivos possa ocorrer. Dentro do dispositivo cliente, o serviço ftp é iniciado usando o
<endereço IP> ftp em que o endereço IP se refere ao endereço do servidor FTP ao qual o cliente deseja se
conectar. As conexões FTP serão estabelecidas usando o TCP e requerem autenticação na forma de um nome
de usuário e senha definidos pelo servidor FTP. Depois que a autenticação for alcançada com sucesso, o
cliente estabelecerá o acesso ao servidor FTP e poderá usar uma variedade de comandos para exibir os
arquivos existentes armazenados no diretório atual local do servidor.

• Antes da transmissão do arquivo, pode ser necessário que o usuário defina o tipo de arquivo para o qual existem dois
formatos, ASCII e Binário. O modo ASCII é usado para texto, no qual os dados são convertidos da representação de
caracteres do remetente para "8 bits ASCII" antes da transmissão e, em seguida, para a representação de caracteres
do destinatário. O modo binário, por outro lado, exige que o remetente envie cada arquivo byte por byte. Esse modo
geralmente é usado para transferir arquivos de imagem e arquivos de programa e deve ser aplicado ao enviar ou
recuperar qualquer arquivo de imagem VRP. No exemplo, o comando get vrp.cc foi emitido para recuperar a nova
imagem VRP localizada no servidor remoto.
• Caso o cliente deseje recuperar uma imagem VRP de um servidor TFTP, não é necessário primeiro estabelecer
uma conexão com o servidor. Em vez disso, o cliente deve definir o caminho para o servidor na linha de
comandos, juntamente com a operação a ser executada. Deve-se notar também que os modelos AR2200E e
S5720 servem apenas como cliente TFTP e transferem arquivos apenas em formato binário. Como pode ser
visto no exemplo, o pegue O comando é aplicado para a recuperação do arquivo de imagem VRP do servidor
TFTP, após a definição do endereço de destino do servidor TFTP.
• A transferência do arquivo de imagem VRP para o cliente, uma vez alcançado com êxito, requer que a imagem seja ativada

como o software do sistema de inicialização durante o próximo processo de inicialização do sistema. Para alterar a versão

do software do sistema, o software do sistema de inicialização O comando deve ser executado e incluir o arquivo de

software do sistema a ser usado na próxima inicialização. Um arquivo de software do sistema deve usar .cc como extensão

do nome do arquivo, e o arquivo de software do sistema usado na próxima inicialização não pode ser aquele usado na

inicialização atual.

• Além disso, o diretório de armazenamento de um arquivo de software do sistema deve ser o diretório raiz, caso
contrário, o arquivo falhará na execução. o inicialização de exibição O comando deve ser usado para verificar se a
alteração no software do sistema de inicialização foi realizada com êxito. A saída do software do sistema de
inicialização deve mostrar a imagem VRP existente, enquanto o próximo software do sistema de inicialização deve
exibir a imagem VRP transferida que agora está presente no diretório raiz do dispositivo.
• A confirmação do software do sistema de inicialização permite a iniciação segura do software do sistema
durante a próxima inicialização do sistema. Para aplicar as alterações e permitir que o novo software do sistema
entre em vigor, o dispositivo deve ser reiniciado. o
reiniciar O comando pode ser usado para iniciar a reinicialização do sistema. Durante o processo de
reinicialização, um prompt será exibido solicitando confirmação sobre se o arquivo de configuração para a
próxima inicialização do sistema será salvo.

• Em alguns casos, o arquivo de configuração salvo pode ser apagado pelo usuário para permitir que uma nova
configuração seja implementada. Caso isso tenha ocorrido, é esperado que o usuário defina uma resposta 'não'
em 'Continuar?' pronto. Se o usuário escolher 'yes' neste momento, a configuração atual será reescrita no
arquivo de configuração salva e aplicada novamente na próxima inicialização. Se o usuário não estiver ciente
das alterações para as quais o prompt de salvamento está fornecendo um aviso, é recomendável selecionar
'não' ou 'n' e realizar uma comparação da configuração salva e atual para verificar as alterações. Para o prompt
de reinicialização, é necessária uma resposta de 'yes' ou 'y' para concluir o processo de reinicialização.
• Um dispositivo cliente deve ter a capacidade de acessar o servidor FTP por IP, exigindo que um endereço IP seja
configurado na interface através da qual o servidor FTP pode ser acessado. Isso permitirá que um caminho seja
validado para o servidor FTP na camada de rede, se houver.

• O usuário pode executar a inicialização de exibição do comando de configuração para validar se o atual VRP (sistema

de inicialização do sistema) está ativo, identificado pela extensão .cc.


• À medida que a rede corporativa se expande, vários usuários precisam ser estabelecidos como parte de uma
rede de acesso múltiplo. A evolução das tecnologias de rede mudou de redes locais compartilhadas para redes
que suportam múltiplos domínios de colisão e suportam o uso de formas de mídia 100BaseT que isolavam a
transmissão e recepção de dados em pares de fios separados, eliminando assim o potencial de colisões ocorrer
e permitir taxas de transmissão full duplex mais altas. O estabelecimento de um switch oferece a capacidade de
aumentar a densidade da porta para permitir a conexão de um número maior de dispositivos do sistema final em
uma única rede local. É necessário que cada sistema final ou host dentro de uma rede local seja conectado
como parte da mesma rede IP para facilitar a comunicação na camada de rede.
• Como um dispositivo de camada de link, cada switch conta com uma tabela baseada em MAC que fornece
associação entre um endereço MAC de destino e a interface da porta através da qual um quadro deve ser
encaminhado. Isso geralmente é chamado de tabela de endereços MAC.

• O início de um comutador começa com o comutador sem conhecimento dos sistemas finais e como os quadros
recebidos dos sistemas finais devem ser encaminhados. É necessário que o switch crie entradas na tabela de
endereços MAC para determinar o caminho que cada quadro recebido deve seguir para alcançar um
determinado destino, de modo a limitar o tráfego de broadcast na rede local. Essas entradas de caminho são
preenchidas na tabela de endereços MAC como resultado dos quadros recebidos dos sistemas finais. No
exemplo, o Host A encaminhou um quadro para o Switch A, que atualmente não possui entradas na tabela de
endereços MAC.
• O quadro encaminhado pelo Host A contém uma entrada de endereço MAC de broadcast no campo de
endereço de destino do cabeçalho do quadro. O campo de endereço de origem contém o endereço MAC do
dispositivo de emparelhamento, neste caso, Host A. Este endereço MAC de origem é usado pelo comutador
para preencher a tabela de endereços MAC, associando a entrada MAC no campo de endereço de origem ao
comutador interface de porta na qual o quadro foi recebido. O exemplo demonstra como o endereço MAC está
associado à interface da porta para permitir que qualquer tráfego que retorne a esse destino MAC seja
encaminhado diretamente pela interface associada.
• O comportamento geral de uma solicitação ARP envolve a inundação do quadro para todos os destinos
pretendidos, principalmente devido à difusão MAC (FF-FF-FF-FF-FF-FF) que representa o destino atual.
Portanto, o comutador é responsável por encaminhar esse quadro para todas as interfaces de portas, com
exceção da interface na qual o quadro foi recebido, na tentativa de localizar o destino IP pretendido, conforme
listado no cabeçalho do ARP, para o qual uma resposta ARP pode ser gerada. . Como demonstrado no
exemplo, os quadros individuais são inundados do switch pelas interfaces de porta G0 / 0/2 e G0 / 0/3 para os
hosts B e C, respectivamente.
• Como resultado do cabeçalho da solicitação ARP, o host receptor pode determinar que o cabeçalho ARP é
destinado ao destino IP 10.1.1.3, juntamente com o endereço de origem local (MAC) do qual o quadro se
originou, e usar essas informações para gerar uma resposta unicast. As informações sobre o Host A estão
associadas ao endereço IP 10.1.1.3 e armazenadas na tabela de endereços MAC do Host C. Ao fazer isso, a
geração de tráfego de broadcast é minimizada, reduzindo assim o número de interrupções nos destinos locais,
bem como redução do número de quadros que propagam a rede local.

• Depois que o quadro é recebido do Host C pelo Switch A, o switch preenche a tabela de endereços MAC com o
endereço MAC de origem do quadro recebido e o associa à interface da porta na qual o quadro foi recebido. O
switch usa a tabela de endereços MAC para realizar uma pesquisa, a fim de descobrir a interface de
encaminhamento, com base no endereço MAC de destino do quadro. Nesse caso, o endereço MAC do quadro
refere-se ao Host A, para o qual agora existe uma entrada via interface G0 / 0/1, permitindo que o quadro seja
encaminhado para o destino conhecido.
• Os primeiros sistemas Ethernet operavam com base no modo half-duplex de 10 Mbps e aplicavam mecanismos como
CSMA / CD para garantir a estabilidade do sistema. A transição para um meio de par trançado deu origem ao
surgimento da Ethernet full-duplex, o que melhorou bastante o desempenho da Ethernet e significou que duas formas
de duplex poderiam ser negociadas. A tecnologia de negociação automática permite que sistemas Ethernet mais
recentes sejam compatíveis com sistemas Ethernet anteriores.

• No modo de negociação automática, as interfaces nas duas extremidades de um link negociam seus parâmetros
operacionais, incluindo o modo duplex, a taxa e o controle de fluxo. Se a negociação for bem-sucedida, as duas
interfaces funcionarão com os mesmos parâmetros operacionais. Em alguns casos, porém, é necessário definir
manualmente os parâmetros de negociação, como onde as interfaces Gigabit Ethernet que estão trabalhando no
modo de negociação automática são conectadas por um cabo de rede de 100 Mbps. Nesses casos, a negociação
entre as interfaces falhará.

• Devido a diferentes modelos de produtos, os switches HUAWEI podem não suportar o modo duplex de porta de alteração,

consulte o manual do produto.


• Caso os parâmetros de configuração para negociação sejam alterados do uso da negociação automática, os
parâmetros definidos devem ser verificados usando o parâmetro
interface de exibição <interface> comando para verificar se os parâmetros negociados permitem que a negociação
da interface da camada de link seja bem-sucedida. Isso é verificado pelo estado atual do protocolo de linha sendo
exibido como UP. As informações exibidas refletem as configurações atuais dos parâmetros para uma interface.
• Quando um host ou outro sistema final é conectado a uma interface de porta de switch, é gerado um ARP
gratuito projetado para garantir que os endereços IP permaneçam exclusivos em um segmento de rede. A
mensagem gratuita do ARP, no entanto, também fornece ao switch informações sobre o endereço MAC do
host, que é incluído na tabela de endereços MAC e associado à interface da porta na qual o host está
conectado.

• Se a conexão física de um host conectado a uma interface de porta do switch for removida, o switch descobrirá
que o link físico está inoperante e removerá a entrada MAC da tabela de endereços MAC. Depois que o meio
estiver conectado a outra interface de porta, a porta detectará que o link físico está ativo e um ARP gratuito será
gerado pelo host, permitindo que o comutador descubra e preencha a tabela de endereços MAC com o
endereço MAC do host conectado .
• O crescimento da empresa resulta no comissionamento de vários switches, a fim de suportar a
interconectividade dos sistemas e serviços finais necessários para as operações diárias. A interconexão de
vários comutadores, no entanto, traz desafios adicionais que precisam ser abordados. Os comutadores podem
ser estabelecidos como links ponto a ponto únicos, através dos quais os sistemas finais são capazes de
encaminhar quadros para destinos localizados através de outros comutadores no domínio de transmissão. No
entanto, a falha de qualquer link de switch ponto a ponto resulta no isolamento imediato do switch downstream e
de todos os sistemas finais aos quais o link está conectado. Para resolver esse problema, a redundância é
altamente recomendada em qualquer rede de comutação.

• Portanto, os links redundantes geralmente são usados ​em uma rede de comutação Ethernet para fornecer
backup de link e aprimorar a confiabilidade da rede. O uso de links redundantes, no entanto, pode produzir
loops que deterioram drasticamente a qualidade da comunicação e podem ocorrer grandes interrupções no
serviço de comunicação.
• Um dos efeitos iniciais dos loops de comutação redundantes ocorre na forma de tempestades de transmissão.
Isso ocorre quando um sistema final tenta descobrir um destino para o qual nem ele nem os comutadores ao
longo do caminho de comutação estão cientes. Uma transmissão é, portanto, gerada pelo sistema final, que é
inundado pelo comutador receptor.

• O efeito de inundação significa que o quadro é encaminhado por todas as interfaces, com exceção da interface
na qual o quadro foi recebido. No exemplo, o Host A gera um quadro, recebido pelo Switch B, que é
posteriormente encaminhado para todas as outras interfaces. Uma instância do quadro é recebida pelos
comutadores A e C conectados, que por sua vez inundam o quadro de todas as outras interfaces. O efeito
contínuo de inundação resulta em instâncias de comutação do quadro A e do comutador C do quadro de um
comutador para o outro, que por sua vez é devolvido ao comutador

B e, assim, o ciclo continua. Além disso, o efeito de inundação repetido resulta em várias instâncias do quadro
sendo recebidas pelas estações finais, causando efetivamente interrupções e degradação extrema do
desempenho do comutador.
• Os comutadores devem manter registros do caminho através do qual um destino é alcançável. Isso é
identificado através da associação do endereço MAC de origem de um quadro à interface na qual o quadro foi
recebido. Somente uma instância de um endereço MAC pode ser armazenada na tabela de endereços MAC de
um comutador e, quando uma segunda instância do endereço MAC é recebida, as informações mais recentes
têm precedência.

• No exemplo, o switch B atualiza a tabela de endereços MAC com o endereço MAC do host A e associa essa
fonte à interface G0 / 0/3, a interface da porta na qual o quadro foi recebido. Como os quadros são
incontrolavelmente inundados na rede de comutação, um quadro é novamente recebido com o mesmo endereço
MAC de origem que o Host A, no entanto, desta vez, o quadro é recebido na interface G0 / 0/2. O switch B deve,
portanto, assumir que o host que era originalmente acessível via interface G0 / 0/3 agora pode ser acessado via
G0 / 0/2 e atualiza a tabela de endereços MAC de acordo. O resultado desse processo leva à instabilidade do
MAC e continua a ocorrer infinitamente entre as interfaces de porta do switch que se conectam ao Switch A e ao
Switch C, já que os quadros são inundados nas duas direções como parte do efeito do storm storm.
• O desafio para a rede de comutação reside na capacidade de manter a redundância de comutação para evitar o
isolamento dos sistemas finais no caso de falha do sistema de comutação ou do link, e a capacidade de evitar
os efeitos prejudiciais dos loops de comutação dentro de uma topologia de comutação que implementa
redundância. A solução resultante por muitos anos tem sido implementar o STP (Spanning Tree Protocol) para
impedir os efeitos de alternar loops. A Spanning Tree trabalha com o princípio de que links redundantes sejam
desabilitados logicamente para fornecer uma topologia sem loop, ao mesmo tempo em que habilita
dinamicamente links secundários no caso de ocorrer uma falha no caminho de comutação primário, cumprindo
assim o requisito de redundância de rede dentro de um loop topologia livre. Os dispositivos de comutação que
executam o STP descobrem loops na rede trocando informações entre si e bloqueiam determinadas interfaces
para cortar loops. O STP continua sendo um protocolo importante para a LAN há mais de 20 anos.
• A remoção de qualquer potencial para loops serve como objetivo principal de estender a árvore para a qual uma
arquitetura do tipo de árvore invertida é formada. Na base desta árvore lógica está a ponte / switch raiz. A ponte
raiz representa o centro lógico, mas não necessariamente o centro físico da rede com capacidade para STP. A
ponte raiz designada é capaz de mudar dinamicamente com a topologia de rede, como no caso em que a ponte
raiz existente falha ao continuar a operar como a ponte raiz. As pontes não raiz são consideradas a jusante da
ponte raiz e a comunicação com as pontes não raiz flui da ponte raiz para todas as pontes não raiz. Somente
uma única ponte raiz pode existir em uma rede convergente compatível com STP a qualquer momento.
• A descoberta da ponte raiz para uma rede STP é uma tarefa principal executada para formar a árvore de
abrangência. O protocolo STP opera com base na eleição, através da qual é determinado o papel de todos os
comutadores. Um ID da ponte é definido como o meio pelo qual a ponte raiz é descoberta. Isso compreende
duas partes, a primeira sendo uma prioridade de ponte de 16 bits e a segunda, um endereço MAC de 48 bits.

• O dispositivo que se diz conter a prioridade mais alta (menor ID da ponte) é eleito como a ponte raiz da rede. A
comparação do ID da ponte leva em consideração inicialmente a prioridade da ponte e, quando esse valor da
prioridade não puder identificar exclusivamente uma ponte raiz, o endereço MAC é usado como um
desempatador. O ID da ponte pode ser manipulado através da alteração da prioridade da ponte como um meio
de permitir que um determinado comutador seja eleito como ponte raiz, geralmente em suporte a um design de
rede otimizado.
• A topologia da Spanning Tree baseia-se na comunicação de informações específicas para determinar a função e o
status de cada switch na rede. Uma unidade de dados de protocolo de ponte (BPDU) facilita a comunicação dentro
de uma rede de árvores de abrangência. Duas formas de BPDU são usadas no STP. Um BPDU de configuração é
criado inicialmente pela raiz e propagado a jusante para garantir que todas as pontes não raiz permaneçam
cientes do status da topologia da árvore de expansão e, principalmente, da ponte raiz. O TCN BPDU é uma
segunda forma de BPDU, que propaga informações na direção upstream em direção à raiz e deve ser introduzida
em mais detalhes como parte do processo de alteração da topologia.

• As unidades de dados do protocolo de ponte não são encaminhadas diretamente pelos comutadores; em vez disso, as

informações que são transportadas em um BPDU costumam ser usadas para gerar um BPDU do próprio comutador para

transmissão. Um BPDU de configuração carrega vários parâmetros usados ​por uma ponte para determinar

principalmente a presença de uma ponte raiz e garantir que a ponte raiz permaneça a ponte com a prioridade mais alta.

Cada segmento da LAN é considerado como tendo um comutador designado que é responsável pela propagação do

BPDU a jusante para comutadores não designados.

• O campo ID da ponte é usado para determinar o comutador designado atual do qual se espera que o BPDU seja
recebido. O BPDU é gerado e encaminhado pela ponte raiz com base em um cronômetro Hello, que é definido como
2 segundos por padrão. Como o BPDU é recebido pelos comutadores a jusante, um novo BPDU é gerado com
parâmetros definidos localmente e encaminhado para todos os comutadores não designados para o segmento de
LAN.
• Outra característica do BPDU é a propagação de dois parâmetros relacionados ao custo do caminho. O custo
do caminho raiz (RPC) é usado para medir o custo do caminho para a ponte raiz, a fim de determinar o caminho
mais curto da extensão de árvore e, assim, gerar uma topologia sem loop. Quando a ponte é a ponte raiz, o
custo do caminho raiz é 0.

• O custo do caminho (PC) é um valor associado à porta raiz, que é a porta em um comutador downstream que se
conecta ao segmento de LAN, no qual reside um comutador ou ponte raiz designado. Esse valor é usado para
gerar o custo do caminho raiz para o comutador, adicionando o custo do caminho ao valor RPC que é recebido do
comutador designado em um segmento de LAN, para definir um novo valor de custo do caminho raiz. Esse novo
valor de custo do caminho raiz é transportado no BPDU do comutador designado e é usado para representar o
custo do caminho para a raiz.
• Os switches da série Huawei Sx7 suportam vários padrões de custo de caminho alternativos que podem ser
implementados com base nos requisitos da empresa, como onde uma rede de comutação de vários fornecedores
possa existir. A série de switches Huawei Sx7 usa o padrão de custo de caminho 802.1t por padrão, fornecendo uma
precisão métrica mais forte para o cálculo de custo de caminho.
• Uma rede de árvore expandida convergente define que cada interface receba uma função de porta específica. As

funções de porta são usadas para definir o comportamento das interfaces de porta que participam de uma topologia de

Spanning Tree ativa. Para o protocolo spanning tree, são definidas três funções de porta designadas, raiz e alternativa.

• A porta designada é associada a uma ponte raiz ou a uma ponte designada de um segmento de LAN e define o
caminho a jusante através do qual o BPDU de configuração é encaminhado. A ponte raiz é responsável pela
geração do BPDU de configuração para todos os comutadores a jusante e, portanto, as interfaces de porta da
ponte raiz sempre adotam a função de porta designada.

• A porta raiz identifica a porta que oferece o caminho de menor custo para a raiz, com base no custo do caminho
de raiz. O exemplo demonstra o caso em que existem dois caminhos possíveis de volta à raiz, no entanto,
apenas a porta que oferece o menor custo do caminho raiz é atribuída como a porta raiz. Onde duas ou mais
portas oferecem custos iguais de caminho raiz, a decisão de qual interface de porta será a porta raiz é
determinada comparando o ID da ponte no BPDU de configuração recebido em cada porta.

• Qualquer porta que não tenha uma função de porta designada ou raiz designada é considerada uma porta
alternativa e pode receber BPDU do comutador designado para o segmento de LAN com o objetivo de monitorar o
status do link redundante, mas não processará o recebimento BPDU. O padrão IEEE 802.1D-1990 para STP
definiu originalmente essa função de porta como backup, no entanto, essa alteração foi alterada para se tornar a
função de porta alternativa na revisão de padrões IEEE 802.1D-1998.
• O ID da porta representa um meio final para determinar as funções da porta ao lado do ID da ponte e do
mecanismo de custo do caminho raiz. Nos cenários em que duas ou mais portas oferecem um custo de caminho
raiz de volta à raiz igual e para o qual o switch upstream é considerado como tendo um ID de ponte igual,
principalmente devido ao switch upstream ser o mesmo switch para os dois caminhos, o ID da porta deve ser
aplicado para determinar as funções da porta.

• O ID da porta está associado a cada porta e compreende uma prioridade de porta e um número de porta que se
associa à interface da porta. A prioridade da porta é um valor no intervalo de 0 a 240, atribuído em incrementos de 16 e
representado por um valor de 128 por padrão. Onde as duas interfaces de porta oferecem um valor de prioridade de
porta igual, o número da porta exclusivo é usado para determinar as funções da porta. O identificador de porta mais alto
(o número de porta mais baixo) representa a porta atribuída como porta raiz, com a porta restante padronizada para
uma função de porta alternativa.
• A ponte raiz é responsável pela geração da configuração BPDU com base em um intervalo BPDU definido por
um cronômetro Hello. Esse cronômetro Hello, por padrão, representa um período de 2 segundos. Uma rede de
Spanning Tree convergida deve garantir que, no caso de uma falha na rede, os comutadores da rede habilitada
para STP sejam informados da falha. Um cronômetro Max Age está associado a cada BDPU e representa a vida
útil de um BPDU do ponto de concepção pela ponte raiz e, finalmente, controla o período de validade de um
BDPU antes de ser considerado obsoleto. Esse cronômetro MAX Age, por padrão, representa um período de 20
segundos.

• Depois que um BPDU de configuração é recebido da ponte raiz, considera-se que o switch downstream leva
aproximadamente 1 segundo para gerar um novo BPDU e propaga o BPDU gerado a jusante. Para compensar
esse tempo, um valor de idade da mensagem (MSG Age) é aplicado a cada BPDU para representar o
deslocamento entre a Idade MAX e o atraso de propagação e, para cada comutador, esse valor de idade da
mensagem é incrementado em 1.

• Como o BPDU é propagado da ponte raiz para os comutadores a jusante, o cronômetro MAX Age é atualizado.
O cronômetro MAX Age diminui e expira quando o valor MAX Age excede o valor da idade da mensagem, para
garantir que a vida útil de um BPDU seja limitada à MAX Age, conforme definido pela ponte raiz. Caso um
BPDU não seja recebido antes que o cronômetro MAX Age expire, o comutador considerará as informações
BPDU atualmente mantidas obsoletas e assumirá que ocorreu uma falha na rede STP.
• O processo de convergência de spanning tree é um procedimento automatizado iniciado no ponto de inicialização
do switch. Todos os comutadores na inicialização assumem o papel de ponte raiz na rede de comutação. O
comportamento padrão de uma ponte raiz é atribuir uma função de porta designada a todas as interfaces de porta
para permitir o encaminhamento do BPDU por todas as interfaces de porta conectadas. Como o BPDU é recebido
pelos comutadores de mesmo nível, o ID da ponte será comparado para determinar se existe um candidato
melhor para a função de ponte raiz. Caso o BPDU recebido contenha um ID de ponte inferior em relação ao ID
raiz, o comutador receptor continuará a anunciar seu próprio BPDU de configuração no comutador vizinho.

• Onde o BDPU for superior, o comutador reconhecerá a presença de um candidato melhor para o papel de
bridge raiz, deixando de propagar o BPDU na direção em que o BPDU superior foi recebido. O comutador
também alterará o campo de ID raiz do seu BPDU para anunciar o ID da ponte do candidato à ponte raiz como a
nova ponte raiz atual.
• Uma ponte raiz eleita, uma vez estabelecida, gerará BPDU de configuração para todos os outros comutadores
não raiz. O BPDU carregará um custo do caminho raiz que informará os comutadores a jusante do custo para a
raiz, para permitir que o caminho mais curto seja determinado. O custo do caminho raiz transportado no BPDU
que é gerado pela ponte raiz sempre tem um valor 0. Os comutadores downstream de recebimento adicionam
esse custo ao custo do caminho das interfaces de porta nas quais o BPDU foi recebido e do qual um O switch é
capaz de identificar a porta raiz.

• No caso em que existem custos iguais de caminho raiz em dois ou mais segmentos de LAN para o mesmo switch
upstream, o ID da porta é usado para descobrir as funções da porta. Onde existe um custo de caminho raiz igual
entre dois comutadores, como no exemplo dado, o ID da ponte é usado para determinar qual comutador representa
o comutador designado para o segmento de LAN. Onde a porta do switch não é uma porta raiz nem designada, a
função da porta é atribuída como alternativa.
• Como parte do estabelecimento da função de ponte e porta de raiz, cada switch progredirá através de várias
transições de estado da porta. Qualquer porta que esteja desativada administrativamente será considerada no
estado desativado. A ativação de uma porta no estado desativado verá uma transição de estado para o estado de
bloqueio ①.

• Qualquer porta considerada em estado de bloqueio não pode encaminhar qualquer tráfego do usuário, mas é
capaz de receber quadros BPDU. Qualquer BPDU recebido em uma interface de porta no estado de bloqueio
não será usado para preencher a tabela de endereços MAC do comutador, mas para determinar se é necessária
uma transição para o estado de escuta. O estado de escuta permite a comunicação de informações BPDU, após
a negociação da função da porta no STP ②, mas mantém a restrição de preenchimento da tabela de endereços
MAC com informações vizinhas.

• Uma transição para o estado de bloqueio do estado de escuta ou de outros estados ③ pode ocorrer no caso de a porta

ser alterada para uma função de porta alternativa. A transição entre ouvir a aprendizagem e aprender a encaminhar

estados ④ depende muito do timer de atraso de encaminhamento, que existe para garantir que qualquer propagação de

informações de BDPU para todos os comutadores na topologia da árvore de expansão seja possível antes que ocorra a

transição de estado.

• O estado de aprendizado mantém a restrição do encaminhamento de tráfego do usuário para garantir a prevenção de

quaisquer loops de comutação, no entanto, permite que a população da tabela de endereços MAC em toda a topologia da

árvore de abrangência assegure uma rede de comutação estável. Após um período de atraso de encaminhamento, o estado

de encaminhamento é atingido. O estado desativado é aplicável a qualquer momento durante o período de transição de

estado através de intervenção manual (ou seja, o comando shutdown) ⑤.


• Eventos que causam uma alteração na topologia de spanning tree estabelecida podem ocorrer de várias
maneiras, para as quais o protocolo de spanning tree deve reagir para restabelecer rapidamente uma topologia
estável e sem loop. A falha da ponte raiz é um exemplo primário de onde a convergência é necessária. Os
comutadores não raiz dependem do pulso intermitente do BPDU da ponte raiz para manter suas funções
individuais como comutadores não raiz na topologia STP. No caso de a ponte raiz falhar, os comutadores a
jusante deixarão de receber um BPDU da ponte raiz e, como tal, também deixarão de propagar qualquer BPDU
a jusante. O cronômetro MAX Age normalmente é redefinido para o valor definido (20 segundos por padrão)
após o recebimento de cada BPDU a jusante.

• No entanto, com a perda de qualquer BPDU, o cronômetro MAX Age começa a contar a vida útil das
informações atuais de BPDU de cada comutador não raiz, com base na fórmula (MAX Age - MSG Age). No
momento em que o valor MSG Age é maior que o valor do cronômetro MAX Age, as informações BPDU
recebidas da raiz se tornam inválidas e as opções não raiz começam a assumir o papel de ponte raiz. O BPDU
de configuração é novamente encaminhado de todas as interfaces ativas em uma tentativa de descobrir uma
nova ponte raiz. A falha da ponte raiz invoca uma duração de recuperação de aproximadamente 50 segundos
devido ao período de convergência Max Age + 2x Forward Delay.
• No caso de uma falha indireta do link, um switch perde a conexão com a ponte raiz devido a uma falha da porta
ou da mídia ou possivelmente devido à desativação manual da interface que atua como porta raiz. O switch em
si ficará imediatamente ciente da falha e, uma vez que recebe apenas BPDU da raiz em uma direção, assumirá
a perda imediata da ponte raiz e afirmará sua posição como a nova ponte raiz.

• A partir do exemplo, o comutador B começa a encaminhar o BPDU para o comutador C para notificar a posição
do comutador B como a nova ponte raiz, no entanto, o comutador C continua a receber o BPDU da ponte raiz
original e, portanto, ignora qualquer BPDU do comutador B. A porta começará a envelhecer seu estado através
do cronômetro MAX Age, já que a interface não recebe mais BPDU contendo o ID raiz da ponte raiz.

• Após a expiração do cronômetro MAX Age, o comutador C alterará a função da porta da porta alternativa para a
de uma porta designada e continuará encaminhando o BPDU da raiz para o comutador B, o que fará com que o
comutador conceda sua asserção como raiz ponte e convergem sua interface de porta para a função de porta
raiz. Isso representa uma falha parcial da topologia, no entanto, devido à necessidade de aguardar um período
equivalente ao atraso de avanço MAX Age + 2x, a recuperação completa da topologia STP requer
aproximadamente 50 segundos.
• Um cenário final que envolve a recuperação da convergência da árvore de abrangência ocorre em que vários
segmentos da LAN são conectados entre dois dispositivos de switch dos quais um é atualmente o link ativo
enquanto o outro fornece um caminho alternativo para a raiz. Caso ocorra um evento que faça com que o
comutador que está recebendo o BPDU detecte uma perda de conexão em sua porta raiz, como no caso de
uma falha na porta raiz ou em um link, para o qual o comutador downstream é feito imediatamente ciente, o
switch pode fazer a transição instantânea da porta alternativa.

• Isso começará a transição pelos estados de escuta, aprendizado e encaminhamento e obterá recuperação
dentro de um período de atraso de 2x. No caso de qualquer falha, em que o link que fornece um caminho
melhor é reativado, a topologia da árvore de expansão deve voltar a convergir novamente para aplicar a
topologia ideal da árvore de expansão.
• Em uma rede de Spanning Tree convergente, os switches mantêm bancos de dados de filtro ou tabelas de endereços
MAC para gerenciar a propagação de quadros através da topologia da Spanning Tree. As entradas que fornecem uma
associação entre um destino MAC e a interface da porta de encaminhamento são armazenadas por um período finito
de 300 segundos (5 minutos) por padrão. Uma alteração na topologia da árvore de expansão, no entanto, significa que
qualquer entrada existente na tabela de endereços MAC provavelmente se tornará inválida devido à alteração no
caminho de comutação e, portanto, deve ser renovada.

• O exemplo demonstra uma topologia de Spanning Tree existente para a qual o switch B possui entradas que
permitem que o Host A seja acessado via interface Gigabit Ethernet 0/0/3 e o Host B via interface Gigabit
Ethernet 0/0/2. Uma falha é simulada no comutador C para o qual a porta raiz atual se tornou inativa. Essa falha
faz com que um recálculo da topologia da Spanning Tree inicie e previsivelmente a ativação do link redundante
entre o switch C e o switch B.

• Após a reconvergência, no entanto, verifica-se que os quadros do Host A para o Host B estão falhando em
alcançar seu destino. Como as entradas da tabela de endereços MAC ainda não expiram com base na regra dos
300 segundos, os quadros que atingem o switch B destinados ao Host B continuam sendo encaminhados via
interface de porta Gigabit Ethernet 0/0/2 e se tornam efetivamente ocos à medida que os quadros são
encaminhado para a interface de porta inativa do switch C.
• Um mecanismo adicional deve ser introduzido para lidar com o problema do período de tempo limite das entradas MAC

que resulta na manutenção de entradas inválidas de caminho após a convergência da árvore de expansão. O processo

implementado é chamado de processo de Notificação de Alteração de Topologia (TCN) e introduz uma nova forma de

BPDU na operação do protocolo de spanning tree.

• Este novo BPDU é referido como o TCN BPDU e distingue-se do BPDU original da configuração STP através da
definição do valor do tipo BPDU para 128 (0x80). A função do TCN BPDU é informar a ponte raiz upstream de
qualquer alteração na topologia atual, permitindo que a raiz envie uma notificação na BPDU de configuração a
todos os comutadores downstream, para reduzir o período de tempo limite das entradas da tabela de endereços
MAC para o equivalente ao temporizador de atraso de avanço ou 15 segundos por padrão.

• O campo de sinalizadores do BPDU de configuração contém dois campos para Alteração de Topologia (TC) e
Reconhecimento de Alteração de Topologia (TCA). Ao receber um TCN BPDU, a ponte raiz gerará um BPDU
com os bits TC e TCA configurados, para notificar respectivamente da alteração da topologia e informar aos
comutadores a jusante que a ponte raiz recebeu o TCN BPDU e, portanto, a transmissão do O TCN BPDU deve
cessar.

• O bit TCA permanecerá ativo por um período igual ao temporizador Hello (2 segundos), após o qual a
configuração BPDU gerada pela ponte raiz manterá apenas o bit TC por uma duração de (MAX Age + atraso
de avanço) ou 35 segundos por padrão.
• O efeito do TCN BPDU no processo de alteração da topologia garante que a ponte raiz seja notificada de
qualquer falha na topologia da árvore de expansão, para a qual a ponte raiz possa gerar os sinalizadores
necessários para liberar as entradas atuais da tabela de endereços MAC em cada uma das os interruptores. O
exemplo demonstra os resultados do processo de alteração da topologia e o impacto na tabela de endereços
MAC. As entradas pertencentes ao switch B foram liberadas e novas entradas atualizadas foram descobertas,
para as quais é determinado que o Host B agora pode ser acessado via interface de porta Gigabit Ethernet
0/0/1.
• Os comutadores da série Huawei Sx7 aos quais o modelo da série S5700 pertence, são capazes de suportar três
formas de protocolo de spanning tree. Usando o modo stp comando, um usuário pode definir o modo de STP que
deve ser aplicado a um comutador individual. O modo STP padrão para os comutadores da série Sx7 é MSTP e,
portanto, deve ser reconfigurado antes que o STP possa ser usado.
• Como parte das boas práticas de design de switch, é recomendável que a ponte raiz seja definida manualmente.
O posicionamento da ponte raiz garante que o fluxo de caminho ideal do tráfego na rede corporativa possa ser
alcançado através da configuração do valor da prioridade da ponte para o protocolo da árvore de expansão. o prioridade
stp [prioridade]
O comando pode ser usado para definir o valor da prioridade, em que prioridade refere-se a um valor inteiro
entre 0 e 61440, atribuído em incrementos de 4096. Isso permite um total de 16 incrementos, com um valor
padrão de 32768. Também é possível atribuir a ponte raiz para a árvore de abrangência por meio do raiz stp
primária comando.
• Entendeu-se que a série de switches Huawei Sx7 suporta três formas de padrão de custo de caminho, a fim de
fornecer compatibilidade quando necessário, no entanto, o padrão é o de suportar o padrão de custo de caminho
802.1t. O padrão de custo do caminho pode ser ajustado para um determinado switch usando o padrão stc
pathcost {dot1d-1998 | dot1t | legado } comando, onde dot1d-1998, dot1t e legacy se referem aos padrões de
custo de caminho descritos anteriormente nesta seção.

• Além disso, o custo do caminho de cada interface também pode ser atribuído manualmente para suportar um meio de
manipulação detalhada do custo do caminho stp. Esse método de manipulação de custos de caminho deve ser usado
com muito cuidado, no entanto, como os padrões de custo de caminho são projetados para implementar a topologia
ideal da árvore de expansão para uma determinada rede de comutação e a manipulação do custo stp pode resultar na
formação de uma árvore de expansão subótima. topologia.

• O comando custo stp [custo] é usado, para o qual o valor do custo deve seguir o intervalo definido pelo padrão
de custo do caminho. Se um padrão herdado da Huawei for usado, o custo do caminho varia de 1 a 200000. Se
o padrão IEEE 802.1D for usado, o custo do caminho varia de 1 a 65535. Se o padrão IEEE 802.1t for usado, o
custo do caminho varia de 1 para 200000000.
• Se o comutador raiz de uma rede estiver configurado ou atacado incorretamente, ele poderá receber um BPDU com

prioridade mais alta e, assim, o comutador raiz se tornará um comutador não raiz, o que causa uma alteração na topologia

da rede. Como resultado, o tráfego pode ser alternado de links de alta velocidade para links de baixa velocidade, causando

congestionamento na rede.

• Para resolver esse problema, o switch fornece a função de proteção de raiz. A função de proteção de raiz
protege a função do comutador raiz, mantendo a função da porta designada. Quando a porta recebe um BPDU
com uma prioridade mais alta, a porta para o encaminhamento de pacotes e volta para o estado de escuta, mas
ainda mantém uma função de porta designada. Se a porta não receber nenhum BPDU com prioridade mais alta
por um determinado período, o status da porta será restaurado do estado de escuta.

• A proteção raiz configurada é válida apenas quando a porta é a porta designada e a porta mantém a função. Se
uma porta estiver configurada como uma porta de borda ou se um comando conhecido como proteção de loop
estiver ativado na porta, a proteção raiz não poderá ser ativada na porta.
• Usando o display stp comando, a configuração atual do STP pode ser determinada. Existem vários cronômetros
para gerenciar a convergência da Spanning Tree, incluindo o hello timer, max age timer e forward delay, para os
quais os valores exibidos representam as configurações padrão do timer e é recomendável que sejam mantidos.

• O ID da ponte atual pode ser identificado para um determinado comutador através da configuração da ponte
CIST, composta pelo ID da ponte e pelo endereço MAC do comutador. As estatísticas fornecem informações
sobre se o comutador sofreu alterações na topologia, principalmente por meio do valor recebido do TC ou TCN,
juntamente com a última ocorrência, como mostrado no tempo desde a última entrada do TC.
• Para interfaces individuais em um switch, é possível exibir essas informações através do
display stp comando para listar todas as interfaces ou usando o exibir interface stp <interface> comando para
definir uma interface específica. O estado da interface segue os estados da porta MSTP e, portanto, será
exibido como Descartando, Aprendendo ou Encaminhando. Outras informações válidas, como a função e o
custo da porta, também são exibidas, juntamente com quaisquer mecanismos de proteção aplicados.
• Após o fracasso da ponte raiz para uma rede de Spanning Tree, o próximo melhor candidato será eleito como
a ponte raiz. No caso em que a ponte raiz original se torne ativa novamente na rede, o processo de eleição
para a posição da ponte raiz ocorrerá novamente. Isso efetivamente causa o tempo de inatividade da rede na
rede de comutação à medida que a convergência prossegue.

• O custo do caminho raiz é o custo associado ao caminho de volta à ponte raiz, enquanto o custo do caminho
refere-se ao valor do custo definido para uma interface em um comutador, que é adicionado ao custo do caminho raiz,
para definir o custo do caminho raiz para o interruptor a jusante.
• O STP garante uma rede sem loop, mas possui uma velocidade de convergência de topologia de rede lenta, levando à
deterioração do serviço. Se a topologia da rede mudar com freqüência, as conexões na rede com capacidade para
STP são interrompidas com frequência, causando interrupção regular do serviço.

• O RSTP emprega um processo de proposta e acordo que permite a negociação imediata de links, eliminando
efetivamente o tempo necessário para que os cronômetros baseados em convergência expirem antes que a
convergência de spanning tree possa ocorrer. O processo de proposta e acordo tende a seguir um efeito em
cascata a partir do ponto da ponte raiz através da rede de comutação, pois cada comutador a jusante começa a
aprender sobre a verdadeira ponte raiz e o caminho pelo qual a ponte raiz pode ser alcançada.
• Os comutadores que operam no modo RSTP implementam duas funções de porta separadas para redundância.
A porta alternativa representa um caminho redundante para a ponte raiz no caso de o caminho atual para a
ponte raiz falhar. A função da porta de backup representa um backup do caminho para o segmento de LAN na
direção que se afasta da ponte raiz. Pode-se entender que uma porta de backup representa um método para
fornecer redundância à função de porta designada de maneira semelhante a uma porta alternativa que fornece
um método de redundância para a porta raiz.

• A função da porta de backup é capaz de existir onde um switch tem duas ou mais conexões com um dispositivo
de mídia compartilhado, como o de um hub, ou onde um único link ponto a ponto é usado para gerar uma
conexão de loopback física entre as portas no mesmo interruptor. Nos dois casos, no entanto, o princípio de
uma porta de backup existente em que duas ou mais portas em um único switch se conectam a um único
segmento de LAN ainda se aplica.
• No RSTP, uma porta designada na borda da rede é chamada de porta de borda. Uma porta de borda se
conecta diretamente a um terminal e não se conecta a nenhum outro dispositivo de comutação. Uma porta de
borda não recebe o BPDU de configuração e, portanto, não participa do cálculo do RSTP.

• Pode mudar diretamente do estado Desativado para o estado Encaminhamento sem demora, assim como uma
porta incapaz de STP. Se uma porta de borda recebe BPDU de configuração falsa de atacantes, ela é privada
dos atributos da porta de borda e se torna uma porta STP comum. O cálculo do STP é implementado
novamente, causando agitação na rede.
• O RSTP introduz uma alteração nos estados da porta simplificados de cinco para três tipos. Esses tipos de porta são

baseados no fato de uma porta encaminhar o tráfego do usuário e descobrir endereços MAC. Se uma porta não encaminha o

tráfego do usuário nem descobre endereços MAC, a porta está no estado Descartando. A porta é considerada em um estado

de aprendizado em que uma porta não encaminha o tráfego do usuário, mas aprende os endereços MAC. Finalmente, quando

uma porta encaminha o tráfego do usuário e aprende os endereços MAC, diz-se que a porta está no estado Encaminhamento.
• O formato BPDU empregado no STP também é aplicado ao RSTP com variação em alguns dos parâmetros
gerais. Para distinguir o BPDU da configuração STP do BPDU do Rapid Spanning Tree, conhecido como RST
BPDU, o tipo BPDU é definido. O STP define um tipo de configuração BPDU de 0 (0x00) e um BPDU de
Notificação de Alteração de Topologia (TCN BPDU) de 128 (0x80); o RST BPDU é identificado pelo valor de tipo
2 de BPDU (0x02). Dentro do campo de sinalizadores do RST BPDU, designações de parâmetros adicionais
são atribuídas aos campos BPDU.

• O campo de sinalizadores no STP implementou apenas o uso dos parâmetros Alteração de Topologia (TC) e
Reconhecimento (TCA) como parte do processo de Alteração de Topologia enquanto outros campos foram
reservados. O RST BPDU adotou esses campos para suportar novos parâmetros. Isso inclui sinalizadores
indicando o processo de proposta e acordo empregado pelo RSTP para convergência rápida, a definição da
função do porto e o estado do porto.
• No STP, depois que a topologia se torna estável, a ponte raiz envia a configuração BPDU em um intervalo
definido pelo cronômetro Hello. Uma ponte não raiz não envia o BPDU de configuração até receber o BPDU de
configuração enviado do dispositivo upstream. Isso torna o cálculo do STP complicado e demorado. No RSTP,
depois que a topologia se torna estável, uma ponte não raiz envia a configuração BPDU em intervalos Hello,
independentemente de ter recebido a configuração BPDU enviada da ponte raiz; essas operações são
implementadas em cada dispositivo independentemente.
• A convergência do RSTP segue alguns dos princípios básicos do STP na determinação inicial de que todos os
comutadores na inicialização afirmam o papel da ponte raiz e, como tal, atribuem cada interface de porta a uma
função de porta designada. O estado da porta, no entanto, é definido como um estado de descarte até que os
comutadores de mesmo nível possam confirmar o estado do link.
• Cada switch que proclama ser a ponte raiz negociará os estados da porta para um determinado segmento da
LAN, gerando um BPDU do RST com o bit da proposta definido no campo flags. Quando uma porta recebe um
RST BPDU da ponte designada a montante, a porta compara o RST BPDU recebido com seu próprio RST
BPDU. Se o seu próprio RST BPDU for superior ao recebido, a porta descartará o RST BPDU recebido e
responderá imediatamente ao dispositivo de mesmo nível com seu próprio RST BPDU que inclui um bit de
proposta definido.
• Como os temporizadores não desempenham um papel em grande parte do processo de convergência da topologia

RSTP, conforme encontrado com o STP, é importante que o potencial de alternar loops durante a negociação da função

de porta seja restrito. Isso é gerenciado pela implementação de um processo de sincronização que determina que, após

o recebimento de um BPDU superior contendo o bit da proposta, o comutador receptor deve definir todas as portas

designadas a jusante para descarte como parte do processo de sincronização.

• Onde a porta a jusante é uma porta alternativa ou uma porta de borda, no entanto, o status da função da porta
permanece inalterado. O exemplo demonstra a transição temporária da porta designada no segmento de LAN a
jusante para um estado de descarte e, portanto, bloqueia qualquer encaminhamento de quadro durante o
processo de proposta e contrato a montante.
• A transição confirmada da porta designada downstream para um estado de descarte permite que um RST
BPDU seja enviado em resposta à proposta enviada pelo switch upstream. Durante esse estágio, a função da
porta da interface foi determinada como a porta raiz e, portanto, o sinalizador do contrato e a função da porta da
raiz são definidos no campo sinalizadores do RST BPDU retornado em resposta à proposta.
• Durante o estágio final do processo de proposta e contrato, o RST BPDU que contém o bit de contrato é
recebido pelo switch upstream, permitindo que a porta designada faça a transição imediatamente de um estado
de descarte para o estado de encaminhamento. Depois disso, o (s) segmento (s) de LAN downstream (s)
começará a negociar as funções de porta das interfaces usando a mesma proposta e processo de contrato.
• No STP, um dispositivo precisa aguardar um período máximo de idade antes de determinar uma falha na
negociação. No RSTP, se uma porta não receber BPDUs de configuração enviadas do dispositivo upstream por
três intervalos Hello consecutivos, a comunicação entre o dispositivo local e seu par falhará, fazendo com que o
processo de proposta e contrato seja inicializado para descobrir as funções de porta para o segmento LAN.
• As alterações na topologia afetam o RSTP de maneira semelhante à maneira como o STP é afetado, no
entanto, existem algumas pequenas diferenças entre os dois. No exemplo, ocorreu uma falha do link no
comutador C. O comutador A e o comutador C detectam a falha do link imediatamente e liberam as entradas de
endereço das portas conectadas a esse link. Um RST BPDU começará a negociar os estados da porta como
parte do processo de proposta e contrato, após o qual ocorrerá uma notificação de Alteração de Topologia,
juntamente com o encaminhamento do RST BPDU que contém o contrato.

• Esse RST BPDU terá o bit de acordo e também o bit de TC definido como 1, para informar aos comutadores
upstream da necessidade de liberar suas entradas MAC em todas as interfaces de porta, exceto na interface de
porta na qual o BPDU do RST que contém o bit TC definido foi recebido .

• O bit TC será definido no RST BPDU enviado periodicamente e encaminhado a montante por um período
equivalente a Hello Time + 1 segundo, durante o qual todas as interfaces relevantes serão liberadas e
continuará a preencher novamente as entradas MAC com base na nova topologia RSTP . O vermelho (mais
escuro) 'x' no exemplo destaca quais interfaces serão liberadas como resultado da alteração da topologia.
• A implementação do STP dentro de uma topologia de comutação baseada em RSTP é possível, no entanto, não é
recomendada, pois qualquer limitação referente ao STP se torna aparente dentro do intervalo de comunicação do
comutador ativado por STP. Uma porta envolvida no processo de negociação para estabelecer sua função no STP
deve esperar um período de até 50 segundos antes que a convergência possa ser concluída, para que os
benefícios do RSTP sejam perdidos.
• A configuração do modo de spanning tree dos comutadores Sx7 requer que o modo stp O comando deve ser
usado para definir o modo como RSTP. Ao fazer isso, o comutador da série Sx7 gerará RST BPDU em relação
ao RSTP, em oposição a outras implementações de Spanning Tree. Este comando é configurado na visualização
do sistema e deve ser aplicado a todos os comutadores que participam da topologia da árvore de expansão
rápida.
• o display stp O comando fornecerá informações relativas à configuração do RSTP, pois muitos dos parâmetros
seguem a arquitetura principal do STP. As informações de modo determinarão se um switch está atualmente
operando usando RSTP.
• Uma interface de borda define uma porta que não participa da topologia da árvore de expansão. Essas interfaces
são usadas pelos sistemas finais para conectar-se à rede de comutação com o objetivo de encaminhar quadros.
Como esses sistemas finais não precisam negociar o status da interface da porta, é preferível que a porta seja
transferida diretamente para um estado de encaminhamento para permitir que os quadros sejam encaminhados
imediatamente por essa interface.

• o habilitar porta com borda stp O comando é usado para alternar uma porta para se tornar uma porta de borda, pois todas as

portas são consideradas portas não de borda em um switch por padrão. Para desativar a porta de borda, o desativação de

porta com borda stp comando é usado. Esses comandos se aplicam apenas a uma única interface de porta em um

determinado switch. É importante observar que o comportamento da porta de borda está associado ao RSTP, conforme

definido no IEEE

Documentação dos padrões 802.1D-2004, no entanto, devido à aplicação específica do VRP da máquina de
estado RSTP subjacente ao STP (que também resulta na presença de estados da porta RSTP no STP),
também é possível aplicar as configurações da porta de borda RSTP ao STP nos produtos da série Huawei Sx7.
• No caso de várias portas em um switch serem configuradas como portas de borda, o
padrão de porta com borda stp É aplicado o comando que impõe que todas as interfaces de porta em um switch
se tornem portas de borda. É importante executar o comando stp edged-port disable nas portas que precisam
participar do cálculo do STP entre os dispositivos, para evitar possíveis loops que possam ser causados ​como
resultado dos cálculos da topologia do STP.
• A porta diretamente conectada a um terminal do usuário, como um PC ou um servidor de arquivos, deve ser configurada

como uma porta de borda para garantir uma transição rápida do status da porta. Normalmente, nenhum BPDU é enviado

para portas de borda, no entanto, se o switch for atacado por pseudo BPDU, o switch definirá as portas de borda como

portas não de borda. Depois que essas portas de borda recebem um BPDU, a topologia da Spanning Tree é recalculada e,

como resultado, ocorre uma alteração na rede.

• Para se defender de ataques pseudo-BPDU, o RSTP fornece proteção a BPDU. Após a proteção da BPDU ser
ativada, o comutador desliga a porta de borda que recebe a BPDU e informa qualquer NMS (Active Network
Management Station). As portas de borda que são desligadas pelo comutador podem ser iniciadas
manualmente apenas pelo administrador da rede. o stp proteção bpdu O comando deve ser usado para ativar a
proteção BPDU e é configurado globalmente na visualização do sistema.
• O switch mantém o status da porta raiz e das portas bloqueadas recebendo continuamente BPDU do switch
upstream. Se o comutador raiz não puder receber BPDU do comutador upstream devido ao congestionamento
do link ou falha unidirecional do link, o comutador selecionará novamente uma porta raiz. A porta raiz anterior se
torna uma porta designada e as portas bloqueadas mudam para o estado de encaminhamento. Como resultado,
podem ocorrer loops na rede.

• O switch fornece proteção de loop para evitar loops de rede. Depois que a função de proteção de loop é ativada,
a porta raiz é bloqueada se não puder receber o BPDU do switch upstream. A porta bloqueada permanece no
estado bloqueado e não encaminha pacotes. Isso evita loops na rede. Se uma interface estiver configurada
como uma interface de borda ou a proteção raiz estiver ativada na interface, a proteção de loop não poderá ser
ativada na interface. o proteção de loop stp

O comando deve ser aplicado para ativar esse recurso na visualização da interface.
• A validação da configuração do RSTP para uma determinada interface é obtida através do
exibir interface stp <interface> comando. As informações associadas identificarão o estado da porta da interface
como Descartando, Aprendendo ou Encaminhando. São definidas informações relevantes para a interface da
porta, incluindo a prioridade da porta, o custo da porta, o status da porta como uma porta de borda ou ponto a
ponto de suporte, etc.
• A sincronização é um estágio no processo de convergência que envolve o bloqueio de portas designadas enquanto o

RST BPDU é transmitido contendo mensagens de proposta e acordo para convergir o segmento do comutador. O

processo foi projetado para garantir que todas as interfaces estejam de acordo com suas funções de porta, a fim de

garantir que nenhum loop de comutação ocorra uma vez que a porta designada para qualquer switch downstream seja

desbloqueada.
• Uma rede corporativa geralmente pode ser entendida como uma instância de um sistema autônomo. Conforme
definido no RFC 1030, um sistema autônomo ou AS, como também é comumente conhecido, é um grupo
conectado de um ou mais prefixos de IP executados por um ou mais operadores de rede que possui uma política
de roteamento ÚNICO e LIMPO DEFINIDO.

• O conceito de sistemas autônomos originalmente considerava a existência de um único protocolo de


roteamento, no entanto, à medida que as redes evoluíram, é possível suportar vários protocolos de roteamento
que interoperam através da injeção de rotas de um protocolo para outro. Uma política de roteamento pode ser
entendida como um conjunto de regras que determinam como o tráfego é gerenciado em um sistema autônomo,
ao qual um ou vários operadores devem aderir.
• Os princípios que envolvem a comutação lidaram principalmente com o encaminhamento de tráfego dentro do
escopo de uma rede de área local e do gateway, que até agora definiu os limites do domínio de broadcast. Os
roteadores são a forma principal do dispositivo da camada de rede usado para definir o gateway de cada rede
local e ativar a segmentação de rede IP. Os roteadores geralmente funcionam como um meio de rotear pacotes
de uma rede local para a próxima, contando com o endereçamento IP para definir a rede IP à qual os pacotes
são destinados.
• O roteador é responsável por determinar o caminho de encaminhamento através do qual os pacotes devem ser
enviados a rota para um determinado destino. É responsabilidade de cada roteador tomar decisões sobre como os
dados são encaminhados. Onde um roteador possui vários caminhos para um determinado destino, são tomadas
decisões de rota com base em cálculos para determinar o melhor salto seguinte para o destino pretendido. As
decisões que governam a rota que deve ser tomada podem variar dependendo do protocolo de roteamento em uso,
dependendo, em última análise, das métricas de cada protocolo para tomar decisões em relação a diversos fatores,
como largura de banda e contagem de saltos.
• Os roteadores encaminham pacotes com base em tabelas de roteamento e uma base de informações de encaminhamento (FIB)

e mantêm pelo menos uma tabela de roteamento e um FIB. Os roteadores selecionam rotas com base em tabelas de

roteamento e encaminham pacotes com base no FIB. Um roteador usa uma tabela de roteamento local para armazenar rotas de

protocolo e rotas preferenciais. O roteador envia as rotas preferenciais ao FIB para orientar o encaminhamento de pacotes. O

roteador seleciona rotas de acordo com as prioridades de protocolos e custos armazenados na tabela de roteamento. Uma

tabela de roteamento contém dados importantes para cada pacote IP.

• O destino e a máscara são usados ​em conjunto para identificar o endereço IP de destino ou o segmento de rede
de destino em que o host ou o roteador de destino reside.

• O campo protocolo (Proto) indica o protocolo através do qual as rotas são aprendidas. A preferência (Pré)
especifica o valor da preferência que está associado ao protocolo e é usada para decidir qual protocolo é
aplicado à tabela de roteamento em que dois protocolos oferecem rotas semelhantes. O roteador seleciona a
rota com a preferência mais alta (o menor valor) como a rota ideal.

• Um valor de custo representa a métrica usada para distinguir quando várias rotas para o mesmo destino têm a
mesma preferência, a rota com o menor custo é selecionada como a rota ideal.

• Um valor do próximo salto indica o endereço IP do próximo dispositivo ou gateway da camada de rede pelo qual
um pacote IP passa. No exemplo, dado um salto seguinte de
127.0.0.1 refere-se à interface local do dispositivo como sendo o próximo salto.

• Finalmente, o parâmetro interface indica a interface de saída através da qual um pacote IP é encaminhado.
• Uma tabela de roteamento pode conter as rotas originárias de vários protocolos para um determinado destino. Nem
todos os protocolos de roteamento são considerados iguais e, onde a correspondência mais longa para várias rotas
de protocolos de roteamento diferentes para o mesmo destino é igual, uma decisão deve ser tomada com relação a
qual protocolo de roteamento (incluindo rotas estáticas) terá precedência.

• Somente um protocolo de roteamento determina a rota ideal para um destino. Para selecionar a rota ideal, cada
protocolo de roteamento (incluindo a rota estática) é configurado com uma preferência (quanto menor o valor,
maior a preferência). Quando várias fontes de informações de roteamento coexistem, a rota com a preferência
mais alta é selecionada como a rota ideal e adicionada à tabela de roteamento local.

• No exemplo, são definidos dois protocolos que fornecem um meio de descoberta do


10.1.1.0 rede através de dois caminhos diferentes. O caminho definido pelo protocolo RIP parece fornecer uma
rota mais direta para o destino pretendido, no entanto, devido ao valor da preferência, a rota definida pelo
protocolo OSPF é preferida e, portanto, instalada na tabela de roteamento como a rota preferida. Um resumo
dos valores de preferência padrão de alguns mecanismos de roteamento comuns é fornecido para fornecer um
entendimento da ordem de preferência padrão.
• Nos casos em que a rota não pode ser distinguida por um valor ou preferência de correspondência mais longa, a
métrica de custo é tomada como tomador de decisão na identificação da rota que deve ser instalada na tabela de
roteamento. Custo representa o comprimento de um caminho para uma rede de destino.

• Cada segmento fornece um valor de métrica de custo ao longo de um caminho combinado para identificar o custo
da rota. Outro fator comum é a largura de banda da rede, na qual o mecanismo de custo às vezes se baseia. Um
link com uma velocidade (capacidade) mais alta representa um valor de custo mais baixo, permitindo a preferência
de um caminho em detrimento de outro, enquanto links de velocidade igual recebem um custo equilibrado para fins
de balanceamento de carga eficiente. Uma métrica mais baixa sempre tem precedência e, portanto, a métrica 50,
conforme mostrado no exemplo, define a rota ideal para o destino especificado, para o qual uma entrada pode ser
encontrada na tabela de roteamento.
• Usando a “preferência” e o “custo”, a tabela de roteamento IP pode ser estabelecida.

• E a tabela de roteamento IP pode ser dividida em três tipos, com base em fontes diferentes.

• Rotas diretas

• Rotas estáticas

• Rotas dinâmicas
• Para permitir que os pacotes cheguem ao destino pretendido, os roteadores devem tomar decisões específicas
sobre as rotas aprendidas e quais dessas rotas são aplicadas. É provável que um roteador aprenda sobre o
caminho para um determinado destino de rede por meio de informações de roteamento que são anunciadas
pelos roteadores vizinhos. Como alternativa, é possível que as rotas aplicadas estaticamente sejam
implementadas manualmente através da intervenção do administrador.

• Cada entrada na tabela FIB contém a interface física ou lógica através da qual um pacote é enviado para
alcançar o próximo roteador. Uma entrada também indica se o pacote pode ser enviado diretamente para um
host de destino em uma rede conectada diretamente. O roteador executa uma operação "AND" no endereço de
destino no pacote e na máscara de rede de cada entrada na tabela FIB.

• O roteador compara o resultado da operação "AND" com as entradas na tabela FIB para encontrar uma
correspondência. O roteador escolhe a rota ideal para encaminhar pacotes de acordo com a melhor ou mais
longa correspondência. No exemplo, existem duas entradas na rede 10.1.1.0 com um salto seguinte de 20.1.1.2.
Encaminhamento para o destino de
10.1.1.1 resultará na aplicação do princípio de correspondência mais longa, para o qual o endereço de rede
10.1.1.0/30 fornece a correspondência mais longa.
• A capacidade de um roteador de encaminhar um pacote IP para um determinado destino requer que certas
informações de encaminhamento sejam conhecidas. Qualquer roteador que deseje encaminhar um pacote IP deve
primeiro estar ciente de um endereço de destino válido para o qual o pacote deve ser encaminhado, isso significa que
uma entrada deve existir na tabela de roteamento que o roteador pode consultar. Essa entrada também deve
identificar a interface através da qual os pacotes IP devem ser transmitidos e o salto seguinte ao longo do caminho,
para o qual o pacote deve ser recebido antes da consulta para a próxima decisão de encaminhamento.
• Quando o roteador escolhe a melhor rota, primeiro, coloque as rotas com o menor valor de preferência na tabela de

roteamento IP; se a prioridade for igual, compare os valores das métricas para decidir quais rotas colocar na tabela de

roteamento; finalmente, ao procurar a tabela de roteamento, ele escolhe os itens de rota para orientar o encaminhamento de

pacotes de dados de acordo com o princípio de correspondência de máscara mais longo.

• A preferência é normalmente usada para denotar a confiabilidade de uma rota sobre rotas que podem ser consideradas

menos confiáveis. No entanto, os fornecedores de equipamentos de roteamento podem atribuir diferentes valores de

preferência para protocolos suportados no produto de cada fornecedor. Os valores de preferência de alguns protocolos de

roteamento comuns suportados pelos dispositivos de roteamento Huawei podem ser encontrados nesta seção.
• Uma rota estática é uma rota especial configurada manualmente por um administrador de rede. A desvantagem
das rotas estáticas é que elas não podem se adaptar automaticamente às mudanças em uma rede; portanto, as
mudanças na rede exigem reconfiguração manual. As rotas estáticas são adequadas para redes com estruturas
comparativamente simples. Não é aconselhável configurar e manter rotas estáticas para uma rede com uma
estrutura complexa. As rotas estáticas, no entanto, reduzem o efeito da largura de banda e do consumo de
recursos da CPU que ocorre quando outros protocolos são implementados.
• As rotas estáticas podem ser aplicadas a redes que usam mídia serial e Ethernet, no entanto, em cada situação,
as condições de aplicação da rota estática variam em que a interface de saída ou o endereço IP do próximo
salto deve ser definido.

• O meio serial representa uma forma de interface ponto a ponto (P2P) para a qual a interface de saída deve ser
configurada. Para uma interface P2P, o endereço do próximo salto é especificado após a interface de saída ser
especificada. Ou seja, o endereço da interface remota (interface no dispositivo de mesmo nível) conectado a
essa interface é o endereço do próximo salto.

• Por exemplo, o protocolo usado para encapsular na mídia serial é o protocolo Pointto-Point (PPP). O endereço
IP remoto é obtido após a negociação de PPP, portanto, é necessário especificar apenas a interface de saída. O
exemplo também define uma forma de conexão Ethernet ponto a ponto; no entanto, a Ethernet representa uma
tecnologia de transmissão por natureza e, portanto, os princípios da tecnologia ponto a ponto não se aplicam.
• No caso de interfaces de transmissão como Ethernet, o próximo salto deve ser definido. Onde a interface
Ethernet é especificada como interface de saída, é provável que existam vários próximos saltos e o sistema não
poderá decidir qual salto seguinte será usado. Ao determinar o próximo salto, um roteador é capaz de identificar
a conexão local pela qual o pacote deve ser recebido.

• No exemplo, os pacotes destinados ao destino 192.168.2.0/24 devem ser encaminhados para o próximo salto
de 10.0.123.2 para garantir a entrega. Alternativamente, alcançar o destino 192.168.3.0 requer que o próximo
salto de 10.0.123.3 seja definido.
• A configuração da rota estática é alcançada usando o endereço IP estático da rota ip { mascarar | comprimento da
máscara} tipo de interface número-da-interface [nexthop-address]
onde o endereço de IP refere-se ao endereço de destino da rede ou do host. O campo de máscara pode ser
definido como um valor de máscara ou com base no número do prefixo. No caso de um meio de transmissão como
Ethernet, o endereço do próximo salto é usado. Onde uma mídia serial é usada, o tipo de interface e o número da
interface são atribuídos (por exemplo, serial 1/0/0) ao comando para definir a interface de saída.
• Onde existem caminhos de custo iguais entre as redes de origem e destino, o balanceamento de carga pode ser
implementado para permitir que o tráfego seja transportado pelos dois links. Para conseguir isso usando rotas
estáticas, ambas as rotas devem atender aos parâmetros para uma correspondência mais longa igual, preferência e
valor métrico. É necessária a configuração de várias rotas estáticas, uma para cada interface de próximo salto ou
saída no caso de mídia serial.

• O exemplo demonstra como dois rota IP estática Os comandos são implementados, cada um definindo o mesmo endereço

e máscara de destino IP, mas locais alternativos para o próximo salto. Isso garante que a correspondência mais longa (/ 24)

seja igual e, naturalmente, o valor da preferência, pois ambas as rotas são rotas estáticas que possuem uma preferência

padrão de 60. O custo de ambos os caminhos também é igual, permitindo que o balanceamento de carga ocorra.
• A tabela de roteamento pode ser consultada para verificar os resultados executando o comando exibir tabela de
roteamento ip comando após as rotas estáticas serem configuradas. A rota estática é exibida na tabela de
roteamento e os resultados mostram duas entradas para o mesmo destino, com valores de preferência e métricas
correspondentes. Os diferentes endereços do próximo salto e a variação na interface de saída identificam os dois
caminhos que são seguidos e confirma que o balanceamento de carga foi alcançado.
• A aplicação de rotas estáticas permite várias maneiras pelas quais as rotas podem ser manipuladas para atender
aos requisitos de roteamento. É possível que a preferência de uma rota estática seja alterada com o objetivo de
permitir a preferência de uma rota estática em detrimento de outra, ou quando usada com outros protocolos, para
garantir que a rota estática seja preferida ou que seja dada preferência ao roteamento alternativo. protocolo.

• O valor de preferência padrão de uma rota estática é 60, portanto, ajustando esse valor de preferência, uma
determinada rota estática pode ser tratada com preferência desigual sobre qualquer outra rota, incluindo outras
rotas estáticas. No exemplo dado, existem duas rotas estáticas em dois segmentos físicos da LAN, enquanto
normalmente as duas rotas estáticas são consideradas iguais, a segunda rota recebe uma preferência menor
(valor mais alto), fazendo com que ela seja removida da tabela de roteamento. O princípio de uma rota estática
flutuante significa que a rota com uma preferência menor será aplicada à tabela de roteamento, caso a rota
principal falhe.
• Ao usar o exibir tabela de roteamento ip comando, é possível observar os resultados da alteração no valor de
preferência que resulta na rota estática flutuante. Normalmente, duas rotas de custo igual seriam exibidas na
tabela de roteamento, definindo o mesmo destino, porém com valores alternativos para o próximo salto e
interfaces de saída. Nesse caso, no entanto, apenas uma instância pode ser vista, contendo o valor padrão de
preferência de rota estática de 60. Como a segunda rota estática agora tem um valor de preferência de 100, ela
não é incluída imediatamente na tabela de roteamento, pois não é mais considerada. uma rota ideal.
• No caso de a rota estática primária falhar como resultado de falha no link físico ou através da desativação de
uma interface, a rota estática não poderá mais fornecer uma rota para o destino pretendido e, portanto, será
removida da tabela de roteamento . A rota estática flutuante provavelmente se tornará a próxima melhor opção
para alcançar o destino desejado e será adicionada à tabela de roteamento para permitir que os pacotes sejam
transmitidos por um segundo caminho alternativo ao destino desejado, permitindo a continuidade à luz de
qualquer falha.

• Quando a conexão física para a rota original é restaurada, a rota estática original também substitui a rota
estática flutuante atual, para a qual a rota será restaurada na tabela de roteamento, fazendo com que a rota
estática flutuante aguarde novamente o aplicativo.
• A rota estática padrão é uma forma especial de rota estática aplicada às redes nas quais o endereço de destino
é desconhecido, para permitir a disponibilização de um caminho de encaminhamento. Isso fornece um meio
eficaz de rotear o tráfego para um destino desconhecido para um roteador ou gateway que pode ter
conhecimento do caminho de encaminhamento em uma rede corporativa.

• A rota padrão depende do endereço "any network" de 0.0.0.0 para corresponder a qualquer rede para a qual não
foi encontrada uma correspondência na tabela de roteamento e fornece um caminho de encaminhamento padrão
para o qual os pacotes para todos os destinos de rede desconhecidos devem ser roteados. No exemplo, uma rota
estática padrão foi implementada no RTA, identificando que os pacotes para uma rede desconhecida sejam
recebidos; esses pacotes devem ser encaminhados para o destino 10.0.12.2.

• Em termos de tomada de decisão da tabela de roteamento, como uma rota estática, a rota padrão mantém uma preferência de

60 por padrão, no entanto, opera como último recurso em termos da regra de correspondência mais longa no processo de

correspondência de rota.
• A configuração da rota estática, uma vez configurada, aparecerá na tabela de roteamento do roteador. o exibir
tabela de roteamento ip O comando é usado para visualizar esse detalhe. Como resultado, todas as rotas no
exemplo onde não estiverem associadas a nenhuma outra rota na tabela de roteamento serão encaminhadas para
o destino do próximo salto de
10.0.12.2 através da interface Gigabit Ethernet 0/0/0.
• Uma rota estática flutuante pode ser implementada ajustando o valor de preferência de uma rota estática em que duas rotas

estáticas suportam o balanceamento de carga.

• Uma rota estática padrão pode ser implementada na tabela de roteamento especificando o endereço 'any network'
de 0.0.0.0 como o endereço de destino, juntamente com um endereço nexthop da interface para a qual os pacotes
capturados por essa rota estática padrão devem ser encaminhados.
• Open Shortest Path First ou OSPF é considerado como um protocolo de estado de link capaz de detectar
rapidamente alterações topológicas no sistema autônomo e estabelecer rotas sem loop em um curto período de
tempo, com uma sobrecarga de comunicação adicional mínima para negociar alterações de topologia entre
roteadores de mesmo nível. O OSPF também lida com problemas de escalabilidade que ocorrem quando a
comunicação entre um número crescente de roteadores se torna tão extrema que começa a levar à instabilidade no
sistema autônomo. Isso é gerenciado através do uso de áreas que limitam o escopo da comunicação do roteador a
um grupo isolado dentro do sistema autônomo, permitindo que redes pequenas, médias e até grandes sejam
suportadas pelo OSPF. O protocolo também é capaz de trabalhar com outros protocolos, como o MPLS, um protocolo
de troca de rótulo, para fornecer escalabilidade de rede mesmo em locais geograficamente dispersos. Em termos de
descoberta de caminho ideal, o OSPF fornece métricas de rota avançadas que fornecem mais precisão do que as
métricas de rota aplicadas a protocolos como o RIP para garantir que as rotas sejam otimizadas, com base não
apenas na distância, mas também na velocidade do link.
• A convergência do OSPF exige que todos os roteadores que executam ativamente o protocolo OSPF tenham
conhecimento do estado de todas as interfaces e adjacências (relação entre os roteadores aos quais estão
conectados), a fim de estabelecer o melhor caminho para todas as redes. Isso é formado inicialmente pela
inundação de Link State Advertisements (LSA), que são unidades de dados que contêm informações como
redes conhecidas e estados de link para cada interface em um domínio de roteamento. Cada roteador usará o
LSA recebido para criar um banco de dados de estado de link (LSDB) que fornece a base para estabelecer a
árvore de caminho mais curto para cada rede, cujas rotas são finalmente incorporadas à tabela de roteamento
IP.
• O ID do roteador é um valor de 32 bits atribuído a cada roteador executando o protocolo OSPF. Este valor
identifica exclusivamente o roteador dentro de um sistema autônomo. O ID do roteador pode ser atribuído
manualmente ou pode ser obtido de um endereço configurado. Se uma interface lógica (loopback) tiver sido
configurada, o ID do roteador será baseado no endereço IP da interface lógica mais alta configurada, caso
existam várias interfaces lógicas.

• Se nenhuma interface lógica foi configurada, o roteador usará o endereço IP mais alto configurado em uma interface

física. Qualquer roteador executando o OSPF pode ser reiniciado usando o recurso de reinicialização normal para

renovar o ID do roteador, caso um novo ID do roteador seja configurado. É recomendável que o ID do roteador seja

configurado manualmente para evitar alterações inesperadas no ID do roteador no caso de alterações no endereço

da interface.
• O OSPF suporta vários tipos de rede e, em cada caso, aplicará um comportamento diferente
em termos de como as relações com os vizinhos são formadas e como a comunicação é
facilitada. A Ethernet representa uma forma de rede de broadcast que envolve vários roteadores conectados ao
mesmo segmento de rede. Um dos principais problemas enfrentados diz respeito a como a comunicação ocorre
entre os roteadores vizinhos, a fim de minimizar a sobrecarga de roteamento OSPF. Se uma rede Ethernet for
estabelecida, o tipo de rede de difusão será aplicado automaticamente no OSPF.
• Onde dois roteadores são estabelecidos em uma topologia ponto a ponto, o tipo de rede aplicado varia de
acordo com a tecnologia de camada média e de link aplicada. Como mencionado, o uso de um meio Ethernet
resultará na atribuição automática do tipo de rede de difusão para o OSPF. Onde o meio físico é serial, o tipo
de rede é considerado ponto a ponto. As formas comuns de protocolos que operam em mídia serial na camada
de link incluem o protocolo ponto a ponto (PPP) e o controle de link de dados de alto nível (HDLC).
• O OSPF pode operar em redes de acesso múltiplo que não suportam transmissões. Essas redes incluem o
Frame Relay e o ATM, que geralmente operam usando topologias do tipo hub e spoke, que dependem do uso
de circuitos virtuais para que a comunicação seja alcançada. O OSPF pode especificar dois tipos de redes que
podem ser aplicadas aos links conectados a esses ambientes. O tipo de rede NBMA (Non-Broadcast Multi
Access) emula uma rede de broadcast e, portanto, exige que cada interface de peering faça parte do mesmo
segmento de rede. Diferentemente de uma rede de transmissão, o NBMA encaminha os pacotes OSPF como
um unicast, exigindo que várias instâncias do mesmo pacote sejam geradas para cada destino.

• O ponto a multiponto também pode ser aplicado como o tipo de rede para cada interface. Nesse caso, é
aplicado um comportamento do tipo ponto a ponto. Isso significa que cada par deve estar associado a diferentes
segmentos de rede. Os roteadores designados são associados às redes de transmissão e, portanto, são
implementados pelas redes NBMA. O mais importante é o posicionamento de um DR que deve ser designado
no nó do hub e na arquitetura spoke para garantir que todos os nós possam se comunicar com o DR.
• Para endereçar e otimizar a comunicação do OSPF através de redes de broadcast, o OSPF implementa um
roteador designado (DR) que atua como um ponto central de comunicação para todos os outros roteadores
associados a uma rede de broadcast em pelo menos uma interface. Em uma rede de transmissão teórica que
não aplica um DR, pode-se entender que a comunicação segue uma fórmula n (n-1) / 2, em que n representa o
número de interfaces de roteador que participam do OSPF. No exemplo dado, isso se refere a 6 adjacências
entre todos os roteadores. Quando o DR é aplicado, todos os roteadores estabelecem um relacionamento com
o DR, responsável por atuar como um ponto central de comunicação para todos os roteadores vizinhos em
uma rede de transmissão.

• Um roteador designado de backup (BDR) é um roteador eleito para assumir o controle da recuperação de desastres
em caso de falha. Como tal, é necessário que o BDR estabeleça um banco de dados de estado do link como o do DR
para garantir a sincronização. Isso significa que todos os roteadores vizinhos também devem se comunicar com o
BDR em uma rede de transmissão. Com a aplicação do DR e do BDR, o número de associações é reduzido de 6
para 5, pois o RTA e o RTB precisam se comunicar apenas com o DR e o BDR. Isso pode parecer ter um efeito
mínimo, no entanto, quando aplicado a uma rede que contém, por exemplo, 10 roteadores, ou seja (10 * 9) / 2, a
eficiência de comunicação resultante se torna aparente.
• O OSPF cria adjacências entre roteadores vizinhos com o objetivo de trocar informações de roteamento. Nem
todos os dois roteadores vizinhos se tornarão adjacentes, principalmente quando um dos dois roteadores que
estabelece uma adjacência é considerado não o DR ou o BDR. Esses roteadores são conhecidos como DROther
e apenas reconhecem a presença do DROther, mas não estabelecem comunicação completa; esse estado é
conhecido como o estado vizinho. No entanto, os roteadores DROther formam adjacência total com os roteadores
DR e BDR para permitir a sincronização do banco de dados do estado do link dos roteadores DR e BDR com cada
um dos roteadores DROther. Essa sincronização é alcançada estabelecendo um estado adjacente a cada
DROther.

• Uma adjacência é vinculada à rede que os dois roteadores têm em comum. Se dois roteadores tiverem várias
redes em comum, eles poderão ter várias adjacências entre eles.
• Cada roteador que participa do OSPF fará a transição através de vários estados de link para atingir um estado
vizinho ou um estado adjacente. Todos os roteadores começam no estado inativo após a inicialização e passam por
um processo de descoberta de vizinho, que envolve primeiramente tornar a presença de roteadores conhecida na
rede OSPF por meio de um pacote Hello. Ao executar esta ação, o roteador fará a transição para um estado init.

• Depois que o roteador recebe uma resposta na forma de um pacote Hello contendo o ID do roteador que recebe
a resposta, um estado bidirecional será alcançado e um relacionamento vizinho será formado. No caso de redes
NBMA, um estado de tentativa é alcançado quando a comunicação com o vizinho se torna inativa e uma
tentativa está sendo feita para restabelecer a comunicação através do envio periódico de pacotes Hello. Os
roteadores que não alcançarem um relacionamento adjacente permanecerão em um estado vizinho com um
estado de comunicação bidirecional.

• Roteadores como DR e BDR criarão um estado vizinho adjacente com todos os outros roteadores vizinhos e,
portanto, deverão trocar informações sobre o estado do link para estabelecer um banco de dados completo do estado
do link. Isso requer que os roteadores de mesmo nível que estabelecem uma adjacência negociem primeiro a troca
de informações do estado do link (ExStart) antes de prosseguir com a troca de informações resumidas sobre as redes
de que eles conhecem. Os vizinhos podem identificar rotas das quais não têm conhecimento ou não têm informações
atualizadas e, portanto, solicitar detalhes adicionais para essas rotas como parte do estado de carregamento. Um
relacionamento totalmente sincronizado entre vizinhos é determinado pelo estado completo no qual os dois
roteadores peering podem ser considerados adjacentes.
• A descoberta de vizinhos é alcançada através do uso de pacotes Hello gerados em intervalos com base em um
timer Hello, que por padrão é a cada 10 segundos para os tipos de rede broadcast e ponto a ponto; enquanto
que para os tipos de rede NBMA e Point-toMultipoint, o intervalo de hello é de 30 segundos. O pacote hello
contém esse período de intervalo, junto com um campo de prioridade do roteador que permite que os vizinhos
determinem o vizinho com o ID de roteador mais alto para identificação do DR e BDR nas redes de broadcast e
NBMA.

• Um período que especifique por quanto tempo um pacote hello é válido antes que o vizinho seja considerado
perdido também deve ser definido, e isso é realizado como o intervalo morto do roteador dentro do pacote hello.
Esse intervalo morto é definido por padrão como quatro vezes o intervalo hello, sendo 40 segundos para redes
de broadcast e ponto a ponto e 120 segundos para redes NBMA e ponto a multiponto. Além disso, o ID do
roteador do DR e do BDR é transportado, quando aplicável, com base na rede para a qual o pacote hello é
gerado.
• Após a descoberta do vizinho, a eleição de DR pode ocorrer dependendo do tipo de rede do segmento de rede.
As redes de transmissão e NMBA realizarão a eleição de DR. A eleição do DR depende de uma prioridade
atribuída a cada interface que participa do processo de eleição do DR. Esse valor de prioridade é definido como
1 por padrão e uma prioridade mais alta representa um melhor candidato a DR.

• Se uma prioridade 0 for definida, a interface do roteador não participará mais da eleição para se tornar o DR ou o
BDR. Pode ser que, onde as conexões ponto a ponto (usando Ethernet como meio físico) estejam definidas para
oferecer suporte a um tipo de rede de broadcast, ocorra uma eleição desnecessária de DR, o que gera tráfego
de protocolo excessivo. Portanto, é recomendável que o tipo de rede seja configurado como um tipo de rede
ponto-topoint.
• Para melhorar a eficiência da transição para um novo roteador designado, um roteador designado de backup é
designado para cada rede de broadcast e NBMA. O roteador designado de backup também é adjacente a
todos os roteadores na rede e se torna o roteador designado quando o roteador designado anterior falha. Se
não houvesse roteador designado para backup, novas adjacências teriam que ser formadas entre o novo
roteador designado e todos os outros roteadores conectados à rede.

• Parte do processo de formação de adjacência envolve a sincronização de bancos de dados de estado de link,
que pode levar um longo tempo. Durante esse período, a rede não estaria disponível para o trânsito de dados. O
roteador designado de backup evita a necessidade de formar essas adjacências, pois elas já existem. Isso
significa que o período de interrupção no tráfego em trânsito dura apenas o tempo necessário para inundar os
novos LSAs (que anunciam o novo roteador designado). O roteador designado de backup também é eleito pelo
pacote Hello. Cada pacote Hello possui um campo que especifica o roteador designado de backup para a rede.
• Em um algoritmo de roteamento de estado do link, é muito importante que todos os bancos de dados de estado do link dos

roteadores permaneçam sincronizados. O OSPF simplifica isso exigindo que apenas os roteadores adjacentes permaneçam

sincronizados. O processo de sincronização começa assim que os roteadores tentam exibir a adjacência. Cada roteador

descreve seu banco de dados enviando uma sequência de pacotes de Descrição do Banco de Dados ao seu vizinho. Cada

pacote de descrição do banco de dados descreve um conjunto de LSAs pertencentes ao banco de dados do roteador.

• Quando o vizinho vê um LSA mais recente que sua própria cópia do banco de dados, anota que esse LSA mais recente

deve ser solicitado. Esse envio e recebimento de pacotes de Descrição do Banco de Dados é chamado de "Processo de

Troca de Banco de Dados". Durante esse processo, os dois roteadores formam um relacionamento mestre / escravo.

Cada pacote de descrição do banco de dados possui um número de sequência. Os pacotes de Descrição do banco de

dados enviados pelo mestre são reconhecidos pelo escravo através do eco do número de sequência.
• Durante e após o processo de troca do banco de dados, cada roteador possui uma lista daqueles LSAs para os
quais o vizinho possui instâncias mais atualizadas. O pacote Link State Request é usado para solicitar as partes
do banco de dados do vizinho mais atualizadas. Pode ser necessário usar vários pacotes de solicitação de
estado de link.

• Pacotes de atualização do estado do link implementam a inundação de LSAs. Cada pacote de atualização do estado do

link carrega uma coleção de LSAs um salto mais longe de sua origem. Vários LSAs podem ser incluídos em um único

pacote. Nas redes de transmissão, os pacotes de atualização do estado do link são multicast. O endereço IP de destino

especificado para o pacote de atualização do estado do link depende do estado da interface. Se o estado da interface for

DR ou Backup, o endereço AllSPFRouters (224.0.0.5) deve ser usado. Caso contrário, o endereço AllDRouters (224.0.0.6)

deve ser usado. Em redes sem difusão, pacotes separados de Atualização do Estado do Link devem ser enviados, como

unicast, para cada vizinho adjacente (ou seja, aqueles em um estado do Exchange ou superior). Os endereços IP de

destino para esses pacotes são os endereços IP dos vizinhos.

• Quando o processo de descrição do banco de dados for concluído e todas as solicitações de estado do link forem

atendidas, os bancos de dados serão considerados sincronizados e os roteadores serão marcados totalmente adjacentes.

No momento, a adjacência é totalmente funcional e é anunciada nos LSAs dos dois roteadores.
• O OSPF calcula o custo de uma interface com base na largura de banda da interface. A fórmula de cálculo é:
custo da interface = valor de referência de
largura de banda / largura de banda. O valor de referência da largura de banda é configurável para o qual o padrão é 100

Mbps. Com a fórmula 100000000 / Largura de banda, isso fornece uma métrica de custo de 1562 para uma porta serial de

64 kbit / s, 48 ​para uma interface E1 (2,048 Mbit / s) e um custo de 1 para Ethernet (100 Mbit / s) ou superior.

• Para poder distinguir entre interfaces de velocidade mais alta, é imperativo que a métrica de custo seja ajustada
para corresponder às velocidades atualmente suportadas. Os comandos de largura de banda permitem alterar a
métrica alterando o valor de referência da largura de banda na fórmula de custo. Quanto maior o valor, mais
precisa será a métrica. Onde velocidades de 10Gb estão sendo suportadas, é recomendável aumentar o valor
de referência da largura de banda para '10000' ou 1010 / largura de banda para fornecer métricas de 1, 10 e 100
para links de largura de banda de 10Gb, 1Gb e 100Mb, respectivamente.

• Como alternativa, o custo pode ser configurado manualmente usando o comando ospf cost para definir um valor de

custo para uma determinada interface. O valor do custo varia de 1 a 65535 com um valor de custo padrão 1.
• Considera-se que um roteador que atingiu um estado completo recebeu todos os anúncios de estado de link
(LSA) e sincronizou seu banco de dados de estado de link (LSDB) com o dos vizinhos adjacentes. As
informações do estado do link coletadas no banco de dados do estado do link são usadas para calcular o
caminho mais curto para cada rede. Cada roteador depende apenas das informações no LSDB para calcular
independentemente o caminho mais curto para cada destino, em vez de confiar nas informações de rota
selecionadas dos pares, que é considerada a melhor rota para um destino. O cálculo da árvore do caminho mais
curto, no entanto, significa que cada roteador deve utilizar recursos adicionais para realizar esta operação.
• Redes menores podem envolver um número selecionado de roteadores que operam como parte do domínio OSPF.
Esses roteadores são considerados parte de uma área representada por um banco de dados de estado de link idêntico
para todos os roteadores no domínio. Como uma única área, o OSPF pode ser atribuído a qualquer número de área; no
entanto, para uma implementação futura do projeto, é recomendável que essa área seja atribuída como área

0
• A necessidade de encaminhar anúncios do estado do link e o cálculo subsequente do caminho mais curto com base

no banco de dados do estado do link se tornam cada vez mais complexos à medida que mais e mais roteadores se

tornam parte do domínio OSPF. Dessa forma, o OSPF é capaz de suportar uma estrutura hierárquica para limitar o

tamanho do banco de dados do estado do link e o número de cálculos que devem ser executados ao determinar o

caminho mais curto para uma determinada rede.

• A implementação de várias áreas permite que um domínio OSPF compartimente o processo de cálculo com base em um

banco de dados de estado de link que é apenas idêntico para cada área, mas fornece as informações para alcançar

todos os destinos no domínio OSPF. Certos roteadores conhecidos como roteadores de borda de área (ABR) operam

entre áreas e contêm vários bancos de dados de estado de link para cada área à qual o ABR está conectado. A área 0

deve ser configurada onde existe OSPF de várias áreas e para a qual geralmente é necessário todo o tráfego enviado

entre as áreas para atravessar a área 0, a fim de garantir que não ocorram loops de roteamento.
• O estabelecimento do OSPF em um domínio AS requer que cada roteador que participe do OSPF ative primeiro o
processo OSPF. Isso é obtido usando o comando ospf [id do processo], onde o ID do processo pode ser atribuído e
representa o processo ao qual o roteador está associado. Se os roteadores tiverem números de identificação de
processo diferentes, bancos de dados de estado de link separados serão criados com base em cada identificação de
processo individual. Onde nenhum ID do processo for atribuído, o ID do processo padrão 1 será usado. O ID do
roteador também pode ser atribuído usando o comando ospf [id do processo] [id do roteador <ID do roteador>], em que
<ID do roteador> refere-se ao ID que deve ser atribuído ao roteador, tendo em mente que um um valor mais alto de ID
representa o DR nas redes de broadcast e NBMA.

• As informações entre parênteses refletem o processo ospf e o nível em que os parâmetros ospf podem ser
configurados, incluindo a área à qual cada link (ou interface) está associado. As redes que devem ser anunciadas
em uma determinada área são determinadas pelo uso do comando network. A máscara é representada como uma
máscara curinga para a qual um valor de bit 0 representa os bits que são fixos (por exemplo, identificação de rede)
e onde os valores de bits na máscara representam um valor 1, o endereço pode representar qualquer valor.
• A configuração do relacionamento vizinho entre os pares OSPF é verificada através do comando display ospf
peer. Os atributos associados à conexão de mesmo nível são listados para fornecer uma explicação clara da
configuração. Atributos importantes incluem a área na qual a associação de pares é estabelecida, o estado do
estabelecimento de pares, a associação de mestre / escravo para negociação de adjacência, a fim de atingir o
estado completo, e também as atribuições de DR e BDR que destacam que o link está associado com um tipo de
rede de transmissão.
• O OSPF é capaz de oferecer suporte à autenticação para garantir que as rotas sejam protegidas contra ações
maliciosas que podem resultar de manipulação ou dano à topologia e rotas OSPF existentes. O OSPF permite
o uso de autenticação simples, bem como autenticação criptográfica, que fornece proteção aprimorada contra
possíveis ataques.

• A autenticação é atribuída por interface com o comando para autenticação simples do modo de autenticação
ospf {simple [[plain] <plain-text> | cifra <texto cifrado>] | null} onde plain aplica uma senha de texto não
criptografado, codifique uma senha de texto cifrado para ocultar o conteúdo original e null para indicar uma
autenticação nula.

• A autenticação criptográfica é aplicada usando o modo de autenticação ospf {md5 | hmac-md5} [ID da chave
{plain <texto simples> | Comando [cipher] <cipher-text>}]. O MD5 representa um algoritmo criptográfico para
proteger a autenticação pelo link, com sua configuração demonstrada no exemplo fornecido. A chave identifica
um ID de chave de autenticação exclusivo da autenticação de cifra da interface. O ID da chave deve ser
consistente com o do par.
• Onde a autenticação é aplicada, é possível implementar a depuração no terminal para visualizar o processo de
autenticação. Como a depuração pode envolver muitos eventos, o comando debugging ospf packet deve ser
usado para especificar que a depuração deve ser executada apenas para pacotes específicos do OSPF. Como
resultado, o processo de autenticação pode ser visualizado para validar que a configuração de autenticação foi
implementada com sucesso.
• Muitas vezes, é necessário controlar o fluxo de informações de roteamento e limitar o intervalo para o qual esses
protocolos de roteamento podem se estender. Esse é particularmente o caso em que a conexão com redes
externas é protegida pelo conhecimento de rotas internas. Para conseguir isso, o comando da interface silenciosa
pode ser aplicado como um meio de restringir toda a comunicação OSPF por meio da interface na qual o
comando está implementado.

• Depois que uma interface OSPF é configurada para estar no estado silencioso, a interface ainda pode anunciar
suas rotas diretas. Os pacotes Hello na interface, no entanto, serão bloqueados e nenhum relacionamento vizinho
pode ser estabelecido na interface. O comando silent-interface [interface-type interface-number] pode ser usado
para definir uma interface específica que restrinja a operação OSPF ou, alternativamente, o comando silentinterface
all pode ser usado para garantir que todas as interfaces em um processo específico sejam impedidas de participar
no OSPF.
• A implementação da interface silenciosa por interface significa que a interface específica deve ser observada
para validar a aplicação bem-sucedida do comando da interface silenciosa. Por meio do comando ospf
<process_id> interface <interface>, em que a interface representa a interface à qual o comando da interface
silenciosa foi aplicado, é possível validar a implementação da interface silenciosa.
• O intervalo morto é um valor de timer usado para determinar se a propagação de pacotes Hello OSPF cessou.
Esse valor é equivalente a quatro vezes o intervalo Hello, ou 40 segundos por padrão nas redes de
transmissão. No caso em que o intervalo morto seja zerado, o relacionamento com o OSPF será encerrado.

• O DR e o BDR usam o endereço multicast 224.0.0.6 para escutar atualizações do estado do link quando o tipo de rede
OSPF é definido como transmissão.
• As redes corporativas geralmente são compostas por vários sistemas finais que requerem atribuição de
endereço IP para se conectar ao segmento de rede ao qual o sistema final está conectado. Para redes
pequenas, um número mínimo de sistemas finais conectados à rede permite o gerenciamento simples do
endereçamento para todos os sistemas finais.

• No entanto, para redes de média e grande escala, fica cada vez mais difícil configurar endereços IP
manualmente com maior probabilidade de duplicação de endereços, além de erros de configuração devido a
erro humano e, portanto, torna-se necessário implementar uma solução de gerenciamento centralizado em toda
a rede. cada vez mais proeminente. O DHCP (Dynamic Host Configuration Protocol) é implementado como uma
solução de gerenciamento para permitir a alocação dinâmica de endereços para sistemas finais fixos e
temporários existentes que acessam o domínio da rede.

• Nos casos, também é possível que haja mais hosts do que endereços IP disponíveis em uma rede. Alguns
hosts não podem receber um endereço IP fixo e precisam obter dinamicamente endereços IP usando o
servidor DHCP. Apenas alguns hosts em uma rede exigem endereços IP fixos.
• O DHCP suporta três mecanismos para alocação de endereços IP. O método de alocação automática envolve DHCP
atribuindo um endereço IP permanente a um cliente. O uso da alocação dinâmica emprega o DHCP para atribuir um
endereço IP a um cliente por um período limitado de tempo ou pelo menos até que o cliente abandone explicitamente
o endereço IP.

• O terceiro mecanismo é chamado de alocação manual, para a qual o endereço IP de um cliente é atribuído pelo
administrador da rede e o DHCP é usado apenas para lidar com a atribuição do endereço definido manualmente
ao cliente. A alocação dinâmica é o único dos três mecanismos que permite a reutilização automática de um
endereço que não é mais necessário pelo cliente ao qual foi atribuído. Portanto, a alocação dinâmica é
particularmente útil para atribuir um endereço a um cliente que será conectado apenas temporariamente à rede
ou para compartilhar um pool limitado de endereços IP entre um grupo de clientes que não precisa de endereços
IP permanentes.

• A alocação dinâmica também pode ser uma boa opção para atribuir um endereço IP a um novo cliente
permanentemente conectado a uma rede, onde os endereços IP são escassos o suficiente para que os endereços
possam ser recuperados quando clientes antigos são aposentados. A alocação manual permite que o DHCP seja
usado para eliminar o processo propenso a erros de configuração manual de hosts com endereços IP em ambientes
onde pode ser mais desejável gerenciar meticulosamente a atribuição de endereços IP.
• Um servidor DHCP e um cliente DHCP se comunicam trocando vários tipos de mensagens. A comunicação
inicial depende da transmissão de uma mensagem DHCP Discover. É transmitido por um cliente DHCP para
localizar um servidor DHCP quando o cliente tenta se conectar a uma rede pela primeira vez. Uma mensagem
de oferta de DHCP é enviada por um servidor DHCP para responder a uma mensagem de descoberta de DHCP
e carrega informações de configuração.

• Uma mensagem de solicitação de DHCP é enviada após a inicialização de um cliente DHCP, na qual transmite uma mensagem de
solicitação de DHCP para responder à mensagem de oferta de DHCP enviada por um servidor DHCP. Uma mensagem de
solicitação também é enviada depois que um cliente DHCP é reiniciado, quando transmite uma mensagem de Solicitação DHCP
para confirmar a configuração, como o endereço IP atribuído. Uma mensagem de solicitação de DHCP também é enviada depois
que um cliente DHCP obtém um endereço IP, a fim de estender a concessão do endereço IP.

• Uma mensagem DHCP ACK é enviada por um servidor DHCP para confirmar a mensagem de Solicitação DHCP
de um cliente DHCP. Após receber uma mensagem DHCP ACK, o cliente DHCP obtém os parâmetros de
configuração, incluindo o endereço IP. Nem todos os casos, no entanto, resultarão na atribuição do endereço IP a
um cliente. A mensagem DHCP NAK é enviada por um servidor DHCP para rejeitar a mensagem de Solicitação
DHCP de um cliente DHCP quando o endereço IP atribuído ao cliente DHCP expira ou no caso em que o cliente
DHCP se move para outra rede.

• Uma mensagem de recusa de DHCP é enviada por um cliente DHCP para notificar o servidor DHCP de que o
endereço IP atribuído está em conflito com outro endereço IP. O cliente DHCP solicitará ao servidor DHCP outro
endereço IP.

• Uma mensagem de liberação do DHCP é enviada por um cliente DHCP para liberar seu endereço IP. Depois de receber uma
mensagem de liberação do DHCP, o servidor DHCP atribui esse endereço IP a outro cliente DHCP.

• Um tipo de mensagem final é a mensagem DHCP Inform e é enviada por um cliente DHCP para obter outras
informações de configuração de rede, como o endereço do gateway e o endereço do servidor DNS, depois que o
cliente DHCP obtém um endereço IP.
• Os dispositivos das séries AR2200 e S5700 podem operar como um servidor DHCP para atribuir endereços IP a usuários

online. Os pools de endereços são usados ​para definir os endereços que devem ser alocados aos sistemas finais.

Existem duas formas gerais de conjuntos de endereços que podem ser usadas para alocar endereços, o conjunto de

endereços global e o conjunto de endereços da interface.

• O uso de um pool de endereços de interface permite que apenas sistemas finais conectados ao mesmo segmento
de rede da interface recebam endereços IP desse pool. O conjunto de endereços global, uma vez configurado,
permite que todos os sistemas finais associados ao servidor obtenham endereços IP desse conjunto de endereços e
é implementado usando o comando dhcp select global para identificar o conjunto de endereços global. No caso do
conjunto de endereços da interface, o comando dhcp select interface identifica a interface e o segmento de rede ao
qual o conjunto de endereços da interface está associado.

• O pool de endereços da interface tem precedência sobre o pool de endereços global. Se um conjunto de endereços estiver

configurado em uma interface, os clientes conectados à interface obterão endereços IP do conjunto de endereços da interface,

mesmo que um conjunto de endereços global esteja configurado. No comutador S5700, apenas interfaces lógicas VLANIF

podem ser configuradas com conjuntos de endereços de interface.


• A aquisição de um endereço IP e outras informações de configuração exigem que o cliente entre em contato com
um servidor DHCP e recupere, mediante solicitação, as informações de endereçamento para se tornar parte do
domínio IP. Esse processo começa com o processo de descoberta de IP no qual o cliente DHCP procura um
servidor DHCP. O cliente DHCP transmite uma mensagem DHCP Discover e os servidores DHCP respondem à
mensagem Discover.

• A descoberta de um ou vários servidores DHCP resulta em cada servidor DHCP oferecendo um endereço IP
ao cliente DHCP. Após receber a mensagem DHCP Discover, cada servidor DHCP seleciona um endereço IP
não atribuído no pool de endereços IP e envia uma mensagem de Oferta DHCP com o endereço IP atribuído e
outras informações de configuração ao cliente.

• Se vários servidores DHCP enviarem mensagens de Oferta DHCP ao cliente, o cliente aceitará a primeira mensagem
de Oferta DHCP recebida. O cliente então transmite uma mensagem de solicitação de DHCP com o endereço IP
selecionado. Depois de receber a mensagem de solicitação DHCP, o servidor DHCP que oferece o endereço IP envia
uma mensagem DHCP ACK ao cliente DHCP. A mensagem DHCP ACK contém o endereço IP oferecido e outras
informações de configuração.

• Ao receber a mensagem DHCP ACK, o cliente DHCP transmite pacotes ARP gratuitos para detectar se algum
host está usando o endereço IP alocado pelo servidor DHCP. Se nenhuma resposta for recebida dentro de um
tempo especificado, o cliente DHCP usará esse endereço IP. Se um host estiver usando esse endereço IP, o
cliente DHCP envia o pacote DHCP Decline ao servidor DHCP, relatando que o endereço IP não pode ser
usado, após o qual o cliente DHCP se aplica a outro endereço IP.
• Depois de obter um endereço IP, o cliente DHCP entra no estado de ligação. Três cronômetros são definidos no
cliente DHCP para controlar a atualização, a religação e a expiração da concessão. Ao atribuir um endereço IP a
um cliente DHCP, um servidor DHCP especifica valores para os cronômetros.

• Se o servidor DHCP não definir os valores para os cronômetros, o cliente DHCP usará os valores padrão. Os valores

padrão definem que, quando 50% do período de concessão permanecer, o processo de renovação da liberação deve

começar, para o qual se espera que um cliente DHCP renove sua concessão de endereço IP. O cliente DHCP envia

automaticamente uma mensagem de solicitação de DHCP ao servidor DHCP que alocou um endereço IP ao cliente

DHCP.

• Se o endereço IP for válido, o servidor DHCP responderá com uma mensagem DHCP ACK para dar ao cliente DHCP

uma nova concessão e, em seguida, o cliente voltará ao estado de ligação. Se o cliente DHCP receber uma mensagem

DHCP NAK do servidor DHCP, ele entrará no estado de inicialização.


• Depois que o cliente DHCP envia uma mensagem de solicitação DHCP para estender a concessão, o cliente DHCP

permanece em um estado de atualização e aguarda uma resposta. Se o cliente DHCP não receber uma mensagem de

resposta DHCP do servidor DHCP após o término do cronômetro de religação do servidor DHCP, que por padrão ocorre

quando 12,5% do período de concessão permanece, o cliente DHCP assume que o servidor DHCP original não está

disponível e começa a transmitir uma mensagem de solicitação DHCP, para a qual qualquer servidor DHCP na rede pode

responder com uma mensagem DHCP ACK ou NAK.

• Se a mensagem recebida for uma mensagem DHCP ACK, o cliente DHCP retornará ao estado de ligação e
redefinirá o timer de renovação de concessão e o timer de ligação do servidor. Se todas as mensagens recebidas
forem DHCP NAK, o cliente DHCP retornará ao estado de inicialização. No momento, o cliente DHCP deve parar de
usar esse endereço IP imediatamente e solicitar um novo endereço IP.
• O cronômetro de concessão é o cronômetro final no processo de expiração e, se o cliente DHCP não receber uma
resposta antes que o cronômetro de expiração da concessão expire, o cliente DHCP deve parar de usar o
endereço IP atual imediatamente e retornar ao estado de inicialização. O cliente DHCP envia uma mensagem
DHCP DISCOVER para solicitar um novo endereço IP, reiniciando o ciclo DHCP.
• Há duas formas de configuração de pool suportadas no DHCP, que incluem a definição de um pool global ou de
uma interface. o interface de seleção dhcp
O comando é usado para associar uma interface ao conjunto de endereços da interface para fornecer
informações de configuração aos hosts conectados. O exemplo demonstra como a interface Gigabit Ethernet
0/0/0 foi atribuída como parte de um conjunto de endereços da interface.
• Cada servidor DHCP definirá um ou vários pools que podem ser associados globalmente ou com uma
determinada interface. Para determinar os atributos do conjunto associados a uma interface, o comando
display ip pool interface <interface> é usado. O pool DHCP conterá informações, incluindo o período de
concessão de cada endereço IP concedido, bem como o intervalo de pool suportado. Caso outros atributos
sejam suportados para propagação relacionada ao DHCP para clientes, como gateway de IP, máscara de
sub-rede e servidor DNS, eles também serão exibidos.
• O exemplo demonstra a configuração do DHCP para um pool de endereços global atribuído à rede 10.2.2.0. O
comando dhcp enable é o pré-requisito para configurar funções relacionadas ao DHCP e entra em vigor somente
após a execução do comando dhcp enable. Um servidor DHCP exige que o comando ip pool seja configurado na
visualização do sistema para criar um conjunto de endereços IP e definir parâmetros do conjunto de endereços IP,
incluindo um endereço de gateway, o período de concessão do endereço IP etc. O servidor DHCP configurado pode
atribuir endereços IP no Conjunto de endereços IP para clientes.

• Um servidor DHCP e seu cliente podem residir em diferentes segmentos de rede. Para permitir que o cliente se
comunique com o servidor DHCP, o comando gateway-list é usado para especificar um endereço de gateway de
saída para o pool de endereços global do servidor DHCP. O servidor DHCP pode atribuir um endereço IP e o
endereço de gateway de saída especificado ao cliente. O endereço é configurado em notação decimal pontilhada
para a qual um máximo de oito endereços de gateway, separados por espaços, podem ser configurados.
• As informações sobre um pool também podem ser observadas através do comando display ip pool usado. Este
comando fornecerá uma visão geral dos parâmetros gerais de configuração suportados por um pool
configurado, incluindo o gateway e a máscara de sub-rede do pool, bem como estatísticas gerais que permitem
que um administrador monitore o uso atual do pool, para determinar o número de endereços alocados, junto
com outras estatísticas de uso.
• Endereços IP usados ​para alocação de servidor, como qualquer servidor DNS local, para evitar conflitos de
endereço.

• O período de concessão padrão para endereços IP atribuídos ao DHCP é definido em um período igual a um dia.
• A implementação de um servidor FTP na rede corporativa permite um backup e recuperação eficazes de
arquivos importantes do sistema e do usuário, que podem ser usados ​para manter a operação diária de uma
rede corporativa. Exemplos típicos de como um servidor FTP pode ser aplicado incluem o backup e a
recuperação de arquivos de imagem e de configuração VRP. Isso também pode incluir a recuperação de
arquivos de log do servidor FTP para monitorar a atividade de FTP que ocorreu.
• A transferência de arquivos FTP depende de duas conexões TCP. A primeira delas é uma conexão de controle
configurada entre o cliente FTP e o servidor FTP. O servidor habilita a porta 21 comum e aguarda uma
solicitação de conexão do cliente. O cliente envia uma solicitação para configurar uma conexão com o servidor.
Uma conexão de controle sempre espera pela comunicação entre o cliente e o servidor, transmite comandos
relacionados do cliente para o servidor, bem como respostas do servidor para o cliente.

• O servidor usa a porta TCP 20 para conexões de dados. Geralmente, o servidor pode abrir ou fechar uma conexão de

dados ativamente. Para arquivos enviados do cliente para o servidor na forma de fluxos, no entanto, apenas o cliente

pode fechar uma conexão de dados. O FTP transfere cada arquivo em fluxos, usando um indicador de Fim de arquivo

(EOF) para identificar o final de um arquivo. Portanto, é necessária uma nova conexão de dados para que cada lista de

arquivos ou diretórios seja transferida. Quando um arquivo está sendo transferido entre o cliente e o servidor, isso indica

que uma conexão de dados está configurada.


• Existem dois modos de transmissão FTP suportados pela Huawei, que são o modo ASCII e o modo binário. O modo
ASCII é usado para texto, no qual os dados são convertidos da representação de caracteres do remetente para
"ASCII de 8 bits" antes da transmissão. Simplificando, caracteres ASCII são usados ​para separar retornos de carro
de feeds de linha. No modo binário, o remetente envia cada arquivo byte por byte. Este modo é frequentemente
usado para transferir arquivos de imagem e arquivos de programa para os quais os caracteres podem ser
transferidos sem a conversão de formatos.
• A implementação do serviço FTP é possível no roteador da série AR2200 e no comutador da série S5700, para os
quais o serviço pode ser ativado por meio do servidor ftp ativado comando. Depois que a função do servidor FTP é
ativada, os usuários podem gerenciar arquivos no modo FTP. o defina o diretório ftp padrão O comando define o
diretório de trabalho padrão para usuários de FTP. Onde nenhum diretório de trabalho FTP padrão estiver definido, o
usuário não poderá fazer login no roteador e, em vez disso, receberá uma mensagem notificando que o usuário não
tem autoridade para acessar nenhum diretório de trabalho.
• O acesso ao serviço FTP pode ser obtido atribuindo um login de usuário individual para gerenciar o acesso por
usuário. AAA é usado para configurar autenticação e autorização local. Depois que a visualização AAA é
inserida, o usuário local pode ser criado, definindo uma conta e uma senha de usuário. A conta é capaz de se
associar a uma variedade de serviços, especificados usando o tipo de serviço comando, para permitir que o tipo
de serviço ftp seja suportado pelo AAA.

• Se o diretório ftp do usuário variar do diretório padrão, o diretório ftpdirectory O comando pode ser usado para
especificar o diretório para o usuário. Se for necessário limitar o número de conexões ativas possíveis com uma
conta de usuário local, o
limite de acesso comando pode ser aplicado. Isso pode variar de 1 a 800 ou ilimitado quando um limite de acesso
não é aplicado.

• A configuração de um tempo limite inativo ajuda a impedir o acesso não autorizado no caso de uma janela da
sessão ficar inativa por um período de tempo por um usuário. o tempo limite inativo O comando é definido em
termos de minutos e segundos, com um tempo limite inativo de 0 0 representando que nenhum período de tempo
limite é aplicado. Finalmente, o nível de privilégio define o nível autorizado do usuário em termos dos comandos
que podem ser aplicados durante o estabelecimento da sessão ftp. Isso pode ser definido para qualquer nível de 0
a 15, com um valor maior indicando um nível mais alto do usuário.
• Após a configuração do serviço FTP no servidor FTP, é possível que os usuários estabeleçam uma conexão
entre o cliente e o servidor. O uso do comando ftp no cliente estabelecerá uma sessão através da qual a
autenticação AAA será usada para validar o usuário usando a autenticação de senha AAA. Se autenticado
corretamente, o cliente poderá configurar e enviar / recuperar arquivos de e para o servidor FTP.
• Para que a conexão de controle e a conexão de dados do serviço FTP sejam estabelecidas com sucesso, as
portas 20 e 21 do TCP devem estar ativadas.

• Quando um usuário é considerado como sem autoridade para acessar qualquer diretório ativo, é necessário
definir um diretório FTP padrão. Isso é feito usando o conjunto de comandos padrão diretório-ftp <local do
diretório>, em que o nome do diretório pode ser, por exemplo, o flash do sistema.
• O Protocolo de rede de telecomunicações (Telnet) permite que um terminal efetue login remotamente em
qualquer dispositivo capaz de operar como um servidor de telnet e fornece uma interface operacional interativa
através da qual o usuário pode executar operações, da mesma maneira que é obtido localmente via uma
conexão de console. Os hosts remotos não precisam ser conectados diretamente a um terminal de hardware,
permitindo que os usuários aproveitem os recursos onipresentes do IP para gerenciar remotamente dispositivos
de praticamente qualquer local do mundo.
• O Telnet opera em um princípio de modelo de cliente / servidor para o qual uma conexão TCP telnet é
estabelecida entre uma porta de usuário e a porta telnet do servidor, que por padrão é atribuída como porta 23.
O servidor escuta nessa porta conhecida para essas conexões. Uma conexão TCP é full duplex e identificada
pelas portas de origem e destino. O servidor pode se envolver em muitas conexões simultâneas envolvendo sua
porta conhecida e portas de usuário atribuídas a partir de um intervalo de portas não conhecido.

• Os drivers do terminal telnet interpretam as teclas digitadas pelos usuários e as traduz para um padrão universal
de caracteres, com base em um terminal virtual de rede (NVT) que opera como uma forma de intermediário
virtual entre sistemas, após o qual a transmissão via conexão TCP / IP para o servidor é executado. O servidor
decodifica os caracteres NVT e passa os caracteres decodificados para um driver de pseudo terminal que existe
para permitir que o sistema operacional receba os caracteres decodificados.
• O acesso ao serviço de telnet geralmente envolve a autenticação do usuário antes do acesso ser concedido.
Existem três modos principais definidos para autenticação telnet.
• O estabelecimento de um dispositivo que opera como servidor de telnet geralmente usa um esquema geral de
autenticação de senha, usado para todos os usuários que se conectam à interface do usuário vty. Uma vez
estabelecida a conectividade IP através da implementação de um esquema de endereçamento adequado, o senha do
modo de autenticação O conjunto de comandos é implementado para o intervalo vty, junto com a senha a ser usada.
• Após a configuração do dispositivo remoto que deve operar como um servidor telnet, o cliente pode estabelecer
uma conexão telnet através do telnet comando e receba o prompt de autenticação. A senha de autenticação
deve corresponder à senha implementada no servidor telnet como parte da configuração anterior de
autenticação de senha. O usuário poderá estabelecer uma conexão remota via telnet com o dispositivo remoto
que opera como um servidor de telnet e emular a interface de comando no cliente de telnet local.
• Se um usuário não conseguir estabelecer uma conexão telnet, deve verificar se o dispositivo que suporta o
serviço telnet está acessível. Se o dispositivo puder ser alcançado, a senha deve ser verificada. Se a senha for
considerada correta, o número de usuários que acessam o dispositivo via telnet deve ser verificado. Se for
necessário estender o número de usuários que acessam o dispositivo através do telnet, o comando
maximum-vty <0-15> da interface com o usuário deve ser usado, onde 0-15 indica o número de usuários
suportados.
Recomendações

• Site de aprendizado da Huawei

• http://learning.huawei.com/en

• Huawei e-Learning

• https://ilearningx.huawei.com/portal/#/portal/EBG/51

• Certificação Huawei

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_31 & lang = pt

• Encontre treinamento

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_trai ningsearch & lang =

pt

Mais Informações

• Huawei learning APP

版权所有 © 201 9 华为 技术 有限公司

Você também pode gostar