Você está na página 1de 363

Recomendações

• Site de aprendizagem da Huawei

• http://learning.huawei.com/en

• Huawei e-Learning

• https://ilearningx.huawei.com/portal/#/portal/EBG/51

• Certificação Huawei

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_31 & lang = en

• Encontre treinamento

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_trai ningsearch & lang =

en

Mais Informações

• APP de aprendizagem Huawei

版权所有 © 201 9 华为 技术 有限公司


Certificação Huawei

HCIA-

Roteamento e comutação

ENTRADA

Dispositivo e tecnologia de rede Huawei

Huawei Technologies Co., Ltd.


Copyright © Huawei Technologies Co., Ltd. 2019.

Todos os direitos reservados.

A Huawei possui todos os direitos autorais, exceto referências a outras partes. Nenhuma parte deste documento pode ser

reproduzida ou transmitida de qualquer forma ou por qualquer meio sem o consentimento prévio por escrito da Huawei

Technologies Co., Ltd.

Marcas registradas e permissões

e outras marcas registradas da Huawei são marcas registradas da Huawei Technologies Co., Ltd.

Todas as outras marcas e nomes comerciais mencionados neste documento são propriedade de seus respectivos

proprietários.

Aviso prévio

As informações neste manual estão sujeitas a alterações sem aviso prévio. Todos os esforços foram feitos na

preparação deste manual para garantir a precisão do conteúdo, mas todas as declarações, informações e

recomendações neste manual não constituem garantia de qualquer tipo, expressa ou implícita.

Certificação Huawei

HCIA-Routing & Switching Huawei Networking Technology

e dispositivo

Entrada

Versão 2.5
Sistema de Certificação Huawei

Baseando-se em seu forte sistema de certificação e treinamento técnico e profissional e de acordo com os clientes

de diferentes níveis de tecnologia de ICT, a certificação da Huawei está comprometida em fornecer aos clientes uma

certificação profissional autêntica e atende à necessidade de desenvolvimento de engenheiros de qualidade capazes

de apoiar Redes corporativas em face de uma indústria de TIC em constante mudança. O portfólio de certificação da

Huawei para roteamento e comutação (R&S) é composto de três níveis para apoiar e validar o crescimento e o valor

das habilidades e conhecimento do cliente em tecnologias de roteamento e comutação.

O nível de certificação Huawei Certified Network Associate (HCIA) valida as habilidades e o conhecimento dos

engenheiros de rede IP para implementar e oferecer suporte a redes corporativas de pequeno e médio porte. A

certificação HCIA fornece uma base rica de habilidades e conhecimentos para o estabelecimento de tais redes

empresariais, junto com a capacidade de implementar serviços e recursos dentro das redes empresariais existentes,

para apoiar efetivamente as verdadeiras operações da indústria.

A certificação HCIA abrange habilidades básicas para TCP / IP, roteamento, comutação e tecnologias de rede IP

relacionadas, juntamente com produtos de comunicação de dados Huawei, e habilidades para operação e

gerenciamento de plataforma de roteamento versátil (VRP).

A certificação Huawei Certified Network Professional (HCIP-R & S) é destinada a engenheiros de rede corporativa

envolvidos em projeto e manutenção, bem como a profissionais que desejam desenvolver um conhecimento

profundo de roteamento, comutação, eficiência de rede e tecnologias de otimização. HCIP-R & S consiste em três

unidades, incluindo implementação de roteamento empresarial e rede de comutação (IERS), melhoria do

desempenho de rede empresarial (IENP) e implementação de projeto de engenharia de rede empresarial (IEEP), que

inclui roteamento IPv4 avançado e princípios de tecnologia de comutação, segurança de rede, alta disponibilidade e

QoS, bem como aplicação das tecnologias cobertas nos produtos Huawei.

A certificação Huawei Certified Internet Expert (HCIE-R & S) é projetada para imbuir engenheiros com uma variedade

de tecnologias de rede IP e proficiência em manutenção, para o diagnóstico e solução de problemas de produtos

Huawei, para equipar engenheiros com competência profunda em planejamento, design e otimização de redes IP de

grande escala.
CONTEÚDO

Introdução aos meios de transmissão .............................................. .................... 1

Enquadramento Ethernet ................................................ ................................................. 14

Endereçamento IP ................................................ .................................................. ..... 34

Internet Control Message Protocol .............................................. .................... 61

Protocolo de Resolução de Endereço ............................................... ............................. 76

Protocolos da Camada de Transporte ............................................... ................................... 91

Cenário de Encaminhamento de Dados ............................................... ................................. 107

VRP Foundation ................................................ ................................................. 124

Navegando na CLI ............................................... .............................................. 139

Navegação e gerenciamento do sistema de arquivos ............................................. ........ 157

VRP Operating System Image Management ............................................. .... 176

Estabelecendo uma única rede comutada ............................................. ........... 190

Protocolo Spanning Tree ............................................... ..................................... 202


Protocolo Rapid Spanning Tree .............................................. ........................... 234

Conhecimento básico de roteamento IP ............................................. .......................... 260

Rotas estáticas de IP ............................................... .................................................. 0,274

Roteamento de estado de link com OSPF ............................................. ............................. 290

Princípios do protocolo DHCP ............................................... ................................ 319

Princípios do protocolo FTP ............................................... ...................................... 336

Princípios do protocolo Telnet ............................................... ................................. 347


• Uma rede pode ser entendida como a capacidade de duas ou mais entidades de se comunicarem em um
determinado meio. O desenvolvimento de qualquer rede depende desse mesmo princípio para estabelecer a
comunicação. Normalmente, as entidades dentro de uma rede que são responsáveis pela transmissão e
recepção da comunicação são conhecidas como estações finais, enquanto o meio pelo qual a comunicação é
habilitada é entendido como o meio. Em uma rede corporativa, o meio existe em uma variedade de formas,
desde um cabo físico até ondas de rádio.
• O cabo coaxial representa uma forma mais histórica de meio de transmissão, que hoje pode ter seu uso
limitado na rede corporativa. Como meio de transmissão, o cabo coaxial compreende geralmente dois
padrões, as formas 10Base2 e 10Base5, que são conhecidas como Thinnet ou Thinwire, e Thicknet ou
Thickwire respectivamente.

• Os padrões suportam uma capacidade de transmissão de 10 Mbps transmitidos como sinais de banda base
para as respectivas distâncias de 185 e 500 metros. Nas redes corporativas de hoje, a capacidade de
transmissão é extremamente limitada para qualquer aplicação significativa. O conector Bayonet
Neill-Concelman (BNC) é a forma comum de conector usada para cabos coaxiais 10Base2 finos, enquanto
um conector tipo N foi aplicado ao meio de transmissão 10Base5 mais espesso.
• O cabeamento Ethernet tornou-se o padrão para muitas redes corporativas, fornecendo um meio de
transmissão que suporta uma capacidade de transmissão muito maior. O meio suporta um par de quatro fios de
cobre contido em uma bainha que pode ou não ser blindada contra interferência elétrica externa. A capacidade
de transmissão é determinada principalmente com base na categoria de cabo com categoria 5 (CAT5)
suportando capacidade de transmissão Fast Ethernet de até 100Mbps, enquanto uma capacidade de
transmissão Gigabit Ethernet mais alta é suportada por padrões de categoria 5 estendida (CAT5e) e superiores.

• A transmissão pela Ethernet como meio físico também é suscetível à atenuação, fazendo com que o alcance da
transmissão seja limitado a 100 metros. O conector RJ-45 é usado para fornecer conectividade com cabeamento
de par de fios que exige uma ordem de pino específica dentro do conector RJ-45, para garantir a transmissão e
recepção corretas pelas estações finais no meio de transmissão.
• A mídia óptica usa luz como meio de transmissão de sinal, em oposição aos sinais elétricos encontrados nos
tipos de mídia Ethernet e coaxial. O meio de fibra óptica suporta uma variedade de padrões de transmissão de
10 Mbps, 100 Mbps, 1 Gbps e também 10 Gbps (10GBASE). A fibra monomodo ou multimodo define o uso de
um meio de transmissão ótico para propagação de luz, onde o modo único se refere a um único modo de
transmissão ótica sendo propagado e é comumente usado para transmissão de alta velocidade em longas
distâncias.

• O modo múltiplo suporta a propagação de vários modos de transmissão óptica que são suscetíveis à
atenuação como resultado da dispersão da luz ao longo do meio óptico e, portanto, não é capaz de suportar
a transmissão em distâncias mais longas. Este modo é freqüentemente aplicado a redes locais que
abrangem um alcance de transmissão muito menor. Há um grande número de padrões de conectores de
fibra, com algumas das formas mais comuns sendo reconhecidas como conector ST, conector LC e SC ou
conector de encaixe.
• Serial representa um padrão desenvolvido inicialmente há mais de 50 anos para oferecer suporte à transmissão
confiável entre dispositivos, período durante o qual muitas evoluções do padrão ocorreram. A conexão serial é
projetada para suportar a transmissão de dados como um fluxo serial de bits. O padrão comum implementado é
referido como (Padrão Recomendado) RS-232, mas é limitado pela distância e pela velocidade. Os padrões
originais RS-232 definem que as velocidades de comunicação suportadas não ultrapassam 20 Kbps, com base
em um comprimento de cabo de 50 pés (15 metros); no entanto, é improvável que as velocidades de
transmissão para serial sejam inferiores a 115 Kbps. O comportamento geral para serial significa que conforme
o comprimento do cabo aumenta, a taxa de bits suportada diminui, com uma aproximação de um cabo de cerca
de 150 metros, ou 10 vezes os padrões originais,

• Outros padrões seriais têm a capacidade de alcançar faixas de transmissão muito maiores, como é o caso
com os padrões RS-422 e RS-485 que abrangem distâncias de até 4900 pés (1200 metros) e são
frequentemente suportados por conectores V.35 que eram tornaram-se obsoletos durante o final dos anos
1980, mas ainda são freqüentemente encontrados e mantidos hoje em dia para suporte de tecnologias como
Frame Relay e ATM, onde implementadas. O próprio RS-232 não define os padrões do conector; no entanto,
duas formas comuns de conector que suportam o padrão RS-232 incluem os conectores DB-9 e DB-25.
Novos padrões seriais foram desenvolvidos para substituir grande parte da tecnologia serial RS-232 existente,
incluindo os padrões FireWire e barramento serial universal (USB), sendo que este último está se tornando
comum em muitos produtos e dispositivos mais recentes.
• Para permitir a comunicação por meio de links físicos, os sinais devem ser transmitidos entre as estações de
transmissão e recepção. Este sinal irá variar dependendo do meio que está sendo usado, como no caso da
transmissão óptica e sem fio. O objetivo principal do sinal é garantir que a sincronização (ou clocking) entre o
emissor e o receptor em um meio físico seja mantida, bem como a transmissão do sinal de dados em uma
forma que possa ser interpretada pelo emissor e pelo receptor.

• Uma forma de onda é comumente reconhecida como uma propriedade de codificação de linha, onde a tensão é traduzida

em uma representação binária de valores 0 e 1 que podem ser traduzidos pela estação receptora. Existem vários padrões

de codificação de linha, com os padrões Ethernet 10Base suportando um padrão de codificação de linha conhecido como

codificação Manchester. Fast Ethernet com uma faixa de frequência de 100 MHz invoca uma frequência mais alta do que

pode ser suportada ao usar a codificação Manchester.

• Uma forma alternativa de codificação de linha é, portanto, usada conhecida como NZRI, que em si contém variações
dependentes da mídia física, suportando assim MLT-3 para 100Base-TX e 100Base-FX junto com a codificação de
linha estendida conhecida como codificação 4B / 5B para lidar com possíveis problemas de clock. 100Base-T4, por
exemplo, usa outra forma conhecida como codificação de linha estendida 8B / 6T. Gigabit Ethernet suporta
codificação de linha 8B / 10B com exceção de 1000Base-T que depende de uma codificação de bloco complexa
referida como 4D-PAM5.
• Ethernet representa o que se entende como uma rede multiacesso, na qual duas ou mais estações finais
compartilham um meio de transmissão comum para o encaminhamento de dados. A rede compartilhada é,
entretanto, suscetível a colisões de transmissão onde os dados são encaminhados por estações finais
simultaneamente em um meio comum. Um segmento onde tais ocorrências são possíveis é referido como domínio
de colisão compartilhado.

• As estações finais dentro de tal domínio de colisão dependem da contenção para a transmissão de dados para um

destino pretendido. Este comportamento contencioso requer que cada monitor de estação final para dados de entrada no

segmento antes de fazer qualquer tentativa de transmissão, em um processo conhecido como Detecção de Colisão de

Acesso Múltiplo de Sensor de Portadora (CSMA / CD). No entanto, mesmo depois de tomar tais precauções, o potencial

para a ocorrência de colisões como resultado da transmissão simultânea por duas estações finais permanece altamente

provável.
• Os modos de transmissão são definidos na forma de half e full duplex, para determinar o comportamento
envolvido na transmissão de dados no meio físico.

• Half duplex refere-se à comunicação de dois ou mais dispositivos em um meio físico compartilhado no qual
existe um domínio de colisão, e com ele o CSMA / CD é necessário para detectar tais colisões. Isso começa
com a estação ouvindo a recepção de tráfego em sua própria interface, e onde estiver silenciosa por um
determinado período, continuará a transmitir seus dados. Se uma colisão ocorresse, a transmissão cessaria,
seguida pelo início de um algoritmo de recuo para evitar mais transmissões até que um temporizador de valor
aleatório expire, após o que a retransmissão pode ser tentada novamente.

• Full duplex define a comunicação bidirecional simultânea sobre pares de fios ponto a ponto dedicados,
garantindo que não haja potencial para a ocorrência de colisões e, portanto, não há necessidade de CSMA /
CD.
• A transmissão Gigabit Ethernet é compatível com cabeamento CAT 5e e superior, e também com qualquer forma de

cabeamento de fibra ótica 1000Base ou superior.

• Um domínio de colisão é um segmento de rede para o qual o mesmo meio físico é usado para comunicação
bidirecional. Os dados transmitidos simultaneamente entre hosts no mesmo meio de rede compartilhado são
suscetíveis a uma colisão de sinais antes que esses sinais atinjam o destino pretendido. Isso geralmente resulta
em sinais malformados maiores ou menores do que o tamanho aceitável para transmissão (64 bytes - 1500
bytes), também conhecidos como runts e gigantes, sendo recebidos pelo destinatário.

• CSMA / CD é um mecanismo para detectar e minimizar a possibilidade de eventos de colisão que podem ocorrer
em uma rede compartilhada. O CSMA requer que o host de transmissão primeiro escute os sinais no meio
compartilhado antes da transmissão. No caso de nenhuma transmissão ser detectada, a transmissão pode
prosseguir. Na infeliz circunstância em que os sinais são transmitidos simultaneamente e ocorre uma colisão, os
processos de detecção de colisão são aplicados para interromper a transmissão por um período de tempo gerado
localmente, para permitir que os eventos de colisão sejam eliminados e para evitar que ocorram mais colisões
entre os hosts transmissores.
• A comunicação em redes depende da aplicação de regras que governam como os dados são transmitidos e
processados de uma maneira que seja entendida pelas entidades de envio e recebimento. Como resultado,
vários padrões foram desenvolvidos ao longo do tempo, com alguns padrões sendo amplamente adotados. No
entanto, existe uma distinção clara entre os padrões que gerenciam o fluxo de dados físicos e os padrões
responsáveis pelo encaminhamento lógico e entrega de tráfego.

• Os padrões IEEE 802 representam um padrão universal para o gerenciamento da transmissão física de dados
pela rede física e compreende os padrões que incluem o padrão Ethernet 802.3 para transmissão física em
redes locais.

• Existem padrões alternativos para transmissão em redes de longa distância operando em mídia serial, incluindo
Ethernet, PPP e HDLC. O TCP / IP tem sido amplamente adotado como o conjunto de protocolos que define os
padrões da camada superior, regulando as regras (protocolos) e o comportamento envolvido no gerenciamento do
encaminhamento lógico e entrega entre as estações finais.
• O modelo de referência TCP / IP se preocupa principalmente com os princípios básicos do conjunto de protocolos,
que podem ser entendidos como a transmissão e entrega lógica de tráfego entre estações finais. Como tal, o modelo
de referência do protocolo TCP / IP fornece uma representação de quatro camadas da rede, resumindo o
comportamento de encaminhamento físico sob a camada de interface de rede, uma vez que a operação da camada
inferior não é a preocupação do conjunto de protocolos TCP / IP.

• O foco principal permanece na camada de rede (ou Internet) que lida com como o tráfego é encaminhado
logicamente entre as redes e a camada de transporte (às vezes referida como host-a-host) que gerencia a
entrega de tráfego de ponta a ponta, garantindo confiabilidade do transporte entre as estações finais de origem
e destino. A camada de aplicativo representa uma interface por meio de uma variedade de protocolos que
permitem que os serviços sejam aplicados aos processos de aplicativo do usuário final.
• Embora o modelo de referência TCP / IP seja principalmente suportado como o modelo padrão baseado no
conjunto de protocolos TCP / IP, o foco do modelo de referência TCP / IP não separa e distingue claramente a
funcionalidade ao referir-se à transmissão física da camada inferior.

• À luz disso, a interconexão de sistemas abertos, ou modelo de referência OSI, é frequentemente reconhecida
como o modelo de referência aos padrões IEEE 802 devido à clara distinção e representação do
comportamento das camadas inferiores que correspondem de perto aos padrões do modelo de referência LAN /
MAN que são definidos como parte dos padrões documentados IEEE 802-1990 para redes locais e de área
metropolitana. Além disso, o modelo que geralmente se refere ao conjunto de protocolos ISO fornece uma
análise ampliada do processamento da camada superior.
• Como os dados do aplicativo da camada superior são determinados para transmissão por uma rede a partir de um
sistema final, uma série de processos e instruções devem ser aplicados aos dados antes que a transmissão possa
ser realizada com sucesso. Este processo de anexar e pré-pendentes instruções aos dados é conhecido como
encapsulamento e para o qual cada camada do modelo de referência foi projetada para representar.

• Conforme as instruções são aplicadas aos dados, o tamanho geral dos dados aumenta. As instruções adicionais
representam sobrecarga para os dados existentes e são reconhecidas como instruções para a camada na qual
as instruções foram aplicadas. Para outras camadas, as instruções encapsuladas não são distinguidas dos
dados originais. O anexo final de instruções é executado como parte dos padrões de protocolo da camada
inferior (como o padrão Ethernet IEEE 802.3) antes de ser transportado como um sinal codificado em um meio
físico.
• Como parte do padrão Ethernet IEEE 802.3, os dados são encapsulados com instruções na forma de um cabeçalho
e um trailer antes de serem propagados pela mídia física na qual a Ethernet é suportada. Cada estágio de
encapsulamento é referido por uma unidade de dados de protocolo ou PDU, que na camada de enlace de dados é
conhecida como um quadro.

• Os quadros Ethernet contêm instruções que controlam como e se os dados podem ser transmitidos pelo meio
entre dois ou mais pontos. Os quadros Ethernet vêm em dois formatos gerais, cuja seleção depende muito dos
protocolos que foram definidos antes do encapsulamento do quadro.
• Dois formatos de quadro são reconhecidos como padrão para redes baseadas em Ethernet. O padrão de tipo de
quadro DIX versão 2 foi originalmente desenvolvido durante o início dos anos 80, onde hoje é reconhecido como
o tipo de quadro Ethernet II. Ethernet II acabou sendo aceita e integrada aos padrões IEEE 802, destacados
como parte da seção 3.2.6 da documentação dos padrões IEEE 802.3x-1997. O IEEE

O padrão Ethernet 802.3 foi desenvolvido originalmente em 1983, com diferenças importantes entre os formatos de
quadro, incluindo uma mudança no campo de tipo que é projetado para identificar o protocolo para o qual os dados
devem ser encaminhados uma vez que as instruções de quadro tenham sido processadas. No formato Ethernet IEEE
802.3, isso é representado como um campo de comprimento que depende de um conjunto estendido de instruções
referido como 802.2 LLC para identificar o protocolo de encaminhamento.

• Ethernet II e IEEE 802.3 associados a protocolos de camada superior que são diferenciados por uma faixa de
valor de tipo, onde os protocolos que suportam um valor menor ou igual a 1500 (ou 05DC em Hexadecimal)
empregarão o tipo de quadro Ethernet IEEE 802.3 na camada de enlace de dados. Os protocolos representados
por um valor de tipo maior ou igual a 1536 (ou 0600 em Hexadecimal) empregarão o padrão Ethernet II, e que
representa a maioria de todos os quadros em redes baseadas em Ethernet.

• Outros campos encontrados no quadro incluem os campos de endereço MAC de destino e origem que identificam o
remetente e o (s) destinatário (s) pretendido (s), bem como o campo de sequência de verificação de quadro que é
usado para confirmar a integridade do quadro durante a transmissão.
• O quadro Ethernet II faz referência a um valor de tipo hexadecimal que identifica o protocolo da camada
superior. Um exemplo comum disso é o protocolo da Internet (IP), que é representado por um valor hexadecimal
de 0x0800. Visto que este valor para IP representa um valor maior que 0x0600, é determinado que o tipo de
quadro Ethernet II deve ser aplicado durante o encapsulamento. Outro protocolo comum que depende do tipo de
quadro Ethernet II na camada de enlace de dados é o ARP e é representado pelo valor hexadecimal de 0x0806.
• Para o tipo de quadro IEEE 802.3, o campo de tipo está contido como parte do cabeçalho de extensão SNAP e
não é tão comumente aplicado aos protocolos nas redes de hoje, parcialmente devido à necessidade de
instruções adicionais que resultam em sobrecarga adicional por quadro. Alguns protocolos mais antigos que
existem há muitos anos, mas que ainda são aplicados no suporte de redes Ethernet, provavelmente aplicam o
tipo de quadro IEEE 802.3. Um exemplo claro disso é encontrado no caso do Spanning Tree Protocol (STP),
que é representado por um valor de 0x03 no campo de tipo do cabeçalho SNAP.
• As redes baseadas em Ethernet alcançam a comunicação entre duas estações finais em uma rede de área local
usando o endereçamento de Controle de Acesso à Mídia (MAC) que permite que os sistemas finais em uma
rede multiacesso sejam diferenciados. O endereço MAC é um endereço físico gravado na placa de interface de
rede à qual o meio físico está conectado. Esse mesmo endereço MAC é recuperado e usado como o endereço
MAC de destino do receptor pretendido pelo remetente, antes que o quadro seja transferido para a camada
física para encaminhamento pelo meio conectado.
• Cada endereço MAC é um valor de 48 bits comumente representado em um hexadecimal (base
16) formato e composto de duas partes que tentam garantir que cada endereço MAC seja globalmente único.
Isso é obtido pela definição de um identificador organizacional único que é específico do fornecedor, com base
no qual é possível rastrear a origem de um produto até seu fornecedor com base nos primeiros 24 bits do
endereço MAC. Os 24 bits restantes do endereço MAC são um valor que é atribuído de forma incremental e
exclusiva a cada produto (por exemplo, uma placa de interface de rede ou produto semelhante que suporte
interfaces de porta para as quais um MAC é necessário).
• A transmissão de quadros dentro de uma rede local é obtida usando um dos três métodos de encaminhamento,
o primeiro deles é unicast e se refere à transmissão de um único local de origem para um único destino. Cada
interface de host é representada por um endereço MAC exclusivo, contendo um identificador organizacional
único, para o qual o 8 º bit do octeto mais significativo (ou primeiro byte) no campo de endereço MAC identifica o
tipo de endereço. Este 8 º bit é sempre definido como 0 onde o endereço MAC é um endereço MAC de host e
significa que qualquer quadro que contém esse endereço MAC no campo de endereço MAC de destino se
destina a um único destino.

• Onde os hosts existem em um domínio de colisão compartilhado, todos os hosts conectados receberão a
transmissão unicast, mas o quadro será geralmente ignorado por todos os hosts onde o endereço MAC no
campo MAC de destino do quadro não corresponde ao valor MAC do host receptor em uma determinada
interface, deixando apenas o host pretendido para aceitar e processar os dados recebidos. As transmissões
Unicast são encaminhadas apenas de uma única interface física para o destino pretendido, mesmo nos casos
em que possam existir várias interfaces.
• A transmissão por broadcast representa um método de encaminhamento que permite que os quadros sejam
inundados de uma única fonte recebida por todos os destinos em uma rede local. Para permitir que o tráfego seja
transmitido a todos os hosts em uma rede local, o campo de endereço MAC de destino do quadro é preenchido
com um valor que é definido em hexadecimal como FF: FF: FF: FF: FF: FF, e que especifica que todos os
destinatários de um quadro com este endereço definido devem aceitar o recebimento desse quadro e processar
o cabeçalho e o trailer do quadro.

• Os broadcasts são usados por protocolos para facilitar uma série de processos de rede importantes, incluindo
descoberta e manutenção da operação da rede; no entanto, também geram tráfego excessivo que geralmente
causa interrupções nos sistemas finais e utilização da largura de banda que tendem a reduzir o desempenho
geral da rede.
• Uma alternativa mais eficiente para broadcast que começou a substituir o uso de broadcasts em muitas
tecnologias mais novas é o tipo de quadro multicast. O encaminhamento multicast pode ser entendido como
uma forma de transmissão seletiva que permite selecionar hosts para ouvir um endereço MAC multicast
específico, além do endereço MAC unicast que está associado ao host, e processar quaisquer quadros
contendo o endereço MAC multicast no MAC de destino campo do quadro.

• Uma vez que não há distinção relativa entre endereços MAC unicast e formatos de endereço MAC multicast, o
endereço multicast é diferenciado usando o 8 º bit do primeiro octeto. Onde este valor de bit representa um valor
de 1, ele identifica que o endereço faz parte do intervalo de endereços MAC multicast, ao contrário dos
endereços MAC unicast onde este valor é sempre 0.

• Em uma rede local, a verdadeira capacidade do comportamento multicast na camada de enlace de dados é
limitada, pois o encaminhamento permanece semelhante ao de um quadro de broadcast em que as interrupções
ainda prevalecem em toda a rede. A única diferença clara com a tecnologia de transmissão está no processamento
seletivo pelas estações finais de recepção. À medida que as redes se expandem para oferecer suporte a várias
redes locais, a verdadeira capacidade da tecnologia multicast como meio de transmissão eficiente se torna mais
aparente.
• Como o tráfego é preparado para ser encaminhado pela rede física, é necessário que os hosts em domínios de
colisão compartilhados determinem se algum tráfego está ocupando o meio de transmissão. A mídia de
transmissão, como no caso de 10Base2, fornece um meio compartilhado sobre o qual CSMA / CD deve ser
aplicado para garantir que as colisões sejam tratadas caso ocorram. Se a transmissão de um quadro for
detectada no link, o host atrasará o encaminhamento de seus próprios quadros até que a linha se torne
disponível, após o que o host começará a encaminhar os quadros da interface física para o destino pretendido.

• Onde dois hosts estão conectados em um meio capaz de suportar transmissão full duplex como no caso de
mídia como 10BaseT, não é possível que os quadros transmitidos sofram colisões, uma vez que a transmissão
e o recebimento de quadros ocorrem em fios separados e, portanto, não há requisito para que o CSMA / CD
seja implementado.
• Depois que um quadro é encaminhado da interface física do host, ele é transportado pelo meio até o destino
pretendido. No caso de uma rede compartilhada, o quadro pode ser recebido por vários hosts que avaliarão se o
quadro se destina à sua interface, analisando o endereço MAC de destino no cabeçalho do quadro. Se o
endereço MAC de destino e o endereço MAC do host não forem os mesmos, ou o endereço MAC de destino
não for um endereço MAC de broadcast ou multicast que o host está escutando, o quadro será ignorado e
descartado.

• Para o destino pretendido, o quadro será recebido e processado, inicialmente pela confirmação de que o quadro
se destina à interface física do host. O host também deve confirmar que a integridade do quadro foi mantida
durante a transmissão, tomando o valor do campo de sequência de verificação de quadro (FCS) e comparando
esse valor com um valor determinado pelo host receptor. Se os valores não corresponderem, o quadro será
considerado corrompido e posteriormente descartado.

• Para quadros válidos, o host precisará determinar o próximo estágio de processamento, analisando o campo de
tipo do cabeçalho do quadro e identificar o protocolo ao qual esse quadro se destina. Neste exemplo, o campo
de tipo de quadro contém um valor hexadecimal de 0x0800 que identifica que os dados retirados do quadro
devem ser encaminhados para o protocolo da Internet, antes do qual o cabeçalho e o trailer do quadro são
descartados.
• Os quadros da camada de enlace de dados contêm um campo Tipo que faz referência ao próximo protocolo para o qual os

dados contidos no quadro devem ser encaminhados. Exemplos comuns de protocolos de encaminhamento incluem IP

(0x0800) e ARP (0x0806).

• O endereço MAC de destino contido no cabeçalho do quadro é analisado pela estação final receptora e
comparado ao endereço MAC associado à interface na qual o quadro foi recebido. Se o endereço MAC de
destino e o endereço MAC da interface não corresponderem, o quadro será descartado.
• Antes de descartar o cabeçalho e o trailer do quadro, é necessário que o próximo conjunto de instruções a ser
processado seja determinado a partir do cabeçalho do quadro. Conforme destacado, isso é identificado pela
determinação do valor do campo no campo tipo, que neste caso representa um quadro que é destinado ao
protocolo IP após a conclusão do processo de quadro.

• A principal função do quadro é determinar se o destino físico pretendido foi alcançado, se a integridade do
quadro permaneceu intacta. O foco desta seção identificará como os dados são processados após o descarte
dos cabeçalhos dos quadros e a propagação dos dados restantes para o protocolo da Internet.
• O cabeçalho IP é usado para oferecer suporte a duas operações principais, roteamento e fragmentação. O
roteamento é o mecanismo que permite que o tráfego de uma determinada rede seja encaminhado para outras
redes, uma vez que a camada de enlace de dados representa uma única rede para a qual existem limites de rede. A
fragmentação refere-se à divisão de dados em blocos gerenciáveis que podem ser transmitidos pela rede.

• O cabeçalho IP é transportado como parte dos dados e representa um overhead de pelo menos 20 bytes que
faz referência a como o tráfego pode ser encaminhado entre as redes, onde o destino pretendido existe em uma
rede diferente da rede na qual os dados foram originalmente transmitidos. O campo de versão identifica a
versão do IP que está sendo suportada atualmente, neste caso, a versão é conhecida como versão quatro ou
IPv4. O campo DS foi originalmente referido como o tipo de campo de serviço, mas agora opera como um
campo para oferecer suporte a serviços diferenciados, usado principalmente como um mecanismo para aplicar
qualidade de serviço (QoS) para otimização de tráfego de rede, e é considerado fora do âmbito deste
treinamento.

• O endereçamento IP de origem e destino são endereços lógicos atribuídos a hosts e usados para referenciar o
remetente e o destinatário pretendido na camada de rede. O endereçamento IP permite avaliar se um destino
pretendido existe na mesma rede ou em uma rede diferente, como meio de auxiliar o processo de roteamento
entre as redes para alcançar destinos além da rede local.
• Cada endereço IPv4 representa um valor de 32 bits que geralmente é exibido em formato decimal pontuado, mas
para uma compreensão detalhada do comportamento subjacente também é representado em formato binário
(Base 2). Os endereços IP atuam como identificadores para sistemas finais, bem como outros dispositivos dentro
da rede, como um meio de permitir que tais dispositivos sejam alcançados tanto localmente quanto por fontes
localizadas remotamente, além dos limites da rede atual.

• O endereço IP consiste em dois campos de informações que são usados para especificar claramente a rede à
qual um endereço IP pertence, bem como um identificador de host dentro do intervalo da rede, que é em sua maior
parte exclusivo dentro da rede dada.
• Cada intervalo de rede contém dois endereços importantes que são excluídos do intervalo de rede atribuível a
hosts ou outros dispositivos. O primeiro desses endereços excluídos é o endereço de rede que representa uma
determinada rede em oposição a um host específico dentro da rede. O endereço de rede é identificável
referindo-se ao campo de host do endereço de rede, no qual os valores binários dentro deste intervalo são todos
definidos como 0, para o qual também deve ser observado que um valor binário totalmente 0 pode nem sempre
representar um valor 0 na notação decimal pontilhada.

• O segundo endereço excluído é o endereço de broadcast usado pela camada de rede para se referir a qualquer
transmissão que deve ser enviada a todos os destinos em uma determinada rede. O endereço de broadcast é
representado no campo host do endereço IP, onde os valores binários dentro dessa faixa são todos definidos
como 1. Os endereços de host constituem a faixa que existe entre a rede e os endereços de broadcast.
• O uso de notações binárias, decimais e hexadecimais são comumente aplicadas em redes IP para representar
esquemas de endereçamento, protocolos e parâmetros e, portanto, o conhecimento da construção fundamental
dessas formas básicas é importante para entender o comportamento e a aplicação de valores em redes IP.

• Cada sistema de numeração é representado por um valor de base diferente que destaca o número de valores
usados como parte do intervalo de notações de base. No caso do binário, apenas dois valores são usados, 0 e
1, que em combinação podem fornecer um número crescente de valores, frequentemente representados como 2
elevado à potência de x, onde x denota o número de valores binários. Hexadecimal representa uma notação de
base 16 com valores que variam de 0 a F, (0-9 e AF) onde A representa o próximo valor após 9 e F, portanto,
representa um valor equivalente a 15 em decimal, ou 1111 em binário.
• Um byte é entendido como contendo 8 bits e atua como uma notação comum dentro de redes IP, portanto, um
byte representa um valor de bit de 256, variando de 0 a 255. Esta informação é claramente representada por
meio da tradução da notação decimal para binário e aplicação da potência base para cada valor binário, para
atingir a faixa de valores de 256 bits. Uma tradução do sistema de numeração para binário pode ser vista no
exemplo para permitir a familiarização com os padrões de numeração associados ao binário. O exemplo
também demonstra claramente como os valores de endereço de broadcast em decimal, binário e hexadecimal
são representados para permitir que broadcasts sejam alcançados em endereçamento IP e MAC nas camadas
de rede e enlace de dados.
• A combinação de 32 bits dentro de um endereço IP se correlaciona a quatro octetos ou bytes para os quais
cada um pode representar uma faixa de valor de 256, dando um número teórico de 4'294'967'296 endereços IP
possíveis, mas na verdade apenas uma fração dos número total de endereços que podem ser atribuídos aos
hosts. Cada bit em um byte representa uma potência base e, como tal, cada octeto pode representar uma
classe de rede específica, com cada classe de rede sendo baseada em um único octeto ou em uma combinação
de octetos. Três octetos foram usados como parte deste exemplo para representar a rede com o quarto octeto
representando o intervalo de host que é suportado pela rede.
• O número de octetos com suporte por um endereço de rede é determinado por classes de endereço que dividem o
escopo de endereço do IPv4. As classes A, B e C são intervalos de endereços atribuíveis, cada um dos quais oferece
suporte a um número variado de redes e a vários hosts que podem ser atribuídos a uma determinada rede. A classe
A, por exemplo, consiste em 126 redes potenciais, cada uma das quais pode suportar 2 24, ou 16.777.216 endereços
de host em potencial, tendo em mente que os endereços de rede e de broadcast de um intervalo de classe não
podem ser atribuídos a hosts.

• Na verdade, uma única rede Ethernet nunca poderia suportar um número tão grande de hosts, uma vez que a
Ethernet não é dimensionada bem, em parte devido a broadcasts que geram tráfego de rede excessivo em uma
única rede local. Os intervalos de endereços de classe C permitem uma rede muito mais balanceada que se
adapta bem a redes Ethernet, fornecendo pouco mais de 2 milhões de redes potenciais, com cada rede capaz
de suportar cerca de 256 endereços, dos quais 254 são atribuíveis a hosts.

• Classe D é um intervalo reservado para multicast, para permitir que os hosts escutem um endereço específico dentro

deste intervalo, e se o endereço de destino de um pacote contiver um endereço multicast para o qual o host está

escutando, o pacote deve ser processado da mesma maneira como um pacote destinado aos endereços IP atribuídos aos

hosts. Cada classe é facilmente distinguível em binário observando o valor do bit dentro do primeiro octeto, onde um

endereço de classe A, por exemplo, sempre começará com um 0 para o bit de ordem superior, enquanto em uma Classe

B os primeiros dois bits de ordem superior são sempre definidos como 1 e 0, permitindo que todas as classes sejam

facilmente determinadas em binário.


• No IPv4, endereços específicos e intervalos de endereços foram reservados para fins especiais. Os intervalos
de endereços privados existem dentro dos intervalos de endereços das classes A, B e C para prolongar o rápido
declínio no número de endereços IP disponíveis. O número de sistemas e dispositivos finais reais que requerem
endereçamento IP no mundo hoje excede os 4.294.967.296 endereços do intervalo de endereços IPv4 de 32
bits e, portanto, uma solução para este problema crescente foi alocar intervalos de endereços privados que
poderiam ser atribuídos a redes privadas, para permitir a conservação de endereços de redes públicas que
facilitem a comunicação em infraestruturas de redes públicas, como a Internet.

• As redes privadas tornaram-se comuns em toda a rede corporativa, mas os hosts não conseguem interagir com a
rede pública, o que significa que os intervalos de endereços podem ser reutilizados em muitas redes corporativas
distintas. O tráfego destinado a redes públicas, entretanto, deve passar por uma tradução de endereços antes que
os dados possam chegar ao destino pretendido.

• Outros endereços especiais incluem um intervalo de diagnóstico denotado pelo endereço de rede 127.0.0.0,
bem como o primeiro e o último endereços dentro do intervalo de endereços IPv4, para o qual 0.0.0.0
representa qualquer rede e para o qual sua aplicação deve ser apresentada com mais detalhes ao longo com
princípios de roteamento. O endereço
255.255.255.255 representa um endereço de broadcast para a rede IPv4 (0.0.0.0), no entanto, o escopo de
qualquer broadcast em IP é restrito aos limites da rede de área local da qual o broadcast é gerado.
• Para que um host encaminhe tráfego para um destino, é necessário que um host tenha conhecimento da rede
de destino. Um host está naturalmente ciente da rede à qual pertence, mas geralmente não está ciente de
outras redes, mesmo quando essas redes podem ser consideradas parte da mesma rede física. Como tais hosts
não irão encaminhar dados destinados a um determinado destino até que o host conheça a rede e, assim, com
ela a interface pela qual o destino pode ser alcançado.

• Para que um host encaminhe tráfego para outro host, ele deve primeiro determinar se o destino faz parte da
mesma rede IP. Isso é obtido por meio da comparação da rede de destino com a rede de origem (endereço IP
do host) da qual os dados são originados. Onde os intervalos de rede coincidem, o pacote pode ser
encaminhado para as camadas inferiores onde o enquadramento Ethernet preside, para processamento. No
caso em que a rede de destino pretendida difere da rede de origem, espera-se que o host tenha conhecimento
da rede pretendida e da interface pela qual um pacote / quadro deve ser encaminhado antes que o pacote
possa ser processado pelas camadas inferiores. Sem essas informações, o host continuará a descartar o pacote
antes mesmo que ele alcance a camada de enlace de dados.
• A identificação de um segmento de rede único é governada pela implementação de um valor de máscara que é
usado para distinguir o número de bits que representam o segmento de rede, para o qual os bits restantes são
entendidos como representando o número de hosts suportados em um determinado segmento de rede . Um
administrador de rede pode dividir um endereço de rede em sub-redes para que os pacotes de broadcast sejam
transmitidos dentro dos limites de uma única sub-rede. A máscara de sub-rede consiste em uma string de
valores 1 contínuos e ininterruptos seguidos por uma string ininterrupta semelhante de 0 valores. Os valores 1
correspondem ao campo de ID da rede, enquanto os valores 0 correspondem ao campo de ID do host.
• Para cada classe de endereço de rede, uma máscara de sub-rede correspondente é aplicada para especificar o
tamanho padrão do segmento de rede. Qualquer rede considerada parte do intervalo de endereços de classe A é
fixada com uma máscara de sub-rede padrão pertencente aos 8 bits mais à esquerda que compreendem o
primeiro octeto do endereço IP, com os três octetos restantes disponíveis para atribuição de ID de host.

• De maneira semelhante, a rede de classe B reflete uma máscara de sub-rede padrão de 16 bits, permitindo um
maior número de redes dentro da faixa de classe B ao custo do número de hosts que podem ser atribuídos por
rede padrão. O padrão da rede de classe C é uma máscara de 24 bits que fornece um grande número de redes
potenciais, mas limita muito o número de hosts que podem ser atribuídos na rede padrão. As redes padrão
fornecem um limite comum para intervalos de endereço, entretanto, no caso de intervalos de endereço de
classe A e classe B, não fornecem uma escala prática para alocação de endereço para redes baseadas em
Ethernet.
• A aplicação da máscara de sub-rede a um determinado endereço IP permite a identificação da rede à qual o
host pertence. A máscara de sub-rede também identificará o endereço de broadcast para a rede, bem como o
número de hosts que podem ser suportados como parte do intervalo da rede. Essas informações fornecem a
base para um planejamento eficaz de endereços de rede. No exemplo dado, um host foi identificado com o
endereço 192.168.1.7 como parte de uma rede com uma máscara de sub-rede padrão de 24 bits (classe C)
aplicada. Ao distinguir qual parte do endereço IP constitui os segmentos de rede e host, o endereço de rede
padrão pode ser determinado para o segmento.

• Isso é entendido como o endereço onde todos os valores de bit do host são definidos como 0, neste caso gerando
um endereço de rede padrão de 192.168.1.0. Onde os valores do host são representados por uma sequência
contínua de 1 valores, o endereço de broadcast para a rede pode ser determinado. Onde o último octeto contém
uma string de 1 valores, ele representa um valor decimal de 255, para o qual um endereço de broadcast de
192.168.1.255 pode ser derivado.

• Os endereços de host possíveis são calculados com base em uma fórmula de 2 n onde n
representa o número de bits de host definidos pela máscara de sub-rede. Neste caso, n representa um valor de
8 bits de host, onde 2 8 fornece um valor resultante de 256. O número de endereços de host utilizáveis,
entretanto, requer que a rede e os endereços de broadcast sejam deduzidos desse resultado para fornecer um
número de endereços de host válidos de 254.
• O cenário de caso fornece um intervalo de endereço de classe B comum ao qual é necessário determinar a rede
à qual o host especificado pertence, junto com o endereço de broadcast e o número de hosts válidos que são
suportados pela rede fornecida. Aplicando os mesmos princípios do intervalo de endereços de classe C, é
possível determinar o endereço de rede do host, juntamente com o intervalo de hosts na rede dada.
• Uma das principais restrições da máscara de sub-rede padrão ocorre quando vários intervalos de endereços de
rede são aplicados a uma determinada empresa para gerar limites lógicos entre os hosts na rede corporativa
física. A aplicação de um esquema de endereçamento básico pode exigir que um número limitado de hosts seja
associado a uma determinada rede, para a qual várias redes são aplicadas para fornecer a segmentação lógica
da rede. Ao fazer isso, no entanto, uma grande quantidade de espaço de endereço permanece sem uso,
exibindo a ineficiência do aplicativo de máscara de sub-rede padrão.
• Como um meio de resolver as limitações das máscaras de sub-rede padrão, o conceito de máscaras de sub-rede de

comprimento variável é introduzido, o que permite que uma máscara de sub-rede padrão seja dividida em várias

sub-redes, que podem ter um comprimento fixo (também conhecido como sub-rede de comprimento fixo máscaras ou

FLSM) ou de comprimento variável comumente conhecido pelo termo VLSM. A implementação de tais máscaras de

sub-rede consiste em pegar uma rede baseada em classe padrão e dividir a rede por meio da manipulação da máscara

de sub-rede.

• No exemplo dado, uma variação simples foi feita para a rede padrão de classe C que, por padrão, é governada
por uma máscara de 24 bits. A variação vem na forma de um bit emprestado do ID do host que foi aplicado
como parte do endereço de rede. Onde o desvio de bits ocorre em comparação com a rede padrão, os bits
adicionais representam o que é conhecido como ID de sub-rede.

• Neste caso, um único bit foi considerado para representar a sub-rede para a qual duas sub-redes podem ser
derivadas, uma vez que um único valor de bit pode representar apenas dois estados de 1 ou 0. Onde o bit é
definido como 0, ele representa um valor de 0, onde é definido como 1, representa um valor de 128. Ao definir
os bits do host para 0, o endereço da sub-rede pode ser encontrado para cada sub-rede, definindo os bits do
host para 1, a transmissão o endereço de cada sub-rede é identificável. O número de hosts suportados neste
caso representa um valor de 2 7 menos o endereço de sub-rede e o endereço de broadcast para cada sub-rede,
resultando em cada sub-rede suportando um total de 126 endereços de host válidos.
• Em relação ao problema de limitações de endereço em que as redes padrão resultam em desperdício de endereço

excessivo, o conceito de máscaras de sub-rede de comprimento variável pode ser aplicado para reduzir o desperdício

de endereço e fornecer um esquema de endereçamento mais eficaz para a rede corporativa.

• Um único intervalo de endereços de classe C padrão foi definido, para o qual máscaras de sub-rede de
comprimento variável são necessárias para acomodar cada uma das redes lógicas em um único intervalo de
endereços padrão. A atribuição eficaz da máscara de sub-rede requer que o número de bits de host necessários
para acomodar o número necessário de hosts seja determinado, para o qual os bits de host restantes podem ser
aplicados como parte da ID de sub-rede, que representa a variação na ID de rede da rede padrão endereço.
• O roteamento entre domínios sem classes foi inicialmente introduzido como uma solução para lidar com problemas
que estavam ocorrendo como resultado do rápido crescimento do que agora é conhecido como Internet. As
principais preocupações eram com o esgotamento iminente do espaço de endereço de classe B que era
comumente adotado por organizações de médio porte como o intervalo de endereços mais adequado, onde a
classe C era inadequada e onde a classe A era muito vasta, e gerenciamento dos 65.534 endereços de host
poderia ser alcançado através do VLSM. Além disso, o crescimento contínuo significava que os dispositivos de
gateway, como roteadores, estavam começando a lutar para acompanhar o número crescente de redes que esses
dispositivos deveriam suportar. A solução dada envolve a transição para um sistema de endereçamento classless
no qual os limites classful foram substituídos por prefixos de endereço.

• Essa notação funciona com base no princípio de que intervalos de endereços classful, como os da classe C,
podem ser entendidos como tendo um prefixo de 24 bits que representa a sub-rede ou o limite da rede principal,
e para o qual é possível resumir vários prefixos de rede em uma única rede maior prefixo de endereço que
representa as mesmas redes, mas como um único prefixo de endereço. Isso ajudou a aliviar o número de rotas
contidas principalmente em dispositivos de roteamento de grande escala que operam em escala global e
forneceu um meio mais eficaz de gerenciamento de endereços. O resultado do CIDR teve efeitos de longo
alcance e é entendido como tendo efetivamente diminuído a taxa de esgotamento geral do espaço de
endereços IPv4.
• O encaminhamento de pacotes requer que o pacote primeiro determine um caminho de encaminhamento para
uma determinada rede e a interface pela qual um pacote deve ser encaminhado, antes de ser encapsulado
como um quadro e encaminhado a partir da interface física. No caso em que a rede pretendida é diferente da
rede de origem, o pacote deve ser encaminhado para um gateway através do qual o pacote é capaz de chegar
ao destino pretendido.

• Em todas as redes, o gateway é um dispositivo capaz de lidar com pacotes e tomar decisões sobre como os
pacotes devem ser roteados para chegar ao destino pretendido. O dispositivo em questão, entretanto, deve
estar ciente de uma rota para a rede IP de destino pretendida antes que o roteamento dos pacotes possa
ocorrer. Quando as redes são divididas por um gateway físico, o endereço IP da interface (na mesma rede ou
sub-rede) por meio do qual esse gateway pode ser alcançado é considerado o endereço do gateway.

• No caso de hosts que pertencem a redes diferentes que não são divididas por um gateway físico, é
responsabilidade do host funcionar como gateway, para o qual o host deve primeiro estar ciente da rota da rede
para a qual os pacotes estão a ser encaminhado e deve especificar o endereço IP da própria interface do host
como o endereço IP do gateway, por meio do qual a rede de destino pretendida pode ser alcançada.
• Os dados de pacotes encaminhados existem em muitos formatos e consistem em tamanhos variados, geralmente
o tamanho dos dados a serem transmitidos excede o tamanho suportado para transmissão. Onde isso ocorre, é
necessário que o bloco de dados seja dividido em blocos menores de dados antes que a transmissão possa
ocorrer. O processo de decomposição desses dados em blocos gerenciáveis é conhecido como fragmentação.

• Os campos de identificação, sinalizadores e deslocamento de fragmento são usados para gerenciar a


remontagem de fragmentos de dados, uma vez que são recebidos em seu destino final pretendido. A identificação
distingue entre blocos de dados de fluxos de tráfego que podem se originar do mesmo host ou de hosts
diferentes. O campo sinalizadores determina qual de um número de fragmentos representa o último fragmento em
que a iniciação de um cronômetro é iniciada antes da remontagem, e para notificar que a remontagem do pacote
deve começar.

• Finalmente, o deslocamento do fragmento rotula o valor do bit para cada fragmento como parte de um número
de fragmentos, o primeiro fragmento é definido com um valor de 0 e os fragmentos subsequentes especificam o
valor do primeiro bit após o fragmento anterior, por exemplo, onde o fragmento inicial contém bits de dados de 0
a 1259, o fragmento a seguir será atribuído a um valor de deslocamento de 1260.
• Conforme os pacotes são encaminhados entre as redes, é possível que eles caiam em loops onde as rotas para
redes IP não foram definidas corretamente nos dispositivos responsáveis pelo roteamento do tráfego entre
várias redes. Isso pode resultar na perda de pacotes dentro de um ciclo de encaminhamento de pacotes que
não permite que um pacote chegue ao destino pretendido. Onde isso ocorrer, ocorrerá congestionamento na
rede, à medida que mais e mais pacotes destinados ao mesmo destino ficam sujeitos ao mesmo destino, até
que a rede seja inundada com pacotes errôneos.

• A fim de evitar que tal congestionamento ocorra no caso de tais loops, um campo time to live (TTL) é definido
como parte do cabeçalho IP, que diminui em um valor de 1 cada vez que um pacote atravessa um dispositivo da
camada 3, a fim de alcançar uma determinada rede. O valor TTL inicial pode variar dependendo da fonte de
origem, no entanto, se o valor TTL diminuir para um valor de 0, o pacote será descartado e uma mensagem de
erro (ICMP) será retornada à fonte, com base no endereço IP de origem que pode ser encontrado no cabeçalho
IP do pacote errante.
• Após a verificação de que o pacote atingiu seu destino pretendido, a camada de rede deve determinar o próximo
conjunto de instruções a serem processadas. Isso é determinado pela análise do campo de protocolo do
cabeçalho IP. Como acontece com o campo de tipo do cabeçalho do quadro, um valor hexadecimal é usado para
especificar o próximo conjunto de instruções a ser processado.

• Deve ser entendido que o campo de protocolo pode se referir a protocolos em qualquer camada de rede, como
no caso do Internet Control Message Protocol (ICMP), mas também pode se referir a protocolos de camada
superior como o Transmission Control Protocol (06 / 0x06) ou User Datagram Protocol (17 / 0x11), ambos
existentes como parte da camada de transporte dentro dos modelos de referência TCP / IP e OSI.
• A máscara de sub-rede IP é um valor de 32 bits que descreve a divisão lógica entre os valores de bit de um
endereço IP. O endereço IP é dividido em duas partes, para as quais os valores de bits representam uma rede
ou sub-rede e o host em uma determinada rede ou sub-rede.

• Os pacotes IP que não conseguem alcançar a rede pretendida são suscetíveis de serem encaminhados
indefinidamente entre as redes na tentativa de descobrir seu destino final. O recurso Time To Live (TTL) é
usado para garantir que uma vida útil seja aplicada a todos os pacotes IP, de modo a garantir que, no caso de
um pacote IP não conseguir atingir seu destino, ele será encerrado. O valor TTL pode variar dependendo da
fonte original.

• Os gateways representam pontos de acesso entre redes IP para os quais o tráfego pode ser redirecionado
ou roteado no caso de a rede de destino pretendida ser diferente da rede na qual o pacote foi originado.
• O Internet Control Message Protocol é uma parte integrante do IP projetado para facilitar a transmissão de
mensagens de notificação entre gateways e hosts de origem onde são necessários pedidos de informações de
diagnóstico, suporte de roteamento e como meio de relatar erros no processamento de datagramas. O objetivo
dessas mensagens de controle é fornecer feedback sobre problemas no ambiente de comunicação, e não
garante que um datagrama seja entregue ou que uma mensagem de controle seja retornada.
• As mensagens de redirecionamento ICMP representam um cenário comum onde o ICMP é usado como um
meio de facilitar as funções de roteamento. No exemplo, um pacote é encaminhado ao gateway pelo host A com
base no endereço do gateway do host A. O gateway identifica que o pacote recebido se destina a ser
encaminhado ao endereço do próximo gateway que passa a fazer parte do mesmo rede como o host que
originou o pacote, destacando um comportamento de encaminhamento não ideal entre o host e os gateways.

• Para resolver isso, uma mensagem de redirecionamento é enviada ao host. A mensagem de redirecionamento
avisa o host para enviar seu tráfego para o destino pretendido diretamente para o gateway ao qual a rede de
destino está associada, pois isso representa um caminho mais curto para o destino. O gateway continua, no
entanto, a encaminhar os dados do pacote original para o destino pretendido.
• As mensagens de eco ICMP representam um meio de diagnóstico para determinar principalmente a conectividade
entre uma determinada origem e destino, mas também fornecem informações adicionais, como o tempo de ida e
volta para transmissão como um diagnóstico para medir o atraso. Os dados recebidos na mensagem de eco são
retornados como uma mensagem de resposta de eco separada.
• O ICMP fornece várias mensagens de relatório de erros que geralmente determinam problemas de acessibilidade e
geram relatórios de erros específicos que permitem uma compreensão mais clara da perspectiva do host sobre o
motivo da falha na transmissão para o destino pretendido.

• Exemplos típicos incluem casos em que os loops podem ter ocorrido na rede e, consequentemente, fez com que
o parâmetro time to live no cabeçalho IP expirasse, resultando na geração de uma mensagem de erro “ttl
excedido em trânsito”. Outros exemplos incluem um destino pretendido inacessível, o que pode estar
relacionado a um problema mais específico de a rede pretendida não ser conhecida pelo gateway de
recebimento ou que o host pretendido na rede de destino não foi descoberto. Em todos os eventos, uma
mensagem ICMP é gerada com um destino baseado no endereço IP de origem encontrado no cabeçalho IP,
para garantir que a mensagem notifique o host de envio.
• As mensagens ICMP são enviadas usando o cabeçalho IP básico, que funciona junto como uma parte
integrante da mensagem ICMP, como é o caso do parâmetro TTL que é usado para fornecer suporte para
determinar se um destino está acessível. O formato da mensagem ICMP depende de dois campos para a
identificação da mensagem na forma de um formato de tipo / código, onde o campo de tipo fornece uma
descrição geral do tipo de mensagem e o código e um parâmetro mais específico para o tipo de mensagem.

• Uma soma de verificação fornece um meio de validar a integridade da mensagem ICMP. 32 bits adicionais são incluídos

para fornecer parâmetros variáveis, muitas vezes não utilizados e, portanto, definidos como 0 quando a mensagem ICMP é

enviada; no entanto, em casos como um redirecionamento ICMP, o campo contém o endereço IP do gateway para o qual

um host deve redirecionar os pacotes. O campo de parâmetro no caso de solicitações de eco conterá um identificador e um

número de sequência, usado para ajudar o associado de origem a enviar solicitações de eco com respostas de eco

recebidas, especialmente no caso de várias solicitações serem encaminhadas a um determinado destino.

• Como um meio final de rastrear dados para um processo específico, a mensagem ICMP pode transportar o
cabeçalho IP e uma parte dos dados que contém informações da camada superior que permite à fonte identificar
o processo para o qual ocorreu um erro, como os casos em que o ICMP TTL expira em trânsito.
• Existe um grande número de valores de tipo ICMP para definir claramente as diferentes aplicações do protocolo
de controle ICMP. Em alguns casos, o campo de código não é necessário para fornecer uma entrada mais
específica para o campo de tipo, como é encontrado com solicitações de eco que têm um campo de tipo 8 e a
resposta correspondente, que é gerada e enviada como uma mensagem ICMP separada para o endereço de
origem do remetente e definido usando um campo de tipo de 0.

• Alternativamente, certos campos de tipo definem um tipo muito geral para o qual a variação é compreendida
através do campo de código, como no caso do parâmetro tipo 3. Um campo de tipo de 3 especifica que um
determinado destino está inacessível, enquanto o campo de código reflete a ausência específica de rede, host,
protocolo, porta (TCP / UDP), capacidade de realizar fragmentação (código 4) ou rota de origem ( código 5) em
que um pacote, para o qual um caminho de encaminhamento através da rede é estrita ou parcialmente definido,
falha em alcançar seu destino.
• A aplicação do ICMP pode ser entendida através do uso de ferramentas como o Ping. O aplicativo Ping pode
ser usado como uma ferramenta para determinar se um destino está acessível, bem como coletar outras
informações relacionadas. Os parâmetros do aplicativo Ping permitem que um usuário final especifique o
comportamento do sistema final na geração de mensagens ICMP, levando em consideração o tamanho do
datagrama ICMP, o número de mensagens ICMP geradas pelo host e também a duração em que espera-se que
uma resposta seja recebida antes que ocorra um tempo limite. Isso é importante quando ocorre um grande
atraso, pois o tempo limite pode ser relatado pelo aplicativo Ping antes que a mensagem ICMP tenha a
oportunidade de retornar à origem.
• A saída geral de uma resposta ICMP a uma solicitação ICMP gerada por Ping detalha o destino para o qual o
datagrama foi enviado e o tamanho do datagrama gerado. Além disso, o número de sequência do campo de
sequência que é transportado como parte da resposta de eco (tipo 0) é exibido junto com o valor TTL que é
obtido do cabeçalho IP, bem como o tempo de ida e volta que novamente é transportado como parte do campo
de opções de IP no cabeçalho de IP.
• Outra aplicação comum do ICMP é o traceroute, que fornece um meio de medir o caminho de encaminhamento
e o atraso salto a salto entre várias redes, por meio da associação com o valor TTL no cabeçalho IP.

• Para um determinado destino, a acessibilidade a cada salto ao longo do caminho é medida definindo
inicialmente um valor TTL no cabeçalho IP de 1, fazendo com que o valor TTL expire antes que o gateway de
recebimento seja capaz de propagar a mensagem ICMP mais, gerando assim um TTL expirou em uma
mensagem de trânsito junto com informações de carimbo de data / hora, permitindo uma avaliação hop-by-hop
do caminho percorrido pela rede pelo datagrama até o destino e uma medição do tempo de ida e volta. Isso
fornece um meio eficaz de identificar o ponto de qualquer perda de pacote ou atraso que possa ocorrer na rede
e também ajuda na descoberta de loops de roteamento.
• A implementação do traceroute nos roteadores da série Huawei ARG3 adota o uso do protocolo da camada de
transporte UDP para definir uma porta de serviço como o destino. Cada salto envia três pacotes de teste, para
os quais o valor TTL é inicialmente definido como 1 e incrementado a cada três pacotes. Além disso, uma porta
de destino UDP de 33434 é especificada para o primeiro pacote e incrementada para cada pacote de sondagem
sucessivo enviado. Um resultado salto a salto é gerado, permitindo que o caminho seja determinado, bem como
qualquer atraso geral que possa ocorrer seja descoberto.

• Isso é obtido medindo-se a duração entre o envio da mensagem ICMP e o recebimento do TTL correspondente
em trânsito. Ao receber um pacote, o destino final não consegue descobrir a porta especificada no pacote e,
portanto, retorna um pacote ICMP Tipo 3, Código 3 (Porta Inacessível) e, após três tentativas, o teste de
traceroute termina. O resultado do teste de cada sonda é exibido pela fonte, de acordo com o caminho
percorrido da fonte ao destino.

Se ocorrer uma falha quando a rota de rastreamento


comando é usado, as seguintes informações podem ser exibidas:

• ! H: O host está inacessível.

• ! N: A rede está inacessível. !: A porta está

• inacessível.

• ! P: O tipo de protocolo está incorreto.

• ! F: O pacote está fragmentado incorretamente. ! S: A rota

• de origem está incorreta.


• O aplicativo Ping usa a mensagem de solicitação de eco do tipo 8 para tentar descobrir o destino. Uma mensagem
de resposta de eco separada, definida por um campo de tipo de
0, é retornado à fonte original com base no endereço IP de origem no campo do cabeçalho IP.

• No caso de o valor TTL de um datagrama IP atingir 0 antes que o datagrama seja capaz de alcançar o destino
pretendido, o dispositivo de gateway que recebe o datagrama irá descartá-lo e retornar uma mensagem ICMP
para a fonte para notificar que o datagrama em questão não conseguiu chegar ao destino pretendido. O motivo
específico será definido pelo valor do código para refletir, por exemplo, se a falha foi devido a uma falha em
descobrir o host, uma porta no host ou se o serviço para um determinado protocolo não era compatível, etc.
• Como os dados são encapsulados, o protocolo IP na camada de rede é capaz de especificar o endereço IP de destino

ao qual os dados são finalmente destinados, bem como a interface pela qual os dados devem ser transmitidos, no

entanto, antes que a transmissão possa ocorrer, a fonte deve estar ciente do endereço Ethernet (MAC) de destino para

o qual os dados devem ser transmitidos. O protocolo de resolução de endereços (ARP) representa uma parte crítica do

conjunto de protocolos TCP / IP que permite a descoberta de endereços de encaminhamento MAC para facilitar o

alcance do IP. O próximo salto Ethernet deve ser descoberto antes que o encapsulamento de dados possa ser

concluído.
• O pacote ARP é gerado como parte do processo de descoberta do endereço de destino físico. A descoberta
inicial conterá informações parciais, uma vez que o endereço de hardware de destino ou endereço MAC deve
ser descoberto. O tipo de hardware refere-se à Ethernet e o tipo de protocolo refere-se ao IP, definindo as
tecnologias associadas à descoberta ARP. O comprimento do hardware e do protocolo identifica o comprimento
do endereço para o endereço MAC Ethernet e o endereço IP e é definido em bytes.

• O código de operação especifica um de dois estados, onde a descoberta ARP é definida como REQUEST para
o qual a recepção da transmissão ARP pelo destino identificará que uma resposta deve ser gerada. A resposta
irá gerar REPLY para a qual nenhuma operação adicional é necessária pelo host receptor deste pacote, e em
seguida o pacote ARP será descartado. O endereço de hardware de origem se refere ao endereço MAC do
remetente no segmento físico para o qual o ARP é gerado. O endereço do protocolo de origem se refere ao
endereço IP do remetente.

• O endereço de hardware de destino especifica o endereço físico (Ethernet) para o qual os dados podem ser
encaminhados pelos padrões de protocolo Ethernet, no entanto, essas informações não estão presentes em uma
solicitação ARP, em vez disso, são substituídas por um valor de 0. O endereço de protocolo de destino identifica o
IP pretendido destino para o qual a acessibilidade via Ethernet deve ser estabelecida.
• A camada de rede representa um caminho lógico entre uma origem e um destino. Alcançar um destino IP
pretendido depende, em primeiro lugar, de ser capaz de estabelecer um caminho físico para o destino
pretendido e, para fazer isso, uma associação deve ser feita entre o destino IP pretendido e a interface física do
próximo salto para a qual o tráfego pode ser encaminhado.

• Para um determinado destino, o host determinará o endereço IP para o qual os dados serão encaminhados; no
entanto, antes que o encapsulamento dos dados possa começar, o host deve determinar se um caminho físico de
encaminhamento é conhecido. Se o caminho de encaminhamento for conhecido, o encapsulamento para o destino
pode prosseguir, entretanto, muitas vezes, o destino não é conhecido e o ARP deve ser implementado antes que o
encapsulamento de dados possa ser executado.
• O cache ARP (pronunciado como [kash]) é uma tabela para associação de endereços IP de destino de host e
endereços físicos (MAC) associados. Qualquer host que esteja se comunicando com um destino local ou remoto
precisará primeiro aprender sobre o MAC de destino por meio do qual a comunicação pode ser estabelecida.

• Os endereços aprendidos preencherão a tabela de cache ARP e permanecerão ativos por um período fixo de
tempo, durante o qual o destino pretendido pode ser descoberto sem a necessidade de processos adicionais de
descoberta ARP. Após um período fixo, a tabela de cache ARP removerá entradas ARP para manter a
integridade da tabela de cache ARP, uma vez que qualquer alteração na localização física de um host de
destino pode resultar no envio de dados inadvertidamente no envio de dados para um destino no qual o host de
destino não mais reside.

• A pesquisa de cache ARP é a primeira operação que um sistema final realizará antes de determinar se é
necessário gerar uma solicitação ARP. Para destinos além dos limites da própria rede dos hosts, uma pesquisa
de cache ARP é realizada para descobrir o endereço de destino físico do gateway, por meio do qual a rede de
destino pretendida pode ser alcançada.
• Quando uma entrada de cache ARP não pode ser determinada, o processo de solicitação ARP é executado. Esse
processo envolve a geração de um pacote de solicitação ARP e o preenchimento dos campos com os endereços de
protocolo de origem e destino, bem como o endereço de hardware de origem. O endereço de hardware de destino é
desconhecido. Assim, o endereço de hardware de destino é preenchido com um valor equivalente a 0. A solicitação
ARP é encapsulada em um cabeçalho e trailer de quadro Ethernet como parte do processo de encaminhamento. O
endereço MAC de origem do cabeçalho do quadro é definido como o endereço de origem do host de envio.

• O host atualmente não tem conhecimento da localização do destino e, portanto, deve enviar a solicitação ARP
como um broadcast para todos os destinos dentro do mesmo limite da rede local. Isso significa que um
endereço de broadcast é usado como endereço MAC de destino. Depois que o quadro é preenchido, ele é
encaminhado para a camada física, onde é propagado ao longo do meio físico ao qual o host está conectado. O
pacote ARP transmitido será inundado por toda a rede para todos os destinos, incluindo qualquer gateway que
possa estar presente; no entanto, o gateway impedirá que esse broadcast seja encaminhado para qualquer rede
além da rede atual.
• Se o destino de rede pretendido existir, o quadro chegará à interface física do destino, ponto em que ocorrerá o
processamento da camada inferior. As transmissões ARP significam que todos os destinos dentro dos limites da
rede receberão o quadro inundado, mas deixarão de processar a solicitação ARP, uma vez que o endereço do
protocolo de destino não corresponde ao endereço IP desses destinos.

• Onde o endereço IP de destino corresponder ao host receptor, o pacote ARP será processado. O host receptor
processará primeiro o cabeçalho do quadro e, em seguida, a solicitação ARP. O host de destino usará as
informações do campo de endereço de hardware de origem no cabeçalho ARP para preencher sua própria
tabela de cache ARP, permitindo assim que um quadro unicast seja gerado para qualquer encaminhamento de
quadro que possa ser necessário, para a fonte de onde o ARP pedido foi recebido.
• O destino determinará que o pacote ARP recebido é uma solicitação ARP e continuará a gerar uma resposta
ARP que será retornada à origem, com base nas informações encontradas no cabeçalho ARP. Um pacote ARP
separado é gerado para a resposta, para o qual os campos de endereço de protocolo de origem e destino serão
preenchidos. No entanto, o endereço do protocolo de destino no pacote de solicitação ARP agora representa o
endereço do protocolo de origem no pacote de resposta ARP e, da mesma forma, o endereço do protocolo de
origem da solicitação ARP torna-se o endereço do protocolo de destino na resposta ARP.

• O campo de endereço de hardware de destino é preenchido com o MAC da origem, descoberto como resultado
do recebimento da solicitação ARP. Para o endereço de hardware de destino necessário da solicitação ARP, ele
é incluído como o endereço de hardware de origem da resposta ARP, e o código de operação é configurado
para responder, para informar o destino da finalidade do pacote ARP recebido, seguindo o qual o destino é
capaz de descartar o pacote ARP sem qualquer comunicação posterior. A resposta ARP é encapsulada no
cabeçalho e trailer do frame Ethernet, com o endereço MAC de destino do frame Ethernet contendo a entrada
MAC na tabela de cache ARP, permitindo que o frame seja encaminhado como um frame unicast de volta ao
host que originou o ARP solicitação.
• Ao receber a resposta ARP, o host de origem validará se o destino pretendido está correto com base no
cabeçalho do quadro, identificará que o cabeçalho do pacote é ARP do campo de tipo e descartará os
cabeçalhos do quadro. A resposta ARP será então processada, com o endereço de hardware de origem da
resposta ARP sendo usado para preencher a tabela de cache ARP do host de origem (Host A).

• Após o processamento da resposta ARP, o pacote é descartado e as informações do MAC de destino são
usadas para facilitar o processo de encapsulamento do aplicativo ou protocolo inicial que originalmente solicitou
a descoberta do destino na camada de enlace de dados.
• O protocolo ARP também é aplicado a outros casos, como quando gateways de sub-rede transparentes
devem ser implementados para facilitar a comunicação entre redes de enlace de dados, onde hosts são
considerados parte da mesma sub-rede. Isso é conhecido como Proxy ARP, pois o gateway opera como um
proxy para as duas redes de conexão de dados. Quando uma solicitação ARP é gerada para um destino que
é considerado parte da mesma sub-rede, a solicitação será eventualmente recebida pelo gateway. O gateway
é capaz de determinar se o destino pretendido existe além da rede de link de dados na qual a solicitação ARP
foi gerada.

• Como as solicitações ARP não podem ser encaminhadas para além dos limites do domínio de broadcast, o
gateway continuará a gerar sua própria solicitação ARP para determinar a acessibilidade ao destino pretendido,
usando seu próprio protocolo e endereços de hardware como os endereços de origem da solicitação ARP
gerada. Se o destino pretendido existir, uma resposta ARP será recebida pelo gateway para o qual o endereço
de hardware de origem do destino será usado para preencher a tabela de cache ARP do gateway.

• O gateway, ao confirmar a acessibilidade ao destino pretendido, irá gerar uma resposta ARP para a fonte
original (Host A) usando o endereço de hardware da interface na qual a resposta ARP foi encaminhada. O
gateway irá, como resultado, operar como um agente entre as duas redes de enlace de dados para facilitar a
comunicação da camada de enlace de dados, com ambos os hosts encaminhando o tráfego destinado a
destinos em diferentes redes de enlace de dados para o endereço físico relevante do gateway “Proxy”.
• No caso de um novo hardware ser introduzido em uma rede, é imperativo que o host determine se o endereço
de protocolo ao qual foi atribuído é ou não exclusivo dentro da rede, para evitar conflitos de endereço
duplicados. Uma solicitação ARP é gerada como um meio de determinar se o endereço do protocolo é único,
configurando o endereço de destino na solicitação ARP para ser igual ao endereço IP do próprio host.

• A solicitação ARP é transmitida em toda a rede para todos os destinos da camada de link, definindo o MAC de
destino como broadcast, para garantir que todas as estações finais e gateways recebam o quadro inundado.
Todos os destinos processarão o quadro e, caso algum destino descubra que o endereço IP de destino na
solicitação ARP corresponde ao endereço de uma estação final ou gateway de recepção, uma resposta ARP
será gerada e retornada ao host que gerou a solicitação ARP.

• Por meio desse método, o host de origem é capaz de identificar a duplicação do endereço IP na rede e sinalizar
um conflito de endereço IP para solicitar que um endereço exclusivo seja atribuído. Esse meio de gerar uma
solicitação com base no endereço IP do próprio host define os princípios básicos do ARP gratuito.
• O host deve determinar inicialmente se já está ciente de um endereço de encaminhamento da camada de link
em seu próprio cache ARP (tabela de endereços MAC). Se uma entrada for descoberta, o sistema final será
capaz de criar o quadro para encaminhamento sem a ajuda do protocolo de resolução de endereço. Se uma
entrada não puder ser encontrada, o processo ARP será iniciado e uma solicitação ARP será transmitida na
rede local.

• As mensagens ARP gratuitas são comumente geradas no ponto em que um endereço IP é configurado ou
alterado para um dispositivo conectado à rede e a qualquer momento em que um dispositivo está
fisicamente conectado à rede. Em ambos os casos, o processo ARP gratuito deve garantir que o endereço
IP usado permaneça exclusivo.
• O TCP é um protocolo ponta a ponta orientado para conexão que existe como parte da camada de transporte da
pilha de protocolos TCP / IP, a fim de oferecer suporte a aplicativos que abrangem ambientes de várias redes. O
protocolo de controle de transmissão fornece um meio de comunicação confiável entre processos entre pares de
processos em computadores host que estão conectados a redes de comunicação de computador distintas, mas
interconectadas. O TCP depende de protocolos de camada inferior para fornecer a acessibilidade entre hosts de
suporte de processo, sobre os quais um serviço de conexão confiável é estabelecido entre pares de processos.
O comportamento orientado à conexão do TCP envolve trocas anteriores entre a origem e o destino, por meio
das quais uma conexão é estabelecida antes que os segmentos da camada de transporte sejam comunicados.
• Como um meio de permitir que muitos processos em um único host usem os recursos de comunicação TCP
simultaneamente, o TCP fornece um conjunto de portas lógicas em cada host. O valor da porta junto com o
endereço da camada de rede é referido como um soquete, para o qual um par de soquetes fornece um
identificador exclusivo para cada conexão, em particular quando um soquete é usado simultaneamente em
várias conexões. Ou seja, um processo pode precisar distinguir entre vários fluxos de comunicação entre ele
mesmo e outro processo (ou processos), para os quais cada processo pode ter várias portas através das quais
se comunica com a porta ou portas de outros processos.

• Certos processos podem possuir portas e esses processos podem iniciar conexões nas portas que possuem. Essas
portas são entendidas como portas de sistema atribuídas pela IANA ou portas conhecidas e existem no intervalo de
valores de porta de 0 a 1023. Um intervalo de usuários atribuídos pela IANA ou portas registradas também existem no
intervalo de 1024 a 49151, com portas dinâmicas, também conhecidas como portas privadas ou efêmeras no intervalo
de 49152 a 65535, que não estão restritas a nenhum aplicativo específico. Os hosts geralmente receberão um valor
de porta de usuário para o qual um soquete é gerado para um determinado aplicativo.

• Exemplos comuns de aplicativos baseados em TCP para os quais números de porta conhecidos foram
atribuídos incluem FTP, HTTP, TELNET e SMTP, que geralmente funcionam junto com outros protocolos de
e-mail conhecidos, como POP3 (porta 110) e IMAP4 (porta 143) .
• O cabeçalho TCP permite que aplicativos baseados em TCP estabeleçam fluxos de dados orientados por conexão que

são entregues com confiabilidade e aos quais o controle de fluxo é aplicado. Um número de porta de origem é gerado

quando um host pretende estabelecer uma conexão com um aplicativo baseado em TCP, para o qual a porta de destino

se relacionará a uma porta bem conhecida / registrada à qual um aplicativo bem conhecido / registrado está associado.

• Os bits de código representam funções em TCP e incluem um bit urgente (URG) usado junto com o campo de
ponteiro urgente para notificações de dados urgentes direcionadas ao usuário, confirmação de octetos recebidos em
associação com o campo de confirmação (ACK), a função push para encaminhamento de dados (PSH ), operações
de redefinição de conexão (RST), sincronização de números de sequência (SYN) e indicação de que nenhum outro
dado deve ser recebido do remetente (FIN). Os bits de código adicionais foram introduzidos na forma de sinalizadores
ECN-Echo (ECE) e Congestion Window Reduced (CWR), como um meio de oferecer suporte à notificação de
congestionamento para aplicativos TCP sensíveis a atrasos.

• A soma total (NS) de notificação de congestionamento explícita (ECN) foi introduzida como uma alteração de

acompanhamento para eliminar o abuso potencial de ECN, onde os dispositivos ao longo do caminho de transmissão

podem remover marcas de congestionamento de ECN. O campo Opções contém parâmetros que podem ser incluídos

como parte do cabeçalho TCP, frequentemente usado durante o estabelecimento da conexão inicial, como no caso do

valor do tamanho máximo do segmento (MSS) que pode ser usado para definir o tamanho do segmento que o receptor

deve usar. O tamanho do cabeçalho TCP deve ser uma soma de 32 bits e, quando não for o caso, o preenchimento de

0 valores será executado.


• Quando dois processos desejam se comunicar, cada TCP deve primeiro estabelecer uma conexão (inicializar a
sincronização da comunicação em cada lado). Quando a comunicação é concluída, a conexão é encerrada ou
fechada para liberar os recursos para outros usos. Uma vez que as conexões devem ser estabelecidas entre hosts
não confiáveis e através do domínio da Internet não confiável, um mecanismo de handshake com números de
sequência baseados em relógio é usado para evitar inicialização errônea de conexões.

• Uma conexão progride por uma série de estados durante o estabelecimento. O estado LISTEN representa um
TCP aguardando uma solicitação de conexão de qualquer TCP e porta remotos. SYN-SENT ocorre após o envio
de uma solicitação de conexão e antes que uma solicitação correspondente seja recebida. O estado
SYN-RECEIVED ocorre durante a espera por uma confirmação de confirmação do pedido de conexão, após ter
recebido e enviado um pedido de conexão. O estado ESTABLISHED ocorre após o handshake, no qual uma
conexão aberta é criada e os dados recebidos podem ser entregues ao usuário.

• O mecanismo de handshake de três vias do TCP começa com um número de sequência inicial sendo gerado
pelo TCP inicial como parte do processo de sincronização (SYN). O segmento TCP inicial é então definido com
o bit de código SYN e transmitido ao TCP de destino IP pretendido para atingir um estado SYN-SENT. Como
parte do processo de confirmação, o TCP de peering gerará um número de sequência inicial próprio para
sincronizar o fluxo de TCP na outra direção. Este peering TCP transmitirá este número de sequência, bem
como um número de confirmação que é igual ao número de sequência recebido incrementado em um, junto
com os bits de código SYN e ACK definidos no cabeçalho TCP para atingir um estado SYN-RECEIVED.

• A etapa final do handshake de conexão envolve o TCP inicial reconhecendo o número de sequência do TCP de
peering, definindo o número de confirmação para ser igual ao número de sequência recebido mais um, junto
com o bit ACK no cabeçalho TCP, permitindo que um estado ESTABLISHED seja alcançado .
• Como a transmissão do TCP é enviada como um fluxo de dados, cada octeto pode ser sequenciado e, portanto,
cada octeto pode ser confirmado. O número de confirmação é usado para fazer isso respondendo ao remetente
como confirmação de recebimento de dados, proporcionando assim confiabilidade no transporte de dados. O
processo de confirmação, entretanto, é cumulativo, o que significa que uma sequência de octetos pode ser
confirmada por uma única confirmação, relatando à fonte o número de sequência que segue imediatamente o
número de sequência que foi recebido com sucesso.

• No exemplo, vários bytes (octetos) são transmitidos juntos antes que a confirmação do TCP seja fornecida.
Caso um octeto falhe ao ser transmitido ao destino, a sequência de octetos transmitidos só será reconhecida até
o ponto em que a perda ocorreu. A confirmação resultante refletirá o octeto que não foi recebido para reiniciar a
transmissão a partir do ponto no fluxo de dados em que o octeto foi perdido.

• A capacidade de acumular vários octetos antes de uma confirmação permite que o TCP opere com muito mais
eficiência, no entanto, um equilíbrio é necessário para garantir que o número de octetos enviados antes que
uma confirmação seja exigida não seja muito extrema, pois se um octeto não for recebido, todo o fluxo de
octetos do ponto da perda deve ser retransmitido.
• O campo da janela TCP fornece um meio de controle de fluxo que rege a quantidade de dados enviados pelo
remetente. Isso é obtido retornando uma "janela" com cada segmento TCP para o qual o campo ACK está
definido, indicando uma faixa de números de sequência aceitáveis além do último segmento recebido com
sucesso. A janela indica o número permitido de octetos que o remetente pode transmitir antes de receber
permissão adicional.

• No exemplo, a transmissão TCP do host A para o servidor A contém o tamanho da janela atual para o host A. O
tamanho da janela para o servidor A é determinado como parte do handshake, que com base na transmissão
pode ser assumido como 2048. Uma vez que os dados equivalem a o tamanho da janela foi recebido, uma
confirmação será retornada, relativa ao número de bytes recebidos, mais um. Em seguida, o host A continuará a
transmitir o próximo lote de dados.

• Um tamanho de janela TCP de 0 negará efetivamente o processamento de segmentos, com exceção de segmentos onde

os bits de código ACK, RST e URG são definidos para segmentos de entrada. Quando existe um tamanho de janela igual

a 0, o remetente ainda deve verificar periodicamente o status do tamanho da janela do TCP de recebimento para garantir

que qualquer mudança no tamanho da janela seja efetivamente relatada; o período de retransmissão é geralmente de dois

minutos. Quando um remetente envia segmentos periódicos, o TCP receptor ainda deve confirmar com um anúncio de

número de seqüência do tamanho da janela atual de 0.


• Como parte do processo de encerramento da conexão TCP, vários estados são definidos por meio dos quais o TCP
fará a transição. Esses estados incluem FIN-WAIT-1 que representa a espera por uma solicitação de encerramento
de conexão (FIN) do TCP remoto ou uma confirmação de uma solicitação de encerramento de conexão enviada
anteriormente. O FIN-WAIT-2 representa a espera por uma solicitação de encerramento de conexão do TCP remoto
seguinte, que geralmente fará a transição para um estado TIME-WAIT. Um estado CLOSE-WAIT indica a espera
por uma solicitação de encerramento de conexão definida localmente, normalmente quando o aplicativo de um
servidor está em processo de fechamento.

• O estado LAST-ACK representa a espera por uma confirmação da solicitação de encerramento de conexão
enviada anteriormente ao TCP remoto (que inclui uma confirmação de sua solicitação de encerramento de
conexão). Finalmente, um estado TIME-WAIT ocorre e aguarda o tempo suficiente para garantir que o TCP
remoto receba a confirmação de sua solicitação de encerramento de conexão. Este período é gerenciado pelo
temporizador Max Segment Lifetime (MSL) que define um período de espera de 2 minutos. Após um período de
espera igual a duas vezes o MSL, a conexão TCP é considerada encerrada / encerrada.
• O User Datagram Protocol, ou UDP, representa uma alternativa ao TCP e é aplicado onde o TCP atua como um
mecanismo de transporte ineficiente, principalmente no caso de tráfego altamente sensível a atrasos. Onde o
TCP é considerado um segmento, o UDP é reconhecido como uma forma de datagrama de Protocol Data Unit
(PDU), para a qual um datagrama pode ser entendido como uma entidade independente e autocontida de dados
carregando informações suficientes para serem roteados da fonte para o sistema final de destino sem depender
de trocas anteriores entre esses sistemas finais de origem e destino e a rede de transporte, conforme definido
na RFC 1594. Na verdade, isso significa que o tráfego UDP não requer o estabelecimento de uma conexão
antes do envio de dados.

• A estrutura e operação simplificadas do UDP tornam-no ideal para programas aplicativos enviarem mensagens
para outros programas, com um mínimo de mecanismo de protocolo como no caso de confirmações e
janelamento, por exemplo, como encontrado em segmentos TCP. Em equilíbrio, entretanto, o UDP não garante
a entrega da transmissão de dados, nem proteção contra a duplicação de datagramas.
• O cabeçalho UDP fornece uma abordagem minimalista para a camada de transporte, implementando apenas uma
construção básica para ajudar a identificar a porta de destino para a qual o tráfego baseado em UDP é destinado,
bem como um campo de comprimento e um valor de checksum que garante a integridade do cabeçalho UDP .
Além disso, a sobrecarga mínima atua como um meio ideal para permitir que mais dados sejam transportados por
pacote, favorecendo o tráfego em tempo real, como comunicações de voz e vídeo, onde o TCP fornece uma
sobrecarga de 20 bytes e mecanismos que influenciam os atrasos, como no caso de confirmações , no entanto, a
falta de tais campos significa que a entrega do datagrama não é garantida.
• Como a transmissão de datagramas UDP não é enviada como um fluxo de dados, a transmissão de dados é
suscetível à duplicação de datagramas. Além disso, a falta de números de sequência no UDP significa que a
entrega da transmissão de dados por vários caminhos provavelmente será recebida no destino em uma ordem
incorreta e não sequenciada.

• Quando o fluxo de dados é transportado por UDP, como no caso de aplicativos de voz e vídeo, mecanismos de
protocolo adicionais podem ser aplicados para aumentar a capacidade do UDP, como no caso do protocolo de
transporte em tempo real (RTP), que ajuda a suportar a incapacidade de UDP, fornecendo um mecanismo de
sequenciamento usando carimbos de data / hora para manter a ordem de tais fluxos de dados de áudio / vídeo,
dando suporte eficaz ao comportamento orientado para conexão parcial em um protocolo de transporte sem
conexão.
• O comportamento geral de encaminhamento UDP é altamente benéfico para atrasar o tráfego sensível, como
voz e vídeo. Deve ser entendido que, no que diz respeito a um protocolo de transporte orientado para conexão,
os dados perdidos exigiriam a replicação após um período de atraso, durante o qual uma confirmação do
remetente é esperada. Caso a confirmação não seja recebida, os dados serão retransmitidos.

• Para fluxos de dados sensíveis a atrasos, isso resultaria em transmissões de áudio e vídeo incompreensíveis
devido ao atraso e à duplicação, como resultado da retransmissão do ponto onde os reconhecimentos são
gerados. Nesses casos, a perda mínima do fluxo de dados é preferível à retransmissão e, como tal, o UDP é
selecionado como o mecanismo de transporte, em apoio ao tráfego sensível ao atraso.
• O campo de confirmação no cabeçalho TCP confirma o recebimento do segmento recebido pelo processo TCP
no destino. O número de sequência no cabeçalho TCP do datagrama IP recebido é obtido e incrementado em 1.
Este valor se torna o número de confirmação no cabeçalho TCP retornado e é usado para confirmar o
recebimento de todos os dados, antes de ser encaminhado junto com o conjunto de bits de código ACK para 1,
para o remetente original.

• O handshake de três vias envolve bits de código SYN e ACK para estabelecer e confirmar a conexão
entre os dois sistemas finais, entre os quais a transmissão de datagramas deve ocorrer.
• O encaminhamento de dados pode ser definido coletivamente como local ou remoto, para o qual o processo de
encaminhamento depende da aplicação da pilha de protocolos para atingir a transmissão ponta a ponta. Os
sistemas finais podem fazer parte da mesma rede ou estar localizados em redes diferentes; no entanto, o princípio
geral de encaminhamento para permitir a transmissão entre hosts segue um conjunto claro de protocolos que foram
introduzidos como parte da unidade. A forma como esses protocolos funcionam juntos deve ser reforçada, bem
como construir o relacionamento entre os protocolos TCP / IP da camada superior e os padrões de protocolo
Ethernet baseados na camada de enlace inferior.
• Um sistema final que pretende encaminhar dados para um determinado destino deve inicialmente determinar se é
ou não possível chegar ao destino pretendido. Para conseguir isso, o sistema final deve passar por um processo
de descoberta de caminho. Um sistema final deve ser entendido como capaz de suportar a operação em todas as
camadas, já que sua função principal é hospedar os aplicativos. Em relação a isso, ele também deve ser capaz de
suportar operações da camada inferior, como roteamento e encaminhamento da camada de link (comutação), a
fim de ser capaz de encaminhamento de dados da camada superior / de aplicação. O sistema final, portanto,
contém uma tabela que representa a acessibilidade da camada de rede à rede para a qual os dados da camada
superior são destinados.

• Os sistemas finais geralmente estarão cientes da rede na qual residem, mas podem não ter um caminho de
encaminhamento nos casos em que a descoberta de rede remota não foi alcançada. No exemplo dado, o host A
possui um caminho para a rede de destino por meio do endereço 'qualquer rede' que foi brevemente
apresentado como parte da seção Endereçamento IP. A tabela de encaminhamento identifica que o tráfego
deve ser encaminhado para o gateway como um próximo salto por meio da interface associada ao endereço
lógico de 10.1.1.1.
• Após a descoberta de uma rota viável para a rede de destino pretendida, um próximo salto físico também deve
ser descoberto para facilitar o encaminhamento de quadros. O conjunto de protocolos TCP / IP é responsável
por determinar isso antes que o encapsulamento de pacotes possa prosseguir. A etapa inicial envolve
determinar se existe um caminho físico para o próximo salto identificado como parte do processo de descoberta
do caminho.

• Isso requer que a tabela de cache ARP seja consultada para identificar se uma associação entre o próximo salto
pretendido e o caminho físico é conhecida. A partir do exemplo, pode ser visto que uma entrada para o
endereço do gateway do próximo salto está presente na tabela de cache ARP. Onde uma entrada não pode ser
encontrada, o protocolo de resolução de endereço (ARP) deve ser iniciado para realizar a descoberta e resolver
o caminho físico.
• Quando a descoberta de encaminhamento de caminho lógico e físico estiver concluída, é possível que o
encapsulamento de dados seja executado para uma transmissão bem-sucedida em redes baseadas em IP / Ethernet.
Os processos da camada superior em termos de criptografia e compactação podem ser executados seguindo o
encapsulamento da camada de transporte, identificando as portas de origem e de destino pelas quais os dados da
camada superior devem ser encaminhados.

• No caso do TCP, os campos de sequência e confirmação serão preenchidos, os bits de código definidos conforme
necessário com o bit ACK comumente aplicado. O campo da janela será preenchido com o tamanho da janela com
suporte atual, ao qual o host notificará sobre o buffer máximo de dados que pode ser compatível antes que os dados
sejam confirmados.

• Os valores que representam os campos TCP são incluídos como parte da soma de verificação, que é calculada
usando um processo de cálculo de complemento, para garantir que a integridade do segmento TCP seja mantida
uma vez que o cabeçalho TCP seja recebido e processado no destino final. No caso de operações de código
TCP básicas, os dados da camada superior nem sempre podem ser transportados no segmento, como no caso
de sincronização de conexão e confirmações de dados recebidos.
• Após o encapsulamento da camada de transporte, geralmente é necessário que as instruções sejam fornecidas,
detalhando como a transmissão em uma ou mais redes deve ser alcançada. Isso envolve listar a origem do IP, bem
como o destino final para o qual o pacote se destina. Os pacotes IP são geralmente limitados a um tamanho de
1500 bytes pela Ethernet, incluindo os cabeçalhos da camada de transporte e rede, bem como quaisquer dados da
camada superior. O tamanho do pacote inicial será determinado pela Ethernet como a unidade máxima de
transmissão ou MTU com a qual os pacotes se conformarão, portanto, a fragmentação não ocorrerá na origem.

• Caso o MTU mude ao longo do caminho de encaminhamento, somente então a fragmentação será realizada. O
campo Time to Live será preenchido com um valor definido dependendo do sistema, nos roteadores da série
ARG3, isso é definido com um valor inicial de 255. O campo do protocolo é preenchido com base no protocolo
encapsulado antes do IP. Nesse caso, o protocolo em questão é o TCP, para o qual o cabeçalho IP preencherá
o campo do protocolo com um valor de 0x06 como instrução para o próximo processamento do cabeçalho. O
endereçamento IP de origem e destino refletirá a origem de origem e o destino final.
• O encapsulamento da camada de enlace depende dos padrões IEEE 802.3 Ethernet para transmissão física de
dados da camada superior em redes Ethernet. O encapsulamento nas camadas inferiores é executado
determinando inicialmente o tipo de quadro que é usado.

• Onde o protocolo da camada superior é representado por um valor de tipo maior que 1536 (0x0600) como é o
caso do IP (0x0800), o tipo de quadro Ethernet II é adotado. O campo de tipo do cabeçalho do quadro Ethernet
II é preenchido com o valor de tipo de 0x0800 para refletir que o próximo protocolo a ser processado após o
processamento do quadro será IP. O endereço MAC de destino determina o próximo salto físico, que neste caso
representa o gateway da rede.
• Como parte da operação da camada de enlace, é imperativo garantir que o meio de transmissão esteja livre de
sinais no domínio de colisão compartilhado. O host ouvirá primeiro qualquer tráfego na rede como parte do
CSMA / CD e, se a linha permanecer limpa, se preparará para transmitir os dados. É necessário que a interface
física receptora esteja ciente do quadro de entrada, de modo a evitar a perda de valores de bits iniciais que
tornariam os quadros iniciais incompletos. Os quadros são, portanto, precedidos por um valor de 64 bits que
indica o destino da camada de link da chegada iminente do quadro.

• Os 56 bits iniciais representam um padrão alternado 1, 0 é chamado de preâmbulo e é seguido imediatamente


por um octeto entendido como o Delimitador de Início de Quadro (SFD). Os dois bits finais do SFD desviam de
um padrão alternativo para uma combinação de 1,1 bit que notifica que os bits que seguem representam os
primeiros valores de bit do endereço MAC de destino e, portanto, o início do cabeçalho do quadro.
• Conforme um quadro é recebido pelo destino da camada de enlace, ele deve passar por uma série de
verificações para determinar sua integridade e validade. Se o quadro foi transmitido por uma rede Ethernet
compartilhada, outras estações finais também podem receber uma instância do quadro transmitido, no entanto,
como o endereço MAC de destino do quadro é diferente do endereço MAC da estação final, o quadro será
descartado.

• Os quadros recebidos no destino pretendido realizarão a verificação de erros calculando o valor de


complemento de uns com base nos campos de quadro atuais e comparando-o com o valor no campo Sequência
de verificação de quadro (FCS). Se os valores não corresponderem, o quadro será descartado. Os sistemas
intermediários e finais de recebimento que recebem quadros válidos precisarão determinar se o quadro se
destina à sua interface física, comparando o endereço MAC de destino com o endereço MAC da interface (ou
dispositivo em alguns casos).

• Se houver uma correspondência, o quadro é processado e o campo de tipo é usado para determinar o próximo cabeçalho a ser

processado. Assim que o próximo cabeçalho for determinado, o cabeçalho e o trailer do quadro serão descartados.
• O pacote é recebido pela camada de rede e em particular pelo IP, ponto no qual o cabeçalho IP é processado.
Existe um valor de checksum em cada camada da pilha de protocolo para manter a integridade em todas as
camadas para todos os protocolos. O IP de destino é usado para determinar se o pacote atingiu seu destino
final. O gateway, entretanto, determina que este não é o caso, pois o IP de destino e o IP pertencente ao
gateway não correspondem.

• O gateway deve, portanto, determinar o curso de ação a ser executado em relação ao roteamento do pacote
para uma interface alternativa e encaminhá-lo para a rede para a qual se destina. O gateway deve, em primeiro
lugar, garantir que o valor TTL não tenha atingido 0 e que o tamanho do pacote não exceda o valor máximo da
unidade de transmissão para o gateway. No caso de o pacote ser maior do que o valor MTU do gateway, a
fragmentação geralmente começará.

• Uma vez que o destino de um pacote tenha sido localizado na tabela de encaminhamento do gateway, o pacote
será encapsulado em um novo cabeçalho de quadro que consiste em novos endereços MAC de origem e destino
para o segmento da camada de enlace, sobre o qual o quadro resultante deve ser encaminhado, antes sendo mais
uma vez transmitido para o próximo salto físico. Onde o próximo salto físico não for conhecido, o ARP será usado
novamente para resolver o endereço MAC.
• Os quadros recebidos no destino final determinarão inicialmente se o quadro chegou ao local pretendido. O
exemplo mostra dois servidores em uma rede Ethernet compartilhada na qual ambos recebem uma cópia do
quadro.

• O quadro é descartado pelo servidor B, uma vez que o valor MAC de destino e o endereço MAC da interface do
servidor B não coincidem. O servidor A, no entanto, recebe o quadro com sucesso e aprende que os campos
MAC são os mesmos, a integridade do quadro com base no FCS também pode ser entendida como correta. O
frame usará o campo type para identificar 0x0800 como o próximo cabeçalho, após o qual o cabeçalho e o
trailer do frame são descartados e o pacote é recebido pelo IP.
• Ao chegar ao destino final, o cabeçalho do pacote IP deve facilitar uma série de processos. O primeiro inclui a
validação da integridade do cabeçalho do pacote por meio do campo de checksum, novamente aplicando uma
comparação de valor de complemento uns com base na soma dos campos do cabeçalho IP. Onde correto, o
cabeçalho IP será usado para determinar se o IP de destino corresponde ao endereço IP da estação final atual,
o que neste caso é verdadeiro.

• Se ocorrer alguma fragmentação durante a transmissão entre a origem e o destino, o pacote deve ser
remontado neste ponto. O campo de identificação irá coletar os fragmentos pertencentes a uma única fonte de
dados juntos, o deslocamento irá determinar a ordem e o campo de sinalizadores irá especificar quando a
remontagem deve começar, uma vez que todos os fragmentos devem ser recebidos primeiro e um fragmento
com um sinalizador de 0 será reconhecido como o último fragmento a ser recebido.

• Um cronômetro irá então prosseguir durante o qual a remontagem deve ser concluída, caso a remontagem falhe
neste período de tempo, todos os fragmentos serão descartados. O campo do protocolo será usado para identificar
o próximo cabeçalho para processamento e o cabeçalho do pacote será descartado. Deve-se notar que o próximo
cabeçalho nem sempre pode ser um cabeçalho da camada de transporte, um exemplo claro de onde isso pode ser
entendido é no caso do ICMP, que também é entendido como um protocolo da camada de rede com um valor de
campo de protocolo de 0x01 .
• No caso em que um cabeçalho de pacote é descartado, o segmento ou datagrama resultante é passado para a
camada de transporte para processamento baseado em aplicativo a aplicativo. A informação do cabeçalho é recebida
neste caso pelo TCP (0x06).

• No exemplo, pode ser entendido que uma conexão TCP já foi estabelecida e o segmento representa uma
confirmação da transmissão do tráfego HTTP do servidor HTTP para o host de confirmação. O host é
representado pela porta 1027 como um meio de distinguir entre várias conexões HTTP que podem existir entre
o mesmo host de origem e o servidor de destino. Ao receber essa confirmação, o servidor HTTP continuará a
encaminhar para o host dentro dos limites do tamanho da janela do host.
• Antes do encapsulamento e encaminhamento de dados, uma fonte deve ter conhecimento do destino IP ou um

endereço de encaminhamento equivalente, como um endereço padrão para o qual os dados podem ser encaminhados.

Além disso, é necessário que o endereço de encaminhamento seja associado a um próximo salto físico para o qual os

dados possam ser encaminhados dentro da rede local.

• Qualquer quadro recebido por um gateway ou sistema final (host) ao qual não se destina, é
subsequentemente descartado, após a inspeção do endereço MAC de destino no cabeçalho do quadro.

• A entrega de dados depende do número da porta de destino nos cabeçalhos TCP e UDP para identificar
o aplicativo ao qual os dados se destinam. Após a análise desse valor pelo protocolo TCP ou UDP, os
dados são encaminhados.

• A porta de origem do cabeçalho TCP para o tráfego HTTP distingue entre as diferentes sessões de aplicativo que
estão ativas. O tráfego HTTP de retorno do servidor HTTP é capaz de identificar cada sessão individual do
navegador da web com base neste número de porta de origem. Por exemplo, a porta de origem de duas solicitações
separadas para tráfego HTTP originado da origem de IP 10.1.1.1 pode se originar das portas de origem 1028 e
1035, porém a porta de destino em ambos os casos permanece como a porta 80, o servidor HTTP.
• A rede Ethernet até agora era entendida como um conjunto de dispositivos que se comunicam por meio de
mídia compartilhada, como 10Base2, por meio do qual os hosts são capazes de se comunicar com hosts
vizinhos ou sistemas finais. Foi determinado que a rede Ethernet é uma rede contenciosa, o que significa que os
hosts devem competir pelo acesso à mídia, que se torna cada vez mais limitado à medida que mais e mais
dispositivos são conectados por meio dessa mídia compartilhada; o que causa limitações adicionais na
escalabilidade e o potencial crescente de colisões.

• Como resultado, a necessidade de detecção de colisão na forma de CSMA / CD está sempre presente em tais
redes Ethernet compartilhadas. Após a adoção de meios comutados, como o 100BaseT, a transmissão e a
recepção de dados ficaram isoladas dentro dos canais (pares de fios), permitindo que o potencial de ocorrência
de colisões fosse eliminado. Este meio como uma forma de Ethernet não compartilhada fornece apenas um meio
para comunicação ponto-a-ponto; entretanto, usado em conjunto com outros dispositivos como hubs, uma rede
Ethernet compartilhada é mais uma vez possível, junto com o potencial para colisões.

• O switch foi introduzido como parte da evolução da ponte e é capaz de quebrar o domínio de colisão
compartilhado em vários domínios de colisão. Os domínios de colisão operam como uma coleção de links ponto
a ponto para os quais a ameaça de colisões é removida e o tráfego da camada de link é isolado, para permitir
taxas de transmissão mais altas que otimizam o fluxo de tráfego na rede Ethernet.
• Um domínio de broadcast é capaz de ser composto de um único ou múltiplos domínios de colisão, e qualquer
transmissão de broadcast está contida dentro dos limites de um domínio de broadcast. A borda do limite de um
domínio de broadcast é tipicamente definida por um gateway que atua como meio, através do qual outras redes
são alcançáveis, e restringirá o encaminhamento de qualquer tráfego de broadcast além da interface na qual a
transmissão é recebida.

• Roteadores são sinônimos do termo gateway, para o qual os dois são freqüentemente usados de forma intercambiável.

Uma única rede IP pode geralmente ser entendida como um domínio de broadcast, que se refere ao escopo de um

segmento de camada de enlace. Os roteadores são geralmente responsáveis por rotear datagramas da Internet

(pacotes IP) para um determinado destino com base no conhecimento de um endereço de encaminhamento para a rede

de destino, encontrado em uma tabela de encaminhamento gerenciada internamente.


• A Versatile Routing Platform (VRP) representa a base de muitos produtos da Huawei, incluindo roteadores e
switches. Seu design passou por muitas evoluções para permitir a melhoria contínua do gerenciamento e
encaminhamento de dados. O projeto arquitetônico resultou em uma modularidade cada vez melhor, que
permite um maior desempenho geral. A configuração, gerenciamento e monitoramento de dispositivos usando
VRP são baseados em um sistema de linha de comando padronizado e hierárquico para o qual uma
familiaridade deve ser desenvolvida para suportar a navegação e operação de produtos Huawei gerenciados
usando software VRP.
• A familiaridade com as versões do sistema operacional de rede (NOS) VRP ajuda a garantir que a versão
atualmente em uso está atualizada e oferece suporte a determinados recursos que podem ser necessários em
uma rede corporativa. A tendência geral para a maioria dos dispositivos Huawei é operar usando VRP versão 5.x
atualmente, onde x pode variar dependendo do produto e versão VRP. VRP versão 8 é uma revisão recente do
VRP construída com uma arquitetura altamente refinada para a próxima geração de tecnologias e construída em
torno da necessidade de maior eficiência, mas não está presente em todos os produtos Huawei.
• Os roteadores empresariais (AR) da série AR incluem o AR150, AR200, AR1200, AR2200 e AR3200. Eles são a
próxima geração de produtos Huawei e fornecem roteamento, comutação, wireless, voz e funcionalidade de
segurança. A série AR está posicionada entre a rede corporativa e uma rede pública, funcionando como um
gateway de entrada e saída para dados transmitidos entre as duas redes. A implantação de vários serviços de
rede nos roteadores da série AR reduz os custos de operação e manutenção (O&M), bem como os custos
associados ao estabelecimento de uma rede corporativa. Os roteadores da série AR de especificações
diferentes podem ser usados como gateways com base na capacidade do usuário de uma empresa.

• O Switch Ethernet Série Sx7 fornece funcionalidade de transporte de dados e foi desenvolvido pela Huawei para
atender aos requisitos de acesso confiável e transmissão de alta qualidade de vários serviços na rede
corporativa. Esta série de switches está posicionada para acesso ou operação de camada de agregação na
rede corporativa e fornece uma grande capacidade de comutação, alta densidade de portas e recursos de
encaminhamento de pacotes econômicos.

• O gerenciamento dos roteadores da série ARG3 e do switch da série Sx7 pode ser alcançado através do
estabelecimento de uma conexão com a interface do console e, no caso do AR2200, uma conexão também é
possível através de uma interface Mini USB.
• Um cabo de console é usado para depurar ou manter um dispositivo estabelecido localmente, como um roteador
ou switch, e fará interface com a porta de console de tais dispositivos. A interface do console do switch da série
S5700 e do roteador AR2200 é uma conexão do tipo RJ-45, enquanto a interface com a qual é feita uma
conexão de host representa uma forma RS-232 de conector serial. Freqüentemente, esses conectores seriais
não estão mais presentes em dispositivos mais novos que podem ser usados para estabelecer conectividade,
como laptops e, portanto, uma conversão de RS-232 para USB é executada. Para a maioria dos dispositivos
desktop, no entanto, uma conexão de console baseada em RS-232 pode ser estabelecida para uma porta COM
no dispositivo host.
• O estabelecimento do console é configurado por meio de um dos vários programas de emulação de terminal
disponíveis. Os usuários do Windows geralmente aplicam o aplicativo HyperTerminal, conforme mostrado no exemplo,
para fazer interface com o sistema operacional VRP. Seguindo a especificação da porta COM a ser usada para
estabelecer a conexão, as configurações da porta devem ser definidas.

• O exemplo define as configurações de porta que devem ser aplicadas, para as quais o botão Restaurar padrão será
reatribuído automaticamente caso alguma alteração tenha sido feita nessas configurações. Assim que o botão OK
for pressionado, uma sessão será estabelecida com o VRP do dispositivo. Se o dispositivo estiver operando com as
configurações padrão de fábrica, o usuário será solicitado a fornecer uma senha, que será atribuída como senha de
login padrão para futuras tentativas de conexão.
• O roteador Huawei AR2200 também oferece suporte para conectividade de terminal via conexão USB. Existe
uma interface mini USB tipo B no painel frontal do roteador da série AR2200, por meio da qual os hosts são
capazes de estabelecer uma conexão baseada em USB como uma alternativa serial à do RS-232.
• Uma ligeira variação no processo de configuração requer que o mini USB primeiro estabeleça drivers para
permitir a funcionalidade USB. O driver mini USB pode ser obtido visitando
http://support.huawei.com/enterprise e no caminho Suporte> Software> Rede corporativa> Roteador>
Roteador de acesso> AR> AR2200, escolha a versão VRP relevante e opção de caminho de patch e baixe o
arquivo denominado AR & SRG_MiniUSB_driver.zip. Deve-se observar que o driver mini USB oferece suporte
apenas aos sistemas operacionais Windows XP, Windows Vista e Windows 7.

• Ao atualizar o software do dispositivo ou instalar um patch, o valor de hash MD5 pode ser verificado para
confirmar a validade do software. Para evitar que o software seja modificado ou substituído, é recomendável
realizar esta operação.

• A instalação requer que o usuário primeiro clique duas vezes no arquivo de instalação do driver no PC e clique em

Avançar. Em segundo lugar, selecione Aceito os termos do contrato de licença e clique em Avançar. Clique no botão

Alterar para alterar o diretório do driver, se necessário, e clique em Avançar. Clique em Instalar e descompacte o driver.

Quando o sistema terminar de descompactar o driver, clique em Concluir.

• Os usuários devem encontrar a pasta DISK1 no diretório do driver especificado e clicar duas vezes no arquivo

setup.exe. Após a abertura de uma segunda janela de instalação, clique em Avançar. Os usuários devem selecionar

novamente Aceito os termos do contrato de licença e clicar em Avançar para instalar o driver. Quando terminar, clique

em Concluir para finalizar a instalação do driver. Clique com o botão direito em Meu computador e escolha Gerenciar>

Gerenciador de dispositivos> Portas (COM e LPT). O sistema deve exibir o dispositivo TUSB3410 indicando o driver que

foi instalado.
• Tal como acontece com a conexão de console RS-232, a conexão serial Mini USB requer o estabelecimento de um
software de emulação de terminal para permitir a interação com a linha de comando VRP.

• Use o software de emulação de terminal para fazer login no dispositivo por meio da porta mini USB (para a qual
o Windows HyperTerminal é usado como exemplo). No PC host, inicie o aplicativo HyperTerminal, para o qual o
local pode variar para cada versão do Windows, e crie uma conexão fornecendo um nome de conexão de
terminal adequado e clique em OK. Selecione a porta de conexão (COM) relevante e, a seguir, defina os
parâmetros de comunicação para a porta serial do PC. Esses parâmetros devem corresponder aos valores
padrão definidos ao pressionar o botão Restaurar padrões.

• Após pressionar Enter, as informações do console são exibidas solicitando uma senha de login. Insira uma
senha relevante e uma senha de confirmação e o sistema salvará a senha.
• Qualquer transmissão gerada por um sistema final em uma rede local será encaminhada a todos os
destinos. Depois que um quadro é transmitido para um roteador ou dispositivo que atua como gateway para
a rede, o quadro é analisado e, se for determinado que o destino é para um host definido localmente
diferente do gateway, o quadro será descartado. Isso define os limites de qualquer domínio de broadcast.

• O VRP versão 5 é compatível com um grande número de produtos atuais da Huawei, enquanto os produtos de última geração podem

frequentemente ser compatíveis com o VRP versão 8.


• O processo de inicialização / inicialização é a fase inicial de operação para qualquer administrador ou engenheiro
que acessa produtos baseados na Huawei operando com VRP. A tela de inicialização informa os procedimentos de
operação de inicialização do sistema, bem como a versão da imagem VRP que está atualmente implementada no
dispositivo, juntamente com o local de armazenamento de onde é carregada. Seguindo o procedimento de
inicialização, uma opção para configuração automática das configurações iniciais do sistema solicita uma resposta,
para a qual o administrador pode escolher se deseja seguir as etapas de configuração ou configurar manualmente
os parâmetros básicos do sistema. O processo de configuração automática pode ser encerrado selecionando a
opção sim no prompt fornecido.
• A estrutura de comando hierárquica do VRP define uma série de visualizações de comando que governam os comandos

para os quais os usuários podem executar operações. A interface da linha de comando possui múltiplas visualizações de

comando, das quais visualizações comuns foram apresentadas no exemplo. Cada comando é registrado para ser

executado em uma ou mais visualizações de comando, e tais comandos podem ser executados somente após entrar na

visualização de comando apropriada. A visualização do comando inicial do VRP é a Visualização do Usuário, que opera

como uma visualização do comando de observação para observar o status dos parâmetros e informações estatísticas

gerais. Para a aplicação de mudanças nos parâmetros do sistema, os usuários devem entrar na Visualização do Sistema.

Vários níveis de subcomando também podem ser encontrados, na forma de visualizações de interface e protocolo, por

exemplo, onde tarefas de nível de subsistema podem ser executadas.

• As visualizações da linha de comando podem ser determinadas com base nos parênteses e nas informações
contidas nesses parênteses. A presença de divisas identifica que o usuário está atualmente na Visualização do
usuário, enquanto os colchetes mostram que ocorreu uma transição para a Visualização do sistema.
• O exemplo demonstra uma seleção de teclas de atalho definidas pelo sistema comuns que são amplamente
utilizadas para simplificar o processo de navegação na interface de linha de comando VRP. Os comandos adicionais
são os seguintes:

• CTRL + B move o cursor um caractere para trás.

• CTRL + D exclui o caractere onde o cursor está localizado. CTRL + E move o

• cursor para o final da linha atual. CTRL + F move o cursor um caractere para

• a frente.

• CTRL + H exclui o caractere do lado esquerdo do cursor.

• CTRL + N exibe o próximo comando no buffer de comando histórico. CTRL + P exibe o comando

• anterior no buffer de comando histórico. CTRL + W exclui a palavra no lado esquerdo do cursor.

• CTRL + X exclui todos os caracteres do lado esquerdo do cursor. CTRL + Y exclui

• todos os caracteres do lado direito do cursor. ESC + B move o cursor uma palavra

• para trás.

• ESC + D exclui a palavra no lado direito do cursor. ESC + F move o cursor

• uma palavra para a frente.


• Funções de tecla adicionais podem ser usadas para executar operações semelhantes, a operação de retrocesso tem o

mesmo comportamento que usar CTRL + H para excluir um caractere à esquerda do cursor. As teclas de cursor esquerda

(←) e direita (→) podem ser usadas para realizar a mesma operação que as funções das teclas de atalho CTRL + B e

CTRL + F. A tecla do cursor para baixo (↓) funciona da mesma forma que Ctrl + N, e a tecla do cursor para cima (↑) atua

como uma alternativa para a operação CTRL + P.

• Além disso, as funções de linha de comando oferecem suporte a meios de preenchimento automático, onde uma
palavra de comando é única. O exemplo demonstra como a palavra de comando interface pode ser completado
automaticamente pelo preenchimento parcial da palavra a tal ponto que o comando é único, seguido pela tecla
tab que fornecerá o preenchimento automático da palavra de comando. Onde a palavra de comando não é única,
a função tab irá percorrer as opções de preenchimento possíveis cada vez que a tecla tab for pressionada.
• Existem duas formas de recurso de ajuda que podem ser encontradas no VRP, elas vêm na forma de ajuda parcial e
funções de ajuda completas. Ao inserir uma sequência de caracteres seguida diretamente por um ponto de
interrogação (?), O VRP implementará a função de ajuda parcial para exibir todos os comandos que começam com esta
sequência de caracteres. Um exemplo disso é demonstrado. No caso do recurso de ajuda completa, um ponto de
interrogação (?) Pode ser colocado na linha de comando em qualquer visualização para exibir todos os nomes de
comandos possíveis, junto com as descrições de todos os comandos pertencentes a essa visualização. Além disso, o
recurso de ajuda completa suporta a entrada de um comando seguido por um ponto de interrogação (?) Que é
separado por um espaço. Todas as palavras-chave associadas a este comando, bem como descrições simples, são
exibidas.
• Para a maioria das indústrias, é provável que existam vários dispositivos, cada um dos quais precisa ser
gerenciado. Como tal, uma das primeiras tarefas importantes do comissionamento do dispositivo envolve definir
nomes de dispositivo para identificar exclusivamente cada dispositivo na rede. O parâmetro de nome do sistema
no roteador da série AR2200 é configurado como Huawei por padrão, para a série S5720 de switch o nome do
sistema padrão é HUAWEI. A implementação do nome do sistema entra em vigor imediatamente após a
conclusão da configuração.
• O relógio do sistema reflete a data e hora do sistema e pode ser configurado para cumprir as regras de qualquer
região. O relógio do sistema deve ser configurado corretamente para garantir a sincronização com outros
dispositivos e é calculado usando a fórmula: Tempo Universal Coordenado (UTC) + Deslocamento de fuso
horário + Deslocamento de horário de verão. O comando clock datetime é usado para definir o relógio do sistema
seguindo o
HH: MM: SS AAAA-MM-DD Fórmula. Deve-se notar, entretanto, que se o fuso horário não foi configurado ou
está definido para 0, a data e hora definidas são consideradas UTC, portanto, é recomendado que o fuso
horário do relógio seja definido primeiro antes de configurar a hora e a data do sistema.

• A configuração do fuso horário local é obtida usando o comando clock timezone e é implementada com base no nome
do fuso horário {adicionar | menos} deslocamento fórmula, onde o valor adicionado indica que o tempo de nome
do fuso horário é igual à hora UTC mais a diferença de tempo e menos indica a hora de nome do fuso horário é
igual ao horário UTC menos a diferença de horário.

• Certas regiões exigem que o horário de verão seja implementado para manter a sincronização do relógio com
qualquer alteração no fuso horário do relógio durante períodos específicos do ano. O VRP é capaz de oferecer
suporte a recursos de horário de verão para datas fixas e datas que são determinadas com base em um conjunto
de regras predeterminadas. Por exemplo, o horário de verão no Reino Unido ocorre no último domingo de março
e no último domingo de outubro, portanto, as regras podem ser aplicadas para garantir que as alterações ocorram
com base nessas datas flutuantes.
• O comando de cabeçalho fornece um meio para exibir notificações durante a conexão com um dispositivo. O
cabeçalho de login indica um cabeçalho que é exibido quando a conexão do terminal é ativada e o usuário está
sendo autenticado pelo dispositivo. O cabeçalho do shell indica um cabeçalho que é exibido quando a sessão é
configurada, depois que o usuário efetua login no dispositivo. As informações do cabeçalho podem ser aplicadas
como uma string de texto ou recuperadas de um arquivo especificado. Onde uma string de texto é usada, um
caractere inicial e final devem ser definidos como um marcador para identificar a string de informação, onde no
exemplo o caractere “define a string de informação. A string representa um valor no intervalo de 1 a 2.000
caracteres, incluindo espaços. O comando de cabeçalho baseado em informações segue o formato de cabeçalho
{login | Concha } em formação texto onde informações representam a string de informações, incluindo
marcadores de início e fim.

• No caso de um cabeçalho baseado em arquivo, o cabeçalho de formato { login | Concha } Arquivo nome do arquivo é aplicado,

onde nome do arquivo representa o diretório e o arquivo dos quais a string de informações pode ser recuperada.
• O sistema estrutura o acesso às funções de comando hierarquicamente para proteger a segurança do sistema. O

administrador do sistema define os níveis de acesso do usuário que concedem a usuários específicos acesso a níveis de

comando específicos. O nível de comando de um usuário é um valor que varia de 0 a 3, enquanto o nível de acesso do

usuário é um valor que varia de 0 a 15. O nível 0 define um nível de visita para o qual o acesso a comandos que

executam ferramentas de diagnóstico de rede, (como ping e traceroute), bem como comandos como conexões de cliente

telnet e comandos de exibição selecionados.

• O nível de Monitoramento é definido em um nível de usuário de 1 para o qual os níveis de comando 0 e 1 podem ser
aplicados, permitindo que a maioria dos comandos de exibição sejam usados, com exceção de comandos de
exibição que mostram a configuração atual e salva. Um nível de usuário 2 representa o nível de configuração para o
qual os níveis de comando até 2 podem ser definidos, permitindo o acesso a comandos que configuram serviços de
rede fornecidos diretamente aos usuários, incluindo roteamento e comandos da camada de rede. O nível final é o
nível de gerenciamento, que representa um nível de usuário de 3 a 15 e um nível de comando de até 3, permitindo o
acesso aos comandos que controlam as operações básicas do sistema e fornecem suporte para os serviços.

• Esses comandos incluem sistema de arquivos, FTP, TFTP, troca de arquivo de configuração, controle de fonte de

alimentação, controle de placa de backup, gerenciamento de usuário, configuração de nível, configuração de parâmetro

interno do sistema e comandos de depuração para diagnóstico de falhas. O exemplo fornecido demonstra como um

privilégio de comando pode ser alterado, onde, neste caso, o comando salvar encontrado na visualização do usuário requer

um nível de comando de 3 antes que o comando possa ser usado.


• Cada interface do usuário é representada por uma visualização da interface do usuário ou visualização da linha de
comando fornecida pelo sistema. A visualização da linha de comando é usada para configurar e gerenciar todas as
interfaces físicas e lógicas no modo assíncrono. Os usuários que desejam interagir com um dispositivo deverão
especificar certos parâmetros para permitir que uma interface de usuário se torne acessível. Duas formas comuns de
interface do usuário implementadas são a interface do console (CON) e a interface do terminal de teletipo virtual
(VTY).

• A porta do console é uma porta serial assíncrona fornecida pela placa de controle principal do dispositivo e usa um
número relativo de 0. VTY é uma linha de terminal lógica que permite que uma conexão seja configurada quando um
dispositivo usa serviços telnet para se conectar a um terminal para acesso local ou remoto a um dispositivo. No
máximo 15 usuários podem usar a interface de usuário lógica VTY para fazer login no dispositivo, estendendo o
intervalo de 0 a 4, obtido aplicando o interface do usuário no máximo - 15 comando. Se o número máximo definido de
usuários de login for 0, nenhum usuário terá permissão para fazer login no roteador por meio de telnet ou SSH. o exibir
interface do usuário O comando pode ser usado para exibir informações relevantes sobre a interface do usuário.
• Para as interfaces do console e do terminal VTY, certos atributos podem ser aplicados para modificar o comportamento

como um meio de estender recursos e melhorar a segurança. Um usuário permite que uma conexão permaneça inativa

por um determinado período de tempo apresenta um risco de segurança para o sistema. O sistema aguardará um

período de tempo limite antes de encerrar automaticamente a conexão. Esse período de tempo limite ocioso na interface

do usuário é definido como 10 minutos por padrão.

• Onde pode ser necessário aumentar ou reduzir o número de linhas exibidas na tela de um terminal ao usar o exibição
por exemplo, o comando screenlength pode ser aplicado. Por padrão, isso é definido como 24, mas pode ser
aumentado para um máximo de 512 linhas. Um comprimento de tela de 0, entretanto, não é recomendado, pois
nenhuma saída será exibida.

• Para cada comando usado, um registro é armazenado no buffer de comando de histórico que pode ser recuperado
por meio de navegação usando (↑) ou CTRL + P e as funções de tecla (↓) ou Ctrl + N. O número de comandos
gravados no buffer de comando do histórico pode ser aumentado usando o tamanho máximo do comando histórico comando
para definir até 256 comandos armazenados. O número de comandos armazenados por padrão é 10.
• O acesso às interfaces do terminal do usuário fornece um ponto de entrada claro para usuários não autorizados
acessarem um dispositivo e implementarem alterações de configuração. Assim, a capacidade de restringir o acesso e
limitar as ações que podem ser executadas é necessária como meio de segurança do dispositivo. A configuração do
privilégio do usuário e autenticação são dois meios pelos quais a segurança do terminal pode ser melhorada. O
privilégio de usuário permite que um nível de usuário seja definido, o que restringe a capacidade do usuário a um
intervalo de comando específico. O nível do usuário pode ser qualquer valor no intervalo de 0 -

15, onde os valores representam um nível de visita (0), nível de monitoramento (1), nível de configuração (2) e nível de

gerenciamento (3), respectivamente.

• A autenticação restringe a capacidade do usuário de acessar uma interface de terminal, solicitando que o usuário seja
autenticado usando uma senha ou uma combinação de nome de usuário e senha antes que o acesso através da
interface do usuário seja concedido. No caso de conexões VTY, todos os usuários devem ser autenticados antes que
o acesso seja possível. Para todas as interfaces de usuário, existem três modos de autenticação possíveis, na forma
de AAA, senha
autenticação e não autenticação. AAA fornece do utilizador

autenticação com alta segurança para a qual um nome de usuário e senha devem ser inseridos para login. A
autenticação por senha requer que apenas a senha de login seja necessária, portanto, uma única senha pode
ser aplicada a todos os usuários. O uso de não autenticação remove qualquer autenticação aplicada a uma
interface de usuário. Deve-se observar que a interface do console, por padrão, usa o modo de não autenticação.

• Em geral, é recomendado que, para cada usuário que recebe acesso telnet, o usuário seja identificado por meio de
nomes de usuário e senhas para permitir a distinção de usuários individuais. Cada usuário também deve receber
níveis de privilégio, com base na função e responsabilidade de cada usuário.
• Para executar serviços IP em uma interface, um endereço IP deve ser configurado para a interface. Geralmente,
uma interface precisa apenas do endereço IP primário. Em casos especiais, é possível configurar um endereço
IP secundário para a interface. Por exemplo, quando uma interface de um roteador como o AR2200 se conecta
a uma rede física, e os hosts dessa rede física pertencem a dois segmentos de rede.

• Para permitir que o AR2200 se comunique com todos os hosts na rede física, configure um endereço IP primário
e um endereço IP secundário para a interface. A interface possui apenas um endereço IP primário. Se um novo
endereço IP primário for configurado em uma interface que já possui um endereço IP primário, o novo endereço
IP substituirá o original. O endereço IP pode ser configurado para uma interface usando o comando ip address < endereço
IP> { máscara | comprimento da máscara}

Onde mascarar representa a máscara de sub-rede de 32 bits, por exemplo, 255.255.255.0, e comprimento da máscara representa o valor

alternativo do comprimento da máscara, por exemplo, 24, sendo que ambos podem ser usados indistintamente.

• A interface de loopback representa uma interface lógica que é aplicada para representar uma rede ou endereço de
host IP e é frequentemente usada como uma forma de interface de gerenciamento em suporte a uma série de
protocolos por meio dos quais a comunicação é feita para o endereço IP da interface de loopback, em oposição ao
endereço IP da interface física na qual os dados estão sendo recebidos.
• A interface do console é capaz de suportar apenas um único usuário a qualquer momento; isso é representado pela

visualização da interface do usuário do console 0.

• A interface de loopback representa uma interface lógica que não está presente em um roteador até que ele seja
criado. Uma vez criada, a interface de loopback é considerada ativa. Em dispositivos ARG3, as interfaces de
loopback podem ser desligadas.
• O sistema de arquivos gerencia arquivos e diretórios nos dispositivos de armazenamento. Ele pode criar, excluir, modificar ou

renomear um arquivo ou diretório, ou exibir o conteúdo de um arquivo.

• O sistema de arquivos tem duas funções: gerenciar dispositivos de armazenamento e gerenciar os arquivos
armazenados nesses dispositivos. Vários diretórios são definidos nos quais os arquivos são armazenados em
uma hierarquia lógica. Esses arquivos e diretórios podem ser gerenciados por meio de uma série de funções
que permitem a alteração ou exibição de diretórios, exibição de arquivos dentro de tais diretórios ou
subdiretórios e a criação ou exclusão de diretórios.

• Exemplos comuns de comandos do sistema de arquivos para navegação geral incluem o CD


comando usado para mudar o diretório atual, pwd para ver o diretório atual e dir para exibir o conteúdo de um
diretório conforme mostrado no exemplo. O acesso ao sistema de arquivos é obtido na Visualização do usuário.
• Fazer alterações nos diretórios do sistema de arquivos existentes geralmente está relacionado à capacidade de
criar e excluir diretórios existentes no sistema de arquivos. Dois comandos comuns usados neste caso. o diretório
mkdir comando é usado para criar uma pasta em um diretório especificado em um dispositivo de
armazenamento designado, onde diretório refere-se ao nome dado ao diretório e para o qual o nome do diretório
pode ser uma string de 1 a 64 caracteres. Para excluir uma pasta dentro do sistema de arquivos, o diretório rmdir
comando é usado, com diretório novamente referindo-se ao nome do diretório. Deve-se notar que um diretório
só pode ser excluído se não houver arquivos nele contidos.
• Fazer alterações nos arquivos em um sistema de arquivos inclui copiar, mover, renomear, compactar, excluir,
recuperar, excluir arquivos da lixeira, executar arquivos em lote e configurar modos de prompt. A criação de uma
duplicata de um arquivo existente pode ser feita usando o comando copy source-filename destination-filename,
onde se o destino-nome do arquivo for o mesmo de um arquivo existente (source-filename), o sistema exibirá
uma mensagem indicando que o arquivo existente será substituído. Um nome de arquivo de destino não pode
ser igual ao de um arquivo de inicialização, caso contrário, o sistema exibe uma mensagem indicando que a
operação é inválida e que o arquivo é um arquivo de inicialização.

• O comando mover nome de arquivo de origem nome de arquivo de destino pode ser usado para mover arquivos para
outro diretório. Após a execução bem-sucedida do comando de movimentação, o arquivo original é recortado e
movido para o arquivo de destino definido. Deve-se observar, entretanto, que o comando mover só pode mover
arquivos no mesmo dispositivo de armazenamento.
• Para a remoção de arquivos dentro de um sistema de arquivos, a função de exclusão pode ser aplicada usando o

comando delete [/ unreserved] [/ force] {nome do arquivo | nome do dispositivo }.

Geralmente os arquivos que são excluídos são direcionados para uma lixeira de onde os arquivos podem ser

recuperados usando o undelete {nome do arquivo | nome do dispositivo } comando, no entanto, se o comando /

unreserved for usado, o arquivo será excluído permanentemente. O sistema geralmente exibirá uma mensagem

solicitando a confirmação da exclusão do arquivo, no entanto, se o / força parâmetro é incluído, nenhum prompt será

fornecido. o nome do arquivo

parâmetro refere-se ao arquivo que deve ser excluído, enquanto o nome do dispositivo
parâmetro define o local de armazenamento.

• Quando um arquivo é direcionado para a lixeira, ele não é excluído permanentemente e pode ser facilmente
recuperado. A fim de garantir que esses arquivos na lixeira sejam excluídos permanentemente, o redefinir a lixeira
[nome do arquivo] comando pode ser aplicado, onde o
nome do arquivo parâmetro pode ser usado para definir um arquivo específico para exclusão permanente.
• Quando ligado, o dispositivo recupera os arquivos de configuração de um caminho de salvamento padrão para inicializar a

si mesmo, que é então armazenado na RAM do dispositivo. Se os arquivos de configuração não existirem no caminho de

salvamento padrão, o roteador usará os parâmetros de inicialização padrão.

• O arquivo de configuração atual indica as configurações em vigor no dispositivo quando ele está realmente em
execução. Quando a configuração é salva, a configuração atual é armazenada em um arquivo de configuração
salva no local de armazenamento do dispositivo. Se o dispositivo carregou o arquivo de configuração atual com
base nos parâmetros de inicialização padrão, um arquivo de configuração salva não existirá no local de
armazenamento do caminho de salvamento padrão, mas será gerado assim que a configuração atual for salva.
• Usando o exibir configuração atual comando, os parâmetros do dispositivo que entram em vigor podem ser
consultados. Se os valores padrão de certos parâmetros estiverem sendo usados, esses parâmetros não serão
exibidos. O comando current-configuration inclui vários parâmetros que permitem a filtragem da lista de
comandos durante o uso da função de exibição. o exibir configuração atual | começar {regularexpression} é um
exemplo de como a configuração atual pode ser usada para exibir parâmetros ativos que começam com uma
palavra-chave ou expressão específica. Uma alternativa a este comando é o exibir configuração atual | incluir
{expressão-regular}

que permite parâmetros que incluem uma palavra-chave ou expressão específica no arquivo de configuração
atual.

• o exibir configuração salva [última | Tempo ] mostra a saída do arquivo de configuração armazenado usado na
inicialização para gerar a configuração atual. Onde o
último O parâmetro é usado, ele exibe o arquivo de configuração usado na inicialização atual. O arquivo de
configuração é exibido apenas quando está configurado para a inicialização atual. o Tempo O parâmetro exibirá a
hora em que a configuração foi salva pela última vez.
• Usando o salvar [arquivo de configuração] O comando salvará as informações de configuração atuais em um caminho de

armazenamento padrão. o arquivo de configuração parâmetro permite que as informações de configuração atuais sejam salvas

em um arquivo especificado. Executando o Salve •

comando com o arquivo de configuração parâmetro não afeta o arquivo de configuração de inicialização atual do
sistema. Quando arquivo de configuração é o mesmo que o arquivo de configuração armazenado no caminho de
armazenamento padrão do sistema, a função deste comando é a mesma do Salve • comando.

• O exemplo demonstra o uso do Salve • comando para salvar a configuração atual, que por padrão será
armazenada no arquivo vrpcfg.zip padrão no local de armazenamento padrão do dispositivo.
• O arquivo de configuração de salvamento usado atualmente pode ser descoberto através do uso do tela inicial comando.

Além do tela inicial comando pode ser usado para consultar o nome do arquivo de software do sistema atual, nome do

próximo arquivo de software do sistema, nome do arquivo de software do sistema de backup, nomes dos quatro arquivos de

software do sistema usados atualmente (se usados) e nomes dos próximos quatro arquivos de software do sistema. Os

quatro arquivos de software do sistema são o arquivo de configuração, o arquivo de voz, o arquivo de patch e o arquivo de

licença mencionados anteriormente.


• Após a descoberta do arquivo de configuração salva de inicialização, pode ser necessário definir um novo arquivo de

configuração a ser carregado na próxima inicialização. Se um arquivo de configuração específico não for especificado, o

arquivo de configuração padrão será carregado na próxima inicialização.

• A extensão do nome do arquivo do arquivo de configuração deve ser .cfg ou .zip, e o arquivo deve ser
armazenado no diretório raiz de um dispositivo de armazenamento. Quando o roteador é ligado, ele lê o arquivo
de configuração da memória flash por padrão para inicializar. Os dados neste arquivo de configuração são a
configuração inicial. Se nenhum arquivo de configuração for salvo na memória flash, o roteador usará
parâmetros padrão para iniciar.

• Através do uso da configuração salva de inicialização [ arquivo de configuração] onde o parâmetro do arquivo de

configuração é o arquivo de configuração a ser usado na inicialização, é possível definir um novo arquivo de

configuração para inicializar na próxima inicialização do sistema.


• Quando o comparar configuração [arquivo de configuração] [número da linha atual número saveline] for usado, o
sistema executa uma comparação linha por linha da configuração salva com a configuração atual, começando
na primeira linha. Se o número da linha atual salvar número da linha parâmetros são especificados, o sistema
ignora a configuração não relevante antes das linhas comparadas e continua a encontrar diferenças entre os
arquivos de configuração.

• O sistema então continuará a produzir as diferenças de configuração entre a configuração salva e os arquivos
de configuração atuais. As informações de saída de comparação são restritas a 150 caracteres por padrão. Se a
comparação exigir menos de 150 caracteres, todas as variações até o final dos dois arquivos serão exibidas.
• o redefinir configuração salva comando é usado para excluir um arquivo de configuração de inicialização do
dispositivo do dispositivo de armazenamento. Quando executado, o sistema compara os arquivos de configuração
usados na inicialização atual e na próxima inicialização ao excluir o arquivo de configuração do roteador.

• Se os dois arquivos de configuração forem iguais, eles serão excluídos ao mesmo tempo após a execução deste

comando. O arquivo de configuração padrão é usado quando o roteador é iniciado na próxima vez. Se os dois arquivos

de configuração forem diferentes, o arquivo de configuração usado na inicialização atual será excluído após a execução

deste comando.

• Se nenhum arquivo de configuração for configurado para a inicialização atual do dispositivo, o sistema exibirá
uma mensagem indicando que o arquivo de configuração não existe após a execução deste comando. Uma vez
que o comando reset saved-configuration é usado, um prompt será dado para confirmar a ação, para a qual o
usuário deve confirmar, conforme mostrado no exemplo.
• Os dispositivos de armazenamento dependem do produto e incluem memória flash, cartões SD ou unidades flash
USB. O roteador AR2200E, por exemplo, possui uma memória flash embutida e um cartão SD embutido (no slot
sd1). O roteador oferece dois slots USB reservados (usb0 e usb1) e um slot para cartão SD (sd0). Para o S5700,
inclui uma memória flash embutida com uma capacidade que varia dependendo do modelo, com 64 MB
suportados nos modelos S5700C-HI, S5700-LI, S5700S-LI e S5710-EI e 32 MB para todos os outros. Os detalhes
sobre os dispositivos de armazenamento do produto Huawei podem ser detalhados usando o versão de exibição comando
como mostrado.
• A formatação de um dispositivo de armazenamento pode resultar na perda de todos os arquivos no dispositivo de

armazenamento, e os arquivos não podem ser restaurados, portanto, cuidado extra deve ser tomado ao realizar qualquer formato

comando e deve ser evitado a menos que seja absolutamente necessário. O formato [ dispositivo de armazenamento] comando

é usado junto com o dispositivo de armazenamento parâmetro para definir o local de armazenamento que deve ser formatado.
• Quando o dispositivo terminal exibe que o sistema falhou, o fixdisk O comando pode ser usado para tentar
consertar o sistema de arquivos anormal no dispositivo de armazenamento, no entanto, ele não oferece
nenhuma garantia de que o sistema de arquivos possa ser restaurado com êxito. Como o comando é usado
para retificar problemas, se nenhum problema ocorreu no sistema, não é recomendado que este comando seja
executado. Também deve ser observado que este comando não corrige problemas no nível do dispositivo.
• O atributo d do sistema de arquivos representa que a entrada é um diretório no sistema de arquivos. Deve-se
observar que esse diretório só pode ser excluído depois que todos os arquivos contidos nele forem excluídos.
Os valores rwx restantes referem-se a se o diretório (ou arquivo) pode ser lido, escrito e / ou executado.

• Uma configuração pode ser salva com um nome separado do nome do arquivo vrpcfg.zip padrão e armazenada
no dispositivo de armazenamento do roteador ou switch. Se este arquivo precisar ser usado como o arquivo de
configuração ativo no sistema, o comando startup saved-configuration <configuration-file-name> deve ser usado
onde o nome do arquivo de configuração se refere ao nome do arquivo e à extensão do arquivo.
• A plataforma VRP é constantemente atualizada para manter o alinhamento com as mudanças na tecnologia e
oferecer suporte aos novos avanços do hardware. A imagem VRP é geralmente definida por uma versão VRP e
um número de versão do produto. Os produtos da série Huawei ARG3 e Sx7 geralmente se alinham com o VRP
versão 5, ao qual diferentes versões do produto estão associadas.

• À medida que a versão do produto aumenta, também aumentam os recursos que são suportados pela versão. O
formato da versão do produto inclui um código de produto Vxxx, Rxxx denota um lançamento de versão principal e Cxx
um lançamento de versão secundária. Se um service pack for usado para corrigir a versão do produto VRP, um valor
SPC também pode ser incluído no número da versão do produto VRP. Exemplos típicos de atualizações de versão
VRP para o AR2200E incluem:

• Versão 5.90 (AR2200 V200R001C00)

• Versão 5.110 (AR2200 V200R002C00)

• Versão 5.160 (AR2200 V200R007C00)


• A transferência de arquivos se refere ao meio pelo qual os arquivos são enviados ou recuperados de um servidor

remoto ou local de armazenamento. Dentro da rede IP, este aplicativo pode ser implementado para uma ampla gama de

finalidades. Como parte da prática efetiva, é comum que arquivos importantes sejam duplicados e copiados em um local

de armazenamento remoto para evitar qualquer perda que possa afetar as operações críticas dos sistemas. Isso inclui

arquivos como a imagem VRP de produtos que (caso a imagem existente sofra perda por meio do uso do comando

format ou outras formas de erro), podem ser recuperados remotamente e usados para recuperar as operações do

sistema. Princípios semelhantes se aplicam a arquivos de configuração importantes e manutenção de registros de

atividade dentro de dispositivos armazenados em arquivos de log, que podem ser armazenados a longo prazo no

servidor remoto.
• FTP é um protocolo de aplicativo padrão baseado no conjunto de protocolos TCP / IP e usado para transferir
arquivos entre clientes locais e servidores remotos. O FTP usa duas conexões TCP para copiar um arquivo de
um sistema para outro. As conexões TCP são geralmente estabelecidas no modo cliente-servidor, uma para
controle (o número da porta do servidor é 21) e a outra para transmissão de dados (o número da porta do
servidor é 20). O FTP como protocolo de transferência de arquivos é usado para controlar as conexões emitindo
comandos do cliente (RTA) para o servidor e transmitir respostas do servidor para o cliente, minimizando o atraso
na transmissão. Em termos de transmissão de dados, o FTP transmite dados entre o cliente e o servidor,
maximizando o throughput.

• O Protocolo de Transferência de Arquivos Trivial (TFTP) é um protocolo simples de transferência de arquivos por
meio do qual um roteador pode funcionar como um cliente TFTP para acessar arquivos em um servidor TFTP. Ao
contrário do FTP, o TFTP não tem interface de acesso interativa complexa e controle de autenticação. A
implementação do TFTP é baseada no User Datagram Protocol (UDP). O cliente inicia a transferência TFTP. Para
baixar arquivos, o cliente envia um pacote de solicitação de leitura para o servidor TFTP, recebe pacotes do
servidor e retorna uma confirmação para o servidor. Para fazer upload de arquivos, o cliente envia um pacote de
solicitação de gravação ao servidor TFTP, envia pacotes ao servidor e recebe a confirmação do servidor.
• O exemplo demonstra como a conexão entre um servidor FTP e o cliente é estabelecida para recuperar uma imagem
VRP que pode ser usada como parte do processo de atualização do sistema. Antes de qualquer transferência de
dados, é necessário estabelecer a conectividade subjacente pela qual os arquivos podem ser transferidos. Isso
começa fornecendo endereçamento IP adequado para o cliente e o servidor. Onde os dispositivos estão conectados
diretamente, podem ser aplicadas interfaces pertencentes à mesma rede. Onde os dispositivos pertencem a redes
localizadas em uma grande área geográfica, os dispositivos devem estabelecer o endereçamento IP relevante dentro
de suas redes fornecidas e ser capazes de descobrir um caminho de rede relevante sobre IP por meio do qual a
conectividade cliente / servidor pode ser estabelecida.
• O usuário deve determinar, para qualquer atualização do sistema, se há espaço de armazenamento adequado para
armazenar o arquivo a ser recuperado. Os comandos do sistema de arquivos podem ser usados para determinar o
status atual do sistema de arquivos, incluindo quais arquivos estão atualmente presentes no local de armazenamento
de arquivos do dispositivo e também a quantidade de espaço disponível atualmente. Quando o espaço de
armazenamento não é adequado para a transferência de arquivos, certos arquivos podem ser excluídos ou carregados
para o servidor FTP, caso ainda sejam necessários para uso futuro.

• O exemplo demonstra o uso do excluir comando do sistema de arquivos para remover o arquivo de imagem
existente. Deve-se notar que a imagem do sistema, embora excluída, não afetará a operação atual do dispositivo,
desde que o dispositivo permaneça operacional, portanto, o dispositivo não deve ser desligado ou reiniciado antes
que um novo arquivo de imagem VRP seja restaurado no local de armazenamento do dispositivo e definido para
ser usado durante a próxima inicialização do sistema.
• A recuperação de arquivos de um servidor FTP requer que uma conexão seja estabelecida primeiro, antes que
qualquer transferência de arquivos possa ocorrer. Dentro do dispositivo cliente, o serviço ftp é iniciado usando
ftp <endereço ip> onde o endereço IP se relaciona ao endereço do servidor FTP ao qual o cliente deseja se
conectar. As conexões FTP serão estabelecidas usando TCP e requerem autenticação na forma de um nome de
usuário e senha, que é definido pelo servidor FTP. Uma vez que a autenticação foi alcançada com sucesso, o
cliente terá estabelecido acesso ao servidor FTP e será capaz de usar uma variedade de comandos para
visualizar os arquivos existentes armazenados no diretório atual local do servidor.

• Antes da transmissão do arquivo, o usuário pode ser solicitado a definir o tipo de arquivo para o qual existem dois
formatos, ASCII e Binário. O modo ASCII é usado para texto, no qual os dados são convertidos da representação de
caractere do remetente para "ASCII de 8 bits" antes da transmissão e, em seguida, para a representação de
caractere do receptor. O modo binário, por outro lado, requer que o remetente envie cada arquivo, byte por byte. Este
modo é freqüentemente usado para transferir arquivos de imagem e arquivos de programa e deve ser aplicado ao
enviar ou recuperar qualquer arquivo de imagem VRP. No exemplo, o comando get vrp.cc foi emitido para recuperar
a nova imagem VRP localizada no servidor remoto.
• No caso de o cliente desejar recuperar uma imagem VRP de um servidor TFTP, não é necessário primeiro
estabelecer uma conexão com o servidor. Em vez disso, o cliente deve definir o caminho para o servidor na
linha de comando, junto com a operação a ser executada. Também deve ser observado que os modelos
AR2200E e S5720 servem apenas como cliente TFTP e transferem arquivos apenas no formato binário. Como
pode ser visto no exemplo, o obter O comando é aplicado para recuperação do arquivo de imagem VRP do
servidor TFTP após a definição do endereço de destino do servidor TFTP.
• A transferência do arquivo de imagem VRP para o cliente, uma vez obtida com sucesso, requer que a imagem seja ativada

como o software do sistema de inicialização durante o próximo processo de inicialização do sistema. Para alterar a versão

do software do sistema, o software de sistema de inicialização O comando deve ser executado e incluir o arquivo de

software do sistema a ser usado na próxima inicialização. Um arquivo de software de sistema deve usar .cc como extensão

de nome de arquivo e o arquivo de software de sistema usado na próxima inicialização não pode ser aquele usado na

inicialização atual.

• Além disso, o diretório de armazenamento de um arquivo de software do sistema deve ser o diretório raiz, caso
contrário, haverá falha na execução do arquivo. o tela inicial O comando deve ser usado para verificar se a alteração
no software do sistema de inicialização foi executada com sucesso. A saída para o software do sistema de
inicialização deve mostrar a imagem VRP existente, enquanto o próximo software do sistema de inicialização deve
exibir a imagem VRP transferida que agora está presente no diretório raiz do dispositivo.
• A confirmação do software do sistema de inicialização permite a inicialização segura do software do sistema
durante a próxima inicialização do sistema. Para aplicar as alterações e permitir que o novo software do sistema
entre em vigor, o dispositivo deve ser reiniciado. o
reiniciar pode ser usado para iniciar a reinicialização do sistema. Durante o processo de reinicialização, um
prompt será exibido solicitando a confirmação se o arquivo de configuração para a próxima inicialização do
sistema será salvo.

• Em alguns casos, o arquivo de configuração salva pode ser apagado pelo usuário para permitir que uma nova
configuração seja implementada. Caso isso tenha ocorrido, espera-se que o usuário defina uma resposta 'não'
em 'Continuar?' pronto. Se o usuário escolher 'sim' neste ponto, a configuração atual será reescrita no arquivo
de configuração salva e aplicada novamente durante a próxima inicialização. Se o usuário não estiver ciente das
alterações para as quais o prompt de salvamento está fornecendo um aviso, é recomendável que o usuário
selecione 'não' ou 'n' e faça uma comparação entre a configuração salva e a atual para verificar as alterações.
Para o prompt de reinicialização, uma resposta 'sim' ou 'y' é necessária para concluir o processo de
reinicialização.
• Um dispositivo cliente deve ter a capacidade de acessar o servidor FTP sobre IP, exigindo que um endereço IP seja

configurado na interface por meio da qual o servidor FTP pode ser alcançado. Isso permitirá que um caminho seja

validado para o servidor FTP na camada de rede, se houver.

• O usuário pode executar a inicialização do display de comando de configuração para validar se o software do sistema

de inicialização (VRP) atual está ativo, identificado pela extensão .cc.


• Conforme a rede corporativa se expande, vários usuários precisam ser estabelecidos como parte de uma rede
multiacesso. A evolução das tecnologias de rede tem visto uma mudança de redes locais compartilhadas para
redes que suportam múltiplos domínios de colisão e suportam o uso de formas de mídia 100BaseT que isolam a
transmissão e recepção de dados em pares de fios separados, eliminando assim o potencial de colisões ocorrer
e permitir taxas de transmissão full duplex mais altas. O estabelecimento de um switch traz a capacidade de
maior densidade de porta para permitir a conexão de um número maior de dispositivos de sistema final em uma
única rede local. Cada sistema final ou host em uma rede local deve estar conectado como parte da mesma
rede IP para que a comunicação seja facilitada na camada de rede.
• Como um dispositivo de camada de link, cada switch depende de uma tabela baseada em MAC que fornece
associação entre um endereço MAC de destino e a interface de porta pela qual um quadro deve ser encaminhado.
Isso é comumente referido como a tabela de endereços MAC.

• A iniciação de um switch começa com o switch sem nenhum conhecimento dos sistemas finais e como os frames
recebidos dos sistemas finais devem ser encaminhados. É necessário que as entradas de construção do switch
na tabela de endereços MAC determinem o caminho que cada quadro recebido deve percorrer para chegar a um
determinado destino, de modo a limitar o tráfego de broadcast na rede local. Essas entradas de caminho são
preenchidas na tabela de endereços MAC como resultado dos quadros recebidos dos sistemas finais. No
exemplo, o Host A encaminhou um quadro para o Switch A, que atualmente não tem entradas em sua tabela de
endereços MAC.
• O quadro que é encaminhado do Host A contém uma entrada de endereço MAC de broadcast no campo de
endereço de destino do cabeçalho do quadro. O campo de endereço de origem contém o endereço MAC do
dispositivo de peering, neste caso o Host A. Este endereço MAC de origem é usado pelo switch para preencher
a tabela de endereços MAC, associando a entrada MAC no campo de endereço de origem com o switch
interface da porta na qual o quadro foi recebido. O exemplo demonstra como o endereço MAC está associado à
interface de porta para permitir que qualquer tráfego de retorno a este destino MAC seja encaminhado
diretamente por meio da interface associada.
• O comportamento geral de uma solicitação ARP envolve o quadro sendo inundado para todos os destinos
pretendidos principalmente devido à difusão MAC (FF-FF-FF-FF-FF-FF) que representa o destino atual. O
switch é, portanto, responsável por encaminhar este quadro para fora de cada interface de porta, com exceção
da interface de porta na qual o quadro foi recebido, em uma tentativa de localizar o destino IP pretendido,
conforme listado no cabeçalho ARP para o qual uma resposta ARP pode ser gerada . Conforme demonstrado
no exemplo, os quadros individuais são enviados do switch por meio das interfaces de porta G0 / 0/2 e G0 / 0/3
para os hosts B e C, respectivamente.
• Como resultado do cabeçalho da solicitação ARP, o host receptor é capaz de determinar que o cabeçalho ARP
se destina ao destino IP de 10.1.1.3, juntamente com o endereço de origem local (MAC) de onde o quadro se
originou, e usar essa informação para gerar uma resposta unicast. As informações sobre o Host A são
associadas ao endereço IP de 10.1.1.3 e armazenadas na tabela de endereços MAC do Host C. Ao fazer isso, a
geração de tráfego de broadcast é minimizada, reduzindo assim o número de interrupções para destinos locais,
bem como redução do número de frames que propagam a rede local.

• Assim que o quadro for recebido do Host C pelo Switch A, o switch preencherá a tabela de endereços MAC com
o endereço MAC de origem do quadro recebido e o associará à interface da porta na qual o quadro foi recebido.
O switch então usa a tabela de endereços MAC para realizar uma pesquisa, a fim de descobrir a interface de
encaminhamento, com base no endereço MAC de destino do quadro. Neste caso, o endereço MAC do quadro
refere-se ao Host A, para o qual agora existe uma entrada via interface G0 / 0/1, permitindo que o quadro seja
encaminhado para o destino conhecido.
• Os primeiros sistemas Ethernet operavam com base em um modo half-duplex de 10 Mbps e mecanismos aplicados,
como CSMA / CD, para garantir a estabilidade do sistema. A transição para um meio de par trançado deu origem ao
surgimento da Ethernet full-duplex, que melhorou muito o desempenho da Ethernet e significava que duas formas de
duplex podiam ser negociadas. A tecnologia de negociação automática permite que os sistemas Ethernet mais novos
sejam compatíveis com os sistemas Ethernet anteriores.

• No modo de negociação automática, as interfaces em ambas as extremidades de um link negociam seus parâmetros
operacionais, incluindo o modo duplex, taxa e controle de fluxo. Se a negociação for bem-sucedida, as duas
interfaces funcionam com os mesmos parâmetros operacionais. Em alguns casos, no entanto, é necessário definir
manualmente os parâmetros de negociação, como quando as interfaces Gigabit Ethernet que estão trabalhando no
modo de negociação automática são conectadas por meio de um cabo de rede de 100 Mbps. Nesses casos, a
negociação entre as interfaces falhará.

• Devido aos diferentes modelos de produto, as chaves HUAWEI podem não suportar o modo duplex de mudança de porta,

consulte o manual do produto.


• No caso de os parâmetros de configuração para negociação serem alterados de negociação automática, os
parâmetros definidos devem ser verificados usando o
interface de exibição <interface> comando para verificar se os parâmetros negociados permitem que a negociação
da interface da camada de link seja bem-sucedida. Isso é verificado pelo estado atual do protocolo de linha sendo
exibido como UP. As informações exibidas refletem as configurações atuais dos parâmetros de uma interface.
• Quando um host ou outro sistema final é conectado a uma interface de porta de switch, um ARP gratuito é
gerado e projetado para garantir que os endereços IP permaneçam exclusivos dentro de um segmento de
rede. A mensagem ARP gratuita, entretanto, também fornece ao switch informações sobre o endereço MAC
do host, que é então incluído na tabela de endereços MAC e associado à interface da porta na qual o host
está conectado.

• Se a conexão física de um host conectado a uma interface de porta do switch for removida, o switch descobrirá
que o link físico está desativado e removerá a entrada MAC da tabela de endereços MAC. Assim que o meio
for conectado a outra interface de porta, a porta detectará que o link físico está ativo e um ARP gratuito será
gerado pelo host, permitindo que o switch descubra e preencha a tabela de endereços MAC com o endereço
MAC do host conectado .
• O crescimento da empresa resulta no comissionamento de vários switches para oferecer suporte à
interconectividade dos sistemas finais e serviços necessários para as operações diárias. A interconexão de
vários switches, entretanto, traz desafios adicionais que precisam ser resolvidos. Os switches podem ser
estabelecidos como links ponto a ponto únicos, por meio dos quais os sistemas finais são capazes de
encaminhar quadros para destinos localizados por meio de outros switches dentro do domínio de broadcast. A
falha, entretanto, de qualquer link de switch ponto a ponto resulta no isolamento imediato do switch downstream
e de todos os sistemas finais aos quais o link está conectado. Para resolver esse problema, a redundância é
altamente recomendada em qualquer rede de comutação.

• Links redundantes são, portanto, geralmente usados em uma rede de comutação Ethernet para fornecer backup
de link e aumentar a confiabilidade da rede. O uso de links redundantes, entretanto, pode produzir loops que
fazem com que a qualidade da comunicação se deteriore drasticamente e ocorram grandes interrupções no
serviço de comunicação.
• Um dos efeitos iniciais dos loops de comutação redundantes vem na forma de tempestades de broadcast. Isso
ocorre quando um sistema final tenta descobrir um destino para o qual nem ele próprio nem os switches ao
longo do caminho de comutação estão cientes. Uma transmissão é, portanto, gerada pelo sistema final que é
inundado pelo switch receptor.

• O efeito de inundação significa que o quadro é encaminhado por meio de todas as interfaces, com exceção da
interface na qual o quadro foi recebido. No exemplo, o Host A gera um quadro, que é recebido pelo Switch B,
que é posteriormente encaminhado para fora de todas as outras interfaces. Uma instância do quadro é recebida
pelos switches conectados A e C, que por sua vez inundam o quadro de todas as outras interfaces. O efeito de
inundação contínua resulta em instâncias de inundação do Switch A e do Switch C do quadro de um switch para
o outro, que por sua vez é inundado de volta para o Switch

B, e assim o ciclo continua. Além disso, o efeito de inundação repetido resulta em várias instâncias do quadro
sendo recebido por estações finais, causando efetivamente interrupções e degradação extrema do desempenho
do switch.
• Os switches devem manter registros do caminho pelo qual um destino pode ser alcançado. Isso é identificado
por meio da associação do endereço MAC de origem de um quadro com a interface na qual o quadro foi
recebido. Apenas uma instância de um endereço MAC pode ser armazenada na tabela de endereços MAC de
um switch e, onde uma segunda instância do endereço MAC é recebida, as informações mais recentes têm
precedência.

• No exemplo, o Switch B atualiza a tabela de endereços MAC com o endereço MAC do Host A e associa esta
fonte à interface G0 / 0/3, a interface da porta na qual o quadro foi recebido. Como os quadros são inundados de
forma incontrolável na rede de comutação, um quadro é novamente recebido com o mesmo endereço MAC de
origem do Host A, porém, desta vez, o quadro é recebido na interface G0 / 0/2. O switch B deve, portanto,
assumir que o host que era originalmente acessível via interface G0 / 0/3 agora pode ser acessado via G0 / 0/2,
e atualizará a tabela de endereços MAC de acordo. O resultado desse processo leva à instabilidade do MAC e
continua a ocorrer indefinidamente entre as interfaces de porta do switch conectadas ao Switch A e ao Switch C,
uma vez que os frames são inundados em ambas as direções como parte do efeito broadcast storm.
• O desafio para a rede de comutação reside na capacidade de manter a redundância de comutação para evitar o
isolamento dos sistemas finais no caso de sistema de comutação ou falha de link, e a capacidade de evitar os
efeitos prejudiciais dos loops de comutação em uma topologia de comutação que implementa redundância. A
solução resultante por muitos anos tem sido implementar o protocolo de árvore estendida (STP) para prevenir
os efeitos dos loops de comutação. Spanning tree funciona com base no princípio de que os links redundantes
sejam logicamente desabilitados para fornecer uma topologia livre de loop, embora seja capaz de habilitar links
secundários dinamicamente no caso de ocorrer uma falha ao longo do caminho de comutação primário,
cumprindo assim o requisito de redundância de rede dentro de um loop topologia livre. Os dispositivos de
comutação que executam o STP descobrem loops na rede trocando informações uns com os outros e
bloqueiam certas interfaces para cortar os loops. O STP continuou a ser um protocolo importante para a LAN
por mais de 20 anos.
• A remoção de qualquer potencial para loops serve como o objetivo principal da árvore de abrangência para a
qual uma arquitetura do tipo árvore invertida é formada. Na base dessa árvore lógica está a ponte / switch raiz. A
bridge raiz representa o centro lógico, mas não necessariamente o centro físico da rede compatível com STP. A
ponte raiz designada é capaz de mudar dinamicamente com a topologia da rede, como no caso em que a ponte
raiz existente não consegue continuar a operar como ponte raiz. As pontes não raiz são consideradas
downstream da ponte raiz e a comunicação com as pontes não raiz flui da ponte raiz para todas as pontes não
raiz. Apenas uma única ponte raiz pode existir em uma rede compatível com STP convergente a qualquer
momento.
• A descoberta da ponte raiz para uma rede STP é uma tarefa primária realizada para formar a árvore de
abrangência. O protocolo STP opera com base na eleição, por meio da qual a função de todos os switches é
determinada. Um ID de ponte é definido como o meio pelo qual a ponte raiz é descoberta. Isso é composto de
duas partes, a primeira sendo uma prioridade de ponte de 16 bits e a segunda, um endereço MAC de 48 bits.

• O dispositivo que supostamente contém a prioridade mais alta (menor ID de ponte) é eleito como a ponte raiz para a
rede. A comparação do ID da ponte leva em consideração inicialmente a prioridade da ponte e, quando esse valor de
prioridade não é capaz de identificar exclusivamente uma ponte raiz, o endereço MAC é usado como um
desempatador. O ID da ponte pode ser manipulado por meio da alteração da prioridade da ponte como um meio de
permitir que um determinado switch seja eleito como a ponte raiz, geralmente em suporte a um projeto de rede
otimizado.
• A topologia de Spanning Tree depende da comunicação de informações específicas para determinar a função e
o status de cada switch na rede. Uma unidade de dados de protocolo de ponte (BPDU) facilita a comunicação
em uma rede de árvore estendida. Duas formas de BPDU são usadas no STP. Um BPDU de configuração é
inicialmente criado pela raiz e propagado downstream para garantir que todas as pontes não raiz permaneçam
cientes do status da topologia de árvore estendida e, mais importante, da ponte raiz. O TCN BPDU é uma
segunda forma de BPDU, que propaga informações na direção upstream em direção à raiz e deve ser
introduzido com mais detalhes como parte do processo de mudança de topologia.

• As unidades de dados do protocolo de ponte não são encaminhadas diretamente pelos switches; em vez disso, as

informações transportadas dentro de um BPDU são frequentemente usadas para gerar um BPDU próprio dos switches

para transmissão. Um BPDU de configuração carrega vários parâmetros que são usados por uma ponte para determinar

principalmente a presença de uma ponte raiz e garantir que a ponte raiz permaneça a ponte com a prioridade mais alta.

Cada segmento de LAN é considerado como tendo um switch designado que é responsável pela propagação de BPDU

downstream para switches não designados.

• O campo Bridge ID é usado para determinar a chave designada atual da qual se espera que BPDU seja recebido.
O BPDU é gerado e encaminhado pela bridge raiz com base em um temporizador Hello, que é definido como 2
segundos por padrão. Conforme os BPDU são recebidos por switches downstream, um novo BPDU é gerado com
parâmetros definidos localmente e encaminhado para todos os switches não designados para o segmento LAN.
• Outra característica do BPDU é a propagação de dois parâmetros relacionados ao custo do caminho. O custo
do caminho raiz (RPC) é usado para medir o custo do caminho para a ponte raiz a fim de determinar o caminho
mais curto da árvore de abrangência e, assim, gerar uma topologia sem loop. Quando a ponte é a ponte raiz, o
custo do caminho raiz é 0.

• O custo do caminho (PC) é um valor associado à porta raiz, que é a porta em um switch downstream que se
conecta ao segmento LAN, no qual reside um switch ou bridge raiz designada. Este valor é usado para gerar o
custo do caminho raiz para o switch, adicionando o custo do caminho ao valor RPC que é recebido do switch
designado em um segmento de LAN, para definir um novo valor de custo do caminho raiz. Este novo valor de
custo do caminho raiz é transportado no BPDU do switch designado e é usado para representar o custo do
caminho até a raiz.
• Os switches da série Huawei Sx7 suportam uma série de padrões de custo de caminho alternativo que podem ser

implementados com base nos requisitos da empresa, como onde pode existir uma rede de comutação de vários

fornecedores. A série de switches Huawei Sx7 usa o padrão de custo do caminho 802.1t por padrão, fornecendo uma

precisão métrica mais forte para o cálculo do custo do caminho.


• Uma rede de árvore estendida convergente define que cada interface seja atribuída a uma função de porta específica. As

funções de porta são usadas para definir o comportamento das interfaces de porta que participam de uma topologia de

árvore estendida ativa. Para o protocolo de spanning tree, três funções de porta designadas, raiz e alternativa são definidas.

• A porta designada está associada a uma bridge raiz ou a uma ponte designada de um segmento de LAN e define o
caminho downstream por meio do qual os BPDU de configuração são encaminhados. A ponte raiz é responsável pela
geração de BPDU de configuração para todos os switches downstream e, portanto, as interfaces de porta da ponte
raiz sempre adotam a função de porta designada.

• A porta raiz identifica a porta que oferece o caminho de menor custo para a raiz, com base no custo do
caminho raiz. O exemplo demonstra o caso em que existem dois caminhos possíveis de volta à raiz; no
entanto, apenas a porta que oferece o menor custo de caminho raiz é atribuída como porta raiz. Onde duas ou
mais portas oferecem custos de caminho raiz iguais, a decisão de qual interface de porta será a porta raiz é
determinada comparando o ID da ponte na configuração BPDU que é recebida em cada porta.

• Qualquer porta que não seja atribuída a uma função de porta raiz ou designada é considerada uma porta
alternativa e é capaz de receber BPDU do switch designado para o segmento LAN com a finalidade de monitorar
o status do link redundante, mas não processará o recebido BPDU. O padrão IEEE 802.1D-1990 para STP
originalmente definiu esta função de porta como backup, no entanto, isso foi alterado para se tornar a função de
porta alternativa dentro da revisão de padrões IEEE 802.1D-1998.
• O ID da porta representa um meio final para determinar as funções da porta ao lado do ID da ponte e do
mecanismo de custo do caminho raiz. Em cenários onde duas ou mais portas oferecem um custo de caminho de
raiz igual para a raiz e para o qual o switch upstream é considerado como tendo um ID de bridge igual,
principalmente devido ao switch upstream ser o mesmo switch para ambos os caminhos, o ID da porta deve ser
aplicado para determinar as funções da porta.

• O ID da porta está vinculado a cada porta e compreende uma prioridade de porta e um número de porta que se associa à

interface da porta. A prioridade da porta é um valor no intervalo de 0 a 240, atribuído em incrementos de 16 e

representado por um valor de 128 por padrão. Onde ambas as interfaces de porta oferecem um valor de prioridade de

porta igual, o número de porta exclusivo é usado para determinar as funções da porta. O identificador de porta mais alto

(o número de porta mais baixo) representa a porta atribuída como a porta raiz, com a porta restante sendo padronizada

para uma função de porta alternativa.


• A ponte raiz é responsável pela geração de BPDU de configuração com base em um intervalo BPDU que é
definido por um temporizador Hello. Por padrão, esse temporizador Hello representa um período de 2 segundos.
Uma rede de árvore estendida convergente deve garantir que, no caso de uma falha na rede, os switches da rede
habilitada para STP sejam informados da falha. Um temporizador Max Age está associado a cada BDPU e
representa a vida útil de um BPDU desde o ponto de concepção pela ponte raiz e, em última análise, controla o
período de validade de um BDPU antes que seja considerado obsoleto. Este cronômetro MAX Age por padrão
representa um período de 20 segundos.

• Depois que um BPDU de configuração é recebido da bridge raiz, o switch downstream leva aproximadamente 1
segundo para gerar um novo BPDU e propagar o BPDU gerado. A fim de compensar este tempo, um valor de
idade da mensagem (Idade MSG) é aplicado a cada BPDU para representar o deslocamento entre a Idade
MAX e o atraso de propagação, e para cada switch este valor de idade da mensagem é incrementado em 1.

• À medida que o BPDU é propagado da ponte raiz para os switches downstream, o cronômetro MAX Age é
atualizado. O cronômetro MAX Age faz a contagem regressiva e expira quando o valor MAX Age excede o valor
da idade da mensagem, para garantir que a vida útil de um BPDU seja limitada à MAX Age, conforme definido
pela bridge raiz. No caso de um BPDU não ser recebido antes que o temporizador MAX Age expire, o switch irá
considerar as informações BPDU mantidas atualmente como obsoletas e presumir que ocorreu uma falha de rede
STP.
• O processo de convergência de spanning tree é um procedimento automatizado que inicia no ponto de
inicialização do switch. Todos os switches na inicialização assumem a função de bridge raiz na rede de switch. O
comportamento padrão de uma ponte raiz é atribuir uma função de porta designada a todas as interfaces de porta
para permitir o encaminhamento de BPDU por meio de todas as interfaces de porta conectadas. À medida que os
BPDU são recebidos pelos switches de peering, o ID da ponte será comparado para determinar se existe um
candidato melhor para a função de ponte raiz. No caso de o BPDU recebido conter um ID de ponte inferior em
relação ao ID de raiz, o switch receptor continuará a anunciar sua própria configuração BPDU ao switch vizinho.

• Onde o BDPU for superior, o switch reconhecerá a presença de um candidato melhor para o papel de bridge
raiz, ao deixar de propagar o BPDU na direção de onde o BPDU superior foi recebido. O switch também
corrigirá o campo de ID de raiz de seu BPDU para anunciar o ID de ponte do candidato a ponte raiz como a
nova ponte raiz atual.
• Uma ponte raiz eleita, uma vez estabelecida, gerará BPDU de configuração para todos os outros switches não
raiz. O BPDU carregará um custo de caminho de raiz que informará os switches downstream do custo para a
raiz, para permitir que o caminho mais curto seja determinado. O custo do caminho raiz transportado no BPDU
que é gerado pela ponte raiz sempre tem um valor de 0. Os switches downstream de recebimento irão então
adicionar este custo ao custo do caminho das interfaces de porta nas quais o BPDU foi recebido, e das quais
um switch é capaz de identificar a porta raiz.

• No caso em que existem custos de caminho raiz iguais em dois ou mais segmentos de LAN para o mesmo switch
upstream, a ID da porta é usada para descobrir as funções da porta. Onde existe um custo de caminho raiz igual
entre dois switches, como no exemplo dado, o ID da ponte é usado para determinar qual switch representa o
switch designado para o segmento LAN. Onde a porta do switch não é uma porta raiz nem uma porta designada, a
função da porta é atribuída como alternativa.
• Como parte da ponte raiz e do estabelecimento da função de porta, cada switch progredirá por meio de várias
transições de estado de porta. Qualquer porta desativada administrativamente será considerada no estado
desativado. A ativação de uma porta no estado desativado causará uma transição de estado para o estado de
bloqueio ①.

• Qualquer porta considerada em um estado de bloqueio é incapaz de encaminhar qualquer tráfego de usuário, mas é
capaz de receber quadros BPDU. Qualquer BPDU recebido em uma interface de porta no estado de bloqueio não
será usado para preencher a tabela de endereços MAC do switch, mas, em vez disso, para determinar se uma
transição para o estado de escuta é necessária. O estado de escuta permite a comunicação de informações BPDU,
seguindo a negociação da função da porta em STP ②, mas mantém a restrição no preenchimento da tabela de
endereços MAC com informações vizinhas.

• Uma transição para o estado de bloqueio do estado de escuta ou outros estados ③ pode ocorrer no caso de a porta ser

alterada para uma função de porta alternativa. A transição entre ouvir a aprendizagem e aprender a encaminhar estados

④ é muito dependente do temporizador de atraso de encaminhamento, que existe para garantir que qualquer

propagação de informações BDPU para todos os switches na topologia de spanning tree seja alcançável antes que

ocorra a transição de estado.

• O estado de aprendizagem mantém a restrição do encaminhamento do tráfego do usuário para garantir a prevenção de

quaisquer loops de comutação, no entanto, permite o preenchimento da tabela de endereços MAC em toda a topologia de

spanning tree para garantir uma rede de comutação estável. Após um período de atraso de encaminhamento, o estado de

encaminhamento é alcançado. O estado desativado é aplicável a qualquer momento durante o período de transição de estado

por meio de intervenção manual (ou seja, o comando de desligamento) ⑤.


• Os eventos que causam uma mudança na topologia de spanning tree estabelecida podem ocorrer de várias
maneiras, para as quais o protocolo de spanning tree deve reagir para restabelecer rapidamente uma topologia
estável e sem loop. A falha da bridge raiz é um exemplo primário de onde a reconvergência é necessária. Os
switches não raiz dependem do pulso intermitente do BPDU da bridge raiz para manter suas funções individuais
como switches não raiz na topologia STP. No caso de a ponte raiz falhar, os switches downstream não
receberão um BPDU da ponte raiz e, como tal, também deixarão de propagar qualquer BPDU downstream. O
temporizador MAX Age normalmente é redefinido para o valor definido (20 segundos por padrão) após o
recebimento de cada BPDU downstream.

• Com a perda de qualquer BPDU, no entanto, o cronômetro MAX Age começa a contar regressivamente a vida
útil das informações BPDU atuais de cada switch não raiz, com base na fórmula (MAX Age - MSG Age). No
ponto em que o valor MSG Age é maior que o valor do temporizador MAX Age, as informações BPDU recebidas
da raiz tornam-se inválidas e os switches não raiz começam a assumir a função de bridge raiz. Os BPDU de
configuração são encaminhados novamente para fora de todas as interfaces ativas em uma tentativa de
descobrir uma nova bridge raiz. A falha da bridge raiz invoca uma duração de recuperação de aproximadamente
50 segundos devido ao período de convergência Max Age + 2x Forward Delay.
• No caso de uma falha de link indireta, um switch perde a conexão com a bridge raiz devido a uma falha da porta
ou mídia, ou possivelmente devido à desativação manual da interface que atua como a porta raiz. O próprio
switch ficará imediatamente ciente da falha e, como só recebe BPDU da raiz em uma direção, assumirá a perda
imediata da ponte raiz e afirmará sua posição como a nova ponte raiz.

• A partir do exemplo, o switch B começa a encaminhar BPDU para o switch C para notificar a posição do switch
B como a nova ponte raiz, no entanto, o switch C continua a receber BPDU da ponte raiz original e, portanto,
ignora qualquer BPDU do switch B. O alternativo a porta começará a envelhecer seu estado por meio do
temporizador MAX Age, uma vez que a interface não recebe mais o BPDU contendo o ID raiz da ponte raiz.

• Após a expiração do temporizador MAX Age, o switch C mudará a função da porta da porta alternativa para a de
uma porta designada e continuará a encaminhar BPDU da raiz para o switch B, o que fará com que o switch
conceda sua afirmação como a raiz conecte e converta sua interface de porta para a função de porta raiz. Isso
representa uma falha parcial da topologia, entretanto, devido à necessidade de esperar por um período
equivalente a MAX Age + 2x de atraso de encaminhamento, a recuperação total da topologia STP requer
aproximadamente 50 segundos.
• Um cenário final envolvendo a recuperação de convergência de spanning tree ocorre quando vários segmentos
de LAN são conectados entre dois dispositivos de switch para os quais um é atualmente o link ativo enquanto o
outro fornece um caminho alternativo para a raiz. Se ocorrer um evento que faça com que o switch que está
recebendo o BPDU detecte uma perda de conexão em sua porta raiz, como no caso de ocorrer uma falha na
porta raiz ou ocorrer uma falha de link, para a qual o switch downstream é feito imediatamente ciente, o switch
pode fazer a transição instantânea para a porta alternativa.

• Isso iniciará a transição através dos estados de escuta, aprendizagem e encaminhamento e obterá a
recuperação dentro de um período de atraso de encaminhamento 2x. No caso de qualquer falha, onde o link
que fornece um caminho melhor é reativado, a topologia de spanning tree deve voltar a convergir para aplicar a
topologia de spanning tree ideal.
• Em uma rede de árvore estendida convergente, os switches mantêm bancos de dados de filtro ou tabelas de
endereços MAC para gerenciar a propagação de quadros por meio da topologia de árvore estendida. As entradas que
fornecem uma associação entre um destino MAC e a interface da porta de encaminhamento são armazenadas por um
período finito de 300 segundos (5 minutos) por padrão. Uma mudança na topologia de spanning tree, entretanto,
significa que qualquer entrada existente na tabela de endereços MAC provavelmente se tornará inválida devido à
alteração no caminho de comutação e, portanto, deve ser renovada.

• O exemplo demonstra uma topologia de spanning tree existente para a qual o switch B tem entradas que
permitem que o Host A seja alcançado por meio da interface Gigabit Ethernet 0/0/3 e Host B por meio da
interface Gigabit Ethernet 0/0/2. Uma falha é simulada no switch C para a qual a porta raiz atual tornou-se
inativa. Esta falha faz com que um recálculo da topologia de spanning tree comece e previsivelmente a ativação
do link redundante entre o switch C e o switch B.

• Seguindo a reconvergência, entretanto, verifica-se que os quadros do Host A para o Host B estão falhando em alcançar

seu destino. Uma vez que as entradas da tabela de endereços MAC ainda não expiraram com base na regra de 300

segundos, os quadros que alcançam o switch B que são destinados ao Host B continuam a ser encaminhados através da

interface de porta Gigabit Ethernet 0/0/2 e tornam-se efetivamente buracos negros à medida que os quadros são

encaminhado para a interface de porta inativa do switch C.


• Um mecanismo adicional deve ser introduzido para lidar com o problema do período de tempo limite das entradas MAC

que resulta em entradas de caminho inválidas sendo mantidas após a convergência de spanning tree. O processo

implementado é conhecido como processo de Notificação de Mudança de Topologia (TCN) e apresenta uma nova forma

de BPDU para a operação do protocolo de spanning tree.

• Este novo BPDU é referido como TCN BPDU e é diferenciado do BPDU de configuração de STP original por meio
da definição do valor do tipo BPDU para 128 (0x80). A função do TCN BPDU é informar a ponte raiz upstream de
qualquer mudança na topologia atual, permitindo assim que a raiz envie uma notificação dentro da BPDU de
configuração para todos os switches downstream, para reduzir o período de tempo limite para entradas da tabela
de endereços MAC para o equivalente ao temporizador de atraso de encaminhamento ou 15 segundos por padrão.

• O campo de sinalizadores da configuração BPDU contém dois campos para Mudança de Topologia (TC) e
Confirmação de Mudança de Topologia (TCA). Ao receber um TCN BPDU, a ponte raiz irá gerar um BPDU com
os bits TC e TCA definidos, respectivamente para notificar a mudança de topologia e informar aos switches a
jusante que a ponte raiz recebeu o TCN BPDU e, portanto, a transmissão do TCN BPDU deve cessar.

• O bit TCA deve permanecer ativo por um período igual ao temporizador Hello (2 segundos), após o qual a
configuração BPDU gerada pela ponte raiz manterá apenas o bit TC por uma duração de (MAX Age +
forward delay), ou 35 segundos por padrão.
• O efeito do TCN BPDU no processo de mudança de topologia garante que a bridge raiz seja notificada de
qualquer falha na topologia de árvore estendida, para a qual a bridge raiz é capaz de gerar os sinalizadores
necessários para liberar as entradas da tabela de endereço MAC atual em cada um dos os interruptores. O
exemplo demonstra os resultados do processo de mudança de topologia e o impacto na tabela de endereços
MAC. As entradas pertencentes ao switch B foram esvaziadas e novas entradas atualizadas foram descobertas
para as quais foi determinado que o Host B agora pode ser acessado por meio da interface de porta Gigabit
Ethernet 0/0/1.
• Os switches da série Huawei Sx7, aos quais pertence o modelo da série S5700, são capazes de suportar três
formas de protocolo de árvore estendida. Usando o modo stp comando, um usuário é capaz de definir o modo de
STP que deve ser aplicado a um switch individual. O modo STP padrão para switches da série Sx7 é MSTP e,
portanto, deve ser reconfigurado antes que o STP possa ser usado.
• Como parte da boa prática de design de switch, é recomendado que a bridge raiz seja definida manualmente. O
posicionamento da ponte raiz garante que o fluxo de tráfego ideal dentro da rede corporativa possa ser
alcançado por meio da configuração do valor de prioridade da ponte para o protocolo de árvore estendida. o prioridade
de stp [prioridade]
comando pode ser usado para definir o valor de prioridade, onde prioridade refere-se a um valor inteiro entre 0 e
61440, atribuído em incrementos de 4096. Isso permite um total de 16 incrementos, com um valor padrão de
32768. Também é possível atribuir a ponte raiz para a árvore de abrangência através do stp raiz primária comando.
• Foi entendido que a série de switches Huawei Sx7 suporta três formas de padrão de custo de caminho para
fornecer compatibilidade quando necessário, no entanto, os padrões são compatíveis com o padrão de custo de
caminho 802.1t. O padrão de custo do caminho pode ser ajustado para um determinado switch usando o stp
pathcost-standard {dot1d-1998 | dot1t | legado } comando, onde dot1d-1998, dot1t e legacy referem-se aos padrões
de custo de caminho descritos anteriormente nesta seção.

• Além disso, o custo do caminho de cada interface também pode ser atribuído manualmente para suportar um meio
de manipulação detalhada do custo do caminho stp. Este método de manipulação de custo de caminho deve ser
usado com muito cuidado, no entanto, como os padrões de custo de caminho são projetados para implementar a
topologia de spanning tree ideal para uma determinada rede de comutação e a manipulação do custo de stp pode
resultar na formação de uma spanning tree subótima topologia.

• O comando custo stp [custo] é usado, para o qual o valor do custo deve seguir a faixa definida pelo padrão de
custo do caminho. Se um padrão legado Huawei for usado, o custo do caminho varia de 1 a 200.000. Se o
padrão IEEE 802.1D for usado, o custo do caminho varia de 1 a 65535. Se o padrão IEEE 802.1t for usado, o
custo do caminho varia de 1 a 200000000.
• Se o switch raiz em uma rede for configurado incorretamente ou atacado, ele pode receber um BPDU com uma
prioridade mais alta e, portanto, o switch raiz se torna um switch não raiz, o que causa uma mudança na topologia da
rede. Como resultado, o tráfego pode ser comutado de links de alta velocidade para links de baixa velocidade,
causando congestionamento na rede.

• Para resolver esse problema, o switch fornece a função de proteção de raiz. A função de proteção de raiz
protege a função do switch raiz, mantendo a função da porta designada. Quando a porta recebe um BPDU com
uma prioridade mais alta, a porta para de encaminhar pacotes e passa para o estado de escuta, mas ainda
retém uma função de porta designada. Se a porta não receber nenhum BPDU com uma prioridade mais alta por
um determinado período, o status da porta será restaurado do estado de escuta.

• A proteção raiz configurada é válida apenas quando a porta é a porta designada e a porta mantém a função. Se
uma porta for configurada como porta de borda, ou se um comando conhecido como proteção de loop estiver
habilitado na porta, a proteção de root não poderá ser habilitada na porta.
• Usando o exibir stp comando, a configuração STP atual pode ser determinada. Existem vários temporizadores para gerenciar a

convergência da árvore de abrangência, incluindo o temporizador hello, temporizador de duração máxima e atraso de

encaminhamento, para os quais os valores exibidos representam as configurações do temporizador padrão e são

recomendados para serem mantidos.

• O ID da ponte atual pode ser identificado para um determinado switch por meio da configuração da ponte CIST,
composta do ID da ponte e do endereço MAC do switch. As estatísticas fornecem informações sobre se o switch
sofreu alterações de topologia, principalmente por meio do valor recebido de TC ou TCN junto com a última
ocorrência, conforme mostrado no tempo desde a última entrada de TC.
• Para interfaces individuais em um switch, é possível exibir essas informações por meio do
exibir stp comando para listar todas as interfaces, ou usando o exibir interface stp <interface> comando para
definir uma interface específica. O estado da interface segue os estados da porta MSTP e, portanto, será
exibido como Descartando, Aprendendo ou Encaminhando. Outras informações válidas, como a função da porta
e o custo da porta, também são exibidas, junto com quaisquer mecanismos de proteção aplicados.
• Após a falha da ponte raiz para uma rede de árvore estendida, o próximo melhor candidato será eleito como
ponte raiz. Caso o root bridge original volte a ficar ativo na rede, o processo de escolha da posição de root
bridge ocorrerá novamente. Isso efetivamente causa o tempo de inatividade da rede na rede de comutação
conforme a convergência prossegue.

• O custo do caminho raiz é o custo associado ao caminho de volta para a ponte raiz, enquanto o custo do caminho se
refere ao valor do custo definido para uma interface em um switch, que é adicionado ao custo do caminho raiz, para
definir o custo do caminho raiz para o switch downstream.
• O STP garante uma rede sem loop, mas tem uma velocidade de convergência de topologia de rede lenta, levando à
deterioração do serviço. Se a topologia da rede muda com freqüência, as conexões na rede compatível com STP
são freqüentemente interrompidas, causando interrupção regular do serviço.

• O RSTP emprega um processo de proposta e acordo que permite a negociação imediata de links, removendo
efetivamente o tempo necessário para que os temporizadores baseados em convergência expirem antes que a
convergência de spanning tree possa ocorrer. O processo de proposta e acordo tende a seguir um efeito em
cascata do ponto da ponte raiz através da rede de comutação, conforme cada switch downstream começa a
aprender sobre a ponte raiz verdadeira e o caminho pelo qual a ponte pode ser alcançada.
• Os switches operando no modo RSTP implementam duas funções de porta separadas para redundância. A
porta alternativa representa um caminho redundante para a ponte raiz no caso de o caminho atual para a ponte
raiz falhar. A função da porta de backup representa um backup do caminho do segmento LAN na direção que
sai da bridge raiz. Pode ser entendido que uma porta de backup representa um método para fornecer
redundância para a função de porta designada de uma maneira semelhante que uma porta alternativa fornece
um método de redundância para a porta raiz.

• A função de porta de backup é capaz de existir onde um switch tem duas ou mais conexões com um dispositivo
de mídia compartilhada, como o de um hub, ou onde um único link ponto a ponto é usado para gerar uma
conexão de loopback física entre portas no mesmo switch. Em ambos os casos, entretanto, o princípio de uma
porta de backup existente onde duas ou mais portas em um único switch se conectam a um único segmento de
LAN ainda se aplica.
• No RSTP, uma porta designada na extremidade da rede é chamada de porta de extremidade. Uma porta de borda
se conecta diretamente a um terminal e não se conecta a nenhum outro dispositivo de comutação. Uma porta de
borda não recebe BPDU de configuração, portanto, não participa do cálculo RSTP.

• Ele pode mudar diretamente do estado Desabilitado para o estado Encaminhando sem qualquer atraso, assim
como uma porta sem STP. Se uma porta de borda receber um BPDU de configuração falso de invasores, ela será
privada dos atributos de porta de borda e se tornará uma porta STP comum. O cálculo do STP é implementado
novamente, causando oscilação da rede.
• O RSTP introduz uma mudança nos estados de porta que são simplificados de cinco para três tipos. Esses tipos de porta são

baseados no fato de uma porta encaminhar o tráfego do usuário e aprender endereços MAC. Se uma porta não encaminhar o

tráfego do usuário nem aprender os endereços MAC, a porta estará no estado Descartando. A porta é considerada em um

estado de aprendizagem, em que uma porta não encaminha o tráfego do usuário, mas aprende endereços MAC. Finalmente,

onde uma porta encaminha o tráfego do usuário e aprende os endereços MAC, diz-se que a porta está no estado

Encaminhando.
• O formato BPDU empregado no STP também é aplicado ao RSTP com variação em alguns dos parâmetros
gerais. Para distinguir o BPDU da configuração do STP do BPDU da Rapid Spanning Tree, também conhecido
como RST BPDU, o tipo de BPDU é definido. O STP define um tipo de BPDU de configuração de 0 (0x00) e um
BPDU de Notificação de Alteração de Topologia (TCN BPDU) de 128 (0x80), RST BPDU são identificados pelo
valor de tipo BPDU 2 (0x02). No campo de sinalizadores do RST BPDU, designações de parâmetros adicionais
são atribuídas aos campos BPDU.

• O campo de sinalizadores no STP implementou apenas o uso dos parâmetros Alteração de Topologia (TC) e
Confirmação (TCA) como parte do processo de Alteração de Topologia, enquanto outros campos foram
reservados. O RST BPDU adotou esses campos para oferecer suporte a novos parâmetros. Isso inclui
sinalizadores indicando o processo de proposta e acordo empregado pelo RSTP para convergência rápida, a
definição da função do porto e o estado do porto.
• No STP, depois que a topologia se torna estável, a bridge raiz envia a configuração BPDU em um intervalo
definido pelo temporizador Hello. Uma ponte não raiz não envia o BPDU de configuração até que receba o
BPDU de configuração enviado do dispositivo upstream. Isso torna o cálculo do STP complicado e demorado.
No RSTP, depois que a topologia se torna estável, uma ponte não raiz envia BPDU de configuração em
intervalos de saudação, independentemente de ter recebido a BPDU de configuração enviada da ponte raiz; tais
operações são implementadas em cada dispositivo de forma independente.
• A convergência do RSTP segue alguns dos princípios básicos do STP para determinar inicialmente que todos
os switches na inicialização afirmam a função de bridge raiz e, como tal, atribuem a cada interface de porta uma
função de porta designada. O estado da porta, entretanto, é definido para um estado de descarte até que os
switches de peering possam confirmar o estado do link.
• Cada switch que proclama ser a bridge raiz negociará os estados da porta para um determinado segmento de
LAN gerando um RST BPDU com o bit de proposta definido no campo de sinalizadores. Quando uma porta
recebe um RST BPDU da ponte designada upstream, a porta compara o RST BPDU recebido com seu próprio
RST BPDU. Se seu próprio RST BPDU for superior ao recebido, a porta descarta o RST BPDU recebido e
responde imediatamente ao dispositivo de peering com seu próprio RST BPDU que inclui um bit de proposta
definido.
• Uma vez que os temporizadores não desempenham um papel em grande parte do processo de convergência da topologia

RSTP como encontrado com o STP, é importante que o potencial para loops de comutação durante a negociação da função

da porta seja restrito. Isso é gerenciado pela implementação de um processo de sincronização que determina que após o

recebimento de um BPDU superior contendo o bit de proposta, o switch de recebimento deve definir todas as portas

designadas a jusante para descarte como parte do processo de sincronização.

• Onde a porta downstream é uma porta alternativa ou uma porta de borda, no entanto, o status da função da
porta permanece o mesmo. O exemplo demonstra a transição temporária da porta designada no segmento de
LAN downstream para um estado de descarte e, portanto, bloqueando qualquer encaminhamento de quadro
durante a proposta upstream e o processo de acordo.
• A transição confirmada da porta designada downstream para um estado de descarte permite que um RST
BPDU seja enviado em resposta à proposta enviada pelo switch upstream. Durante esse estágio, a função de
porta da interface foi determinada como a porta raiz e, portanto, o sinalizador de acordo e a função de porta da
raiz são definidas no campo sinalizadores do RST BPDU que é retornado em resposta à proposta.
• Durante a fase final do processo de proposta e acordo, o RST BPDU contendo o bit de acordo é recebido pelo
switch upstream, permitindo que a porta designada transite imediatamente de um estado de descarte para o
estado de encaminhamento. Em seguida, o (s) segmento (s) de LAN downstream começarão a negociar as
funções de porta das interfaces usando a mesma proposta e processo de acordo.
• No STP, um dispositivo deve aguardar um período de idade máxima antes de determinar uma falha de
negociação. No RSTP, se uma porta não receber BPDUs de configuração enviados do dispositivo upstream por
três intervalos de Hello consecutivos, a comunicação entre o dispositivo local e seu par falha, fazendo com que o
processo de proposta e acordo seja inicializado a fim de descobrir as funções da porta para o segmento LAN.
• As alterações de topologia afetam o RSTP da mesma forma que o STP é afetado; no entanto, existem algumas
pequenas diferenças entre os dois. No exemplo, uma falha do link ocorreu no switch C. O switch A e o switch C
irão detectar a falha do link imediatamente e liberar as entradas de endereço para as portas conectadas a esse
link. Um RST BPDU começará a negociar os estados do porto como parte do processo de proposta e acordo,
após o qual uma notificação de Alteração de Topologia ocorrerá, juntamente com o encaminhamento do RST
BPDU contendo o contrato.

• Este RST BPDU terá o bit de acordo e também o bit TC definido como 1, para informar os switches upstream da
necessidade de liberar suas entradas MAC em todas as interfaces de porta, exceto a interface de porta na qual
o RST BPDU contendo o bit TC definido foi recebido .

• O bit TC será definido no RST BPDU enviado periodicamente e encaminhado a montante por um período
equivalente a Hello Time + 1 segundo, durante o qual todas as interfaces relevantes serão liberadas e
continuarão a preencher as entradas MAC com base na nova topologia RSTP . O vermelho (mais escuro) 'x' no
exemplo destaca quais interfaces serão liberadas como resultado da alteração da topologia.
• A implementação de STP dentro de uma topologia de comutação baseada em RSTP é possível, porém não é
recomendada, uma vez que qualquer limitação pertencente ao STP torna-se aparente dentro da faixa de
comunicação do switch habilitado para STP. Uma porta envolvida no processo de negociação para estabelecer
sua função no STP deve esperar um período de até 50 segundos antes que a convergência possa ser concluída,
pois os benefícios do RSTP são perdidos.
• A configuração do modo spanning tree de switches Sx7 requer que o modo stp comando ser usado para definir
o modo para RSTP. Ao fazer isso, o switch da série Sx7 gerará RST BPDU em relação ao RSTP, ao contrário
de outras implementações de spanning tree. Este comando é configurado na visualização do sistema e deve ser
aplicado a todos os switches que participam da topologia de árvore de abrangência rápida.
• o exibir stp O comando fornecerá informações relativas à configuração RSTP, pois muitos dos parâmetros
seguem a arquitetura STP principal. As informações de modo determinarão se um switch está operando
atualmente usando RSTP.
• Uma interface de borda define uma porta que não participa da topologia de árvore estendida. Essas interfaces são
usadas por sistemas finais para se conectar à rede de comutação com o objetivo de encaminhar quadros. Uma vez
que tais sistemas finais não exigem a negociação do status da interface da porta, é preferível que a porta seja
transferida diretamente para um estado de encaminhamento para permitir que os quadros sejam encaminhados
por esta interface imediatamente.

• o stp edged-port enable comando é usado para alternar uma porta para se tornar uma porta de borda, como todas as
portas são consideradas portas não-borda em um switch por padrão. Para desativar a porta de borda, stp edged-port
disable comando é usado. Esses comandos se aplicam apenas a uma única interface de porta em um determinado
switch. É importante notar que o comportamento da porta de borda está associado ao RSTP conforme definido no
IEEE
Documentação de padrões 802.1D-2004, no entanto, devido à aplicação específica de VRP da máquina de
estado RSTP subjacente ao STP (que também resulta na presença dos estados da porta RSTP no STP), também
é possível aplicar as configurações da porta de borda RSTP ao STP dentro dos produtos da série Huawei Sx7.
• No caso de várias portas em um switch serem configuradas como portas de borda, o
stp edged-port default é aplicado o comando que impõe que todas as interfaces de porta em um switch se
tornem portas de extremidade. É importante executar o comando stp edged-port disable nas portas que
precisam participar do cálculo do STP entre dispositivos, para evitar possíveis loops que podem ser causados
como resultado dos cálculos da topologia do STP.
• A porta que está conectada diretamente a um terminal de usuário, como um PC ou um servidor de arquivos, é entendida

como configurada como uma porta de borda para garantir uma transição rápida do status da porta. Normalmente, nenhum

BPDU é enviado às portas de borda, no entanto, se o switch for atacado por pseudo BPDU, o switch definirá as portas de

borda como portas não periféricas. Depois que essas portas de borda recebem um BPDU, a topologia de spanning tree é

recalculada e, como resultado, ocorre o flapping da rede.

• Para se defender contra ataques pseudo BPDU, o RSTP fornece proteção BPDU. Depois que a proteção BPDU
é habilitada, o switch desliga a porta de borda que recebe BPDU e informa qualquer estação de gerenciamento
de rede (NMS) ativa. As portas de extremidade que são desligadas pelo switch podem ser iniciadas
manualmente apenas pelo administrador da rede. o proteção stp bpdu O comando deve ser usado para habilitar
a proteção BPDU e é configurado globalmente na visualização do sistema.
• O switch mantém o status da porta raiz e das portas bloqueadas, recebendo BPDU continuamente do switch
upstream. Se o switch raiz não puder receber BPDU do switch upstream devido ao congestionamento do link ou
falha do link unidirecional, o switch seleciona novamente uma porta raiz. A porta raiz anterior torna-se uma porta
designada e as portas bloqueadas mudam para o estado de encaminhamento. Como resultado, podem ocorrer
loops na rede.

• O switch fornece proteção de loop para evitar loops de rede. Depois que a função de proteção de loop for
habilitada, a porta raiz será bloqueada se não puder receber BPDU do switch upstream. A porta bloqueada
permanece no estado bloqueado e não encaminha pacotes. Isso evita loops na rede. Se uma interface for
configurada como interface de borda ou a proteção de raiz estiver habilitada na interface, a proteção de loop não
poderá ser habilitada na interface. o proteção de loop stp

O comando deve ser aplicado para habilitar esse recurso na visualização da interface.
• A validação da configuração RSTP para uma determinada interface é obtida através do
exibir interface stp <interface> comando. As informações associadas identificarão o estado da porta da interface
como Descartando, Aprendendo ou Encaminhando. São definidas informações relevantes para a interface da
porta, incluindo a prioridade da porta, o custo da porta, o status da porta como uma porta de borda ou suporte
ponto a ponto, etc.
• A sincronização é uma etapa do processo de convergência que envolve o bloqueio de portas designadas enquanto RST

BPDU são transmitidos contendo mensagens de proposta e acordo para convergir o segmento de switch. O processo é

projetado para garantir que todas as interfaces estejam de acordo quanto às suas funções de porta, a fim de garantir

que nenhum loop de comutação ocorrerá depois que a porta designada para qualquer switch downstream for

desbloqueada.
• Uma rede corporativa geralmente pode ser entendida como uma instância de um sistema autônomo. Conforme
definido na RFC 1030, um sistema autônomo ou AS, como também é comumente conhecido, é um grupo conectado
de um ou mais prefixos IP executado por uma ou mais operadoras de rede que possui uma política de roteamento
ÚNICA e CLARAMENTE DEFINIDA.

• O conceito de sistemas autônomos originalmente considerava a existência de um único protocolo de


roteamento, porém com a evolução das redes, é possível suportar vários protocolos de roteamento que
interoperam por meio da injeção de rotas de um protocolo para outro. Uma política de roteamento pode ser
entendida como um conjunto de regras que determinam como o tráfego é gerenciado dentro de um sistema
autônomo, ao qual um único ou vários operador (es) devem aderir.
• Os princípios que cercam a comutação trataram principalmente do encaminhamento de tráfego no âmbito de
uma rede de área local e do gateway, que até agora definiu os limites do domínio de broadcast. Os roteadores
são a forma primária de dispositivo da camada de rede usada para definir o gateway de cada rede local e
habilitar a segmentação da rede IP. Os roteadores geralmente funcionam como um meio de rotear pacotes de
uma rede local para a próxima, contando com o endereçamento IP para definir a rede IP à qual os pacotes são
destinados.
• O roteador é responsável por determinar o caminho de encaminhamento por meio do qual os pacotes devem ser
enviados a rota para um determinado destino. É responsabilidade de cada roteador tomar decisões sobre como os
dados são encaminhados. Quando um roteador tem vários caminhos para um determinado destino, as decisões de
rota com base em cálculos são feitas para determinar o melhor próximo salto para o destino pretendido. As decisões
que regem a rota que devem ser tomadas podem variar dependendo do protocolo de roteamento em uso, em última
análise, dependendo das métricas de cada protocolo para tomar decisões em relação a diversos fatores, como largura
de banda e contagem de saltos.
• Os roteadores encaminham pacotes com base em tabelas de roteamento e uma base de informações de encaminhamento (FIB)

e mantêm pelo menos uma tabela de roteamento e um FIB. Os roteadores selecionam as rotas com base nas tabelas de

roteamento e encaminham os pacotes com base no FIB. Um roteador usa uma tabela de roteamento local para armazenar rotas

de protocolo e rotas preferidas. O roteador então envia as rotas preferidas ao FIB para orientar o encaminhamento do pacote. O

roteador seleciona rotas de acordo com as prioridades dos protocolos e custos armazenados na tabela de roteamento. Uma

tabela de roteamento contém dados importantes para cada pacote IP.

• O destino e a máscara são usados em combinação para identificar o endereço IP de destino ou o segmento de
rede de destino onde reside o host ou roteador de destino.

• O campo protocolo (Proto) indica o protocolo através do qual as rotas são aprendidas. A preferência (Pre)
especifica o valor de preferência que está associado ao protocolo e é usada para decidir qual protocolo é
aplicado à tabela de roteamento onde dois protocolos oferecem rotas semelhantes. O roteador seleciona a rota
com a preferência mais alta (o menor valor) como a rota ideal.

• Um valor de custo representa a métrica usada para distinguir quando várias rotas para o mesmo destino têm a
mesma preferência, a rota com o custo mais baixo é selecionada como a rota ideal.

• Um valor de próximo salto indica o endereço IP do próximo dispositivo da camada de rede ou gateway pelo qual
um pacote IP passa. No exemplo dado um próximo salto de
127.0.0.1 refere-se à interface local do dispositivo como sendo o próximo salto.

• Finalmente, o parâmetro interface indica a interface de saída pela qual um pacote IP é encaminhado.
• Uma tabela de roteamento pode conter as rotas originadas de vários protocolos para um determinado destino.
Nem todos os protocolos de roteamento são considerados iguais, e onde a correspondência mais longa para várias
rotas de protocolos de roteamento diferentes para o mesmo destino são iguais, uma decisão deve ser tomada
sobre qual protocolo de roteamento (incluindo rotas estáticas) terá precedência.

• Apenas um protocolo de roteamento por vez determina a rota ideal para um destino. Para selecionar a rota
ideal, cada protocolo de roteamento (incluindo a rota estática) é configurado com uma preferência (quanto
menor o valor, maior a preferência). Quando várias fontes de informações de roteamento coexistem, a rota com
a preferência mais alta é selecionada como a rota ideal e adicionada à tabela de roteamento local.

• No exemplo, dois protocolos são definidos que fornecem um meio de descoberta do


Rede 10.1.1.0 por meio de dois caminhos diferentes. O caminho definido pelo protocolo RIP parece fornecer
uma rota mais direta para o destino pretendido, no entanto, devido ao valor de preferência, a rota definida pelo
protocolo OSPF é preferida e, portanto, instalada na tabela de roteamento como a rota preferida. Um resumo
dos valores de preferência padrão de alguns mecanismos de roteamento comuns é fornecido para dar uma
compreensão da ordem de preferência padrão.
• Quando a rota não pode ser distinguida por um valor de correspondência ou preferência mais longo, a métrica de
custo é tomada como o tomador de decisão na identificação da rota que deve ser instalada na tabela de roteamento.
O custo representa o comprimento de um caminho para uma rede de destino.

• Cada segmento fornece um valor de métrica de custo ao longo de um caminho que é combinado para identificar
o custo da rota. Outro fator comum é a largura de banda da rede, na qual o mecanismo de custo às vezes se
baseia. Um link com uma velocidade (capacidade) maior representa um valor de custo menor, permitindo a
preferência de um caminho em relação a outro, enquanto links de velocidade igual recebem um custo equilibrado
para fins de balanceamento de carga eficiente. Uma métrica mais baixa sempre tem precedência e, portanto, a
métrica 50, conforme mostrado no exemplo, define a rota ideal para o destino dado para o qual uma entrada
pode ser encontrada na tabela de roteamento.
• Usando a “preferência” e o “custo”, pode-se estabelecer a tabela de roteamento IP.

• E a tabela de roteamento de IP pode ser dividida em três tipos com base em fontes diferentes.

• Rotas diretas

• Rotas estáticas

• Rotas dinâmicas
• Para permitir que os pacotes cheguem ao destino pretendido, os roteadores devem tomar decisões específicas
sobre as rotas aprendidas e quais dessas rotas são aplicadas. É provável que um roteador aprenda sobre o
caminho para um determinado destino de rede por meio de informações de roteamento que são anunciadas de
roteadores vizinhos; como alternativa, é possível que as rotas aplicadas estaticamente sejam implementadas
manualmente por meio da intervenção do administrador.

• Cada entrada na tabela FIB contém a interface física ou lógica por meio da qual um pacote é enviado para
chegar ao próximo roteador. Uma entrada também indica se o pacote pode ser enviado diretamente a um host
de destino em uma rede conectada diretamente. O roteador executa uma operação "AND" no endereço de
destino do pacote e na máscara de rede de cada entrada na tabela FIB.

• O roteador então compara o resultado da operação "AND" com as entradas na tabela FIB para encontrar uma
correspondência. O roteador escolhe a rota ideal para encaminhar pacotes de acordo com a melhor ou "mais
longa" correspondência. No exemplo, existem duas entradas na rede 10.1.1.0 com um próximo salto de 20.1.1.2.
Encaminhando para o destino de
10.1.1.1 resultará na aplicação do princípio de correspondência mais longa, para o qual o endereço de rede
10.1.1.0/30 fornece a correspondência mais longa.
• A capacidade de um roteador de encaminhar um pacote IP para um determinado destino requer que certas informações

de encaminhamento sejam conhecidas. Qualquer roteador que deseje encaminhar um pacote IP deve primeiro estar

ciente de um endereço de destino válido para o qual o pacote deve ser encaminhado, isso significa que deve haver uma

entrada na tabela de roteamento que o roteador possa consultar. Essa entrada também deve identificar a interface por

meio da qual os pacotes IP devem ser transmitidos e o próximo salto ao longo do caminho, para o qual o pacote deve ser

recebido antes que a consulta para a próxima decisão de encaminhamento seja executada.
• Quando o roteador escolhe a melhor rota, primeiro, coloque as rotas com o menor valor de preferência na tabela de

roteamento IP; se a prioridade for igual, então compara os valores da métrica para decidir quais rotas colocar na tabela de

roteamento; finalmente, ao consultar a tabela de roteamento, ele escolhe os itens de rota para guiar o encaminhamento do

pacote de dados de acordo com o princípio de correspondência de máscara mais longa.

• A preferência é normalmente usada para denotar a confiabilidade de uma rota em relação a rotas que podem ser consideradas

menos confiáveis. Os fornecedores de equipamentos de roteamento podem, entretanto, atribuir diferentes valores de preferência

para protocolos que são suportados no produto de cada fornecedor. Os valores de preferência de alguns protocolos de

roteamento comuns suportados pelos dispositivos de roteamento Huawei podem ser encontrados nesta seção.
• Uma rota estática é uma rota especial configurada manualmente por um administrador de rede. A desvantagem
das rotas estáticas é que elas não podem se adaptar à mudança em uma rede automaticamente, portanto, as
mudanças na rede requerem reconfiguração manual. As rotas estáticas são adequadas para redes com
estruturas comparativamente simples. Não é aconselhável configurar e manter rotas estáticas para uma rede
com uma estrutura complexa. As rotas estáticas, entretanto, reduzem o efeito da largura de banda e do
consumo de recursos da CPU que ocorre quando outros protocolos são implementados.
• As rotas estáticas podem ser aplicadas a redes que usam mídia serial e Ethernet, no entanto, em cada situação,
as condições de aplicação da rota estática variam em que a interface de saída ou o endereço IP do próximo
salto devem ser definidos.

• O meio serial representa uma forma de interface ponto a ponto (P2P) para a qual a interface de saída deve ser
configurada. Para uma interface P2P, o endereço do próximo salto é especificado depois que a interface de
saída é especificada. Ou seja, o endereço da interface remota (interface no dispositivo de mesmo nível)
conectada a essa interface é o endereço do próximo salto.

• Por exemplo, o protocolo usado para encapsular no meio serial é o protocolo ponto a ponto (PPP). O endereço
IP remoto é obtido após a negociação PPP, portanto, é necessário especificar apenas a interface de saída. O
exemplo também define uma forma de conexão Ethernet ponto a ponto, no entanto Ethernet representa uma
tecnologia de transmissão na natureza e, portanto, os princípios da tecnologia ponto a ponto não se aplicam.
• No caso de interfaces de broadcast, como Ethernet, o próximo salto deve ser definido. Onde a interface
Ethernet é especificada como a interface de saída, é provável que existam vários próximos saltos e o sistema
não será capaz de decidir qual próximo salto será usado. Ao determinar o próximo salto, um roteador é capaz
de identificar a conexão local pela qual o pacote deve ser recebido.

• No exemplo, os pacotes destinados ao destino de 192.168.2.0/24 devem ser encaminhados para o próximo
salto de 10.0.123.2 para garantir a entrega. Alternativamente, alcançar o destino de 192.168.3.0 requer que o
próximo salto de 10.0.123.3 seja definido.
• A configuração da rota estática é obtida usando o endereço IP estático de rota de IP {máscara | comprimento da
máscara} número da interface do tipo de interface [próximo endereço]
onde o endereço de IP refere-se à rede ou ao endereço de destino do host. O campo de máscara pode ser
definido como um valor de máscara ou com base no número do prefixo. No caso de um meio de broadcast como
Ethernet, o endereço do próximo salto é usado. Quando um meio serial é usado, o tipo de interface e o número da
interface são atribuídos (por exemplo, serial 1/0/0) ao comando para definir a interface de saída.
• Onde existem caminhos de custo igual entre as redes de origem e destino, o balanceamento de carga pode ser
implementado para permitir que o tráfego seja transportado por ambos os links. Para conseguir isso usando rotas
estáticas, ambas as rotas devem atender aos parâmetros para uma correspondência mais longa, preferência e valor
métrico iguais. É necessária a configuração de várias rotas estáticas, uma para cada próximo salto ou interface de
saída no caso de meio serial.

• O exemplo demonstra como dois ip route-static comandos são implementados, cada um definindo o mesmo endereço de

destino IP e máscara, mas locais alternativos do próximo salto. Isso garante que a correspondência mais longa (/ 24) seja

igual, e naturalmente também é o valor de preferência, uma vez que ambas as rotas são rotas estáticas que carregam uma

preferência padrão de 60. O custo de ambos os caminhos também é igual, permitindo que o balanceamento de carga ocorra.
• A tabela de roteamento pode ser consultada para verificar os resultados executando o exibir tabela de
roteamento de IP depois que as rotas estáticas são configuradas. A rota estática é exibida na tabela de
roteamento e os resultados mostram duas entradas para o mesmo destino, com preferência correspondente e
valores métricos. Os diferentes endereços de próximo salto e variação na interface de saída identificam os dois
caminhos que são tomados e confirmam que o balanceamento de carga foi alcançado.
• A aplicação de rotas estáticas permite uma série de maneiras pelas quais as rotas podem ser manipuladas para
atender aos requisitos de roteamento. É possível que a preferência de uma rota estática seja alterada com o
propósito de permitir a preferência de uma rota estática em relação a outra, ou quando usada com outros
protocolos, para garantir que a rota estática seja preferida ou seja dada preferência ao roteamento alternativo
protocolo.

• O valor de preferência padrão de uma rota estática é 60, portanto, ajustando esse valor de preferência, uma
determinada rota estática pode ser tratada com preferência desigual sobre qualquer outra rota, incluindo outras
rotas estáticas. No exemplo dado, existem duas rotas estáticas em dois segmentos físicos de LAN, embora
normalmente ambas as rotas estáticas sejam consideradas iguais, a segunda rota recebeu uma preferência
menor (valor mais alto), fazendo com que seja removida da tabela de roteamento. O princípio de uma rota
estática flutuante significa que a rota com uma preferência menor será aplicada à tabela de roteamento, caso a
rota primária falhe.
• Ao usar o exibir tabela de roteamento de IP comando, é possível que os resultados da alteração do valor de
preferência que resulta na rota estática flutuante, sejam observados. Normalmente, duas rotas de custo igual
seriam exibidas na tabela de roteamento definindo o mesmo destino, no entanto, tendo valores alternativos de
próximo salto e interfaces de saída. Neste caso, no entanto, apenas uma instância pode ser vista, contendo o
valor de preferência de rota estática padrão de 60. Como a segunda rota estática agora tem um valor de
preferência de 100, ela não é imediatamente incluída na tabela de roteamento, pois não é mais considerada
uma rota ideal.
• No caso de a rota estática primária falhar como resultado de falha de link físico ou através da desativação de
uma interface, a rota estática não será mais capaz de fornecer uma rota para o destino pretendido e, portanto,
será removida da tabela de roteamento . A rota estática flutuante provavelmente se tornará a próxima melhor
opção para atingir o destino pretendido e será adicionada à tabela de roteamento para permitir que os pacotes
sejam transmitidos por um segundo caminho alternativo para o destino pretendido, permitindo a continuidade
em caso de falha.

• Quando a conexão física para a rota original for restaurada, a rota estática original também assumirá o controle
da rota estática flutuante atual, para a qual a rota será restaurada na tabela de roteamento, fazendo com que a
rota estática flutuante mais uma vez aguarde o aplicativo.
• A rota estática padrão é uma forma especial de rota estática aplicada a redes em que o endereço de destino é
desconhecido, para permitir que um caminho de encaminhamento seja disponibilizado. Isso fornece um meio
eficaz de rotear o tráfego de um destino desconhecido para um roteador ou gateway que pode ter conhecimento
do caminho de encaminhamento em uma rede corporativa.

• A rota padrão depende do endereço “qualquer rede” de 0.0.0.0 para corresponder a qualquer rede para a qual uma
correspondência não possa ser encontrada na tabela de roteamento e fornece um caminho de encaminhamento
padrão para o qual os pacotes de todos os destinos de rede desconhecidos devem ser roteados. No exemplo, uma
rota estática padrão foi implementada no RTA, identificando que caso sejam recebidos pacotes de uma rede
desconhecida, tais pacotes devem ser encaminhados ao destino 10.0.12.2.

• Em termos de tomada de decisão da tabela de roteamento, como uma rota estática, a rota padrão mantém uma preferência de 60

por padrão, no entanto, opera como um último recurso em termos da regra de correspondência mais longa no processo de

correspondência de rota.
• A configuração da rota estática, uma vez configurada, aparecerá na tabela de roteamento do roteador. o exibir
tabela de roteamento de IP comando é usado para ver este detalhe. Como resultado, todas as rotas no exemplo
onde não estão associadas a nenhuma outra rota na tabela de roteamento serão encaminhadas para o destino
do próximo salto de
10.0.12.2 através da interface Gigabit Ethernet 0/0/0.
• Uma rota estática flutuante pode ser implementada ajustando o valor de preferência de uma rota estática onde duas

rotas estáticas suportam balanceamento de carga.

• Uma rota estática padrão pode ser implementada na tabela de roteamento especificando o endereço de 'qualquer
rede' de 0.0.0.0 como o endereço de destino junto com um endereço próximo da interface para a qual os pacotes
capturados por esta rota estática padrão devem ser encaminhados.
• Open Shortest Path First ou OSPF é considerado um protocolo de estado de link que é capaz de detectar
rapidamente mudanças topológicas dentro do sistema autônomo e estabelecer rotas sem loop em um curto período
de tempo, com sobrecarga de comunicação adicional mínima para negociar mudanças de topologia entre roteadores
de peering. O OSPF também lida com problemas de escalabilidade que ocorrem quando a comunicação entre um
número crescente de roteadores torna-se tão extrema que começa a levar à instabilidade dentro do sistema
autônomo. Isso é gerenciado através do uso de áreas que limitam o escopo da comunicação do roteador a um grupo
isolado dentro do sistema autônomo, permitindo que redes pequenas, médias e até grandes sejam suportadas por
OSPF. O protocolo também pode funcionar sobre outros protocolos, como MPLS, um protocolo de comutação de
etiquetas, para fornecer escalabilidade de rede, mesmo em locais geograficamente dispersos. Em termos de
descoberta de caminho ideal, o OSPF fornece métricas de rota ricas que fornecem mais precisão do que métricas de
rota aplicadas a protocolos como RIP para garantir que as rotas sejam otimizadas, com base não apenas na
distância, mas também na velocidade do link.
• A convergência do OSPF requer que todo e qualquer roteador executando ativamente o protocolo OSPF tenha
conhecimento do estado de todas as interfaces e adjacências (relação entre os roteadores aos quais estão
conectados), a fim de estabelecer o melhor caminho para cada rede. Isso é formado inicialmente por meio da
inundação de Anúncios de estado de link (LSA), que são unidades de dados que contêm informações como
redes conhecidas e estados de link para cada interface dentro de um domínio de roteamento. Cada roteador
usará o LSA recebido para construir um banco de dados de estado de link (LSDB) que fornece a base para
estabelecer a árvore do caminho mais curto para cada rede, cujas rotas são finalmente incorporadas à tabela de
roteamento IP.
• A ID do roteador é um valor de 32 bits atribuído a cada roteador executando o protocolo OSPF. Este valor
identifica exclusivamente o roteador dentro de um sistema autônomo. A ID do roteador pode ser atribuída
manualmente ou pode ser obtida de um endereço configurado. Se uma interface lógica (loopback) tiver sido
configurada, a ID do roteador será baseada no endereço IP da interface lógica mais alta configurada, caso
existam várias interfaces lógicas.

• Se nenhuma interface lógica tiver sido configurada, o roteador usará o endereço IP mais alto configurado em uma

interface física. Qualquer roteador executando o OSPF pode ser reiniciado usando o recurso Graceful Restart para

renovar a ID do roteador caso uma nova ID do roteador seja configurada. Recomenda-se que a ID do roteador seja

configurada manualmente para evitar alterações inesperadas na ID do roteador no caso de alterações de endereço

de interface.
• O OSPF suporta vários tipos de rede e, em cada caso, aplicará um comportamento diferente em termos de
como os relacionamentos com vizinhos são formados e como a comunicação é facilitada. Ethernet representa
uma forma de rede de broadcast que envolve vários roteadores conectados ao mesmo segmento de rede. Um
dos principais problemas enfrentados diz respeito a como a comunicação ocorre entre os roteadores vizinhos
para minimizar a sobrecarga de roteamento OSPF. Se uma rede Ethernet for estabelecida, o tipo de rede de
transmissão será aplicado automaticamente no OSPF.
• Onde dois roteadores são estabelecidos em uma topologia ponto a ponto, o tipo de rede aplicado irá variar
dependendo do meio e da tecnologia de camada de link aplicada. Conforme mencionado, o uso de um meio
Ethernet resultará na atribuição automática do tipo de rede de transmissão para OSPF. Onde o meio físico é
serial, o tipo de rede é considerado ponto a ponto. As formas comuns de protocolos que operam sobre mídia
serial na camada de link incluem protocolo ponto a ponto (PPP) e controle de link de dados de alto nível
(HDLC).
• O OSPF pode operar em redes de acesso múltiplo que não suportam transmissões. Essas redes incluem
Frame Relay e ATM que normalmente operam usando topologias do tipo hub e spoke, que dependem do uso
de circuitos virtuais para que a comunicação seja alcançada. O OSPF pode especificar dois tipos de redes que
podem ser aplicadas a links conectados a tais ambientes. O tipo de rede Non-Broadcast Multi Access (NBMA)
emula uma rede de broadcast e, portanto, requer que cada interface de peering seja parte do mesmo segmento
de rede. Ao contrário de uma rede de broadcast, o NBMA encaminha pacotes OSPF como um unicast,
exigindo, assim, que várias instâncias do mesmo pacote sejam geradas para cada destino.

• Ponto a multiponto também pode ser aplicado como o tipo de rede para cada interface, caso em que um
comportamento do tipo ponto a ponto é aplicado. Isso significa que cada peering deve ser associado a
diferentes segmentos de rede. Os roteadores designados são associados a redes de transmissão e, portanto,
são implementados por redes NBMA. O mais importante é o posicionamento de um DR que deve ser atribuído
no nó do hub da arquitetura hub e spoke para garantir que todos os nós possam se comunicar com o DR.
• A fim de endereçar e otimizar a comunicação do OSPF em redes de broadcast, o OSPF implementa um
roteador designado (DR) que atua como um ponto central de comunicação para todos os outros roteadores
associados a uma rede de broadcast em pelo menos uma interface. Em uma rede de broadcast teórica que
não aplica um DR, pode-se entender que a comunicação segue uma fórmula n (n-1) / 2, onde n representa o
número de interfaces de roteador participantes do OSPF. No exemplo dado, isso se refere a 6 adjacências
entre todos os roteadores. Quando o DR é aplicado, todos os roteadores estabelecem uma relação com o DR,
ao qual é responsável por atuar como um ponto central de comunicação para todos os roteadores vizinhos em
uma rede de broadcast.

• Um Roteador designado de backup (BDR) é um roteador eleito para assumir o controle do DR caso falhe. Como
tal, é necessário que o BDR estabeleça um banco de dados de estado de link como o do DR para garantir a
sincronização. Isso significa que todos os roteadores vizinhos também devem se comunicar com o BDR em uma
rede de broadcast. Com a aplicação do DR e BDR, o número de associações é reduzido de 6 para 5, uma vez
que o RTA e o RTB precisam apenas se comunicar com o DR e o BDR. Isso pode parecer ter um efeito mínimo,
no entanto, quando é aplicado a uma rede contendo, por exemplo, 10 roteadores, ou seja, (10 * 9) / 2, a eficiência
de comunicação resultante torna-se aparente.
• O OSPF cria adjacências entre roteadores vizinhos com o objetivo de trocar informações de roteamento. Nem todos
os dois roteadores vizinhos se tornarão adjacentes, especialmente quando um dos dois roteadores que estabelecem
uma adjacência é considerado como não sendo o DR ou BDR. Esses roteadores são conhecidos como DROther e
apenas reconhecem a presença do DROther, mas não estabelecem comunicação completa; este estado é
conhecido como estado vizinho. Os roteadores DROther, entretanto, formam adjacência total com os roteadores DR
e BDR para permitir a sincronização do banco de dados de estado do link dos roteadores DR e BDR com cada um
dos roteadores DROther. Esta sincronização é alcançada estabelecendo um estado adjacente com cada DROther.

• Uma adjacência está ligada à rede que os dois roteadores têm em comum. Se dois roteadores tiverem várias
redes em comum, eles podem ter várias adjacências entre eles.
• Cada roteador participante do OSPF fará a transição por meio de vários estados de link para atingir um estado vizinho

ou um estado adjacente. Todos os roteadores começam no estado inativo na inicialização e passam por um processo

de descoberta de vizinho, que envolve, em primeiro lugar, tornar a presença de um roteador conhecida na rede OSPF

por meio de um pacote Hello. Ao executar esta ação, o roteador fará a transição para um estado inicial.

• Uma vez que o roteador recebe uma resposta na forma de um pacote Hello contendo a ID do roteador do
roteador que está recebendo a resposta, um estado de 2 vias será alcançado e um relacionamento vizinho
formado. No caso de redes NBMA, um estado de tentativa é alcançado quando a comunicação com o vizinho se
torna inativa e é feita uma tentativa de restabelecer a comunicação por meio do envio periódico de pacotes
Hello. Os roteadores que não alcançam um relacionamento adjacente permanecerão em um estado vizinho com
um estado de comunicação bidirecional.

• Roteadores como DR e BDR construirão um estado vizinho adjacente com todos os outros roteadores vizinhos e,

portanto, devem trocar informações de estado de link para estabelecer um banco de dados de estado de link completo.

Isso requer que os roteadores de peering que estabelecem uma adjacência negociem primeiro a troca de informações

de estado do link (ExStart) antes de prosseguir com a troca de informações resumidas sobre as redes que conhecem.

Os vizinhos podem identificar as rotas das quais não têm conhecimento ou sobre as quais não têm informações

atualizadas e, portanto, podem solicitar detalhes adicionais para essas rotas como parte do estado de carregamento.

Uma relação totalmente sincronizada entre vizinhos é determinada pelo estado completo em que ambos os roteadores

de peering podem ser considerados adjacentes.


• A descoberta de vizinho é obtida por meio do uso de pacotes Hello que são gerados em intervalos com base em
um temporizador Hello, que por padrão é a cada 10 segundos para tipos de rede broadcast e ponto a ponto;
enquanto para os tipos de rede NBMA e ponto a multiponto, o intervalo de saudação é de 30 segundos. O pacote
hello contém este período de intervalo, junto com um campo de prioridade do roteador que permite aos vizinhos
determinar o vizinho com a ID de roteador mais alta para identificação do DR e BDR em redes de broadcast e
NBMA.

• Um período especificando quanto tempo um pacote de hello é válido antes que o vizinho seja considerado
perdido também deve ser definido, e isso é realizado como o intervalo morto do roteador dentro do pacote de
hello. Esse intervalo morto é definido por padrão como quatro vezes o intervalo hello, sendo, portanto, 40
segundos para redes de broadcast e ponto a ponto e 120 segundos para redes NBMA e ponto a multiponto. Além
disso, a ID do roteador do DR e do BDR é transportada, quando aplicável, com base na rede para a qual o
pacote de hello é gerado.
• Após a descoberta do vizinho, a escolha de DR pode ocorrer dependendo do tipo de rede do segmento de rede.
As redes de transmissão e NMBA realizarão a seleção de DR. A eleição do DR depende de uma prioridade
atribuída a cada interface que participa do processo de eleição do DR. Esse valor de prioridade é definido como
1 por padrão e uma prioridade mais alta representa um candidato a DR melhor.

• Se uma prioridade de 0 for definida, a interface do roteador não participará mais da eleição para se tornar o DR
ou BDR. Pode ser que onde as conexões ponto a ponto (usando Ethernet como meio físico) são configuradas
para suportar um tipo de rede de broadcast, a eleição de DR desnecessária ocorrerá, o que gera tráfego de
protocolo excessivo. Portanto, é recomendado que o tipo de rede seja configurado como um tipo de rede ponto
a ponto.
• Para melhorar a eficiência da transição para um novo Roteador Designado, um Roteador Designado de
Backup é designado para cada transmissão e rede NBMA. O Roteador designado de backup também é
adjacente a todos os roteadores na rede e se torna o Roteador designado quando o Roteador designado
anterior falha. Se não houvesse um Roteador designado de backup presente, novas adjacências teriam que
ser formadas entre o novo Roteador designado e todos os outros roteadores conectados à rede.

• Parte do processo de formação de adjacências envolve a sincronização de bancos de dados de link-state, o que
pode levar muito tempo. Durante esse tempo, a rede não estaria disponível para o trânsito de dados. O roteador
designado de backup elimina a necessidade de formar essas adjacências, uma vez que elas já existem. Isso
significa que o período de interrupção no tráfego de trânsito dura apenas o tempo necessário para inundar os
novos LSAs (que anunciam o novo Roteador Designado). O Roteador designado de backup também é eleito pelo
pacote Hello. Cada pacote Hello tem um campo que especifica o Roteador designado de backup para a rede.
• Em um algoritmo de roteamento link-state, é muito importante que todos os bancos de dados de link-state dos roteadores

permaneçam sincronizados. O OSPF simplifica isso exigindo que apenas roteadores adjacentes permaneçam sincronizados.

O processo de sincronização começa assim que os roteadores tentam ativar a adjacência. Cada roteador descreve seu

banco de dados enviando uma sequência de pacotes de descrição do banco de dados para seu vizinho. Cada pacote de

descrição do banco de dados descreve um conjunto de LSAs pertencentes ao banco de dados do roteador.

• Quando o vizinho vê um LSA que é mais recente do que sua própria cópia do banco de dados, ele nota que esse LSA mais

recente deve ser solicitado. Este envio e recebimento de pacotes de descrição de banco de dados é denominado

"Processo de troca de banco de dados". Durante esse processo, os dois roteadores formam uma relação mestre / escravo.

Cada pacote de descrição do banco de dados possui um número de sequência. Os pacotes de descrição do banco de

dados enviados pelo mestre são reconhecidos pelo escravo através do eco do número de seqüência.
• Durante e após o processo de troca de banco de dados, cada roteador tem uma lista dos LSAs para os quais o
vizinho tem instâncias mais atualizadas. O pacote Link State Request é usado para solicitar as partes do banco
de dados do vizinho que estão mais atualizadas. Pode ser necessário usar vários pacotes de solicitação de
estado de link.

• Os pacotes de atualização de estado de link implementam a inundação de LSAs. Cada pacote de atualização de estado

de link carrega uma coleção de LSAs um salto mais longe de sua origem. Vários LSAs podem ser incluídos em um único

pacote. Em redes de transmissão, os pacotes de atualização do estado do link são multicast. O endereço IP de destino

especificado para o pacote de atualização do estado do link depende do estado da interface. Se o estado da interface for

DR ou Backup, o endereço AllSPFRouters (224.0.0.5) deve ser usado. Caso contrário, o endereço AllDRouters

(224.0.0.6) deve ser usado. Em redes sem difusão, pacotes separados de atualização de estado de link devem ser

enviados, como unicast, para cada vizinho adjacente (ou seja, aqueles em um estado de troca ou superior). Os endereços

IP de destino para esses pacotes são os endereços IP dos vizinhos.

• Quando o processo de descrição do banco de dados for concluído e todas as solicitações de estado do link forem atendidas, os

bancos de dados serão considerados sincronizados e os roteadores serão marcados como totalmente adjacentes. Neste momento,

a adjacência está totalmente funcional e é anunciada nos roteadores-LSAs dos dois roteadores.
• O OSPF calcula o custo de uma interface com base na largura de banda da interface. A fórmula de cálculo é:
custo da interface = valor de referência de
largura de banda / largura de banda. O valor de referência da largura de banda é configurável para o qual o padrão é 100

Mbps. Com a fórmula 100000000 / largura de banda, isso dá uma métrica de custo de 1562 para uma porta serial de 64

kbit / s, 48 para uma interface E1 (2,048 Mbit / s) e um custo de 1 para Ethernet (100 Mbit / s) ou superior.

• Para ser capaz de distinguir entre interfaces de velocidade mais alta, é imperativo que a métrica de custo seja
ajustada para corresponder às velocidades atualmente suportadas. Os comandos bandwidthreference permitem que
a métrica seja alterada mudando o valor de referência da largura de banda na fórmula de custo. Quanto maior o valor,
mais precisa é a métrica. Onde velocidades de 10 Gb estão sendo suportadas, é recomendado que o valor de
referência de largura de banda seja aumentado para '10000' ou 1010 / largura de banda para fornecer métricas de 1,
10 e 100 para links de largura de banda de 10 Gb, 1 Gb e 100 Mb, respectivamente.

• Alternativamente, o custo pode ser configurado manualmente usando o comando ospf cost para definir um valor de custo

para uma determinada interface. O valor do custo varia de 1 a 65535 com um valor de custo padrão de 1.
• Um roteador que atingiu um estado completo é considerado como tendo recebido todos os anúncios de estado de
link (LSA) e sincronizado seu banco de dados de estado de link (LSDB) com o dos vizinhos adjacentes. As
informações de estado de link coletadas no banco de dados de estado de link são então usadas para calcular o
caminho mais curto para cada rede. Cada roteador confia apenas nas informações do LSDB para calcular de forma
independente o caminho mais curto para cada destino, em vez de depender de informações de rota selecionadas de
pontos que são consideradas a melhor rota para um destino. O cálculo da árvore do caminho mais curto, entretanto,
significa que cada roteador deve utilizar recursos adicionais para realizar esta operação.
• Redes menores podem envolver um número selecionado de roteadores que operam como parte do domínio OSPF. Esses

roteadores são considerados parte de uma área representada por um banco de dados de estado de link idêntico para

todos os roteadores dentro do domínio. Como uma única área, o OSPF pode ser atribuído a qualquer número de área, no

entanto, para fins de implementação de design futuro, é recomendado que esta área seja atribuída como área

0
• A necessidade de encaminhar anúncios de estado de link e cálculo subsequente do caminho mais curto com base

no banco de dados de estado de link torna-se cada vez mais complexa à medida que mais e mais roteadores se

tornam parte do domínio OSPF. Como tal, o OSPF é capaz de suportar uma estrutura hierárquica para limitar o

tamanho do banco de dados de estado do link e o número de cálculos que devem ser executados ao determinar o

caminho mais curto para uma determinada rede.

• A implementação de várias áreas permite que um domínio OSPF compartimentalize o processo de cálculo com base em

um banco de dados de estado de link que é apenas idêntico para cada área, mas fornece as informações para alcançar

todos os destinos dentro do domínio OSPF. Certos roteadores conhecidos como roteadores de fronteira de área (ABR)

operam entre áreas e contêm vários bancos de dados de estado de link para cada área à qual o ABR está conectado. A

área 0 deve ser configurada onde o OSPF de várias áreas existe e para a qual todo o tráfego enviado entre as áreas

geralmente precisa atravessar a área 0, a fim de garantir que os loops de roteamento não ocorram.
• O estabelecimento do OSPF dentro de um domínio AS exige que cada roteador que participará do OSPF primeiro
habilite o processo OSPF. Isso é obtido usando o comando ospf [id do processo], onde o ID do processo pode ser
atribuído e representa o processo ao qual o roteador está associado. Se roteadores receberem diferentes números
de ID de processo, bancos de dados de estado de link separados serão criados com base em cada ID de processo
individual. Onde nenhum ID de processo é atribuído, o ID de processo padrão de 1 será usado. O ID do roteador
também pode ser atribuído usando o comando ospf [id do processo] [id do roteador <id do roteador>], onde <id do
roteador> se refere ao ID que deve ser atribuído ao roteador, tendo em mente que um o valor de ID mais alto
representa o DR em redes de broadcast e NBMA.

• As informações entre parênteses refletem o processo e nível do ospf no qual os parâmetros do ospf podem ser
configurados, incluindo a área à qual cada link (ou interface) está associado. As redes que devem ser anunciadas
em uma determinada área são determinadas pelo uso do comando network. A máscara é representada como uma
máscara curinga para a qual um valor de bit de 0 representa os bits que são fixos (por exemplo, id de rede) e onde
os valores de bit na máscara representam um valor de 1, o endereço pode representar qualquer valor.
• A configuração do relacionamento vizinho entre os pares OSPF é verificada por meio do comando display ospf
peer. Os atributos associados à conexão de mesmo nível são listados para fornecer uma explicação clara da
configuração. Atributos importantes incluem a área em que a associação de pares é estabelecida, o estado do
estabelecimento de pares, a associação mestre / escravo para negociação de adjacência a fim de atingir o
estado completo e também as atribuições de DR e BDR que destacam que o link está associado com um tipo
de rede de transmissão.
• O OSPF é capaz de oferecer suporte à autenticação para garantir que as rotas sejam protegidas de ações
maliciosas que podem resultar da manipulação ou danos à topologia e rotas OSPF existentes. O OSPF
permite o uso de autenticação simples, bem como autenticação criptográfica, que fornece proteção
aprimorada contra ataques potenciais.

• A autenticação é atribuída por interface com o comando para autenticação simples do modo de autenticação
ospf {simple [[plain] <plain-text> | cifra <texto cifrado>] | null} em que plain aplica uma senha de texto não
criptografado, cifra uma senha de texto cifrado para ocultar o conteúdo original e null para indicar uma
autenticação nula.

• A autenticação criptográfica é aplicada usando o modo de autenticação ospf {md5 | hmac-md5} [id-chave {texto
<simples> | comando [cipher] <texto cifrado>}]. MD5 representa um algoritmo criptográfico para proteger a
autenticação no link, com sua configuração demonstrada no exemplo fornecido. A chave identifica um ID de
chave de autenticação exclusivo da autenticação cifrada da interface. O ID da chave deve ser consistente com
o do par.
• Onde a autenticação é aplicada, é possível implementar a depuração no terminal para visualizar o processo de
autenticação. Como a depuração pode envolver muitos eventos, o comando debugging ospf packet deve ser
usado para especificar que a depuração deve ser realizada apenas para pacotes específicos de OSPF. Como
resultado, o processo de autenticação pode ser visto para validar se a configuração de autenticação foi
implementada com sucesso.
• Freqüentemente, é necessário controlar o fluxo de informações de roteamento e limitar o intervalo para o qual esses
protocolos de roteamento podem se estender. Este é particularmente o caso de conexão com redes externas das
quais o conhecimento das rotas internas deve ser protegido. Para conseguir isso, o comando de interface silenciosa
pode ser aplicado como um meio de restringir toda a comunicação OSPF por meio da interface na qual o comando é
implementado.

• Depois que uma interface OSPF é configurada para estar no estado silencioso, a interface ainda pode anunciar suas

rotas diretas. Os pacotes de saudação na interface, no entanto, serão bloqueados e nenhuma relação de vizinho pode

ser estabelecida na interface. O comando silent-interface [interface-type interface-number] pode ser usado para definir

uma interface específica que deve restringir a operação OSPF ou, alternativamente, o comando silentinterface all

pode ser usado para garantir que todas as interfaces em um processo específico sejam impedidas de participar no

OSPF.
• A implementação da interface silenciosa por interface significa que a interface específica deve ser observada
para validar a aplicação bem-sucedida do comando de interface silenciosa. Por meio do comando display ospf
<process_id> interface <interface>, onde a interface representa a interface à qual foi aplicado o comando
silent interface, é possível validar a implementação da interface silenciosa.
• O intervalo morto é um valor de cronômetro usado para determinar se a propagação de pacotes Hello OSPF
cessou. Esse valor é equivalente a quatro vezes o intervalo Hello ou 40 segundos por padrão em redes de
transmissão. No caso de o intervalo morto chegar a zero, o relacionamento do vizinho OSPF será encerrado.

• O DR e o BDR usam o endereço multicast 224.0.0.6 para ouvir as atualizações do estado do link quando o tipo de
rede OSPF é definido como broadcast.
• As redes corporativas geralmente são compostas de vários sistemas finais que requerem atribuição de
endereço IP para se conectar ao segmento de rede ao qual o sistema final está conectado. Para redes
pequenas, um número mínimo de sistemas finais conectados à rede permite o gerenciamento simples do
endereçamento de todos os sistemas finais.

• Para redes de médio e grande porte, no entanto, torna-se cada vez mais difícil configurar manualmente os
endereços IP com maior probabilidade de duplicação de endereçamento, bem como configuração incorreta devido
a erro humano e, portanto, a necessidade de implementar uma solução de gerenciamento centralizado em toda a
rede torna-se cada vez mais proeminente. O protocolo de configuração dinâmica de hosts (DHCP) é implementado
como uma solução de gerenciamento para permitir a alocação dinâmica de endereços para sistemas finais fixos e
temporários existentes que acessam o domínio da rede.

• Em alguns casos, também é possível que haja mais hosts do que endereços IP disponíveis em uma rede.
Alguns hosts não podem receber um endereço IP fixo e precisam obter endereços IP dinamicamente usando o
servidor DHCP. Apenas alguns hosts em uma rede requerem endereços IP fixos.
• O DHCP oferece suporte a três mecanismos para alocação de endereços IP. O método de alocação automática envolve a

atribuição de um endereço IP permanente a um cliente por DHCP. O uso de alocação dinâmica emprega DHCP para

atribuir um endereço IP a um cliente por um período limitado de tempo ou pelo menos até que o cliente abandone

explicitamente o endereço IP.

• O terceiro mecanismo é conhecido como alocação manual, para a qual o endereço IP de um cliente é atribuído
pelo administrador da rede e o DHCP é usado apenas para lidar com a atribuição do endereço definido
manualmente ao cliente. A alocação dinâmica é o único dos três mecanismos que permite a reutilização
automática de um endereço que não é mais necessário para o cliente ao qual foi atribuído. Portanto, a alocação
dinâmica é particularmente útil para atribuir um endereço a um cliente que será conectado à rede apenas
temporariamente ou para compartilhar um conjunto limitado de endereços IP entre um grupo de clientes que não
precisam de endereços IP permanentes.

• A alocação dinâmica também pode ser uma boa escolha para atribuir um endereço IP a um novo cliente

permanentemente conectado a uma rede, onde os endereços IP são suficientemente escassos para que os endereços

possam ser recuperados quando os clientes antigos forem aposentados. A alocação manual permite que o DHCP seja

usado para eliminar o processo sujeito a erros de configurar manualmente hosts com endereços IP em ambientes onde

pode ser mais desejável gerenciar meticulosamente a atribuição de endereços IP.


• Um servidor DHCP e um cliente DHCP comunicam-se trocando vários tipos de mensagens. A comunicação
inicial depende da transmissão de uma mensagem DHCP Discover. Isso é transmitido por um cliente DHCP para
localizar um servidor DHCP quando o cliente tenta se conectar a uma rede pela primeira vez. Uma mensagem
de oferta DHCP é então enviada por um servidor DHCP para responder a uma mensagem DHCP Discover e
transportar informações de configuração.

• Uma mensagem de solicitação de DHCP é enviada depois que um cliente DHCP é inicializado, na qual ele transmite uma mensagem de
solicitação de DHCP para responder à mensagem de oferta de DHCP enviada por um servidor DHCP. Uma mensagem de solicitação
também é enviada depois que um cliente DHCP é reiniciado, momento em que ele transmite uma mensagem de solicitação de DHCP
para confirmar a configuração, como o endereço IP atribuído. Uma mensagem de solicitação DHCP também é enviada depois que um
cliente DHCP obtém um endereço IP, para estender a concessão do endereço IP.

• Uma mensagem DHCP ACK é enviada por um servidor DHCP para reconhecer a mensagem de solicitação
DHCP de um cliente DHCP. Após receber uma mensagem DHCP ACK, o cliente DHCP obtém os parâmetros de
configuração, incluindo o endereço IP. Nem todos os casos, entretanto, resultarão na atribuição do endereço IP
a um cliente. A mensagem DHCP NAK é enviada por um servidor DHCP para rejeitar a mensagem de
solicitação DHCP de um cliente DHCP quando o endereço IP atribuído ao cliente DHCP expirar ou no caso de o
cliente DHCP mudar para outra rede.

• Uma mensagem de recusa de DHCP é enviada por um cliente DHCP para notificar o servidor DHCP de que o endereço
IP atribuído está em conflito com outro endereço IP. O cliente DHCP então aplicará ao servidor DHCP para outro
endereço IP.

• Uma mensagem de liberação de DHCP é enviada por um cliente DHCP para liberar seu endereço IP. Depois de receber uma
mensagem de liberação do DHCP, o servidor DHCP atribui este endereço IP a outro cliente DHCP.

• Um tipo de mensagem final é o DHCP Informmessage e é enviado por um cliente DHCP para obter outras
informações de configuração de rede, como o endereço do gateway e o endereço do servidor DNS, após o
cliente DHCP obter um endereço IP.
• Os dispositivos da série AR2200 e S5700 podem operar como um servidor DHCP para atribuir endereços IP a
usuários online. Os pools de endereços são usados para definir os endereços que devem ser alocados aos sistemas
finais. Existem duas formas gerais de pools de endereços que podem ser usadas para alocar endereços, o pool de
endereços global e o pool de endereços de interface.

• O uso de um pool de endereços de interface permite que apenas os sistemas finais conectados ao mesmo
segmento de rede que a interface tenham endereços IP alocados desse pool. O pool de endereços global, uma vez
configurado, permite que todos os sistemas finais associados ao servidor obtenham endereços IP desse pool de
endereços e é implementado usando o comando global select dhcp para identificar o pool de endereços global. No
caso do pool de endereços de interface, o comando dhcp select interface identifica a interface e o segmento de
rede aos quais o pool de endereços de interface está associado.

• O pool de endereços de interface tem precedência sobre o pool de endereços global. Se um pool de endereços for

configurado em uma interface, os clientes conectados à interface obterão endereços IP do pool de endereços de

interface, mesmo se um pool de endereços global estiver configurado. No switch S5700, apenas interfaces lógicas

VLANIF podem ser configuradas com pools de endereços de interface.


• A aquisição de um endereço IP e outras informações de configuração requer que o cliente faça contato com um
servidor DHCP e recupere por meio de solicitação as informações de endereçamento para se tornarem parte do
domínio IP. Esse processo começa com o processo de descoberta de IP no qual o cliente DHCP procura um
servidor DHCP. O cliente DHCP transmite uma mensagem DHCP Discover e os servidores DHCP respondem à
mensagem Discover.

• A descoberta de um ou vários servidores DHCP resulta em cada servidor DHCP oferecendo um endereço IP
ao cliente DHCP. Depois de receber a mensagem DHCP Discover, cada servidor DHCP seleciona um
endereço IP não atribuído do pool de endereços IP e envia uma mensagem de oferta DHCP com o endereço
IP atribuído e outras informações de configuração ao cliente.

• Se vários servidores DHCP enviarem mensagens de oferta DHCP ao cliente, o cliente aceitará a primeira
mensagem de oferta DHCP recebida. O cliente então transmite uma mensagem de solicitação DHCP com o
endereço IP selecionado. Após receber a mensagem de solicitação DHCP, o servidor DHCP que oferece o
endereço IP envia uma mensagem DHCP ACK ao cliente DHCP. A mensagem DHCP ACK contém o endereço IP
oferecido e outras informações de configuração.

• Ao receber a mensagem DHCP ACK, o cliente DHCP transmite pacotes ARP gratuitos para detectar se algum
host está usando o endereço IP alocado pelo servidor DHCP. Se nenhuma resposta for recebida dentro de
um tempo especificado, o cliente DHCP usa este endereço IP. Se um host estiver usando este endereço IP, o
cliente DHCP enviará o pacote DHCP Decline ao servidor DHCP, relatando que o endereço IP não pode ser
usado, após o que o cliente DHCP solicita outro endereço IP.
• Depois de obter um endereço IP, o cliente DHCP entra no estado de vinculação. Três temporizadores são definidos

no cliente DHCP para controlar a atualização, a revinculação e a expiração do aluguel. Ao atribuir um endereço IP a

um cliente DHCP, um servidor DHCP especifica valores para os temporizadores.

• Se o servidor DHCP não definir os valores dos temporizadores, o cliente DHCP usará os valores padrão. Os valores
padrão definem que quando restar 50% do período de concessão, o processo de renovação da liberação deve
começar, para o qual um cliente DHCP deve renovar sua concessão de endereço IP. O cliente DHCP envia
automaticamente uma mensagem de solicitação DHCP ao servidor DHCP que alocou um endereço IP ao cliente
DHCP.

• Se o endereço IP for válido, o servidor DHCP responde com uma mensagem DHCP ACK para autorizar o cliente DHCP a uma

nova concessão e, em seguida, o cliente entra novamente no estado de vinculação. Se o cliente DHCP receber uma mensagem

DHCP NAK do servidor DHCP, ele entrará no estado de inicialização.


• Depois que o cliente DHCP envia uma mensagem de solicitação de DHCP para estender a concessão, o cliente DHCP

permanece em um estado de atualização e espera por uma resposta. Se o cliente DHCP não receber uma mensagem de

resposta DHCP do servidor DHCP depois que o temporizador de religação do servidor DHCP expirar, o que ocorre por

padrão quando 12,5% do período de concessão permanece, o cliente DHCP assume que o servidor DHCP original está

indisponível e começa a transmitir uma mensagem de solicitação DHCP, para a qual qualquer servidor DHCP na rede pode

responder com uma mensagem DHCP ACK ou NAK.

• Se a mensagem recebida for uma mensagem DHCP ACK, o cliente DHCP retorna ao estado de vinculação e zera o

cronômetro de renovação da concessão e o cronômetro de vinculação do servidor. Se todas as mensagens recebidas

forem mensagens DHCP NAK, o cliente DHCP volta ao estado de inicialização. Neste momento, o cliente DHCP deve

parar de usar este endereço IP imediatamente e solicitar um novo endereço IP.


• O temporizador de concessão é o temporizador final no processo de expiração e, se o cliente DHCP não receber uma

resposta antes que o temporizador de expiração de concessão expire, o cliente DHCP deve parar de usar o endereço

IP atual imediatamente e retornar ao estado de inicialização. O cliente DHCP então envia uma mensagem DHCP

DISCOVER para solicitar um novo endereço IP, reiniciando assim o ciclo DHCP.
• Existem duas formas de configuração de pool com suporte no DHCP, que incluem definir um pool global ou um
pool baseado em interface. o interface de seleção dhcp
comando é usado para associar uma interface com o pool de endereços de interface para fornecer informações
de configuração para hosts conectados. O exemplo demonstra como a interface Gigabit Ethernet 0/0/0 foi
atribuída como parte de um pool de endereços de interface.
• Cada servidor DHCP definirá um ou vários pools que podem ser associados globalmente ou a uma
determinada interface. Para determinar os atributos do pool associados a uma interface, o comando display ip
pool interface <interface> é usado. O pool de DHCP conterá informações, incluindo o período de concessão
para cada endereço IP concedido, bem como o intervalo do pool compatível. No caso de outros atributos
serem suportados para propagação relacionada a DHCP para clientes, como gateway IP, máscara de
sub-rede e servidor DNS, eles também serão exibidos.
• O exemplo demonstra a configuração DHCP para um pool de endereços global que é atribuído à rede 10.2.2.0. O

comando dhcp enable é o pré-requisito para configurar funções relacionadas ao DHCP e entra em vigor somente

depois que o comando dhcp enable é executado. Um servidor DHCP requer que o comando ip pool seja configurado

na visualização do sistema para criar um pool de endereços IP e definir os parâmetros de pool de endereços IP,

incluindo um endereço de gateway, o período de concessão do endereço IP, etc. O servidor DHCP configurado pode

então atribuir endereços IP no Pool de endereços IP para clientes.

• Um servidor DHCP e seu cliente podem residir em diferentes segmentos de rede. Para permitir que o cliente se
comunique com o servidor DHCP, o comando gateway-list é usado para especificar um endereço de gateway de
saída para o pool de endereços global do servidor DHCP. O servidor DHCP pode então atribuir um endereço IP e o
endereço de gateway de saída especificado ao cliente. O endereço é configurado em notação decimal com pontos,
para a qual um máximo de oito endereços de gateway, separados por espaços, podem ser configurados.
• As informações sobre um pool também podem ser observadas por meio do uso do comando display ip pool.
Este comando fornecerá uma visão geral dos parâmetros de configuração gerais suportados por um pool
configurado, incluindo o gateway e a máscara de sub-rede para o pool, bem como estatísticas gerais que
permitem que um administrador monitore o uso atual do pool, para determinar o número de endereços
alocados, junto com outras estatísticas de uso.
• Endereços IP usados para alocação de servidor, como qualquer servidor DNS local, para evitar conflitos
de endereço.

• O período de concessão padrão para endereços IP atribuídos por DHCP é definido como um período igual a um dia.
• A implementação de um servidor FTP na rede corporativa permite backup e recuperação eficazes de arquivos
importantes do sistema e do usuário, que podem ser usados para manter a operação diária de uma rede
corporativa. Exemplos típicos de como um servidor FTP pode ser aplicado incluem o backup e a recuperação de
imagem VRP e arquivos de configuração. Isso também pode incluir a recuperação de arquivos de log do
servidor FTP para monitorar a atividade de FTP que ocorreu.
• A transferência de arquivos FTP depende de duas conexões TCP. O primeiro deles é uma conexão de controle
que é configurada entre o cliente FTP e o servidor FTP. O servidor habilita a porta comum 21 e, em seguida,
aguarda uma solicitação de conexão do cliente. O cliente então envia uma solicitação para configurar uma
conexão com o servidor. Uma conexão de controle sempre espera pela comunicação entre o cliente e o
servidor, transmite os comandos relacionados do cliente para o servidor, bem como as respostas do servidor
para o cliente.

• O servidor usa a porta TCP 20 para conexões de dados. Geralmente, o servidor pode abrir ou fechar uma conexão de

dados ativamente. Para arquivos enviados do cliente para o servidor na forma de fluxos, no entanto, apenas o cliente

pode fechar uma conexão de dados. O FTP transfere cada arquivo em fluxos, usando um indicador de Fim de Arquivo

(EOF) para identificar o fim de um arquivo. Portanto, é necessária uma nova conexão de dados para cada arquivo ou

lista de diretórios a ser transferido. Quando um arquivo está sendo transferido entre o cliente e o servidor, isso indica

que uma conexão de dados está configurada.


• Existem dois modos de transmissão FTP suportados pela Huawei, estes são o modo ASCII e o modo binário. O modo
ASCII é usado para texto, no qual os dados são convertidos da representação de caractere do remetente para "ASCII
de 8 bits" antes da transmissão. Simplificando, os caracteres ASCII são usados para separar os retornos de carro dos
avanços de linha. No modo binário, o remetente envia cada byte por byte do arquivo. Este modo é freqüentemente
usado para transferir arquivos de imagem e arquivos de programa para os quais os caracteres podem ser transferidos
sem conversão de formato.
• A implementação do serviço FTP pode ser obtida no roteador da série AR2200 e no switch da série S5700, para o
qual o serviço pode ser habilitado por meio do habilitar servidor ftp comando. Depois que a função de servidor FTP é
habilitada, os usuários podem gerenciar arquivos no modo FTP. o definir diretório ftp padrão comando define o
diretório de trabalho padrão para usuários de FTP. Onde nenhum diretório de trabalho FTP padrão for definido, o
usuário não conseguirá fazer login no roteador e, em vez disso, receberá uma mensagem notificando que o usuário
não tem autoridade para acessar nenhum diretório de trabalho.
• O acesso ao serviço FTP pode ser obtido atribuindo login de usuário individual para gerenciar o acesso por
usuário. AAA é usado para configurar a autenticação e autorização local. Uma vez que a visão AAA é inserida, o
usuário local pode ser criado, definindo uma conta de usuário e senha. A conta é capaz de se associar a uma
variedade de serviços, que são especificados usando o tipo de serviço comando, para permitir que o tipo de
serviço ftp seja suportado pelo AAA.

• Se o diretório ftp do usuário deve ser diferente do diretório padrão, o ftpdirectory comando pode ser usado para
especificar o diretório para o usuário. Se o número de conexões ativas possíveis com uma conta de usuário
local for limitado, o
limite de acesso o comando pode ser aplicado. Isso pode variar de 1 a 800 ou ilimitado onde um limite de acesso
não é aplicado.

• A configuração de um tempo limite ocioso ajuda a prevenir o acesso não autorizado no caso de uma janela de
sessão ficar ociosa por um período de tempo por um usuário. o tempo limite ocioso O comando é definido em
termos de minutos e segundos, com um tempo limite inativo de 0 0 representando que nenhum período de tempo
limite é aplicado. Finalmente, o nível de privilégio define o nível autorizado do usuário em termos dos comandos
que podem ser aplicados durante o estabelecimento da sessão ftp. Isso pode ser definido para qualquer nível de 0
a 15, com um valor maior indicando um nível mais alto do usuário.
• Após a configuração do serviço FTP no servidor FTP, é possível que os usuários estabeleçam uma conexão
entre o cliente e o servidor. Usar o comando ftp no cliente estabelecerá uma sessão através da qual a
autenticação AAA será usada para validar o usuário usando a autenticação de senha AAA. Se autenticado
corretamente, o cliente poderá configurar, bem como enviar / recuperar arquivos de e para o servidor FTP.
• Para que a conexão de controle e a conexão de dados do serviço FTP sejam estabelecidas com êxito, as
portas TCP 20 e 21 devem ser ativadas.

• Quando um usuário é considerado como sem autoridade para acessar qualquer diretório de trabalho, um
diretório de FTP padrão precisa ser definido. Isso é feito usando o comando set default ftp-directory <diretório
local>, onde o nome do diretório pode ser, por exemplo, o flash do sistema.
• O protocolo de rede de telecomunicações (Telnet) permite que um terminal faça login remotamente em qualquer
dispositivo que seja capaz de operar como um servidor telnet e fornece uma interface operacional interativa por
meio da qual o usuário pode realizar operações, da mesma maneira que é realizada localmente via uma
conexão de console. Os hosts remotos não precisam ser conectados diretamente a um terminal de hardware,
permitindo que os usuários aproveitem os recursos onipresentes do IP para gerenciar dispositivos remotamente
de quase qualquer lugar do mundo.
• Telnet opera em um princípio de modelo cliente / servidor para o qual uma conexão TCP telnet é estabelecida
entre uma porta do usuário e a porta telnet do servidor, que por padrão é atribuída como porta 23. O servidor
escuta nesta porta conhecida para tais conexões. Uma conexão TCP é full duplex e identificada pelas portas de
origem e destino. O servidor pode se envolver em muitas conexões simultâneas envolvendo sua porta bem
conhecida e portas de usuário que são atribuídas a partir de um intervalo de portas não conhecido.

• Os drivers do terminal telnet interpretam as teclas digitadas pelos usuários e as traduzem em um padrão de
caractere universal, baseado em um terminal virtual de rede (NVT) que opera como uma forma de intermediário
virtual entre sistemas, após o qual a transmissão via conexão TCP / IP para o servidor é executado. O servidor
decodifica os caracteres NVT e passa os caracteres decodificados para um driver de pseudo terminal que
existe para permitir que o sistema operacional receba os caracteres decodificados.
• O acesso ao serviço telnet geralmente envolve a autenticação do usuário antes que o acesso seja concedido.
Existem três modos principais que são definidos para autenticação telnet.
• O estabelecimento de um dispositivo operando como um servidor telnet geralmente usa um esquema de autenticação de

senha geral que é usado para todos os usuários que se conectam à interface vty do usuário. Uma vez que a

conectividade IP é estabelecida através da implementação de um esquema de endereçamento adequado, o senha do

modo de autenticação O conjunto de comandos é implementado para o intervalo vty, junto com a senha a ser usada.
• Após a configuração do dispositivo remoto que deve operar como um servidor telnet, o cliente é capaz de
estabelecer uma conexão telnet através do telnet e receba o prompt para autenticação. A senha de
autenticação deve corresponder à senha implementada no servidor telnet como parte da configuração de
autenticação de senha anterior. O usuário poderá então estabelecer uma conexão remota via telnet com o
dispositivo remoto operando como um servidor telnet e emular a interface de comando no cliente telnet local.
• Se um usuário não conseguir estabelecer uma conexão telnet, ele deverá verificar se o dispositivo que oferece
suporte ao serviço telnet está acessível. Se o dispositivo pode ser alcançado, a senha deve ser verificada. Se a
senha for considerada correta, o número de usuários atualmente acessando o dispositivo via telnet deve ser
verificado. Se for necessário estender o número de usuários que acessam o dispositivo através de telnet, o
comando user-interface maximum-vty <0-15> deve ser usado, onde 0-15 denota o número de usuários
suportados.
Recomendações

• Site de aprendizagem da Huawei

• http://learning.huawei.com/en

• Huawei e-Learning

• https://ilearningx.huawei.com/portal/#/portal/EBG/51

• Certificação Huawei

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_31 & lang = en

• Encontre treinamento

• http://support.huawei.com/learning/NavigationAction!createNavi?navId=_trai

ningsearch&lang=en

More Information

• Huawei learning APP

版权所有 © 201 9 华为技术有限公司

Você também pode gostar