Você está na página 1de 29

CISCO Accessible Theme

Mudar idioma para English

|

Busca | Glossário

Page 1 of 29

Índice do Curso:

9 Ethernet

6
6
Selecione
Selecione

CCNA Exploration - Fundamentos de Rede

9 Ethernet

9.0 Introdução ao Capítulo

9.0.1 Introdução ao Capítulo

Página 1:

Até este momento no curso, cada capítulo se concentrou nas diferentes funções de cada camada dos modelos de OSI

e TCP/IP, bem como em de que forma os protocolos são utilizados para suportar a comunicação de rede. Diversos

protocolos essenciais - TCP, UDP e IP - são continuamente mencionados nessas discussões porque fornecem a base de funcionamento das menores redes, bem como a maior delas, a Internet. Esses protocolos compõem a pilha de protocolos TCP/IP e como a Internet foi construída usando tais protocolos, a Ethernet agora é a tecnologia LAN predominante no mundo.

A Internet Engineering Task Force (IETF) mantém os protocolos e serviços funcionais para o conjunto de protocolos TCP/IP nas camadas superiores. No entanto, os protocolos e serviços funcionais na camada de Enlace de Dados e Física do OSI são descritos por várias organizações de engenharia (IEEE, ANSI, ITU) ou por empresas privadas (protocolos proprietários). Como a Ethernet é composta de padrões nessas camadas inferiores, generalizando, ela pode ser melhor compreendida em referência ao modelo OSI. O modelo OSI separa as funcionalidades da camada de Enlace de Dados de endereçamento, estruturação e acesso ao meio físico, dos padrões da camada Física. Os padrões Ethernet definem os protocolos da Camada 2 e das tecnologias da Camada 1. Embora as especificações Ethernet suportam meios físicos diferentes, larguras de banda diferentes e outras variações das Camadas 1 e 2, o formato básico de estrutura e esquema de endereço é o mesmo para todas as variedades da Ethernet.

Este capítulo examina as características e operação Ethernet à medida que ela evoluiu de uma tecnologia de comunicação de dados de meio físico compartilhado com base em contenção para a tecnologia full-duplex de alta largura de banda atual.

Objetivos

Ao concluir este capítulo, você poderá:

Descrever a evolução da Ethernet Explicar os campos do Quadro Ethernet Descrever a função e as características do método de controle de acesso à meio utilizado pelo protocolo Ethernet Descrever os recursos da camada Física e de Enlace de Dados da Ethernet Comparar e contrastar hubs e switches Ethernet Explicar o Address Resolution Protocol (ARP)

Mostrar mídia visual

9.1 Visão Geral - Ethernet

9.1.1 Ethernet - Padrões e Implementação

Página 1:

Padrão IEEE

A primeira LAN do mundo foi a versão original da Ethernet. Robert Metcalfe e seus colegas da Xerox a projetaram há

mais de 30 anos. O primeiro padrão Ethernet foi publicado em 1980 por um consórcio da Digital Equipment Corporation, Intel e Xerox (DIX). Metcalfe queria que a Ethernet fosse um padrão compartilhado com o qual todos pudessem se beneficiar e, portanto, ela foi lançada como um padrão aberto. Os primeiros produtos desenvolvidos no padrão Ethernet foram vendidos no início da década de 80.

CISCO Accessible Theme

Page 2 of 29

Em 1985, o comitê de padrões do Institute of Electrical and Electronics Engineers (Instituto de Engenharia Elétrica e Eletrônica - IEEE) para Redes Locais e Metropolitanas publicou padrões para LANs. Tais padrões começam com o número 802. O padrão para a Ethernet é 802.3. O IEEE desejava garantir que seus padrões fossem compatíveis com os da International Standards Organization (ISO) e o modelo OSI. Para garantir a compatibilidade, os padrões IEEE 802.3 tinham que atender às necessidades da Camada 1 e da parte inferior da Camada 2 do modelo OSI. Como resultado, algumas pequenas modificações no padrão Ethernet original foram feitas no 802.3.

A Ethernet opera nas duas camadas inferiores do modelo OSI: a camada de Enlace de Dados e a camada Física.

Mostrar mídia visual

9.1.2 Ethernet - Camada 1 e Camada 2

Página 1:

A Ethernet opera nas duas camadas do modelo OSI. O modelo oferece uma referência à qual a Ethernet pode ser

relacionada, mas é realmente implementado na metade inferior da camada de Enlace de Dados, conhecida como sub- camada Media Access Control (Controle de Acesso ao Meio - MAC), e apenas na camada Física.

A Ethernet na Camada 1 envolve sinais, fluxos de bits que trafegam no meio, componentes físicos que colocam sinais

no meio e várias topologias. A Camada 1 da Ethernet desempenha um papel essencial na comunicação que ocorre entre dispositivos, mas cada uma de suas funções tem limitações.

Como a figura mostra, a Ethernet na Camada 2 aborda essas limitações. As sub-camadas de Enlace de Dados contribuem consideravelmente para a compatibilidade tecnológica e a comunicação entre computadores. A sub- camada MAC se relaciona com os componentes físicos que serão utilizados para comunicar as informações e prepara os dados para transmissão pela meio físico.

A sub-camada Logical Link Control (Controle de Link Lógico - LLC) continua relativamente independente dos

equipamentos físicos que serão utilizados para o processo de comunicação.

Mostrar mídia visual

9.1.3 Logical Link Control (Controle de Link Lógico) - Conexão às Camadas Superiores

Página 1:

A Ethernet separa as funções da camada de Enlace de Dados em duas sub-camadas diferentes: a sub-camada de

Controle de Link Lógico (LLC) e a sub-camada de Controle de Acesso ao Meio (MAC). As funções descritas no modelo

OSI para a camada de Enlace de Dados são atribuídas às sub-camadas LLC e MAC. O uso dessas sub-camadas contribui consideravelmente para a compatibilidade entre diversos dispositivos finais.

Para Ethernet, o padrão IEEE 802.2 descreve as funções da sub-camada LLC e o padrão 802.3 descreve a sub- camada MAC e as funções da camada Física. O Controle de Link Lógico lida com a comunicação entre as camadas superiores e o software de rede, e as camadas inferiores, tipicamente o hardware. A sub-camada LLC pega os dados do protocolo de rede, normalmente um pacote IPv4, e adiciona informações de controle para ajudar a entregar o pacote no nó de destino. A camada 2 se comunica com as camadas superiores através do LLC.

O LLC é implementado em software, e sua implementação é independente dos equipamentos físicos. Em um

computador, o LLC pode ser considerado como sendo o driver da Placa de Interface de Rede (Network Interface Card - NIC). O driver NIC é um programa que interage diretamente com o hardware na NIC para transferir os dados entre o meio físico e a sub-camada de Controle de Acesso ao Meio.

http://standards.ieee.org/getieee802/download/802.2-1998.pdf

http://standards.ieee.org/regauth/llc/llctutorial.html

http://www.wildpackets.com/support/compendium/reference/sap_numbers Mostrar mídia visual

CISCO Accessible Theme

Page 3 of 29

9.1.4 MAC - Entregando os Dados ao Meio Físico

Página 1:

O Controle de Acesso ao Meio (MAC) é a sub-camada Ethernet mais inferior da camada de Enlace de Dados. O

Controle de Acesso ao Meio é implementado pelo hardware, tipicamente na Placa de Interface de Rede (NIC).

A sub-camada MAC Ethernet tem duas responsabilidades principais:

Encapsulamento de Dados Controle de Acesso ao Meio

Encapsulamento de Dados

O

encapsulamento de dados fornece três funções principais:

Delimitação de quadros Endereçamento Detecção de erros

O

em seu recebimento. Ao formar o quadro, a camada MAC adiciona um cabeçalho e um trailer à PDU da Camada 3. O uso de quadros ajuda na transmissão de bits, pois eles são colocados no meio e no agrupamento de bits no nó receptor.

processo de encapsulamento de dados inclui a montagem de quadros antes da transmissão e a análise de quadros

O processo de enquadramento oferece delimitadores importantes que são utilizados para identificar um grupo de bits

que compõe um quadro. Este processo oferece sincronização entre os nós transmissores e receptores.

O processo de encapsulamento também fornece endereçamento da camada de Enlace de Dados. Cada cabeçalho

Ethernet adicionado ao quadro contém o endereço físico (endereço MAC) que permite que um quadro seja entregue a um nó de destino.

Uma função adicional do encapsulamento de dados é a detecção de erros. Cada quadro Ethernet contém um trailer com verificação de redundância cíclica (CRC) do conteúdo do quadro. Depois do recebimento de um quadro, o nó receptor cria uma CRC para comparar com a que está no quadro. Se esses dois cálculos de CRC corresponderem, é possível ter certeza de que o quadro foi recebido sem erros.

O Controle de Acesso ao Meio Físico

A sub-camada MAC controla a colocação e a remoção de quadros do meio. Como o nome diz, ela gerencia o controle

de acesso ao meio. Isso inclui o início da transmissão de quadros e a recuperação de falha na transmissão devido a colisões.

Topologia Lógica

A topologia lógica subjacente da Ethernet é um barramento multi-acesso. Isso significa que todos os nós (dispositivos)

naquele segmento de rede compartilham o meio. Isso também significa que todos os nós naquele segmento recebem todos os quadros transmitidos por qualquer nó.

Como todos os nós recebem todos os quadros, cada nó precisa determinar se um quadro deve ser aceito e processado por tal nó. Isso exige um exame do endereçamento no quadro fornecido pelo endereço MAC.

A Ethernet fornece um método para determinar como os nós compartilham o acesso ao meio. O método de controle de

acesso ao meio para a Ethernet clássica é o Carrier Sense Multiple Access with Collision Detection (CSMA/CD). Este método está descrito mais adiante no capítulo.

http://standards.ieee.org/regauth/groupmac/tutorial.html Mostrar mídia visual

CISCO Accessible Theme

Page 4 of 29

9.1.5 Implementações Físicas Ethernet

Página 1:

A maioria do tráfego na Internet se origina e termina com conexões Ethernet. Desde seu início na década de 70, a

Ethernet evoluiu para atender à crescente demanda por LANs de alta velocidade. Quando o meio de fibra óptica foi introduzido, a Ethernet se adaptou a essa nova tecnologia para aproveitar a largura de banda superior e a baixa taxa de erro que a fibra oferece. Hoje, o mesmo protocolo que transportava dados a 3 Mbps pode levar dados a 10 Gbps.

O sucesso da Ethernet se deve aos seguintes fatores:

Simplicidade e facilidade de manutenção Capacidade de incorporar novas tecnologias Confiabilidade Baixo custo de instalação e atualização

A introdução da Gigabit Ethernet levou a tecnologia LAN original para distâncias que fazem da Ethernet uma

Metropolitan Area Network (MAN)

e um padrão WAN.

Como uma tecnologia associada à camada Física, a Ethernet especifica e implementa esquemas de codificação e decodificação que possibilitam que bits de quadros sejam transportados como sinais pelo meio. Os dispositivos Ethernet utilizam uma ampla gama de especificações de cabos e conectores.

Nas redes atuais, a Ethernet utiliza cabos de cobre UTP e fibra óptica para interconectar dispositivos de rede via dispositivos intermediários, como hubs e switches. Com todos os diversos tipos de meio físico que a Ethernet suporta,

a estrutura de quadros Ethernet continua consistente em todas as suas implementações físicas. É por esse motivo que ela pode evoluir para atender às exigências atuais de rede. Mostrar mídia visual

9.2 Ethernet - Comunicação via LAN

9.2.1 História da Ethernet

Página 1:

A base para a tecnologia Ethernet foi estabelecida pela primeira vez em 1970, com um programa chamado Alohanet.

Alohanet era uma rede de rádio digital projetada para transmitir informações por uma frequência de rádio compartilhada

entre as ilhas do Havaí.

A Alohanet exigia que todas as estações seguissem um protocolo no qual uma transmissão não reconhecida

precisasse de retransmissão após um curto período de espera. As técnicas para utilizar um meio compartilhado desta

forma foram aplicadas mais tarde à tecnologia cabeada no formato Ethernet.

A Ethernet foi projetada para acomodar múltiplos computadores interconectados em uma topologia de barramento

compartilhado.

A primeira versão Ethernet incorporava um método de acesso ao meio conhecido como Carrier Sense Multiple Access

with Collision Detection (CSMA/CD). O CSMA/CD gerenciava os problemas que resultavam quando os diversos

dispositivos tentavam se comunicar em um meio físico compartilhado. Mostrar mídia visual

Página 2:

Primeiros Meios Ethernet

As primeiras versões Ethernet usavam cabo coaxial para conectar computadores em uma topologia de barramento. Cada computador era diretamente conectado ao backbone. Essas versões iniciais da Ethernet eram conhecidas como Thicknet (10BASE5) e Thinnet (10BASE2).

CISCO Accessible Theme

Page 5 of 29

A 10BASE5, ou Thicknet, utilizava um cabo coaxial grosso que permitia distâncias de cabeamento de até 500 metros

antes que o sinal precisasse de um repetidor. A 10BASE2, ou Thinnet, usava um cabo coaxial fino de diâmetro menor e mais flexível do que a Thicknet e que permitia distâncias de cabeamento de 185 metros.

A capacidade de migrar a implementação original da Ethernet para implementações atuais e futuras se baseia na

estrutura praticamente intocada do quadro da Camada 2. Os Meios físicos, o acesso ao meio e o controle do meio evoluíram e continuam evoluindo. No entanto, o cabeçalho e o trailer do quadro Ethernet permaneceram essencialmente constantes.

As primeiras implementações Ethernet foram feitas em um ambiente LAN de baixa largura de banda, onde o acesso aos meios compartilhados era gerenciado por CSMA e, mais tarde, CSMA/CD. Além de ser uma topologia de barramento lógica na camada de Enlace de Dados, a Ethernet também usava uma topologia de barramento física. Esta topologia se tornou mais problemática à medida que as LANs aumentaram e os serviços demandavam cada vez mais infra-estrutura.

Os meios físicos de cabo coaxial grosso e fino foram substituídos pelas primeiras categorias de cabos UTP. Comparados com os cabos coaxiais, os cabos UTP eram mais fáceis de trabalhar, leves e mais baratos.

A topologia física também foi alterada para uma topologia de estrela usando hubs. Os hubs concentram as conexões.

Em outras palavras, eles pegam um grupo de nós e permitem que a rede os veja como uma só unidade. Quando o quadro chega em uma porta, é copiado para as outras portas para que todos os segmentos na LAN recebam o quadro. Utilizar o hub nesta topologia de barramento aumentou a confiabilidade da rede a permitir que qualquer cabo falhe sem interromper toda a rede. No entanto, a repetição do quadro para todas as outras portas não resolveu o problema de colisões. Mais adiante neste capítulo, você verá como os problemas com colisões na rede Ethernet são gerenciados com a introdução de switches na rede.

Mostrar mídia visual

9.2.2 Gerenciamento de Colisões na Rede Ethernet

Página 1:

Ethernet Legada

Em redes 10BASE-T, o ponto central do segmento de rede normalmente era um hub. Isso criou um meio compartilhado. Como o meio é compartilhado, apenas uma estação pode transmitir com sucesso de cada vez. Este tipo de conexão é descrito como comunicação half-duplex .

À medida que mais dispositivos eram adicionados a uma rede Ethernet, a quantidade de colisões de quadros aumentou

consideravelmente. Durante períodos de baixa atividade de comunicação, as poucas colisões que ocorrem são gerenciadas pelo CSMA/CD, com pouco ou nenhum impacto no desempenho. No entanto, à medida que o número de dispositivos e o conseqüente tráfego de dados cresce, o aumento das colisões pode ter impacto considerável no trabalho dos usuários.

Uma boa analogia é quando saímos para o trabalho ou para a escola de manhã, as ruas estão relativamente vazias e sem congestionamento. Mais tarde, quando há mais carros na rua, pode haver colisões e o tráfego fica mais lento.

Ethernet Atual

Um desenvolvimento significativo que aprimorou o desempenho da LAN foi a introdução de switches para substituir os hubs em redes Ethernet. Este desenvolvimento corresponde bastante com o da Ethernet 100BASE-TX. Os switches podem controlar o fluxo de dados ao isolar cada porta e enviar um quadro apenas a seu destino adequado (se este for conhecido), em vez de enviar cada quadro a cada dispositivo.

O switch reduz o número de dispositivos que recebe cada quadro, o que, por sua vez, diminui ou minimiza a

possibilidade de colisões. Isso, e a introdução posterior das comunicações full-duplex (ter uma conexão que possa transmitir e receber sinais ao mesmo tempo), permitiu o desenvolvimento da Ethernet 1 Gbps. Mostrar mídia visual

CISCO Accessible Theme

Page 6 of 29

9.2.3 Mudança para 1 Gbps

Página 1:

As aplicações que atravessam links de rede diariamente pesam até mesmo para as redes mais robustas. Por exemplo,

o crescente uso de Voz sobre IP (VoIP) e serviços multimídia exigem conexões mais rápidas do que a Ethernet 100 Mbps.

A Gigabit Ethernet é utilizada para descrever implementações Ethernet que fornecem largura de banda de 1000 Mbps

(1 Gbps) ou mais. Esta capacidade foi incluída na capacidade full-duplex e nas tecnologias UTP e meios de fibra óptica da Ethernet anterior.

O aumento no desempenho da rede é considerável quando a possível taxa de transferência passa de 100 Mbps para 1

Gbps e além.

Fazer atualização para a Ethernet 1 Gbps nem sempre significa que a atual infra-estrutura de rede de cabos e switches tem que ser completamente substituída. Alguns equipamentos e cabeamentos em redes modernas, bem projetadas e bem instaladas podem ser capazes de operar a velocidades mais altas com atualizações mínimas. Esta capacidade tem o benefício de reduzir o custo total de propriedade da rede. Mostrar mídia visual

Página 2:

A Ethernet Além da LAN

As maiores distâncias de cabeamento permitidas pelo uso de cabo de fibra óptica em redes baseadas em Ethernet resultou em uma menor distinção entre LANs e WANs. A Ethernet inicialmente era limitadas a sistemas de cabos LAN dentro de um só edifício e, depois, estendeu-se entre edifícios. Agora, ela pode ser aplicada em uma cidade, no que é conhecido como Rede de Área Metropolitana (MAN). Mostrar mídia visual

9.3 O Quadro Ethernet

9.3.1 O Quadro - Encapsulamento do Pacote

Página 1:

A estrutura de quadros Ethernet adiciona cabeçalhos e trailers à PDU da Camada 3 para encapsular as mensagens

enviadas.

O cabeçalho e o trailer Ethernet têm várias seções de informação utilizadas pelo protocolo Ethernet. Cada seção do

quadro é chamada de campo. Há dois estilos de enquadramento Ethernet: IEEE 802.3 (original) e o revisado, IEEE 802.3 (Ethernet).

As diferenças entre os estilos de enquadramento são mínimas. A diferença mais significativa entre o IEEE 802.3 (original) e o IEEE 802.3 revisado é a adição de um Start Frame Delimiter (Delimitador de Início de Quadro - SFD) e uma pequena mudança no campo Tipo para incluir Comprimento, como mostrado na figura.

Tamanho do Quadro Ethernet

O padrão original Ethernet definia o tamanho mínimo de quadro como 64 bytes e o máximo como 1518 bytes. Isso

incluía todos os bytes do campo Endereço MAC de Destino até o campo Frame Check Sequence (Seqüência de Verificação de Quadro - FCS). Os campos Preâmbulo e Delimitador de Início de Quadro não são incluídos quando se descreve o tamanho de um quadro. O padrão IEEE 802.3ac, emitido em 1998, ampliou o tamanho máximo permitido do quadro para 1522 bytes. O tamanho do quadro aumentou para acomodar uma tecnologia chamada Rede Local Virtual

(VLAN). As VLANs são criadas dentro de uma rede comutada e serão apresentadas em um curso posterior.

Se o tamanho de um quadro transmitido for inferior ao mínimo ou superior ao máximo, o dispositivo receptor descarta o quadro. Quadros descartados provavelmente são o resultado de colisões ou outros sinais indesejados e, portanto, são considerados inválidos. Mostrar mídia visual

CISCO Accessible Theme

Page 7 of 29

Página 2:

Passe por cada nome de campo para ver a sua descrição. Campos Preâmbulo e Delimitador de Início de Quadro

Os campos Preâmbulo (7 bytes) e Delimitador de Início de Quadro (SFD) (1 byte) são utilizados para sincronização entre os dispositivos emissor e receptor. Esses primeiros oito bytes do quadro são utilizados para chamar a atenção dos nós receptores. Essencialmente, os primeiros bytes dizem aos receptores para se prepararem para receber um novo quadro.

Campo Endereço MAC de Destino

O campo Endereço MAC de Destino (6 bytes) é o identificador para o receptor pretendido. Como você lembrará, este

endereço é utilizado pela Camada 2 para auxiliar os dispositivos a determinar se um quadro é endereçado a eles. O

endereço no quadro é comparado ao endereço MAC do dispositivo. Se houver correspondência, o dispositivo aceitará o quadro.

Campo Endereço MAC de Origem

O campo Endereço MAC de Origem (6 bytes) identifica a NIC ou interface de origem do quadro. Switches também

utilizam este endereço para adicionar a suas tabelas de busca. A função dos switches será discutida mais adiante no

capítulo.

Campo Comprimento/Tipo

O campo Comprimento/Tipo (2 bytes) define o comprimento exato do campo de dados do quadro. Isso é utilizado

posteriormente como parte do FCS para garantir que a mensagem tenha sido recebida adequadamente. Um comprimento ou campo pode ser inserido aqui. No entanto, apenas um ou outro pode ser utilizado em uma determinada implementação. Se o propósito do campo é designar um tipo, o campo Tipo descreve que protocolo está implementado.

O campo rotulado Comprimento/Tipo era listado apenas como Comprimento nas primeiras versões do IEEE e apenas

como tipo na versão DIX. Esses dois usos do campo foram oficialmente combinados em uma versão posterior do IEEE porque ambos eram comuns. O campo Tipo da Ethernet II é incorporado na definição atual de quadro do 802.3. Ethernet II é o formato de quadro Ethernet utilizado em redes TCP/IP. Quando um nó recebe um quadro, deve examinar o campo Comprimento/Tipo para determinar que protocolo de camada superior está presente. Se o valor do octeto dois for igual ou superior a 0x0600 hexadecimal ou 1536 decimal, o conteúdo do Campo de Dados é decodificado de acordo com o protocolo indicado.

Campos de Dados e Enchimento

Os campos de Dados e Enchimento (46 a 1500 bytes) contêm os dados encapsulados de um nível superior, que é uma PDU genérica da Camada 3 ou, mais comumente, um pacote IPv4. Todos os quadros devem ter pelo menos 64 bytes de comprimento. Se um pacote pequeno for encapsulado, o Enchimento é utilizado para aumentar o tamanho do quadro até o mínimo. Mostrar mídia visual

Página 3:

Campo Seqüência de Verificação de Quadro

O campo Seqüência de Verificação de Quadro (FCS) (4 bytes) é utilizado para detectar erros em um quadro. Ele utiliza

uma verificação de redundância cíclica (CRC). O dispositivo emissor inclui os resultados de uma CRC no campo FCS do quadro.

O dispositivo receptor recebe o quadro e gera uma CRC para buscar erros. Se o cálculo corresponder, não houve erro.

Cálculos que não correspondem são uma indicação de que os dados mudaram; portanto, o quadro é abandonado. Uma alteração nos dados pode ser resultado de interrupção dos sinais elétricos que representam os bits.

CISCO Accessible Theme

Page 8 of 29

Mostrar mídia visual

9.3.2 Endereço MAC da Ethernet

Página 1:

Inicialmente, a Ethernet foi implementada como parte de uma topologia de barramento. Cada dispositivo de rede era conectado ao mesmo meio compartilhado. Com baixo tráfego ou em redes pequenas, essa era uma implementação aceitável. O principal problema a ser resolvido era como identificar cada dispositivo. O sinal pode ser enviado para cada dispositivo, mas como cada dispositivo identificaria se era o receptor pretendido da mensagem?

Um identificador exclusivo chamado de endereço de Controle de Acesso ao Meio (MAC) foi criado para ajudar a determinar o endereço de origem e destino em uma rede Ethernet. Independentemente da variedade de Ethernet utilizada, a convenção de denominação forneceu um método para identificação do dispositivo em um nível inferior do modelo OSI.

Como você lembrará, o endereçamento MAC é adicionado como parte de uma PDU da Camada 2. Um endereço MAC Ethernet é um valor binário de 48 bits expresso como 12 dígitos hexadecimais. Mostrar mídia visual

Página 2:

Estrutura de Endereços MAC

O valor do endereço MAC é um resultado direto de regras impostas pelo IEEE a fornecedores para garantir endereços

globalmente exclusivos para cada dispositivo Ethernet. As regras estabelecidas pelo IEEE exigiam que qualquer fornecedor que vendesse dispositivos Ethernet fosse registrado no IEEE. O IEEE atribui ao fornecedor um código de 3 bytes, chamado Organizationally Unique Identifier (Identificador Organizacionalmente Exclusivo - OUI).

O

IEEE exige que um fornecedor siga duas regras simples:

Todos os endereços MAC atribuídos a uma NIC ou outro dispositivo Ethernet devem utilizar o OUI atribuído ao fornecedor como os primeiros 3 bytes. Todos os endereços MAC com o mesmo OUI devem receber um valor exclusivo (código do fornecedor ou número de série) nos últimos 3 bytes.

O

na ROM (Read-Only Memory - Memória Somente de Leitura) na NIC. Isso significa que o endereço é codificado no chip da ROM permanentemente - não pode ser alterado por software.

endereço MAC frequentemente é mencionado como burned-in address (endereço gravado - BIA) porque é gravado

No entanto, quando o computador inicializa, a NIC copia o endereço para a RAM. Ao examinar quadros, o endereço na RAM é utilizado como endereço de origem para comparação com o endereço de destino. O endereço MAC é utilizado pela NIC para determinar se uma mensagem deve passar para as camadas superiores para processamento.

Dispositivos de rede

Quando o dispositivo de origem encaminhar a mensagem a uma rede Ethernet, as informações do cabeçalho dentro do endereço MAC de destino são anexadas. O dispositivo de origem envia os dados pela rede. Cada NIC na rede visualiza as informações para ver se o endereço MAC corresponde a seu endereço físico. Se não houver correspondência, o dispositivo descartará o quadro. Quando o quadro chega ao destino onde o MAC da NIC corresponde ao MAC de destino do quadro, a NIC passa o quadro para as camadas OSI, onde o processo de desencapsulamento ocorre.

Todos os dispositivos conectados a uma LAN Ethernet têm interfaces com endereços MAC. Diferentes fabricantes de hardware e software podem representar o endereço MAC em diferentes formatos hexadecimais. Os formatos de endereço podem ser semelhantes a 00-05-9A-3C-78-00, 00:05:9A:3C:78:00 ou 0005.9A3C.7800. Os endereços MAC são atribuídos a estações de trabalho, servidores, impressoras, switches e roteadores - qualquer dispositivo que deva originar e/ou receber dados na rede. Mostrar mídia visual

CISCO Accessible Theme

Page 9 of 29

9.3.3 Numeração Hexadecimal e Endereçamento

Página 1:

Numeração Hexadecimal

Hexadecimal ("Hex") é uma forma conveniente de representar valores binários. Assim como o decimal é um sistema de numeração com base dez e o binário é base dois, hexadecimal é um sistema de base 16.

O sistema de numeração de base 16 utiliza números de 0 a 9 e letras de A a F. A figura mostra os valores equivalentes

decimais, binários e hexadecimais para 0000 a 1111 (binários). É mais fácil para nós expressar um valor como um único dígito hexadecimal do que como quatro bits.

Compreensão de Bytes

Como 8 bits (um byte) é um agrupamento binário comum, 00000000 a 11111111 (binários) podem ser representados em hexadecimal como a faixa 00 a FF. Zeros na frente são sempre exibidos para completar a representação de 8 bits. Por exemplo, o valor binário 0000 1010 é exibido em hexadecimal como 0A.

Representação de Valores Hexadecimais

Nota: É importante diferenciar valores hexadecimais de valores decimais com relação aos caracteres de 0 a 9, como mostrado na figura.

Hexadecimal é normalmente representado no texto pelo valor precedido por 0x (por exemplo 0x73) ou um 16 subscrito. Menos comumente, pode ser seguido por um H, por exemplo 73H. No entanto, como o texto subscrito não é reconhecido em ambientes de linha de comando ou programação, a representação técnica do hexadecimal é precedida de "0x" (zero X). Portanto, os exemplos acima seriam mostrados respectivamente como 0x0A e 0x73.

O Hexadecimal é utilizado para representar endereços MAC Ethernet e endereços IP Versão 6. Você viu o hexadecimal

utilizado no painel de Byte de Pacotes do Wireshark onde o utilizamos para representar os valores binários dentro de

quadros e pacotes.

Conversões Hexadecimais

As conversões de números entre valores decimais e hexadecimais são diretas, mas dividir ou multiplicar rapidamente por 16 nem sempre é conveniente. Se tais conversões forem necessárias, geralmente é mais fácil converter o valor decimal ou hexadecimal para binário e, depois, converter o valor binário para decimal ou hexadecimal como adequado.

Com prática, é possível reconhecer os padrões de bits binários que correspondem aos valores decimal e hexadecimal.

A figura mostra esses padrões para valores de 8 bits selecionados.

Mostrar mídia visual

Página 2:

Visualização do MAC

Uma ferramenta para examinar o endereço MAC do nosso computador é o ipconfig /all ou ifconfig. No gráfico, observe o endereço MAC deste computador. Se você tem acesso, poderá tentar isso em seu computador.

Você pode querer pesquisar o OUI do endereço MAC para determinar o fabricante da sua NIC. Mostrar mídia visual

9.3.4 Outra Camada de Endereçamento

Página 1:

CISCO Accessible Theme

Page 10 of 29

Camada de Enlace de Dados

O endereçamento físico da camada de Enlace de Dados (Camada 2) do modelo OSI, implementado como um endereço MAC Ethernet, é utilizado para transportar o quadro pelo meio local. Embora forneçam endereços de host exclusivos, endereços físicos não são hierárquicos. Eles são associados a um dispositivo em particular independentemente de sua localização ou a qual rede está conectado.

Esses endereços de Camada 2 não têm significado fora do meio da rede local. Um pacote pode ter de atravessar várias tecnologias de Enlace de Dados diferentes em redes de área local e WAN antes de chegar a seu destino. Um dispositivo de origem, portanto, não conhece a tecnologia utilizada em redes intermediárias e de destino ou seu endereçamento de Camada 2 e estruturas de quadro.

Camada de Rede

Os endereços da camada de rede (Camada 3), como endereços IPv4, fornecem o endereço generalizado e lógico entendido na origem e no destino. Para chegar a seu eventual destino, um pacote leva o endereço da Camada 3 de destino desde sua origem. No entanto, como é enquadrado pelos diferentes protocolos da camada de Enlace de Dados ao longo do caminho, o endereço de Camada 2 que ele recebe se aplica apenas à parte local do trajeto e seu meio.

Resumindo:

O endereço da camada de Rede permite que o pacote seja encaminhado a seu destino. O endereço da camada de Enlace de Dados possibilita que o pacote seja levado pelo meio local através de cada segmento.

Mostrar mídia visual

9.3.5 Unicast, Multicast e Broadcast na Ethernet

Página 1:

Na Ethernet, diferentes endereços MAC são utilizados para comunicação em unicast, multicast, e broadcast da Camada 2.

Unicast

Um endereço MAC unicast (ponto-a-ponto) é o endereço exclusivo utilizado quando um quadro é enviado de um único dispositivo transmissor para um único dispositivo de destino.

No exemplo mostrado na figura, um host com endereço IP 192.168.1.5 (origem) solicita uma página Web do servidor no endereço IP 192.168.1.200. Para que um pacote unicast seja enviado e recebido, um endereço IP de destino deve estar no cabeçalho do pacote IP. Um endereço MAC de destino correspondente também deve estar presente no cabeçalho do quadro Ethernet. O endereço IP e o endereço MAC combinam para entregar dados a um host de destino específico. Mostrar mídia visual

Página 2:

Broadcast

Com o broadcast, o pacote contém um endereço IP de destino que só possui 1s na parte de host. Esta numeração no endereço significa que todos os hosts naquela rede local (domínio de broadcast) receberão e processarão o pacote. Muitos protocolos de rede, como o Dynamic Host Configuration Protocol (DHCP) e o Address Resolution Protocol (ARP), utilizam broadcasts. O modo como o ARP utiliza os broadcasts para mapear endereços da Camada 2 e Camada 3 será discutido posteriormente neste capítulo.

Como mostrado na figura, um endereço IP de broadcast para uma rede necessita de um endereço MAC de broadcast correspondente no quadro Ethernet. Em redes Ethernet, o endereço MAC de broadcast possui 48 números 1 exibidos como Hexadecimal FF-FF-FF-FF-FF-FF.

CISCO Accessible Theme

Page 11 of 29

Mostrar mídia visual

Página 3:

Multicast

Lembre que endereços multicast permitem que um dispositivo de origem envie um pacote a um grupo de dispositivos. Dispositivos que pertencem a um grupo multicast recebem um endereço IP de grupo de multicast. A gama de endereços multicast vai de 224.0.0.0 a 239.255.255.255. Como endereços multicast representam um grupo de endereços (às vezes chamado de grupo de hosts), eles só podem ser utilizados como destino de um pacote. A origem sempre terá um endereço unicast.

Exemplos de onde endereços multicast seriam utilizados estão em jogos remotos, onde muitos jogadores se conectam remotamente mas jogam o mesmo jogo, e o ensino à distância por videoconferência, onde muitos alunos estão conectados à mesma aula.

Assim como endereços unicast e broadcast, o endereço IP de multicast exige um endereço MAC de multicast correspondente para realmente entregar quadros em uma rede local. O endereço MAC de multicast é um valor especial que começa com 01-00-5E em hexadecimal. O valor termina ao converter os 23 bits inferiores do endereço IP do grupo multicast nos 6 caracteres hexadecimais restantes do endereço Ethernet. O bit restante no endereço MAC é sempre

"0".

Um exemplo, como mostrado no gráfico, é o 01-00-5E-00-00-0A hexadecimal. Cada caractere hexadecimal possui 4 bits binários.

http://www.iana.org/assignments/ethernet-numbers

http://www.cisco.com/en/US/docs/app_ntwk_services/waas/acns/v51/configuration/central/guide/51ipmul.html

http://www.cisco.com/en/US/docs/internetworking/technology/handbook/IP-Multi.html Mostrar mídia visual

9.4 Controle de Acesso ao Meio Ethernet

9.4.1 Controle de Acesso ao Meio na Ethernet

Página 1:

Em um ambiente de meio físico compartilhado, todos os dispositivos têm acesso garantido ao meio, mas nenhum possui prioridade sobre ele. Se mais de um dispositivo transmite simultaneamente, os sinais físicos colidem e a rede deve se recuperar para que a comunicação continue.

As colisões são o preço que a Ethernet paga para ter o processamento baixo associado a cada transmissão.

A Ethernet utiliza Carrier Sense Multiple Access with Collision Detection (CSMA/CD) para detectar e tratar colisões e gerenciar a retomada da comunicação.

Como todos os computadores que utilizam Ethernet enviam suas mensagens no mesmo meio físico, um esquema de distribuição coordenada (CSMA) é utilizado para detectar a atividade elétrica no cabo. Um dispositivo pode, então, determinar quando pode transmitir. Quando um dispositivo não detecta que algum outro computador esteja enviando um quadro, ou sinal de portadora, o dispositivo transmitirá, se houver algo a enviar. Mostrar mídia visual

9.4.2 CSMA/CD - O Processo

Página 1:

Verificação da Portadora

CISCO Accessible Theme

Page 12 of 29

No método de acesso CSMA/CD, todos os dispositivos de rede com mensagens a enviar devem ouvir antes de transmitir.

Se um dispositivo detectar um sinal de outro dispositivo, esperará um tempo especificado antes de tentar transmitir.

Onde não há tráfego detectado, um dispositivo transmitirá sua mensagem. Enquanto esta transmissão ocorre, o dispositivo continua detectando tráfego ou colisões na LAN. Depois que a mensagem é enviada, o dispositivo retorna a seu modo 'ouvinte' padrão.

Multi-acesso

Se a distância entre dispositivos é tal que a latência de sinais de um dispositivo significa que estes não são detectados por um segundo dispositivo, este também poderá começar a transmitir. O meio agora tem dois dispositivos transmitindo sinais ao mesmo tempo. Suas mensagens se propagarão pelo meio até se encontrarem. Neste ponto, os sinais se misturam e a mensagem é destruída. Embora as mensagens estejam corrompidas, o emaranhado de sinais restantes continua a se propagar pelo meio.

Detecção de Colisões

Quando um dispositivo está no modo ouvindo, ele pode detectar quando há uma colisão no meio físico compartilhado. A detecção de uma colisão é possibilitada porque todos os dispositivos podem detectar um aumento na amplitude do sinal acima do nível normal.

Quando há uma colisão, os outros dispositivos no modo ouvindo - além de todos os dispositivos transmissores - detectarão o aumento na amplitude do sinal. Quando detectado, cada dispositivo transmissor continuará transmitindo para garantir que todos os dispositivos na rede detectem a colisão.

Jam Signal e "backoff aleatório"

Ao detectar uma colisão, os dispositivos de transmissão enviam um Jam Signal. O Jam Signal é usado para notificar os demais dispositivos sobre uma colisão, de modo que um algoritmo de backoff seja invocado. Este algoritmo de backoff faz com que todos os dispositivos parem de transmitir por um intervalo de tempo aleatório, o que permite que os sinais de colisão sejam dissipados.

Após o término do intervalo, o dispositivo retornará ao modo de "espera para transmissão". O período de backoff aleatório assegura que os dispositivos envolvidos na colisão não tentem reenviar o mesmo tráfego ao mesmo tempo, o que poderia causar a repetição de todo o processo. No entanto, isso também significa que um terceiro dispositivo pode transmitir antes de qualquer um dos dois dispositivos envolvido na colisão original possam retransmitir. Mostrar mídia visual

Página 2:

Hubs e domínios de colisão

Considerando que as colisões poderão ocorrer em qualquer topologia de meio compartilhado, mesmo se o CSMA/CD for empregado, é preciso observar as condições que podem resultar no aumento das colisões. Devido ao rápido crescimento da Internet:

Um número maior de dispositivo são conectados à rede. Os dispositivos acessam o meio físico de rede com mais frequência. As distâncias entre os dispositivos aumentam a cada dia.

Lembre-se de que os hubs foram criados como dispositivos de rede intermediários que permitem que mais nós sejam conectados ao meio compartilhado. Também conhecidos como repetidores multi-porta, os hubs retransmitem os sinais de dados recebidos a todos os dispositivos conectados, com exceção daquele que originou o sinal. Os hubs não são responsáveis por funções de rede, como transmitir dados baseado em endereços.

Os hubs e repetidores são dispositivos intermediários que ampliam a distância de alcance dos cabos Ethernet. Uma vez que os hubs operam na camada física, processando somente os sinais do meio físico, as colisões podem ocorrer entre os dispositivos que conectam e nos próprios hubs.

CISCO Accessible Theme

Page 13 of 29

Portanto, o uso de hubs para fornecer acesso de rede a um maior número de usuários reduz o desempenho por cada usuário, pois a capacidade fixa do meio deve ser compartilhada entre um número também maior de dispositivos.

Os dispositivos conectados que acessam um meio físico compartilhado por meio de um hub ou uma série de hubs diretamente conectados compõem o que chamamos de domínio de colisão. O domínio de colisão também é conhecido como segmento de rede. Os hubs e repetidores contribuem para o aumento do tamanho do domínio de colisão.

Conforme demonstrado na figura, a interconexão de hubs forma uma topologia física conhecida como estrela estendida. A topologia estrela estendida pode criar um grande domínio de colisão expandido.

Um número elevado de colisões reduz a eficiência e desempenho da rede e se torna um aborrecimento ao usuário.

Embora o CSMA/CD seja um sistema de gerenciamento de colisão de quadros, ele foi projetado para gerenciar as colisões de um número limitado de dispositivos apenas, e em redes com tráfego moderado. Portanto, outros mecanismos são exigidos para casos em que o número elevado de usuários solicitam acesso e quando um maior número de redes ativas for necessário.

Veremos que o uso de switches em substituição aos hubs pode minimizar o problema.

http://standards.ieee.org/getieee802/802.3.html

Mostrar mídia visual

Página 3:

Nesta atividade do Packet Tracer, você construirá grandes domínios de colisão para visualizar os efeitos da colisão sobre a transmissão de dados e operação da rede.

Clique no ícone Packet Tracer para abrir a atividade. Mostrar mídia visual

9.4.3 Sincronização Ethernet

Página 1:

A implementação de camadas físicas Ethernet mais velozes gera maior complexidade no gerenciamento das colisões.

Latência

Conforme discutido anteriormente, cada dispositivo que deseja transmitir deve primeiro "ouvir" o meio para verificar a presença de tráfego. Se não houve tráfego, a estação iniciará a transmissão imediatamente. O sinal elétrico que é transmitido leva algum tempo (latência) para se propagar (transportar-se) ao logo do cabo. Cada hub ou repetidor no caminho do sinal acrescenta latência à medida que encaminha os bits de uma porta à outra.

Esse atraso acumulado aumenta a probabilidade de ocorrência de colisões, pois um nó de escuta pode mudar durante

a transmissão dos sinais enquanto o hub ou repetidor estiver processando a mensagem. Uma vez que o sinal não

atingiu o nó no estado de espera, ele reconhece o meio físico como disponível. Esta condição normalmente resulta em colisões.

Mostrar mídia visual

Página 2:

Temporização e sincronização

No modo half-duplex, caso não ocorra uma colisão, o dispositivo de transmissão enviará 64 bits de dados de sincronização, conhecidos como Preâmbulo.

O dispositivo de transmissão enviará, então, o quadro completo.

CISCO Accessible Theme

Page 14 of 29

Dispositivos Ethernet com taxas de transmissão de 10 Mbps ou menor são assíncronos. Uma comunicação assíncrona neste contexto significa que cada dispositivo receptor usará os 8 bytes dos dados de temporização para sincronizar o circuito de recepção aos dados de entrada e descartará os 8 bytes.

Os dispositivos Ethernet com taxas de transmissão de 100 Mbps ou maior são síncronos. A comunicação síncrona neste contexto significa que os dados de temporização não são necessários. No entanto, para fins de compatibilidade, os campos Preâmbulo e Start Frame Delimiter (Delimitador de Início de Quadro (SFD)) devem estar presentes. Mostrar mídia visual

Página 3:

Tempo de bit

Para cada velocidade de meio físico distinta, um intervalo de tempo é exigido para inserção e detecção do bit no meio.

O intervalo de tempo é conhecido como tempo de bit. Na Ethernet 10-Mbps, um bit na camada MAC requer 100

nanosegundos (nS) para ser transmitido. Em 100 Mbps, o mesmo bit requer 10nS para ser transmitido. Em meios de

1000 Mbps, o bit leva apenas 1nS para ser transmitido. Aproximadamente 20,3 centímetros (8 polegadas) por

nanosegundo são normalmente usados para calcular o intervalo de propagação em um cabo UTP. O resultado é que, para 100 metros de cabo UTP, leva-se menos de 5 tempos de bit para um sinal 10BASE-T ser transportado por toda a extensão do cabo.

Para que o CSMA/CD Ethernet possa funcionar, o dispositivo de transmissão deve prever uma colisão antes de completar a transmissão de um quadro de tamanho mínimo. Em 100 Mbps, a sincronização do dispositivo pode acomodar cabos com algo em torno de 100 metros. A 1000 Mbps, são necessários ajustes especiais, pois um quadro de tamanho mínimo não seria inteiramente transmitido antes do primeiro bit atingir a terminação dos primeiros 100 metros do cabo UTP. Por esse motivo, o modo half-duplex não é permitido para Ethernet 10-Gigabit.

Essas considerações sobre sincronização devem ser aplicadas ao espaçamento entre quadros e intervalos de backoff (ambos discutidos na seção anterior) para assegurar que, quando um dispositivo transmitir seu quadro seguinte, o risco de colisão seja minimizado.

Intervalo de slot

Em Ethernet half-duplex, em que os dados só podem ser transmitidos em uma direção, o tempo de slot torna-se um parâmetro importante para se determinar quantos dispositivos podem compartilhar a rede. Para todas as velocidades de transmissão da Ethernet 1000 Mbps ou inferiores, o padrão descreve como uma transmissão individual não pode ser menor que o intervalo de slot.

A determinação do intervalo de slot combina a necessidade de redução do impacto de recuperação da colisão

(intervalo de backoff e transmissão) e a necessidade de aumento das distâncias da rede de modo suficiente para acomodar tamanhos de rede apropriados. O objetivo era escolher um diâmetro de rede máximo (aproximadamente

2500 metros) e então determinar o comprimento mínimo do quadro de modo a assegurar a detecção de todas as

colisões inesperadas.

O intervalo de slot para Ethernet 10 e 100 Mbps é de 512 tempos de bit, ou 64 octetos. O intervalo de slot para

Ethernet 1000 Mbps é de 4096 tempos de bit, ou 512 octetos.

O intervalo de slot assegura que, em caso de colisão, ela seja detectada nos primeiros 512 bits (4096 para Ethernet

Gigabit) da transmissão do quadro. Isso simplifica o controle de novas transmissões de quadro após uma colisão.

O intervalo de slot é um parâmetro importante pelos seguintes motivos:

O intervalo de slot de 512 bits estabelece o tamanho mínimo de um quadro Ethernet de 64 bytes. Qualquer quadro com comprimento menor que 64 bytes é considerado um fragmento de colisão ou runt frame e é automaticamente descartado pelas estações de recepção. O intervalo de slot estabelece um limite ao tamanho máximo dos segmentos de rede. Se a rede se tornar muito grande, podem ocorrer colisões tardias. As colisões tardias são consideradas falhas de rede, pois a colisão é detectada com atraso por um dispositivo durante a transmissão do quadro a ser automaticamente processado pelo CSMA/CD.

CISCO Accessible Theme

Page 15 of 29

O intervalo de slot é calculado levando-se em conta o comprimento máximo dos cabos ou a maior arquitetura de rede

permitida. Todos os intervalos de propagação do hardware estão no limite máximo aceito e o jam signal de 32 bits será usado quando nenhuma colisão for detectada.

O intervalo de slot real calculado é maior que o intervalo de tempo teórico de transporte exigido entre os pontos mais distantes do domínio de colisão, para colisão com outra transmissão no último instante possível, e fazer com que os fragmentos de colisão retornem à estação de origem para serem detectados. Veja a figura.

Para que o sistema funcione corretamente, o primeiro dispositivo deve prever a colisão antes de completar o envio do menor tamanho de quadro permitido.

Para que a Ethernet 1000 Mbps possa operar no modo half-duplex, o campo de extensão foi adicionado ao quadro ao enviar pequenos quadros simplesmente para manter o transmissor ocupado o tempo necessário para o retorno de um fragmento de colisão. Este campo está presente somente em links half-duplex de 1000 Mbps e permite que os quadros de tamanho mínimo sejam longos o bastante para satisfazer as exigências do intervalo de slot. Os bits de extensão são descartados no dispositivo de recepção. Mostrar mídia visual

9.4.4 Espaçamento entre quadros e backoff

Página 1:

Espaçamento entre quadros

O padrão Ethernet requer um espaçamento mínimo entre dois quadros que não colidiram. Isso garante tempo ao meio

físico para se estabilizar após a transmissão do quadro anterior e para que os dispositivos possam processar o quadro.

Conhecido como espaçamento entre quadros, este intervalo é medido desde o último bit do campo FCS de um quadro até o primeiro bit do preâmbulo do quadro seguinte.

Após o envio do quadro, todos os dispositivos em uma rede Ethernet 10 Mbps devem esperar no mínimo 96 tempos de bit (9,6 microssegundos) antes de qualquer dispositivo transmitir o quadro seguinte. Em versões Ethernet mais rápidas, o espaçamento permanece o mesmo - intervalos de 96 bits -, mas o espaçamento entre quadros, por sua vez, torna-se maior.

Os intervalos de sincronização entre os dispositivos podem resultar na perda de alguns bits do preâmbulo do quadro. Isso pode causar uma pequena redução no espaçamento entre quadros se os hubs e repetidores regenerarem todos os 64 bits dos dados de sincronização (Preâmbulo e SFD) no início de toda transmissão de quadro. Em redes Ethernet mais rápidas, alguns dispositivos sensíveis podem não reconhecer os quadros individuais que resultam em falha de comunicação. Mostrar mídia visual

Página 2:

Jam Signal

Como podemos lembrar, a Ethernet permite que todos os dispositivos concorram ao mesmo intervalo de transmissão. Caso dois dispositivos sejam transmitidos simultaneamente, a rede CSMA/CD tenta solucionar o problema. Mas, lembre-se que, quando um número maior de dispositivos for adicionado à rede, as colisões podem se tornar cada vez mais difíceis de solucionar.

Ao detectar uma colisão, os dispositivos de transmissão transmitem um "jam signal" de 32 bits que repetirá a colisão. Isso assegura que todos os dispositivos da LAN detectem a colisão.

É importante que o jam signal não seja detectado como um quadro válido, caso contrário, a colisão não será

identificada. O padrão de dados geralmente observado para um jam signal consiste em uma repetição do padrão 1, 0,

1, 0, o mesmo que o do preâmbulo.

As mensagens transmitidas parcialmente corrompidas são normalmente chamadas de fragmentos de colisão ou "runts". As colisões normais são menores que 64 octetos de comprimento e, portanto, não são aceitas nos testes de

CISCO Accessible Theme

Page 16 of 29

comprimento mínimo e testes FCS, tornando-se fáceis de identificar. Mostrar mídia visual

Página 3:

Intervalos de backoff

Após a ocorrência da colisão e de todos os dispositivos permitirem que o cabo se torne ocioso, os dispositivos cujas transmissões colidiram devem esperar um período adicional - e potencial e progressivamente maior – de tempo antes de tentar retransmitir o quadro colidido. O período de espera é intencionalmente elaborado para ser aleatório para que as duas estações não aguardem a mesma quantidade de tempo antes de retransmitir, o que resultaria em mais colisões. Isso é, em parte, realizado ao se expandir o intervalo do qual o tempo de retransmissão aleatório é selecionado em cada tentativa de retransmissão. O período de espera é medido em incrementos do tempo de slot.

Se congestionamento do meio físico resultar no fato da camada MAC se tornar incapaz de enviar o quadro após 16 tentativas, ela desiste e gera um erro à camada de Rede. Tal ocorrência é rara em uma rede operando de maneira adequada e aconteceria somente sob cargas de rede extremamente pesadas ou quando existir um problema físico na rede. Os métodos descritos nesta seção permitiram que a Ethernet fornecesse mais serviço em uma topologia de meio físico compartilhado com base na utilização de hubs. Na próxima seção de comutação, nós veremos como, com a utilização de switches, a necessidade do CSMA/CD começa a diminuir ou, em alguns casos, é toda desnecessária. Mostrar mídia visual

9.5 Camada Física da Ethernet

9.5.1 Visão Geral da Camada Física da Ethernet

Página 1:

As diferenças entre os padrões Ethernet, Fast Ethernet, Gigabit Ethernet e 10 Gigabit Ethernet ocorrem na camada Física, geralmente chamada de PHY Ethernet.

A Ethernet é abrangida pelos padrões IEEE 802.3. Quatro taxas de transferência estão atualmente definidas para

operação sobre fibra óptica e cabos de par trançado:

10 Mbps - 10Base-T Ethernet 100 Mbps - Fast Ethernet 1000 Mbps - Gigabit Ethernet 10 Gbps - 10 Gigabit Ethernet

Embora haja muitas implementações Ethernet diferentes nessas várias taxas de transferência, somente as mais comuns serão aqui apresentadas. A figura mostra algumas das características da Ethernet PHY.

A parte da Ethernet que opera na camada Física será discutida nesta seção, começando com a 10Base-T e

continuando com a 10 Gbps.

Mostrar mídia visual

9.5.2 Ethernet 10 e 100 Mbps

Página 1:

As principais implementações Ethernet de 10 Mbps incluem:

10BASE5 usando cabo coaxial Thicknet 10BASE2 usando cabo coaxial Thicknet 10BASE-T usando cabo de par trançado não blindado Cat3/Cat5

As mais recentes implementações Ethernet, 10BASE5 e 10BASE2 usaram cabo coaxial em um barramento físico.

CISCO Accessible Theme

Page 17 of 29

Essas implementações não são mais usadas e não são suportadas pelos novos padrões 802.3.

10 Mbps Ethernet - 10BASE-T

O

10BASE-T usa codificação Manchester em dois cabos de par trançado não blindados. As implementações 10BASE-

T

recentes usaram cabeamento Cat3. No entanto, cabeamento Cat5 ou mais avançado é mais utilizado hoje em dia.

A

Ethernet 10Mbps é considerada a Ethernet clássica e usa uma topologia de estrela física. Os links da Ethernet

10BASE-T podem ser de até 100 metros de extensão antes de exigir um hub ou repetidor.

O 10BASE-T usa dois pares de um cabo de quatro pares e termina em cada extremidade com um conector RJ-45 de 8

pinos. O par conectado aos pinos 1 e 2 é usado para transmitir e o par conectado aos pinos 3 e 6 é usado para

recepção. A figura mostra a configuração de pinos do RJ45 usado na Ethernet 10BASE-T.

O 10BASE-T não é geralmente escolhido para novas instalações LAN. No entanto, ainda há muitas redes Ethernet

10BASE-T existentes hoje. A substituição de hubs por switches nas redes 10BASE-T aumentou muito a taxa de transferência disponível a essas redes e deu ao Legado Ethernet mais longevidade. Os links 10BASE-T conectados a um switch podem suportar operação half-duplex ou full-duplex. Mostrar mídia visual

Página 2:

100 Mbps - Fast Ethernet

Em meados da década de 90, vários padrões 802.3 foram estabelecidos para descrever os métodos para transmissão de dados sobre o meio físico Ethernet a 100 Mbps. Esses padrões usavam exigências diferentes de codificação para o alcance dessas taxas de transferência maiores.

A Ethernet 100 Mbps, também conhecida como Fast Ethernet, foi implementada ao se usar cabo de cobre de par

trançado ou fibra. As implementações mais populares da Ethernet 100 Mbps são:

100BASE-TX usando UTP Cat5 ou mais recente 100BASE-FX usando cabo de fibra óptica

Pelo fato de que os sinais de maior frequência usados na Fast Ethernet são mais suscetíveis a ruído, dois passos de codificação separados são usados pela Ethernet 100-Mbps para aprimorar a integridade do sinal.

100BASE-TX

O 100BASE-TX foi elaborado para suportar transmissão sobre dois pares de fio de cobre de Categoria 5 UTP ou dois

cabos de fibra óptica. A implementação 100BASE-TX usa os mesmos dois pares e pinouts UTP que o 10BASE-T. No entanto, o 100BASE-TX exige a Categoria 5 ou mais recente de UTP. A codificação 4B/5B é usada para a Ethernet

100BASE-T.

Assim como o 10BASE-TX, o 100Base-TX é conectado como uma estrela física. A figura mostra um exemplo de uma topologia de estrela física. No entanto, diferentemente do 10BASE-T, as redes do 100BASE-TX usam normalmente um switch no centro da estrela ao invés de um hub. Mais ou menos ao mesmo tempo em que as tecnologias 100BASE-TX se tornaram a tendência, os switches LAN também estavam sendo bastante empregados. Esse desenvolvimento concorrente levou a sua combinação natural na elaboração das redes 100BASE-TX.

100BASE-FX

O padrão 100BASE-FX usa o mesmo procedimento de sinalização que o 100BASE-TX, mas sobre um meio físico de

fibra óptica em vez de cobre UTP. Embora os procedimentos de codificação, decodificação e recuperação de clock sejam os mesmos para ambos os meios físicos, a transmissão de sinal é diferente – pulsos elétricos em cobre e pulsos de luz em fibra óptica. O 100BASE-FX usa Conectores de Interface de Fibra a Baixo Custo (comumente chamados de

conector SC duplex).

Implementações de fibra são conexões ponto-a-ponto, ou seja, elas são usadas para interconectar dois dispositivos. Essas conexões podem ser entre dois computadores, entre um computador e um switch ou entre dois switches.

CISCO Accessible Theme

Page 18 of 29

Mostrar mídia visual

9.5.3 Ethernet 1000 Mbps

Página 1:

1000 Mbps - Gigabit Ethernet

O desenvolvimento de padrões Gigabit Ethernet resultou em especificações para cabos de cobre UTP, fibra de

monomodo e fibra multimodo. Nas redes Gigabit Ethernet, os bits ocorrem em uma fração de tempo que eles levam nas redes de 100 Mbps e de 10 Mbps. Com os sinais ocorrendo em menos tempo, os bits se tornam mais suscetíveis a

ruído e, portanto, o timing é crucial. A questão de desempenho é baseada no quão rápido o adaptador de rede ou interface pode mudar os níveis de voltagem e o quão bem a mudança de voltagem pode ser detectada de maneira confiável a uma distância de 100 metros, na NIC ou interface do receptor.

Nessas velocidades mais rápidas, dados de codificação e decodificação são mais complexos. A Gigabit Ethernet usa dois passos de codificação separados. A transmissão de dados é mais eficiente quando os códigos são usados para representar o fluxo de bits binário. Codificar os dados permite sincronização, uso eficiente de largura de banda e características de reção sinal-ruído aprimoradas.

Ethernet 1000BASE-T

A Ethernet 1000BASE-T fornece transmissão full-duplex usando todos os quatro pares do cabo Categoria 5 UTP ou

mais recente. A Gigabit Ethernet sobre fio de cobre permite um aumento de 100 Mbps pó par de fios a 125 Mbps por par de fios, ou 500 Mbps para os quatro pares. Cada par de fios transmite sinal em full duplex, dobrando os 500 Mbps para 1000 Mbps.

O 1000BASE-T usa codificação de linha de 4D-PAM5 para obter taxa de transferência de dados de 1 Gbps. Esse

esquema de codificação permite os sinais de transmissão sobre quatro pares de fios simultaneamente. Ele converte um byte de dados de 8-bits em uma transmissão simultânea de quatro símbolos de código (4D), que são enviados sobre o meio físico, um em cada par, como sinais Modulados de Amplitude de Pulso de 5-níveis (PAM5). Isso significa que todos os símbolos correspondem a dois bits de dados. Pelo fato de que a informação viaja simultaneamente pelos quatro caminhos, o conjunto de circuitos precisa dividir quadros no transmissor e remontá-los no receptor. A figura mostra uma representação do conjunto de circuitos usado pela Ethernet 1000BASE-T.

O 1000BASE-T permite a transmissão e recepção de dados em ambas as direções – no mesmo fio e ao mesmo tempo.

Esse fluxo de tráfego cria colisões permanentes nos pares de fios. Essas colisões resultam em padrões de voltagem complexos. Os circuitos híbridos detectando os sinais usam técnicas sofisticadas, tais como cancelamento de eco, Correção de Erro Posterior (FEC) da Camada 1 e seleção prudente de níveis de voltagem. Usando essas técnicas, o sistema atinge uma produtividade de 1-Gigabit.

Para ajudar na sincronização, a camada Física encapsula cada quadro com delimitadores de início-de-fluxo e de final- de-fluxo. O tempo de loop é mantido por fluxos contínuos de símbolos OCIOSOS enviados em cada par de fios durante o espaçamento entre quadros.

Diferentemente da maioria dos sinais digitais onde existe geralmente certa quantidade de níveis de voltagem discretos,

o 1000BASE-T usa muitos níveis de voltagem. Em períodos ociosos, nove níveis de voltagem são encontrados no

cabo. Durante os períodos de transmissão de dados, até 17 níveis de voltagem são encontrados no cabo. Com esse grande número de estados, combinados com os efeitos de ruído, o sinal no cabo parece mais um sinal analógico do que digital. Como no sinal analógico, o sistema é mais suscetível a ruído devido a problemas em cabos e terminações. Mostrar mídia visual

Página 2:

Ethernet 1000BASE-SX e 1000BASE-LX Usando Fibra Óptica

As versões de fibra da Gigabit Ethernet - 1000BASE-SX e 1000BASE-LX – oferecem as seguintes vantagens em relação ao UTP: imunidade a ruído, volume físico pequeno, maiores distâncias sem a necessidade de repetição, e largura de banda.

CISCO Accessible Theme

Page 19 of 29

Todas as versões do 1000BASE-SX e do 1000BASE-LX suportam transmissão binária full-duplex a 1250 Mbps sobre dois cabos de fibra óptica. Os códigos de transmissão são baseados no esquema de codificação 8B/10B. Por causa do overhead desta codificação, a taxa de transferência de dados ainda é de 1000 Mbps.

Cada quadro de dados é encapsulado na camada Física antes da transmissão, e a sincronização de link é mantida com o envio de um fluxo contínuo de grupos de código OCIOSO durante o espaçamento entre quadros.

As principais diferenças entre as versões de fibra do 1000BASE-SX e do 1000BASE-LX são o meio físico do link, os conectores e o comprimento de onda do sinal óptico. Essas diferenças são mostradas na figura. Mostrar mídia visual

9.5.4 Ethernet - Futuras Opções

Página 1:

O padrão IEEE 802.3ae foi adaptado para incluir transmissão de 10 Gbps, full-duplex sobre cabo de fibra óptica. O padrão 802.3ae e o 802.3 para a Ethernet original são muito similares. A Ethernet 10-Gigabit (10GbE) está evoluindo para utilização não somente em LANs, mas também em WANs e MANs.

Pelo fato de que o formato do quadro e outras especificações Ethernet Camada 2 serem compatíveis com padrões anteriores, o 10GbE pode fornecer largura de banda a redes individuais que sejam interoperáveis com a infra-estrutura de rede existente

O 10Gbps pode ser comparado a outras variedades Ethernet nas seguintes formas:

O formato do quadro é o mesmo, permitindo interoperabilidade entre todas as variedades, fast, gigabit e 10 gigabit Ethernet, sem necessidade de conversões de reframing ou protocolo. O tempo de bit é agora de 0,1 ns. Todas as outras variáveis de tempo se adaptam de acordo. Pelo fato de que somente conexões de fibra full-duplex são usadas, não existe contenção de meio físico e o CSMA/CD não é necessário. As sub-camadas IEEE 802.3 dentro das Camadas 1 e 2 do modelo OSI são preservadas em sua maioria, com poucas adições para acomodar 40 km de links e interoperabilidade com outras tecnologias de fibra.

Com a Ethernet 10Gbps, as redes Ethernet ponto-a-ponto de custo relativamente baixo, confiáveis, eficientes e flexíveis tornam-se possíveis.

Futuras Velocidades Ethernet

Embora o 1-Gigabit Ethernet esteja disponível e os produtos do 10-Gigabit estejam se tornando mais disponíveis, o IEEE e o 10-Gigabit Ethernet Alliance estão trabalhando em padrões de 40-, 100- ou mesmo 160-Gbps. As tecnologias adotadas dependerão de vários fatores, incluindo as taxas de maturação das tecnologias e padrões, a frequência de adoção no mercado e o custo de produtos emergentes. Mostrar mídia visual

9.6 Hubs e Switches

9.6.1 Legado Ethernet - Usando Hubs

Página 1:

Em seções anteriores, nós vimos como a Ethernet clássica usa o meio físico compartilhado e o controle de acesso ao meio físico com base em contenção. A Ethernet Clássica usa hubs para interconectar nós do segmento LAN. Os Hubs não desempenham qualquer tipo de filtragem de tráfego. Em vez disso, o hub envia todos os bits a todos os dispositivos conectados a ele. Isso força todos os dispositivos na LAN a compartilhar a largura de banda do meio físico.

Além disso, essa implementação da Ethernet clássica resulta frequentemente em altos níveis de colisões na LAN. Por causa desses problemas de desempenho, esse tipo de LAN Ethernet limitou a utilização nas redes de hoje em dia. As implementações Ethernet usando hubs são, hoje, comumente usadas somente em pequenas LANs ou em LANs com baixas exigências de largura de banda.

CISCO Accessible Theme

Page 20 of 29

Compartilhar o meio físico entre dispositivos cria problemas significativos à medida que a rede cresce. A figura ilustra alguns dos problemas apresentados aqui.

Escalabilidade

Em uma rede com hub, há um limite à quantidade de largura de banda que os dispositivos conseguem compartilhar. Com cada dispositivo agregado ao meio físico compartilhado, a largura de banda média disponível a cada dispositivo diminui. A medida que aumenta o número de dispositivos no meio físico, o desempenho é degradado.

Latência

A latência de rede é a quantidade de tempo que se leva para um sinal atingir todos os destinos no meio físico. Cada nó em uma rede baseada em hub tem que esperar por uma oportunidade para transmitir, para evitar colisões. A latência pode aumentar significativamente à medida que a distância entre os nós é expandida. A latência também é afetada por um atraso do sinal pelo meio físico, bem como pelo atraso adicionado pelo processamento dos sinais através de hubs e repetidores. Aumentar a extensão do meio físico ou o número de hubs e repetidores conectados a um segmento resulta em crescente latência. Com uma maior latência, é mais provável que os nós não recebam sinais iniciais, aumentando, assim, as colisões presentes na rede.

Falha de Rede

Pelo fato de que a Ethernet clássica compartilha o meio físico, qualquer dispositivo na rede poderia causar potenciais problemas a outros dispositivos. Se qualquer dispositivo conectado ao hub gera tráfego prejudicial, a comunicação para todos os dispositivos no meio físico poderia ser impedida. Esse tráfego perigoso pode ocorrer devido a velocidade incorreta ou configurações full-duplex em uma NIC.

Colisões

De acordo com o CSMA/CD, um nó não deve enviar um pacote a menos que a rede esteja livre de tráfego. Se dois nós enviam pacotes ao mesmo tempo, ocorre uma colisão e os pacotes são perdidos. Então, ambos os nós enviam um jam signal, esperam por uma quantidade de tempo aleatória e retransmitem seus pacotes. Qualquer parte da rede onde os pacotes de dois ou mais nós podem interferir um com o outro é considerada um domínio de colisão. Uma rede com um número maior de nós no mesmo segmento possui um domínio de colisão maior e tem comumente mais tráfego. À medida que a quantidade de tráfego na rede aumenta, aumenta também a probabilidade de colisões.

Switches fornecem uma alternativa ao ambiente baseado em contenção da Ethernet clássica. Mostrar mídia visual

9.6.2 Ethernet – Usando Switches

Página 1:

Nos últimos anos, os switches se tornaram rapidamente uma parte fundamental da maioria das redes. Os switches permitem a segmentação da LAN em domínios de colisão separados. Cada porta do switch representa um domínio de colisão separado e fornece largura de banda total ao nó ou nós conectado(s) nesta porta. Com menos nós em cada domínio de colisão, há um aumento na largura de banda média disponível para cada nó, e as colisões são reduzidas.

Uma LAN pode ter um switch centralizado conectando-se a hubs que fornecem conectividade aos nós. Ou, uma LAN pode ter todos os nós conectados diretamente a um switch. Essas topologias são mostradas na figura.

Em uma LAN onde um hub é conectado a uma porta de switch, ainda há compartilhamento de largura de banda, que poderá resultar em colisões dentro do ambiente compartilhado do hub. No entanto, o switch isolará o segmento e isolará as colisões nas portas do hub. Mostrar mídia visual

Página 2:

Nós São Conectados Diretamente

CISCO Accessible Theme

Page 21 of 29

Em uma LAN onde todos os nós são conectados diretamente ao switch, a taxa de transferência da rede aumenta drasticamente. As três razões principais para esse aumento são:

Largura de banda dedicada a cada porta Ambiente livre de colisão Operação em full-duplex

Essas topologias de estrela física são essencialmente links ponto-a-ponto.

Clique nos fatores de desempenho na figura.

Largura de Banda Dedicada

Cada nó possui a largura de banda total do meio físico disponível na conexão entre o nó e o switch. Pelo fato de que um hub replica os sinais que recebe e os envia a todas as outras portas, os hubs Ethernet formam um barramento lógico. Isso significa que todos os nós têm que compartilhar a mesma largura de banda desse barramento. Com os switches, cada dispositivo possui efetivamente uma conexão ponto-a-ponto dedicada entre o dispositivo e o switch, sem contenção de meio físico.

Como um exemplo, compare duas LANs de 100 Mbps, cada uma com 10 nós. No segmento de rede A, os 10 nós são conectados a um hub. Cada nó compartilha a largura de banda de 100 Mbps disponível. Isso fornece uma media de 10 Mbps para cada nó. No segmento de rede B, os 10 nós são conectados a um switch. Nesse segmento, todos os 10 nós possuem toda a largura de banda de 100 Mbps disponível para eles.

Mesmo nesse pequeno exemplo de rede, o aumento na largura de banda é significativo. À medida que aumenta o número de nós, a discrepância entre a largura de banda disponível nas duas implementações aumenta significativamente.

Ambiente Livre de Colisões

Uma conexão ponto-a-ponto dedicada de um switch também remove qualquer contenção de meio físico entre os dispositivos, permitindo que um nó opere com poucas ou nenhuma colisão. Em uma rede Ethernet clássica com tamanho moderado usando hubs, aproximadamente de 40% a 50% da largura de banda é consumida pela recuperação de colisão. Em uma rede Ethernet comutada – onde não há colisões – o overhead dedicado a recuperação de colisão é eliminado. Isso fornece à rede comutada taxas de transferência significativamente melhores.

Operação em Full-Duplex

A Comutação também permite que uma rede opere em um ambiente Ethernet em full-duplex. Antes de existir a

comutação, a Ethernet era somente half-duplex. Isso significava que a qualquer momento, um nó poderia transmitir ou receber. Com o full-duplex habilitado em uma rede Ethernet comutada, os dispositivos conectados diretamente às portas do switch podem transmitir e receber simultaneamente, com a largura de banda total do meio físico.

A conexão entre o dispositivo e o switch é livre de colisão. Isso dobra efetivamente a taxa de transmissão em

comparação ao half-duplex. Por exemplo, se a velocidade da rede é de 100 Mbps, cada nó pode transmitir um quadro a

100 Mbps e, ao mesmo tempo, receber um quadro na mesma velocidade.

Usando Switches em Vez de Hubs

A maioria das Ethernet modernas usa switches para os dispositivos finais e opera em full duplex. Pelo fato dos switches

fornecerem uma taxa de transferência muito maior do que os hubs e porque eles aumentam consideravelmente o desempenho, é justo perguntar: por que não usar switches em todas as LANs Ethernet? Existem três motivos para os

hubs ainda estarem sendo usados:

Disponibilidade – Switches LAN não eram desenvolvidos até o início da década de 90 e não estavam disponíveis até a metade dessa mesma década. Ethernets recentes usavam hubs para UTP e muitas delas estão em operação até hoje Economia – Inicialmente, os switches eram caros. Como o preço dos switches caiu, o uso de hubs diminuiu e o custo está se tornando o menor fator nas decisões. Exigências – As recentes redes LAN eram simples redes elaboradas para trocar arquivos e compartilhar

CISCO Accessible Theme

Page 22 of 29

impressoras. Para muitos locais, as redes recentes evoluíram para as redes convergidas atuais, resultando em uma necessidade substancial por maior largura de banda disponível a usuários individuais. Em algumas circunstâncias, no entanto, um hub de meio físico compartilhado ainda será suficiente e esses produtos permanecem no mercado.

A seção a seguir explora a operação básica de switches e como eles conseguem um desempenho aprimorado, do qual

nossas redes dependem hoje. Um curso posterior apresentará mais detalhes e tecnologias adicionais relativas a

comutação. Mostrar mídia visual

Página 3:

Nesta atividade, fornecemos um modelo para comparação das colisões encontradas em redes baseadas em hubs com um ambiente livre de colisões dos switches.

Clique no ícone do Packet Tracer para mais detalhes. Mostrar mídia visual

9.6.3 Switches – Encaminhamento Seletivo

Página 1:

Os switches Ethernet enviam de maneira seletiva quadros individuais de uma porta de recebimento à porta onde o nó de destino está conectado. Esse processo de encaminhamento seletivo pode ser considerado como estabelecendo uma conexão ponto-a-ponto momentânea entre os nós de transmissão e recepção. A conexão é feita em tempo suficiente para enviar um único quadro. Durante esse instante, os dois nós possuem uma conexão de largura de banda total entre eles e representam uma conexão ponto-a-ponto lógica.

Para ser tecnicamente preciso, essa conexão temporária não é feita entre os dois nós simultaneamente. Em essência, isso torna a conexão entre hosts uma conexão ponto-a-ponto. De fato, qualquer nó operando no modo full-duplex pode transmitir a qualquer momento que tiver um quadro, sem considerar a disponibilidade do nó de recebimento. Isso é porque um switch LAN fará um buffer de um quadro de entrada e então o enviará para a porta adequada quando essa porta estiver ociosa. Esse processo é chamado de store and forward (armazenar e encaminhar).

Com o método de comutação armazenar e encaminhar, o switch recebe todo o quadro, checa erros no FSC e envia o quadro para a porta apropriada para o nó de destino. Pelo fato de que os nós não precisam esperar o meio físico ficar ociosa, os nós podem enviar e receber com total velocidade e sem perdas devido a colisões ou overhead associado ao gerenciamento de colisões.

Envio Baseado no MAC de Destino

O switch mantém uma tabela, chamada de tabela MAC que relaciona um endereço MAC de destino com a porta usada

para conectar o nó. Para cada quadro de entrada, o endereço MAC de destino no cabeçalho do quadro é comparado à lista de endereços na tabela MAC. Se uma correspondência for encontrada, a porta na tabela que está relacionada com

o endereço MAC é usada como a porta de saída para o quadro.

A tabela MAC pode ser chamada por diversos nomes diferentes. Ela é comumente chamada de tabela do switch. Pelo

fato de que a comutação se originou de uma tecnologia mais antiga chamada comutação transparente

chamada, às vezes, de tabela de bridge. Por esse motivo, muitos processos executados pelos switches LAN podem conter bridge u bridging em seus nomes.

, a tabela é

Uma bridge é um dispositivo usado mais comumente em antigas LANs para conectar dois segmentos físicos de rede. Switches podem ser usados para realizar essa operação, bem como para permitir conectividade do dispositivo final à LAN. Muitas outras tecnologias foram desenvolvidas em torno da comutação LAN. Muitas dessas tecnologias serão apresentadas em um curso posterior. Um local onde as bridges são predominantes seria em redes sem fio. Usamos Bridges Sem Fio para interconectar dois segmentos de rede. Portanto, você poderá encontrar ambos os termos - comutação (switching)ou bridging - em uso pela indústria de rede. Mostrar mídia visual

CISCO Accessible Theme

Page 23 of 29

Página 2:

Operação do Switch

Para conseguir seu objetivo, os switches LAN usam cinco operações básicas:

Aprendizado Envelhecimento Inundação Encaminhamento Filtragem

Aprendizado

A tabela MAC deve ser povoada com endereços MAC e suas portas correspondentes. O processo de Aprendizado

permite que esses mapeamentos sejam adquiridos de maneira dinâmica durante a operação normal.

À medida que cada quadro entra no switch, este examina o endereço MAC de origem. Usando um procedimento de

pesquisa, o switch determina se a tabela já contém uma entrada para aquele endereço MAC. Se não houver entrada, o switch cria uma nova entrada na tabela MAC usando o endereço MAC de origem associado à porta em que o quadro chegou. O switch pode agora usar esse mapeamento para enviar quadros a este nó.

Envelhecimento

As entradas na tabela MAC adquiridas pelo processo de Aprendizado são rotuladas com o horário do registro. Esse rótulo é usado como meio de remover entradas antigas da tabela MAC. Após uma entrada ser feita na tabela MAC, um procedimento inicia uma contagem, usando o horário registrado como valor inicial. Após o valor atingir 0, a entrada na tabela será atualizada quando o switch receber um quadro do nó na mesma porta.

Inundação

Se o switch não sabe para qual porta enviar um quadro porque o endereço MAC de destino não está na tabela MAC, o switch envia o quadro a todas as portas exceto para a porta na qual o quadro chegou. O processo de envio de um quadro a todos os segmentos é conhecido como inundação. O switch não envia o quadro à porta na qual o mesmo chegou porque qualquer destino nesse segmento já terá recebido o quadro. A Inundação também é usada para quadros enviados para o endereço MAC de broadcast.

Encaminhamento

O Encaminhamento é o processo onde se examina o endereço MAC de destino de um quadro e o encaminha para a

porta adequada. Essa é a função principal do switch. Quando um quadro de um nó chega ao switch para o qual o switch já aprendeu o endereço MAC, esse endereço é comparado a uma entrada na tabela MAC e o quadro é encaminhado para a porta correspondente. Em vez de inundar o quadro para todas as portas, o switch envia o quadro ao nó de destino por sua porta designada. Essa ação é chamada de encaminhamento.

Filtragem

Em alguns casos, um quadro não é encaminhado. Esse processo é chamado de filtragem de quadro. A utilização da filtragem já foi descrita: um switch não encaminha um quadro para a mesma porta na qual ele chegou. Um switch também irá abandonar um quadro corrompido. Se um quadro falhar na verificação CRC, o quadro é abandonado. Um outro motivo para filtrar um quadro é segurança. Um switch possui configurações de segurança para bloquear quadros para e/ou endereços MAC selecionados ou portas específicas. Mostrar mídia visual

9.6.4 Ethernet - Comparando Hubs e Switches

Página 1:

Mostrar mídia visual

CISCO Accessible Theme

Page 24 of 29

Página 2:

Nesta atividade, você terá a oportunidade de visualizar e conhecer o comportamento de switches em uma rede.

Clique no ícone do Packet Tracer para mais detalhes. Mostrar mídia visual

9.7 Protocolo de Resolução de Endereços (ARP)

9.7.1 O Processo ARP - Mapeando endereços IP conhecidos para endereços MAC desconhecidos

Página 1:

O protocolo ARP fornece duas funções básicas:

Resolver endereços IPv4 para endereços MAC Manter uma cache de mapeamentos

Resolvendo Endereços IPv4 para Endereços MAC

Para que um quadro seja colocado no meio físico da LAN, ele deve possuir um endereço MAC de destino. Quando um pacote é enviado à camada de Enlace para ser encapsulado em um quadro, o nó consulta uma tabela em sua memória para encontrar o endereço da camada de Enlace que é mapeado ao endereço IPv4 de destino. Essa tabela é chamada de Tabela ARP ou de cache ARP. A tabela ARP é armazenada na RAM do dispositivo.

Cada entrada, ou linha, da tabela ARP possui um par de valores: um Endereço IP e um endereço MAC. Nós chamamos o relacionamento entre os dois valores de mapa – isso significa simplesmente que você pode localizar um endereço IP na tabela e descobrir o endereço MAC correspondente. A tabela ARP gera a cache de mapeamento para os dispositivos na LAN local.

Para começar o processo, um nó de transmissão tenta localizar na tabela ARP o endereço MAC mapeado a um destino IPv4. Se este mapa estiver em cache na tabela, o nó usa o endereço MAC como o MAC de destino no quadro que encapsula o pacote IPv4. O quadro é, então, codificado no meio físico de rede.

Mantendo a Tabela ARP

A tabela ARP é mantida de maneira dinâmica. Existem duas formas para um dispositivo reunir endereços MAC. Uma

forma é monitorar o tráfego que ocorre no segmento de rede local. Como um nó recebe quadros do meio físico, ele pode registrar o IP e o endereço MAC de origem como um mapeamento na tabela ARP. À medida que os quadros são transmitidos na rede, o dispositivo povoa a tabela ARP com pares de endereço.

Outra forma que um dispositivo pode obter um par de endereços é enviar em broadcast uma solicitação ARP. O ARP envia um broadcast de Camada 2 a todos os dispositivos na LAN Ethernet. O quadro contém um pacote de solicitação ARP com o endereço IP do host de destino. O nó que recebe o quadro que identifica o endereço IP como seu, responde enviando um pacote de resposta ARP de volta ao remetente como um quadro unicast. Essa resposta é, então, usada para fazer uma nova entrada na tabela ARP.

Essas entradas dinâmicas na tabela MAC são rotuladas com o horário da mesma forma que as entradas na tabela MAC em switches. Se um dispositivo não recebe um quadro de um dispositivo específico até o momento horário de vencimento, a entrada para esse dispositivo é removida da tabela ARP.

Além disso, entradas estáticas podem ser inseridas em uma tabela ARP, mas isso raramente é feito. Entradas estáticas na tabela ARP não expiram com o tempo e devem ser removidas manualmente.

Criando o Quadro

O que faz um nó quando precisa criar um quadro e a cache ARP não contém o mapa de um endereço IP para um

endereço MAC de destino? Quando o ARP recebe uma solicitação para mapear um endereço IPv4 a um endereço MAC, ele procura um mapa em cache na sua tabela ARP. Se não encontrar uma entrada, o encapsulamento do pacote

CISCO Accessible Theme

Page 25 of 29

de IPv4 falha e os processos de Camada 2 notificam o ARP que precisam de um mapa.

Os processos ARP enviam, então, um pacote de solicitação ARP para descobrir o endereço MAC do dispositivo de destino na rede local. Se o dispositivo que está recebendo a solicitação tiver o endereço IP de destino, ele responde com uma resposta ARP. Um mapa é criado na tabela ARP. Os pacotes para o endereço IPv4 podem, agora, ser encapsulados em quadros.

Se nenhum dispositivo responder à solicitação ARP, o pacote é abandonado porque o quadro não pode ser criado. Essa falha de encapsulamento é informada para as camadas superiores do dispositivo. Se o dispositivo é um dispositivo intermediário, como um roteador, as camadas superiores podem escolher responder ao host de origem com um erro, através de um pacote ICMPv4.

Clique nos números dos passos na figura para ver o processo usado para se obter o endereço MAC do nó na rede local.

No laboratório, você usará o Wireshark para observar solicitações e respostas ARP. Mostrar mídia visual

9.7.2 O Processo ARP - Destinos fora da Rede Local

Página 1:

Todos os quadros devem ser entregues a um nó no segmento de rede local. Se o host IPv4 de destino estiver na rede local, o quadro usará o endereço MAC desse dispositivo como o endereço MAC de destino.

Se o host IPv4 de destino não estiver na rede local, o nó de origem precisa entregar o quadro à interface do roteador que é o gateway ou o próximo salto usado para alcançar o destino. O nó de origem usará o endereço MAC do gateway como o endereço de destino para quadros contendo um pacote IPv4 endereçado para hosts em outras redes.

O endereço de gateway da interface de roteador é armazenado na configuração IPv4 dos hosts. Quando um host cria um pacote para um destino, ele compara o endereço IP de destino com o seu próprio endereço IP para determinar se os dois endereços IP estão localizados na mesma rede. Se o host de destino não estiver na mesma rede, o host de origem usa o processo ARP para determinar o endereço MAC da interface do roteador que desempenha o papel de gateway da rede local.

Caso a entrada do gateway não esteja na tabela, o processo ARP enviará uma solicitação ARP para descobrir o endereço MAC associado ao endereço IP da interface do roteador.

Clique nos números de cada passo na figura para ver o processo usado para se obter o endereço MAC do gateway. Mostrar mídia visual

Página 2:

Proxy ARP

Existem circunstâncias sob as quais um host poderá enviar uma solicitação ARP buscando mapear um endereço IPv4 fora da faixa da rede local. Nesses casos, o dispositivo envia solicitações ARP para endereços IPv4 que não estão na rede local, em vez de solicitar o endereço MAC associado ao endereço IPv4 do gateway. Para fornecer um endereço MAC para esses hosts, uma interface do roteador poderá usar um proxy ARP para responder em nome desses hosts remotos. Isso significa que a cache ARP do dispositivo solicitante conterá o endereço MAC do gateway mapeado para quaisquer endereços IP que não estão na rede local. Usando proxy ARP, uma interface de roteador atua como se fosse o host com o endereço IPv4 solicitado pela solicitação ARP. Ao "fingir" sua identidade, o roteador aceita a responsabilidade por rotear pacotes ao destino "real".

Uma utilização desse processo ocorre quando uma implementação IPv4 mais antiga não puder determinar se o host de destino está na mesma rede lógica que o de origem. Nessas implementações, o ARP sempre envia solicitações para o endereço IPv4 de destino. Se o proxy ARP for desabilitado na interface do roteador, esses hosts não conseguem se comunicar fora da rede local.

CISCO Accessible Theme

Page 26 of 29

Outro situação onde o proxy ARP é usado ocorre quando um host acredita que está diretamente conectado à mesma rede lógica que o host de destino. Isso geralmente ocorre quando um host é configurado com uma máscara inadequada.

Como mostra a figura, o Host A foi configurado de maneira inadequada com uma máscara de sub-rede /16. Esse host acredita estar diretamente conectado a toda a rede 172.16.0.0 /16 em vez da sub-rede 172.16.10.0 /24.

Quando são feitas tentativas de se comunicar com qualquer host IPv4 na faixa de 172.16.0.1 a 172.16.255.254, o Host

A enviará uma solicitação ARP para o endereço IPv4. O roteador pode usar um proxy ARP para responder a

solicitações para o endereço IPv4 do Host C (172.16.20.100) e do Host D (172.16.20.200). O Host A terá, então, entradas para esses endereços mapeadas para o endereço MAC da interface e0 do roteador (00-00-0c-94-36-ab).

Ainda, outra finalidade de um proxy ARP ocorre quando um host não é configurado com um gateway padrão. O Proxy ARP pode ajudar os dispositivos em uma rede a alcançarem sub-redes remotas sem a necessidade de configurar o roteamento ou um gateway padrão.

Por padrão, os roteadores Cisco têm o proxy ARP habilitado em interfaces LAN.

http://www.cisco.com/en/US/tech/tk648/tk361/technologies_tech_note09186a0080094adb.shtml

Mostrar mídia visual

9.7.3 O Processo ARP – Removendo Mapeamentos de Endereço

Página 1:

Um temporizador da cache ARP remove entradas ARP que não foram usadas por certo período. Os tempos diferem dependendo do dispositivo e de seu sistema operacional. Por exemplo, alguns sistemas operacionais Windows guardam entradas na cache ARP por 2 minutos. Se a entrada for usada novamente durante aquele tempo, o timer do ARP para aquela entrada é estendido para 10 minutos.

Também poderão ser usados comandos para remover manualmente todas ou algumas das entradas na tabela ARP. Após a remoção de uma entrada, o processo de envio de uma solicitação (ARP) e recebimento de uma resposta (ARP) deve ocorrer novamente para inserir no mapa da tabela ARP.

No laboratório desta seção, você usará o comando arp para visualizar e limpar o conteúdo da cache ARP de um computador. Note que esse comando, apesar do nome, não chama a execução do Address Resolution Protocol (ARP) de qualquer maneira. Ele é simplesmente usado para exibir, adicionar ou remover as entradas da tabela ARP. O serviço ARP está integrado dentro do protocolo IPv4 e implementado pelo dispositivo. Sua operação é transparente para as aplicações de camada superior e para os usuários. Mostrar mídia visual

9.7.4 Broadcasts ARP - Problemas

Página 1:

Overhead no meio físico

Como um quadro de broadcast, uma solicitação ARP é recebida e processada por todos os dispositivos da rede local. Em uma rede típica de negócios, esses broadcasts teriam, provavelmente, um impacto mínimo no desempenho de

rede. No entanto, se um grande número de dispositivos tivessem que ser ligados e todos começassem a acessar serviços de rede ao mesmo tempo, poderia haver alguma redução no desempenho por um curto período de tempo. Por exemplo, se todos os alunos em um laboratório fizessem login nos computadores da sala de aula e tentassem acessar

a Internet ao mesmo tempo, poderiam ocorrer atrasos.

No entanto, após os dispositivos terem enviado os broadcasts ARP iniciais e terem aprendido os endereços MAC necessários, qualquer impacto na rede seria minimizado.

Segurança

CISCO Accessible Theme

Page 27 of 29

Em alguns casos, o uso de ARP pode levar a um risco potencial de segurança. O ARP spoofing, ou ARP poisoning

uma técnica usada por um agressor para inserir uma associação de endereço MAC errada em uma rede. Um atacante forja o endereço MAC de um dispositivo e os quadros podem ser enviados ao destino errado.

, é

Configurar manualmente as associações ARP é uma forma de se impedir a falsificação ARP. Endereços MAC autorizados podem ser configurados nos mesmos dispositivos de rede para restringir o acesso à rede para somente os dispositivos listados. Mostrar mídia visual

9.8 Laboratórios do Capítulo

9.8.1 Laboratório - Address Resolution Protocol (ARP)

Página 1:

Este laboratório introduz o comando arp do Windows para examinar e alterar as entradas na cache ARP em um computador host. O Wireshark é usado para capturar e analisar trocas ARP entre dispositivos de rede.

Clique no ícone do laboratório para mais detalhes. Mostrar mídia visual

Página 2:

Nesta atividade, você usará o Packet Tracer para examinar e alterar entradas da cache ARP em um computador host.

Clique no ícone do Packet Tracer para iniciar a atividade. Mostrar mídia visual

9.8.2 Laboratório - Verificação da Tabela MAC de Switches Cisco

Página 1:

Neste laboratório, você se conectará a um switch via Telnet, fará o login e usará os comandos do sistema operacional necessários para examinar os endereços MAC armazenados e sua associação de portas.

Clique ícone do laboratório para mais detalhes. Mostrar mídia visual

Página 2:

Nesta atividade, você usará o Packet Tracer para examinar os endereços MAC armazenados e sua associação de portas nos switches.

Clique no ícone do Packet Tracer para iniciar a atividade. Mostrar mídia visual

9.8.3 Laboratório - Dispositivo Intermediário como um Dispositivo Final

Página 1:

Esse laboratório usa o Wireshark para capturar e analisar quadros para determinar quais nós de rede originaram os quadros. Uma sessão Telnet entre um computador host e um switch é capturada e analisada para verificar o conteúdo do quadro.

Clique no ícone do laboratório para mais detalhes. Mostrar mídia visual

CISCO Accessible Theme

Page 28 of 29

Página 2:

Nesta atividade, você usará o Packet Tracer para analisar quadros que foram originados em um switch.

Clique no ícone do Packet Tracer para iniciar a atividade. Mostrar mídia visual

9.9 Resumo do Capítulo

9.9.1 Resumo e Revisão

Página 1:

Ethernet é um protocolo de Acesso à Rede TCP/IP eficaz e amplamente utilizado. Sua estrutura comum de quadro foi implementada por uma rede de tecnologias de meio físico, cobre e fibra, tornando-o o protocolo LAN mais comum em uso atualmente.

Como uma implementação dos padrões IEEE 802.2/3, o quadro Ethernet fornece endereçamento MAC e verificação de erros. Por ser uma tecnologia de meio físico compartilhado, a Ethernet teve que aplicar um mecanismo CSMA/CD para gerenciar o uso do meio físico por vários dispositivos. Substituir hubs por switches em rede local reduziu a probabilidade de colisões de quadros em links half-duplex. Versões atuais e futuras, no entanto, operam basicamente como links de comunicações em full-duplex e não precisam gerenciar a disputa pelo de meio físico ao mesmo detalhe.

O endereçamento de Camada 2 fornecido pela Ethernet suporta comunicações unicast, multicast e broadcast. A Ethernet usa o Protocolo de Resolução de Endereço para determinar os endereços MAC dos destinos e mapeá-los para endereços da camada de Rede conhecidos. Mostrar mídia visual

Página 2:

Mostrar mídia visual

Página 3:

Nesta atividade, você continuará a construir um modelo mais complexo da rede do laboratório Exploration.

Instruções de Integração de Habilidade do Packet Tracer (PDF)

Clique no ícone Packet Tracer para iniciar a atividade. Mostrar mídia visual

Página 4:

Para Saber Mais Questões de Reflexão

Discuta a modificação da Ethernet de uma tecnologia LAN para também se tornar uma tecnologia metropolitana e WAN. O que tornou isso possível?

Inicialmente usado somente para redes de comunicação de dados, a Ethernet está hoje sendo aplicada em redes de controle industrial em tempo real. Discuta os desafios físicos e operacionais que a Ethernet precisa superar par ser totalmente aplicada nesta área. Mostrar mídia visual

9.10 Teste do Capítulo

CISCO Accessible Theme

9.10.1 Teste do Capítulo

Página 1:

Mostrar mídia visual

Page 29 of 29

Ir para a próxima Ir para a anterior Rolar Para o Topo

All contents copyright © 2007-2009 Cisco Systems, Inc. | Translation courtesy of: Fundação Bradesco & NCE - UFRJ. Sobre

© 2007-2009 Cisco Systems, Inc. | Translation courtesy of: Fundação Bradesco & NCE - UFRJ. Sobre