Explorar E-books
Categorias
Explorar Audiolivros
Categorias
Explorar Revistas
Categorias
Explorar Documentos
Categorias
br
DlteC do Brasil®
www.dltec.com.br
info@dltec.com.br | 41 3045.7810
Copyright © 2020.
O conteúdo dessa apostila é uma adaptação da matéria online do Curso Fundamentos de Redes
Cisco.
Aviso Importante!
Esse material é de propriedade da DlteC do Brasil e é protegido pela lei de direitos autorais
9610/98.
Seu uso pessoal e intransferível é somente para os alunos devidamente matriculados no curso.
Bons estudos!
Fundamentos de Redes
Cisco
Peso no CCNA 200-301: 20%
(Tópico 1.0 Network Fundamentals)
Objetivos
Ao final desse curso você deverá ter
conhecimentos sobre:
6.2.3 Fibras Ópticas Monomodo _______ 115 7.2 Protocolo TCP _________________ 157
6.2.4 Onde Devo Utilizar os Tipos de Fibra 7.2.1 Arquitetura Cliente/Servidor _____ 159
Óptica Monomodo e Multimodo na prática? 117 7.2.2 Estabelecendo uma Conexão TCP _ 162
6.2.5 Principais Tipos de Conectores Ópticos 7.2.3 Confirmação de Recebimento de
117 Segmentos TCP _______________________ 164
6.2.6 Exemplo de Link Óptico entre Dois 7.2.4 Retransmissão de Segmentos TCP _ 166
Switches 119 7.2.5 Controle de Congestionamento TCP169
7.2.6 Reagrupamento de Segmentos TCP 170
6.3 Opções de Conexões em Switches Cisco
Catalyst ___________________________ 120 7.3 Protocolo UDP ________________ 171
6.4 PoE – Power Over Ethernet ______ 123 7.4 Identificando Conexões e Aplicações
6.4.1 Detecção e Negociação de Potência via Com Portas TCP e UDP _______________ 173
PoE 125
6.4.2 PoE e Design de LANs ___________ 126 8 Endereçamento IPv4, Sub-Redes e
Configurações _____________________ 175
6.5 Identificando os Principais Problemas
em Interfaces e Cabeamento __________ 127 8.1 IP versão 4 - Formato do Pacote e
6.5.1 Um pouco mais sobre Comando Show Endereçamento _____________________ 175
Interfaces ____________________________ 128
6.5.2 Problemas Comuns e Testes em
8.2 Sistemas de Numeração ________ 177
8.2.1 Sistema Decimal _______________ 178
Interfaces LAN ________________________ 131
8.2.2 Sistema Binário _______________ 178
6.5.3 Problemas com Half/Full-Duplex __ 132
6.6 Conexões Sem Fio – 802.11 ______ 134 8.3 Conversão Binária _____________ 180
6.6.1 Rede Cabeada versus Wireless ___ 135 8.4 Hosts, Redes e Máscaras ________ 181
6.6.2 Tipos de Redes Sem Fio _________ 137
6.6.3 Modos de Operação de uma WLAN – 8.5 Endereçamento IP e a Internet ___ 182
Ad-hoc e Infraestrutura _________________ 138 8.6 Classes de Endereços IP _________ 184
6.6.4 Arquiteturas WLAN Ad-Hoc ______ 139 8.6.1 Endereço IP Classe A ___________ 186
6.6.5 Arquiteturas WLAN Infraestrutura_ 139 8.6.2 Endereço IP Classe B ___________ 187
6.6.5.1 BSS - Basic Service Area _______ 140 8.6.3 Endereço IP Classe C ___________ 189
6.6.5.2 ESS - Extended Service Areas ___ 141 8.6.4 Endereço IP Classe D e Classe E ___ 190
6.6.5.3 Outros Modos de Operação dos APs
142 8.7 Tipos de Comunicação Suportada pelo
6.6.6 Técnicas de Modulação – Enviando um Protocolo IP ________________________ 190
Bit via RF 143
6.6.7 Funcionamento Básico do CSMA-CA 8.8 Endereçamento IPv4 na Prática___ 192
146 8.9 Dividindo Redes IPv4 em Sub-redes 196
6.6.7.1 Descobrindo uma Rede sem Fio 8.9.1 Método Tradicional de Análise de
(Scan) 147 Endereços IP__________________________ 198
6.6.7.2 Autenticação, Criptografia e 8.9.2 Exemplo Prático I – Dividindo Redes
Associação de Clientes ________________ 149 Classe A, B e C em duas Sub-redes ________ 200
6.6.7.3 Associação _________________ 151 8.9.3 Exemplo Prático II - Projeto de Sub-
6.6.8 Tecnologias Wireless da Família 802.11 redes por Redes _______________________ 202
152 8.9.4 Entendendo a Subnet-Zero e
6.6.8.1 Padrão 802.11b _____________ 152 Broadcast-Subnet______________________ 204
6.6.8.2 Padrão 802.11a _____________ 152 8.9.5 Exemplo Prático III - Projeto de Sub-
6.6.8.3 Padrão 802.11g _____________ 153 redes por Hosts _______________________ 206
6.6.8.4 Padrão 802.11n _____________ 153 8.9.6 Análise de Endereços IP com a
6.6.8.5 Padrão 802.11ac ____________ 154 Metodologia DlteC _____________________ 207
6.6.8.6 Padrão 802.11ax ____________ 154 8.9.7 Máximo de Bits de Host Emprestados
6.6.9 Non-Overlapping Channels ______ 155 209
8.9.8 Resumo das Máscaras de Sub-rede por
7 TCP versus UDP ________________ 157
Classe 210
7.1 Revisão ______________________ 157 8.9.9 Dicas Finais sobre Exercícios de Sub-
rede para o CCNA______________________ 214
1 Introdução
Bem-vindo ao Curso Fundamentos de Redes Cisco, o qual também faz parte do conteúdo
preparatório para a prova de certificação CCNA 200-301.
O Curso Fundamentos de Redes Cisco possui como objetivo fornecer ao aluno uma visão
abrangente sobre o funcionamento de uma Rede de Computadores, seus dispositivos,
cabeamento, endereçamento e protocolos básicos de comunicação.
Mesmo que você não esteja trilhando os estudos para a certificação CCNA 200-301
você pode sim fazer esse curso para aumentar seus conhecimentos no mundo de Redes e mais
especificamente nos fundamentos de Rede e princípios de funcionamento de dispositivos de
Rede do fabricante Cisco.
Mas se você está na trilha da certificação, saiba que esse curso aborda o Tópico 1.0 ou
“Network Fundamentals”, o qual corresponde a 20% das questões do exame CCNA 200-
301.
Em termos de questões, como a nova prova terá entre 100 e 120 questões, podemos dizer que
devem cair de 20 a 24 questões relacionadas ao conteúdo desse curso, dependendo da
quantidade total de questões que forem sorteadas para seu exame específico.
Não esqueça que ao final do curso você poderá emitir o seu certificado!
A Cisco é uma empresa líder mundial em TI e redes, tendo seus produtos e tecnologias
utilizadas por diversas empresas dos mais variados segmentos de mercado no mundo todo.
Fundada em 1984 por Len Bosack e Sandy Lerner atua até os dias de hoje com tecnologia de
ponta e inovações que auxiliam no crescimento do mercado de TI.
A Cisco atua na área de Redes (com os famosos Roteadores e Switches), Software, Internet das
Coisas, Mobilidade e Comunicação sem fio, Segurança, Colaboração (Voz e Vídeo sobre IP),
Data Center, Cloud, Pequenos e Médios Negócios e Provedores de Serviço.
Para garantir que os profissionais que atuam com seus produtos e tecnologias realmente tem
os conhecimentos técnicos necessários para desempenhar um bom trabalho, a Cisco
desenvolveu um programa de Certificação com Três Níveis no início:
A primeira versão de CCNA data de 1998 chamada de 640-407, o qual foi atualizado sete vezes
até a última mudança feita em 2016 com a versão 200-125 (CCNA Routing and Switching em
uma prova) e as versões do 100-105 e 200-105 (Modelo em duas provas: CCENT/ICND-1 +
ICND-2).
Em julho de 2019 foi anunciada uma grande mudança em maioria das certificações Cisco e o
CCNA volta ao que era no início, sendo uma certificação unificada para diversas áreas e
englobando não somente assuntos de Roteamento e Switching, mas também segurança, redes
sem fio e automação de Redes.
Esse curso que você está prestes a iniciar faz parte da nossa trilha para a certificação CCNA
200-301.
Um profissional certificado CCNA deve conhecer uma larga gama de tecnologias e configurações
de diversos equipamentos Cisco, tais como Roteadores, Switches, Access Points e Wireless LAN
Controllers.
Além disso, deve estar preparado para a nova geração da Infraestrutura de TI, a qual a
automação e programabilidade será cada vez mais utilizada.
É o primeiro passo de uma carreira promissora e que tem muitas possibilidades de crescimento
nas mais diversas áreas de tecnologia de rede.
A seguir vamos falar sobre como a preparação para o CCNA está dividida no Portal da DlteC e
como você deverá utilizar nosso material para conquistar sua certificação.
Nesse novo modelo de prova existe apenas um caminho para obtenção da certificação CCNA
que é através do exame 200-301, ou seja, não existe mais opção em duas provas como na
versão anterior.
1. Ativar a trilha do curso CCNA 200-301 no Menu Cursos (somente se você ainda não
ativou)
2. Estudar o conteúdo de cada Capítulo dentro da trilha (sequência de capítulos/cursos
express a seguir)
3. Repetir os comandos e demonstrações práticas realizadas pelo Prof. Marcelo durante as
vídeo aulas como laboratório
4. Fazer os simulados que estão dentro do curso "CCNA 200-301"
5. A qualquer momento tirar as dúvidas do conteúdo utilizando os fóruns correspondentes
de cada capítulo (*)
6. Passar para o próximo capítulo
7. Realizar a prova Final para treinar e obter o certificado do curso CCNA 200-301 (média
da aprovação igual ou acima a 70 pontos em um total de 100)
8. Fazer o preparatório Final com laboratórios e questionários (em inglês) específicos para
a certificação
9. Agendar a prova e realizá-la
O exame CCNA 200-301 é composto por uma prova em computador que pode ter de 100 a 120
questões (depende do sorteio que é feito por candidato).
Cada um dos capítulos do curso um Peso associado na prova e quanto maior o peso, maior
será a quantidade de questões desse assunto no exame, sendo que seguimos as
recomendações da Cisco na divisão de questões para que você treine em um ambiente o mais
real possível.
Para ser aprovado(a), você deverá conseguir obter entre 800 e 850 pontos de um máximo
1000 pontos no exame.
Se você ativou esse curso com o objetivo de tirar a certificação então a partir de agora, foco
total no objetivo: OBTER A CERTIFICAÇÃO.
Para isso, pratique os comandos, leia os tópicos com cautela e, de preferência, marque logo o
dia do seu exame (para você já ter uma data limite).
Faça o seu cronograma, estipule as horas de estudo e, sinceramente, não tem erro.
Se você assumir esse compromisso com sinceridade e vontade de vencer, tudo dará certo.
(*) Os fóruns do curso são exclusivos para TIRAR AS DÚVIDAS DO CURSO, caso você tenha
dúvidas do dia a dia ou que não tenham correlação com o curso utilize os grupos do Facebook
ou Telegram para troca de ideias.
Nesse curso você terá vídeo aulas, material de leitura e laboratórios em simuladores
para o aprendizado do conteúdo.
... se preferir leia os conteúdos e depois assistia aos vídeos, tanto faz.
Os questionários ou simulados com questões de prova estão dentro da estrutura do curso CCNA
200-301.
Siga a sequência sugerida no plano de estudos e faça os questionários apenas depois de ter
lido, assistido aos vídeos e feito os laboratórios em simulador. Assim você terá um
aproveitamento muito melhor do curso.
1.1.e Controllers (Cisco DNA Center and WLC) 4.8 Controllers (Controladoras)
1.2.e Small office/home office (SOHO) 5.2 Small Office/Home Office (SOHO)
1.4 Identify interface and cable issues (collisions, 6.5 Identificando os Principais Problemas
errors, mismatch duplex, and/or speed) em Interfaces e Cabeamento
1.6 Configure and verify IPv4 addressing and 8 Endereçamento IPv4, Sub-Redes e
subnetting Configurações
1.10 Verify IP parameters for Client OS (Windows, 10 Clientes de Rede: MAC OS, Linux e
Mac OS, Linux) Windows
Simples, agora o CCNA é realizado em apenas uma prova (exame 200-301), a qual foi
projetada pensando em um profissional que já tem UM ANO de experiência com Redes e
Dispositivos Cisco.
Apesar de retirado não quer dizer que você não vai precisar conhecer e saber relacionar as
camadas!
O Modelo de Referência OSI é utilizado para dar o nome das regiões ou camadas que se
comunicam entre os dispositivos de rede, além disso, é utilizado para classificar os dispositivos,
por isso mesmo não entraremos a fundo, apenas vamos fazer uma breve revisão sobre o
assunto.
Devido ao fato do Modelo OSI ser uma referência e o TCP/IP ser a pilha de protocolos
realmente aplicada na prática das Redes de Computadores, sempre vai haver uma correlação e
até mesmo sobreposição de nomenclatura que você deve saber.
É de conhecimento geral que nos últimos vinte anos houve um grande aumento na quantidade
e no tamanho das redes de computadores.
O problema é que esse crescimento não foi implementado de maneira ordenada pelos mais
diversos fabricantes e fornecedores, ou seja, cada um implementava seu hardware e software
da maneira que lhe fosse mais vantajoso.
O resultado é que essas redes de computadores eram incompatíveis umas com as outras. Isso
trazia um enorme problema, tanto para os desenvolvedores de soluções quanto para os clientes
(donos) dessas redes, que ficavam como que “reféns” de seus fornecedores.
Foi então que a ISO (a International Organization for Standardization) lançou em 1984 o
modelo de referência OSI (Open Systems Interconnection).
Como o próprio nome diz, esse modelo serve de referência para que os desenvolvedores
programem redes que podem se comunicar e trabalhar independente do fabricante. O grande
segredo é padronização e interoperabilidade.
Já o TCP/IP é uma pilha de protocolos que realmente foi implementada na prática e utilizada
até os dias de hoje, porém precisamos conhecer ambos os modelos, pois os equipamentos de
rede são classificados conforme o modelo de referência OSI, apesar do TCP/IP estar
funcionando na prática e o OSI não! Isso porque tudo se iniciou com o modelo OSI, portanto
ele acabou sendo um modelo teórico para os desenvolvedores e estudiosos.
O modelo OSI divide as funções da rede em sete camadas (numeradas de 01 a 07). Veja as
camadas e seus respectivos nomes na figura a seguir.
A camada mais próxima ao usuário final é a sete (7), chamada de camada de aplicação.
Cada uma das camadas deve fornecer seus serviços exclusivamente à camada imediatamente
superior, e consequentemente a função de cada camada depende dos serviços da camada
imediatamente inferior.
Cada camada possui uma estrutura própria, chamada PDU (Protocol Data Unit).
Por exemplo, quando um programa precisa acessar uma página da Web ele faria uma
requisição ao serviço de HTTP ou HTTPS para a camada de aplicação.
Após essa etapa a camada de apresentação (camada 6 ou layer 6) e sessão (camada 5 ou layer
5) prepararão os dados para serem transmitidos de maneira correta. A camada de
apresentação cuida da representação dos dados e a de sessão cuida do envio correto em cada
sessão.
No TCP/IP essas três camadas viram apenas "Aplicação", veremos isso mais tarde.
Nessa camada os dados são identificados por números de porta, as quais marcam a quem
pertence cada fluxo de informação dentro do computador, além de que aplicação deve tratar
essa informação no destino.
Por exemplo, uma informação enviada para um servidor HTTP terá como porta de destino a
porta 80 do protocolo TCP. (veremos mais sobre o funcionamento do TCP e UDP
posteriormente).
Veja que até esse momento, todo o processo de sair da aplicação e chegar até a camada de
transporte está dentro do computador, ainda não enviamos nada realmente na rede!
Agora que os fluxos estão identificados no computador, com a numeração de porta de origem e
destino, eles devem ser realmente enviados na Rede.
Normalmente esse endereço é chamado de endereço IP (Internet Protocol), o qual pode ser
conforme versão 4 ou 6 (IPv4 ou IPv6 respectivamente) nos dias atuais.
Dessa forma o servidor de destino poderá ser encontrado na rede e quando houver a resposta,
a rede saberá para quem deve devolver as informações solicitadas ao servidor.
Além disso, a camada de Rede deve ser capaz de controlar o envio dessas informações e
também saber como elas devem ser encaminhadas na rede através de protocolos de
Roteamento. A informação enviada pela camada de Rede se chama pacote.
Quem receberá essas informações da camada de rede e vai preparar o envio no meio físico
(seja cabo, wireless ou fibra) é a camada de Enlace (camada 2 ou layer 2).
Além disso, a camada de enlace precisa "enquadrar" os dados em um formato mais simples
para transmissão no meio físico, por isso mesmo a informação enviada entre camadas de
enlace se chama "Quadro" ou "Frame".
Uma vez o pacote de camada de rede está enquadrado pela camada de enlace ele deve ser
enviado através do meio físico utilizando uma interface elétrica, ótica ou sem fio.
Esse envio das informações é realizado pela camada Física (camada 1 ou layer 1) através de
bits e bytes.
Todo esse processo é chamado de encapsulamento de dados, que vamos estudar a seguir.
Apesar do modelo OSI ser a referência para as redes e toda sua nomenclatura, a arquitetura
TCP/IP é a que foi realmente implementada e está em uso até os dias de hoje tanto nas
redes internas (Intranets ou Redes Corporativas) como na Internet.
Por fim, as camadas 1 e 2 do modelo OSI foram mescladas no TCP/IP para formar a camada de
acesso aos meios ou acesso à rede. Veja a figura a seguir.
No TCP/IP não costumamos nos referir por camadas e sim pelos nomes delas, pois quando nos
referimos pelo número da camada estamos falando do OSI.
Você pode encontrar bibliografias dividindo o TCP/IP em cinco camadas, tratando a camada de
Acesso a Rede ou Acesso aos meios físicos como: Enlace ou Data Link e Física.
Essa divisão em 5 camadas ao invés de 4 camadas é puramente didática, pois a RFC 1122 não
prevê o protocolo TCP/IP em 5 camadas.
Assim como no Modelo OSI, a camada de Aplicação é a camada superior do modelo TCP/IP.
Ela é responsável por fornecer a interface entre as aplicações que utilizamos para comunicação
e a rede subjacente pela qual nossas mensagens são transmitidas.
Os protocolos da camada de aplicação são utilizados para troca de dados entre programas
executados nos hosts de origem e de destino.
Abaixo temos mais de detalhes sobre alguns dos principais protocolos da camada de aplicação:
POP3 e IMAP – São os protocolos utilizados pelos clientes para a leitura do e-mail. A
diferença entre eles é que o POP3 baixa os arquivos para o micro do usuário apagando
no servidor, já o IMAP é possível deixar uma cópia dos e-mails, utilizando como um
espelho sem apagar as mensagens, assim o usuário pode ler seus e-mails antigos
independente do micro que está utilizando.
Telnet (Terminal emulation – Emulação de terminal) – Permite o acesso remoto a
outro computador. Permite que um usuário efetue logon em um host da Internet e
execute comandos, porém os dados são transmitidos em texto claro, podendo ser
capturado e lido por um invasor no meio do caminho. Existe também uma versão segura
chamada Secure Shell ou SSH, o qual possibilita a transferência de informações
criptografadas pela rede.
NFS (Network File System – Sistema de Arquivos de Rede) – Conjunto de
protocolos de sistema de arquivos distribuído, desenvolvido pela Sun Microsystems, que
permite acesso a arquivos de um dispositivo de armazenamento remoto, como um disco
rígido, através da rede.
SNMP (Simple Network Management Protocol – Protocolo Simples de
Gerenciamento de Rede) – Oferece uma forma de monitorar e controlar dispositivos
de rede e de gerenciar configurações, coleta de dados estatísticos, desempenho e
segurança.
Para tal a camada de transporte deve ser capaz de fazer as seguintes tarefas:
No TCP/IP a camada de transporte pode oferecer dois caminhos ou serviços, confiável através
do protocolo TCP e não confiável através do protocolo UDP.
Mas note que na teoria geral essa camada se refere às características gerais do protocolo TCP
normalmente.
Veja a figura a seguir para entender melhor o posicionamento da camada de transporte dentro
da pilha de protocolos TCP/IP.
O TCP é um protocolo orientado à conexão, descrito na RFC 793. O TCP causa sobrecarga
adicional na rede, pois possui funções adicionais - entrega ordenada, entrega confiável e
controle de fluxo.
Cada segmento TCP tem 20 bytes de overhead no cabeçalho que encapsula o dado da camada
de Aplicação, enquanto o segmento UDP tem apenas 8 bytes.
Ele tem a vantagem de fornecer uma entrega de dados com baixa sobrecarga e maior
velocidade, pois ele não possui os mecanismos de controle do TCP.
Sua desvantagem é que não é confiável, por isso a camada de aplicação deve tratar dessas
características.
Estes datagramas são enviados como o "melhor esforço" por este protocolo da camada de
Transporte, ou seja, o UDP envia e não espera por confirmação nem tampouco controla fluxo.
Podemos fazer aqui uma comparação da aplicação sendo um veículo que tem duas estradas
para escolher, uma das estradas é segura e com certeza você vai chegar ao seu destino, porém
ela tem tantos pontos de checagem, pedágios e outros mecanismos de controle de tráfego que
acaba sendo mais lenta, esse é o TCP.
Por outro lado, temos uma pista sem controle de tráfego nenhum e por isso ela é muito mais
rápida, porém para trafegar nessa pista seu carro vai precisar que você tenha um mapa
preciso, GPS e muita atenção do motorista (a aplicação), pois ela não tem indicações. Esse é o
UDP.
Por isso o UDP é utilizado, por exemplo, para o tráfego de Voz sobre a rede IP e
implementações de VPN (redes virtuais privadas), pois a voz e o acesso VPN precisam de
velocidade. Já aplicações como HTTP para leitura de páginas não precisam dessa urgência, por
isso utilizam o TCP como meio de transporte.
A finalidade da Camada de Internet é a mesma que a camada de rede do modelo OSI, ou seja,
fornecer esquema de endereçamento e escolher o melhor caminho para os pacotes viajarem
através da rede.
O protocolo IP atualmente possui duas versões: IPv4 (32 bits) e IPv6 (128 bits), ou seja, a
IP versão 4 e IP versão 6.
Atualmente a maioria das redes utiliza o IPv4, porém a implementação do IPv6 vem crescendo
vertiginosamente a partir do lançamento global realizado em 2012.
Ambas as versões do protocolo IP são “best effort”, ou seja, enviam suas informações na rede
como o UDP estudado anteriormente, sem pedir confirmações.
Aqui algumas bibliografias podem dividir de forma didática a camada de acesso aos
meios em duas camadas, assim como o modelo OSI: Enlace e Física, o que tornaria o TCP/IP
com cinco camadas.
Essa camada inclui detalhes de tecnologia de redes locais e de WANs e todos os detalhes
contidos na camada física e de enlace de dados do modelo OSI e suas funções incluem o
mapeamento de endereços IP para endereços físicos de hardware e o encapsulamento de
pacotes IP em quadros. Veja a figura a seguir.
Os quadros ou frames são montados e remontados a cada salto de rede diferente que o IP
navega, mas o IP nunca é alterado.
Além disso, a camada de acesso aos meios define um endereço físico que pode variar de
formato e tamanho conforme protocolo específico.
Já a parte física da camada de acesso aos meios define as especificações elétricas, mecânicas,
funcionais e de procedimentos para ativar, manter e desativar o link físico entre sistemas finais.
Características como tipos de cabo (UTP ou fibra óptica), níveis de voltagem, distâncias
máximas de transmissão, conectores físicos são definidos pelas especificações da camada física.
A camada física tem como função básica a adaptação do sinal ao meio de transmissão.
Nessa camada estão situados os Hubs, repetidores, transcievers, patch pannel, cabos e
conectores.
Os padrões de nível físico utilizados são, por exemplo, X.21, X.21 bis, V.24, V.28, V.35, RS-232
I.430, I.431, G.703, etc...
O mais importante dos endereços da camada de acesso aos meios e também da camada de
enlace do Modelo OSI é o endereço MAC, por ser utilizado nas placas de rede de computadores
e servidores.
O endereço MAC pode ser escrito de outras formas dependendo do sistema operacional do
endpoint, por exemplo, em máquinas Windows ele seria escrito da seguinte maneira:
00-00-0C-12-34-56
Endereço da camada 2
Gravado no chip da ROM em uma placa de rede Ethernet
Número exclusivo de 48 bits que está gravado como doze números hexadecimais.
Os primeiros 24 bits representam o fornecedor ou o fabricante (OUI)
Os últimos 24 bits do fornecedor formam o número de série
A camada de transporte envia seus segmentos ou datagramas para a camada de Internet (não
é mais Rede do TCP/IP), a qual envia seus pacotes para a camada de acesso aos meios para
que as informações (bits) sejam enviadas no meio físico.
Com o TCP/IP em cinco camadas a Internet envia seus pacotes para a camada de Data Link, a
qual envia seus quadros ou frames para a camada física.
Tenha sempre em mente essa nomenclatura das informações trocadas entre as camadas, tanto
do modelo OSI como TCP/IP, isso é importante para a prova e para sua vida prática!
4 Dispositivos de Rede
A função de uma rede é conectar dispositivos locais ou remotos através de diversos protocolos,
tais como o IPv4 ou IPv6.
E para que isso ocorra é preciso que os quadros, pacotes e dados trafeguem por uma
"Infraestrutura de Redes", a qual é composta por diversos "Dispositivos de Rede".
Dentro do escopo do CCNA 200-301 vamos estudar os seguintes dispositivos nesse capítulo:
Apenas o ACI na realidade não faz parte do tópico 1.0 do atual Blueprint do CCNA, o qual é foco
desse curso, porém vamos fazer uma breve introdução para que você tenha uma visão
completa dos dispositivos de Rede que serão estudados durante o CCNA.
As redes de computadores têm como dispositivos finais os hosts, o qual é um termo genérico
assim como endpoint (dispositivo final em inglês).
Podemos também chamá-los de clientes de rede, dispositivos que permitem aos usuários
acessarem aos serviços de rede.
Como já estudamos, as redes TCP/IP utilizam uma arquitetura cliente/servidor, ou seja, temos
dispositivos clientes (que desejam utilizar serviços de rede) e servidores, os quais prestam os
serviços de rede.
Um exemplo que utilizamos todos os dias é o serviço de Web (WWW), em nossos micros temos
programas chamados browsers (como o IE, Mozilla, Google Chrome, dentre outros) e
digitamos um nome de site para acessar as informações na tela do nosso computador.
Essa informação está contida em um servidor web, máquina com um determinado serviço de
rede instalado, nesse caso o HTTP, que provê o conteúdo da página solicitada.
4.1.1 Computadores
Equipamentos utilizados para o processamento de dados que, na visão de rede, podem ser
classificados como estações de trabalho (clientes ou desktops) e servidores, os quais
estudaremos em um tópico a parte.
Mas nesse caso vamos falar mais especificamente sobre os computadores, desktops, laptops e
notebooks, os micros ou PCs (Personal Computer) utilizados em casa ou nas empresas para as
tarefas diárias envolvendo acesso a programas, aplicativos e à Internet e seus mais variados
serviços.
4.1.2 Servidores
Os servidores não são nada mais que computadores normalmente mais “poderosos” que os
utilizados em nossas casas, tanto é que você pode instalar aplicações específicas ou ativar
recursos do seu sistema operacional e transformar seu computador em um servidor também!
Por exemplo, imagine você pegar um computador comum e colocar na Internet hospedando um
site famoso como o Google.
Com certeza serão milhares e até milhões de acessos simultâneos que esse site irá receber
diariamente e ele, um computador, comum não aguentaria essa carga de solicitações, pois ele
não foi projetado para esse fim.
Na realidade um serviço desse porte normalmente está espalhado por diversos servidores
virtualizados em máquinas que compartilham recursos em rede para melhorar a performance
do serviço como um todo.
Já para o Linux existem distribuições que são mais utilizadas em servidores de rede, por
exemplo, o Red Hat e o Debian.
Além disso, também terá um sistema operacional mais adequado e serviços de rede ou
aplicações corporativas instaladas, como por exemplo, serviço de e-mail, web, FTP, sistema de
arquivos (file system), serviços corporativos como os ERPs, Bancos de Dados e CRMs, podendo
estes serviços estarem em um mesmo servidor ou espalhados em diversos servidores. Essa
escolha de agregar ou consolidar os serviços em apenas um servidor depende do volume de
processamento exigido pelas aplicações ou pelo volume de solicitações aos serviços que os
clientes irão realizar.
Em termos físicos, os servidores podem ser gabinetes como os que estamos acostumados com
os desktops (chamados de torre), de rack ou então em blades (se pronuncia “bleide”).
Provavelmente é um desktop (normalmente uma torre) com muita CPU, memória RAM e HD?
Ou um servidor de rack já preparado para inserir na sala de servidores ou no Data Center da
sua empresa?
Ou nem isso, você já pensa em uma máquina virtual (VM – Virtual Machine) com um
determinado sistema operacional rodando nela?
Além disso, muita gente pensa na Cisco apenas como uma empresa fabricante de dispositivos
de rede, como roteadores e switches, porém mais ou menos em 2010 eles decidiram expandir a
linha de produtos e entraram no mercado de servidores com a linha Cisco Unified Computing
System ou simplesmente UCS.
Abaixo segue a foto de um UCS série B (B-Series - Blade series), o qual utiliza um chassi para
montagem em rack e servidores em blade, ou seja, ao invés de desktops são como placas que
encaixam no chassi.
Nesse exemplo temos um modelo que suporta até 8 servidores em blade (4 em cada lado)
montados horizontalmente. Além disso, embaixo ele possui quatro fontes de alimentação
(power supplies).
Como você pode notar esses servidores não tem teclado, monitor e mouse (KVM - keyboard,
vídeo display, mouse), pois os administradores de redes ou de aplicações acessam esses
servidores remotamente através da rede.
Outro detalhe é o espaço que esses servidores ocupam, cada vez mais as empresas e
provedores de serviços visam dispositivos que economizem espaço físico e energia, que sejam
mais eficientes tanto na parte de tecnologia da informação como ambiental.
Durante o curso, como o foco é rede, representamos os servidores como um ícone, sem
analisar sua parte interna, mas abaixo segue uma representação simples de um servidor com
seus principais componentes.
Mas onde entra a virtualização se estamos apenas analisando aspectos de servidores físicos até
o momento? Acho que você deve estar pensando nisso nesse momento... Acertei?
Bom, você sabe quanto em média um servidor físico com aplicações instaladas de maneira
tradicional é utilizado em média (pensando em processamento/CPU e memória)?
Pesquisas apontam que entre 5% a 7%, ou seja, temos mais de 90% de tempo onde o
computador está livre ou pelo menos sem nenhuma sobrecarga.
Se você fizer uma conta bem por alto, somente levando em conta essa média, podemos dizer
que um servidor poderia ser quebrado em no mínimo 10 (considerando que ele tem 10% de
ocupação média).
Levando em conta esse número com aquele modelo de servidores em Blade da Cisco que
permitem 8 servidores em um chassi teríamos a capacidade de rodar 80 servidores virtuais.
Claro que esse valor passado acima é uma estimativa, porém na prática o número de
servidores que podem ser virtualizados precisa de uma quantificação que cada fabricante faz
conforme suas especificações.
Uma máquina virtual ou VM (Virtual Machine) é então uma instância de sistema operacional que
roda em um hardware virtual, está desacoplada do hardware físico, mas mesmo assim precisa
ainda ser executada em um hardware físico.
Cada sistema operacional tem requisitos que a VM deve obedecer em sua configuração, por
exemplo, deve ter um mínimo de vCPUs (CPUs virtuais), memória RAM, disco rígido (HD ou
Storage) e assim por diante.
Então cada VM que está rodando em um servidor físico e utilizando um pedaço da sua CPU,
RAM, armazenamento e placa de rede (NIC – Network Interface Card), veja o conceito na figura
a seguir.
4.1.3.2 HYPERVISORS
O que você nota de diferente entre essa figura e a mostrada no tópico anterior quando
comparamos com um servidor físico? Suba um pouco e compare as imagens... O que tem de
diferença?
Por exemplo, a primeira VM desse servidor está configurada com 4 CPUs e 8 GB of RAM, quem
garante isso para essa máquina virtual é o hypervisor, o qual aloca corretamente as partes de
CPU e memória RAM que essa VM vai realmente utilizar.
Na prática existem vários produtos que fazem o que discutimos até agora, sendo que os mais
conhecidos para uso em Data Centers são VMware vCenter, Microsoft HyperV, Citrix XenServer
e Red Hat KVM.
Por exemplo, um determinado servidor precisa ser desligado para troca de um componente, o
que iria acontecer se fosse um servidor físico no mundo convenciona? Provavelmente seria o
caos... seria necessário agendar uma janela de manutenção e o cliente ficaria sem serviço
durante esse tempo!
No mundo virtual seria possível que o responsável pela manutenção movesse as VMs que estão
nesse servidor para outra máquina física, muitas vezes sem nem precisar parar essas VMs, e aí
sim desligar o servidor para manutenção, com muito menos downtime para o cliente, ou seja, o
cliente ficaria fora do ar por muito menos tempo.
Esse é somente um exemplo de melhoria com a virtualização, que é a base para a criação do
conceito de nuvem que vamos estudar ainda nesse curso.
O foco desse capítulo está nos data centers, porém os hypervisores podem classificar-se em
dois tipos:
Hipervisor tipo 1 (type 1): Também denominado nativo, unhosted o bare metal
(sobre o metal nu), é software que se executa diretamente sobre o hardware, para
oferecer a funcionalidade descrita. Foi o exemplo utilizado na arquitetura do tópico
anterior.
Alguns dos hipervisores tipo 1 mais conhecidos são os seguintes: VMware ESXi (grátis),
VMware ESX (Software comercial), Xen (livre), Citrix XenServer (grátis), Microsoft
Hyper-V Server (grátis).
Hipervisor tipo 2 (type 2): Também denominado hosted, é software que se executa
sobre um sistema operacional para oferecer a funcionalidade descrita. Ele é um software
instalado em computadores normais, você já pode ter até utilizado um dos exemplos
abaixo no seu próprio computador.
Alguns dos hypervisors tipo 2 mais utilizados são os seguintes: Oracle VirtualBox
(grátis), VMware Workstation (comercial), QEMU (livre), oVirt (livre), Microsoft Virtual
PC, etc.
Veja na figura abaixo a comparação entre os dois tipos de virtualização. Note que OS é o
sistema operacional (Operating System) e VM é a máquina virtual (Virtual Machine).
Falando mais especificamente da Rede em uma máquina virtual, podemos dizer que cada VM
utiliza uma placa de rede Virtual ou Virtual NIC (Network Interface Card ou vNIC), que pode se
conectar à rede de várias formas diferentes.
Uma das maneiras de conexão das diversas VMs em um servidor virtualizado é através do uso
de um Switch virtual (Virtual Switch ou vSwitch).
Nesse exemplo temos um servidor utilizado para virtualização com quatro VMs conectadas a um
vSwitch ou Switch Virtual, o qual se conecta utilizando a placa de rede do servidor ao switch
físico da Rede.
A Cisco possui o switch virtual Nexus 1000VE para esse tipo de aplicação.
Além dos computadores e servidores podemos ter vários outros dispositivos que necessitam de
acesso aos recursos de rede, pois até os telefones celulares, mais especificamente os
smartphones, têm possibilidade de acesso à rede através de uma interface sem fio (wireless).
Portanto abaixo seguem outros dispositivos que vocês podem encontrar como endpoints em
uma rede de computadores:
Dispositivos IoT – Internet of Things ou Internet das Coisas: A ideia por trás do
conceito de IoT é possibilitar a conexão a diversos outros dispositivos do nosso dia a dia
à Rede mundial. O que diferencia um dispositivo munido de tecnologia IoT dos demais,
não é apenas a conexão à internet que ele possui, mas também a capacidade de trocar
informações relevantes acerca de suas tarefas com os demais aparelhos. O principal
ponto de um dispositivo de IoT é, então, a comunicação que permite a troca de dados
para que a melhoria de performance do aparelho e de outros periféricos seja possível.
Para você entender o conceito de IoT vamos usar o mais popular de todos que são as Casas
Inteligentes. Segundo o Google, as casas inteligentes são a aplicação IOT mais amplamente
pesquisada na rede.
Agora imagine, você pode monitorar a segurança de sua casa durante as férias.
Não será ótimo se você puder ligar o ar-condicionado 10 minutos antes de chegar a sua casa do
escritório ou desligá-lo para evitar desperdício de eletricidade quando ninguém estiver em
casa? O enorme potencial nessa área já levou US$3 bilhões em financiamento para essa linha
de negócios.
Citamos aqui os exemplos de outros tipos de endpoints mais relevantes, porém com o avanço
tecnológico mais e mais dispositivos surgem, os quais com necessidades específicas de acesso à
rede e seus serviços.
Os switches (comutadores) operam por padrão na camada 2 (Enlace) do modelo OSI e tem a
função de conectar endpoints, como computadores e servidores, à rede.
Normalmente as portas dos switches são divididas entre portas de acesso ou “access ports” e
portas trunk, as quais podemos chamar também de Uplinks.
Uma porta de acesso conecta os endpoints, já os uplinks conectam a outros switches ou até
mesmo em roteadores.
Além disso, os switches podem operar em outras camadas do modelo OSI além da camada 2,
por exemplo, existem switches layer 3 que atuam ao mesmo tempo como roteador e switch,
fazendo além da comutação dos quadros de camada 2 também o roteamento dos pacotes IP
através da rede, mas isso veremos mais para frente.
Por ele tomar sua “decisão” de encaminhamento com um endereço de camada-2 ele é
classificado nessa camada do modelo OSI.
Antes de iniciar o capítulo vamos rever alguns conceitos sobre o processo de encapsulamento
do TCP/IP:
Para que os pacotes da Camada de Rede sejam transportados do host de origem ao host de
destino, eles devem atravessar diferentes redes físicas, por diferentes meios físicos de
transmissão, por exemplo, podem pegar uma fibra óptica, rádios digitais e até satélites.
Essas redes físicas podem ser diferentes e devem ser transparentes para a Camada de Rede,
ou seja, para os pacotes IP.
Os pacotes da Camada de Rede não têm um caminho para acessar diretamente estes diferentes
meios, portanto a Camada de Acesso aos Meios é quem deve desempenhar esse papel.
Portanto, o papel da Camada de Acesso aos Meios, mais especificamente a de Enlace do modelo
OSI, é preparar os pacotes da Camada de Rede para transmissão no meio físico.
Em uma rede LAN veremos protocolos da família Ethernet (Fastethernet, Gigabit Ethernet ou
10 Gigabit Ethernet), cujo endereço MAC tem papel fundamental, pois redes Ethernet são
primordialmente meios compartilhados, ou seja, são utilizados por vários elementos
(computadores ou servidores) que desejam se comunicar ao mesmo tempo utilizando o mesmo
meio físico.
Portanto, o endereço MAC vai identificar o tipo de comunicação que a camada-3 quer realizar e
com quem dentro da mesma rede, pois estamos tratando de redes Locais (LAN).
Veja na figura abaixo o formato do quadro Ethernet da camada-2 e a seguir o que significa
cada campo.
Na realidade é necessário entender o quadro e saber que ele possui dois identificadores que
mostram a origem e destino da comunicação, ou seja, quando um computador quer enviar
informações a outro em uma LAN ele deve montar um quadro e colocar seu endereço MAC
como origem e como destino deve colocar o endereço MAC do computador remoto, o qual ele
deseja se comunicar.
Note que antes de enviar ele também faz uma conta com os bits que serão enviados e coloca o
resultado no campo FCS, chamada Check de Redundância Cíclica.
Essa conta permite que o receptor saiba se houve erros na transmissão. A família Ethernet não
prevê recuperação de erros, ou seja, o receptor recebe um quadro, recalcula o campo FCS,
compara com o valor que foi calculado no campo FCS pelo transmissor e aceita ou rejeita o
quadro.
Outra informação importante do quadro ethernet é que ele aceita no máximo 1500 bytes de
informação, o que é chamado de MTU ou tamanho máximo para transmissão (Maximum
Transmission Unit).
Se vierem mais que 1500 bytes o receptor irá descartar aquele quadro e incrementar um erro
em sua interface.
Para finalizar o estudo do quadro ethernet veja agora o campo Tipo ou Type, ele traz a
informação do protocolo de camada superior que será transportado pelo quadro, por exemplo,
o protocolo IP é representado pelo valor 0x0800 e o IPv6 é representado pelo valor 0x86DD.
Portanto, a troca de quadros é realizada dentro de uma mesma rede LAN, com finalidade de
formar um link local entre dois dispositivos!
Esse tempo é chamado de “aging timer” e serve para medir o período de inatividade de um
computador. O padrão são 5 minutos ou 300 segundos.
Portanto se um computador ficar “quieto” por 5 minutos, o switch removerá aquele endereço
MAC da tabela, pois pode significar que o endpoint foi removido ou mudou de localização.
Existem três tipos de comunicação básicas em uma rede IPv4 que são:
Unicast: um para um
Broadcast: um para todos
Multicast: um para um grupo
Quando dois computadores se comunicam usam Unicast, portanto utilizam como endereços de
origem e destino seus próprios endereços MAC gravados na placa de rede.
No Broadcast utilizam seu MAC de origem e como destino utilizam tudo 1 no MAC ou
ffff.ffff.ffff, conhecido como endereço MAC de broadcast.
No Multicast temos uma comunicação de em grupo, onde todos os hosts usam o mesmo
endereço de camada-3 e como MAC se for IPv4 inicia com 01:00:5e e se for um multicast IPv6
o MAC inicia sempre com 33:33:33.
Veja a seguir a imagem com o fluxo de decisão de encaminhamento dos quadros que um switch
L2 utiliza.
Dica: flooding é uma inundação ou cópia do quadro em todas as portas menos para a porta
de origem e é um processo realizado em camada-2 (vamos estudar mais detalhes do flooding a
seguir).
A resposta é simples, é só colocar um HUB em uma das portas que pode haver a necessidade
de filtragem se dois computadores conectados ao mesmo HUB tentarem se comunicar.
Essa função de evitar loops e o protocolo STP não será abordada nesse curso por não ser foco
dessa parte do blueprint, teremos cursos específicos sobre o assunto.
Muitos alunos confundem o processo de broadcast com o flooding, mas você não vai confundir
mais isso!
Ele apenas garante que o receptor vai receber aquele quadro, pois ele não sabe “quem é o
dono” ou em que porta do switch está o dono desses endereços citados acima.
Mas porque o broadcast não é igual a um flooding? Se todos tem que receber a mensagem?
Porque um broadcast é gerado pelo endpoint, seja ele um computador ou servidor, o switch
não pode “gerar um broadcast” em nome de um cliente, pois ele deve ser transparente para as
camadas superiores.
Pode, quando ele está agindo como um host e solicitando informações de um servidor ou
serviço que seja em broadcast. Mas é uma ação DELE MESMO e não em nome de um cliente.
Na realidade, os switches Cisco Catalyst e da família Nexus inserem mais uma informação em
sua MAC Address Table, que é o VLAN-ID ou número da VLAN a qual a porta está vinculada.
O comando que utilizamos para ver a tabela MAC em switches Cisco é o “show mac address-
table” e note que ele traz as informações sobre:
Veja que temos uma linha grifada na tabela de endereços MAC, vamos analisá-la:
“10 1ce6.c772.6484 DYNAMIC Fa0/2”: veja que essa linha significa que o
endereço MAC do endpoint que está conectado na interface FastEthernet 0/2 (Fa0/2 –
segunda porta do switch) foi aprendido dinamicamente (dynamic) e tem o valor
“1ce6.c772.6484”. Além disso, esse endpoint está vinculado à VLAN 10 do switch.
Um Access Point ou ponto de acesso é um dispositivo que permite interligar duas redes sem fio
entre si ou uma rede a vários dispositivos em um mesmo ambiente.
Em geral, o access point se conecta a uma rede cabeada e fornece acesso sem fio a esta rede
para dispositivos móveis no raio de alcance do sinal de rádio.
Portanto, o AP se conecta à rede cabeada e serve de interface entre os dispositivos com placa
de rede sem fio até os demais dispositivos de rede.
Existem vários padrões de rede sem fio, chamadas também de wifi, que são baseadas nas
recomendações do 802.11.
Temos atualmente o 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac e 802.11ax sendo que
cada uma dessas tecnologias tem uma característica de velocidade, alcance e tecnologia.
Em redes de pequeno porte os APs são autônomos, ou seja, cada dispositivo precisa ser
configurado manualmente um a um e trabalham de forma independente.
Veja a figura a seguir onde temos um roteador sem fio e um repetidor fornecendo acesso
wireless aos computadores de um pequeno escritório.
Agora imagine em uma grande empresa que possui 1000 Aps... será que seria simples
administrar um a um desses equipamentos?
Com certeza não e para isso você pode utilizar uma rede integrada, a qual utiliza controladoras
para gerenciar diversos APs.
Uma controladora de redes sem fio ou “Wireless LAN controller” (WLC) tem a função de
controlar e gerenciar as funções de TODOS os APs (Access Points) na rede, por exemplo,
roaming, que redes sem fio e SSIDs os APs utilizarão WLANs, autenticação e muito mais.
Na Cisco os Access Points podem ser configurados como APs autônomos e LAPs
(Lightweight Access Points ou APs controlados por WLCs - Wireless LAN Controllers) na
LAN ou Campus.
No modo LAP os Access points são controlados pelas controladoras sem fio ou WLCs, as quais
passam a controlar todos os aspectos da comunicação sem fio, inclusive todas as configurações
dos LAPs.
Portanto APs em modo LAP são projetados para serem configurados pela WLC, conhecido como
“zero touch deployment”, ou seja, não precisa fazer nada nos LAPs, eles inicializam e pegam
todas as configurações da sua controladora de redes sem fio (WLC - Wireless LAN Controller).
Falando mais especificamente de soluções Cisco podemos ter várias opções dependendo do
tamanho da rede e tipo de conexão entre os dispositivos, por exemplo:
Mobility Express: utilizado em redes de pequeno (small networks) porte sem o uso de
WLCs, onde um dos access points pode assumir a função de controladora da rede
utilizando o Mobility Express.
Flex Connect: para soluções em branch offices ou escirtórios remotos conectados ao
ponto central via WAN. Nesse caso se a WAN ficar indisponível deve haver um suporte
local para autenticar e encaminhar os dados dos clientes.
Convergida ou Converged: onde o switch de acesso ou distribuição tem uma
controladora como parte do seu sistema operacional, possibilitando que ele mesmo
controle um número limitado de LAPs da LAN. Essa solução é utilizada em ambientes
pequenos (small networks) e branch offices (unidades remotas)
Centralizada ou Centralized: uriliza uma WLC normalmente em um ponto central da
rede ou no datacenter para controlar os LAPs da empresa. Utilizada em grandes
ambientes (large networks ou large campus).
Veja a imagem a seguir com exemplos de cada uma das soluções explicadas anteriormente.
A diferença de um switch camada-3 para um switch camada-2 é que ele faz tudo o que o switch
L2 faz, mas também faz “muita coisa” que um Roteador faria!
Um switch camada-2 não consegue “entender” ou “ler” os pacotes IP, por isso mesmo ele faz o
encaminhamento através dos endereços MAC, os quais estão nos quadros ou frames de
camada-2.
Por isso mesmo, a parte de roteamento entre diferentes redes os switches L2 precisam de um
“roteador” ou dispositivo de camada-3 para realizar essa tarefa.
Portanto um switch de camada-3 ou switch L3, além de montar a tabela de endereços MAC,
monta uma tabela de roteamento IP, a qual possibilita que ele encaminhe também pacotes IP.
Os switches Layer 3 da Cisco que rodam o sistema operacional Cisco IOS são na realidade
switches layer 2 por padrão e para terem a facilidade de roteamento IP (Layer 3) você deve
utilizar um IOS mais avançado, que suporte o protocolo IP, e também habilitar o protocolo IP
com o comando “ip routing” em modo de configuração global.
Note que o mesmo comando que já vem habilitado por padrão nos roteadores.
Vamos partir do pressuposto que as configurações básicas do switch 3550 foram realizadas e os
switches de acesso também, portanto vamos apenas nos preocupar com ativar o roteamento IP
no 3550, configurar o roteamento entre VLANs e ativar o recurso de layer 3 na interface Fast
0/1 para configurar um endereço IP nela.
Também teremos que configurar o roteamento no switch 3550, para que ele possa encaminhar
pacotes de redes não conhecidas em direção à rede corporativa, faremos isso com uma rota
estática padrão apontando para o roteador, o qual é seu gateway padrão.
Sem um switch L3 você precisaria de um roteador local para fazer o roteamento entre VLANs.
Quanto a sua forma de operação, as rotas são determinadas a partir do endereço de rede do
computador de destino através da consulta de uma tabela de roteamento.
Estamos acostumados em nossas casas com os roteadores ADSL ou roteadores sem fio, os
quais são dispositivos de pequeno porte e que apenas servem para conectar a nossa LAN à
Internet.
Por exemplo, uma empresa que utiliza telefonia IP normalmente precisa, além dos canais de
voz que trafega via rede, de uma conexão com a rede pública de telefonia convencional (POTS).
Isso pode ser realizado por um roteador, que nesse caso recebe o nome de gateway de voz.
Nesse mesmo roteador iremos conectar a LAN, a WAN e a rede de telefonia pública através de
diferentes interfaces!
Os roteadores desse tipo são chamados também de “multisserviço”, pois além de rotear
podem fornecer outros tipos de serviço de rede, tais como Voz, Vídeo, atuar como um AP
através de uma interface sem fio, ter possibilidade de conexão de placas para servidores
virtualizados, correio de voz e muito mais, tudo isso em apenas um equipamento.
Um “Firewall” tradicional é o nome dado ao dispositivo de uma rede de computadores que tem
por objetivo aplicar uma política de segurança a um determinado ponto de controle da rede.
Sua função consiste em regular o tráfego de dados entre redes distintas e impedir a
transmissão e/ou recepção de acessos nocivos ou não autorizados de uma rede para outra.
Como muitos já devem ter visto uma lista de controle de acesso ou Access Controll List, é
“permit” ou “deny”, permitir ou negar o tráfego.
Um NGFW faz tudo o que um firewall tradicional faz, porém ele tem um IPS integrado
(Intrusion Prevention System), pode controlar melhor as aplicações que estão sendo utilizadas
na rede, ter maior visibilidade e controle.
Além disso, são capazes de utilizar inteligência externa para buscar informações sobre como
proteger a rede.
As novas tecnologias de firewall podem filtrar com base nas aplicações ou tipos de tráfego que
estão passando por eles. Por exemplo, você poderia abrir a porta 80 para apenas tráfego HTTP
e para determinadas aplicações, sites ou serviços que você deseja permitir. É uma mistura de
firewall, IPS e funcionalidades de qualidade de serviços (QoS) em uma só solução.
Um IPS baseado em rede, por exemplo, vai operar em linha para monitorar todo o tráfego em
busca de códigos maliciosos ou ataques.
Uma assinatura é um conjunto de regras que IPS utiliza para detectar uma atividade intrusiva,
ou seja, cada ataque tem uma característica as quais são mapeadas e armazenadas em um
banco de dados de assinaturas e comparadas com o tráfego entrante.
Caso o tráfego malicioso tente entrar na rede e será detectado e o IPS pode tomar uma ação
conforme configurado pelo administrador de rede, sendo desde emitir um alarme até bloquear
aquele tráfego.
Um NGIPS ou IPS de Próxima Geração deve ser capaz de fazer tudo o que um IPS faz e
suportar outros recursos mais avançados, tais como:
Por exemplo, quando você precisa ativar um protocolo de roteamento como OSPF o que é
preciso fazer?
E após configurado cada dispositivo roda sua própria instância de OSPF localmente, portanto
alterações mais uma vez precisam ser realizadas em cada dispositivo isoladamente.
Outro exemplo de controladoras é o que já estudamos quando falamos dos Access Points, que
são as Wireless LAN Controllers, apesar de uma filosofia diferente do SDN, as WLCs permitem a
configuração, gerenciamento e monitoração de uma rede de APs de forma centralizada, tirando
a “inteligência” das pontas e centralizando as funções nelas.
Esse assunto inicia aqui, porém para quem está na trilha do CCNA 200-301 ele volta quando
formos estudar Automação e Programabilidade.
Vamos a seguir estudar mais sobre as WLCs, o Cisco DNA Center (controladora para redes
empresariais) e o ACI (sistema centralizado para Data Centers).
Nós já estudamos um exemplo disso quando tratamos dos Access Points (AP) para redes sem
fio, por exemplo, um AP pode funcionar de forma autônoma, ou seja, cada dispositivo é
controlado e configurado localmente, ou de forma centralizada com o uso de um Wireless LAN
Controller ou WLC.
Nesse modo centralizado chamamos também de “Controller Based Network” ou Rede Baseada
em Controladora.
Então temos a grosso modo 5 etapas para cada AP o que nos dá 50 passos para configurar essa
rede, correto?
Em uma rede com APs controlados por uma WLC isso seria reduzido drasticamente, pois essas
configurações seriam realizadas na controladora e repassadas para os APs à medida que eles
forem entrando na rede.
Portanto a principal vantagem de utilizar uma WLC em uma rede sem fio é eliminar a
necessidade de configuração dos APs um a um, porém existem muitas outras vantagens no uso
de WLCs.
Com uma WLC podemos ter funções em tempo real (Real Time Functions) e gerenciamento
(Management Functions).
As funções em tempo real permitem analisar transmissão e recepção que estão sendo feitas via
rádio freqência, gerenciamento dos MACs (Media Access Control Layer) e criptografia.
Essas funções envolvem o envio de frames 802.11, mensagens como beacon e probe, realizar a
criptografia dos dados em tempo real por pacotes.
Controlar o acesso por meio de políticas usando o acesso definido por software ou SD-
Access.
Provisionar automaticamente por meio do Cisco DNA Automation.
Virtualizar dispositivos por meio da virtualização de funções de rede da Cisco ou Network
Functions Virtualization (NFV).
Reduzir riscos de segurança por meio de segmentação e análise de tráfego criptografado
ou Encrypted Traffic Analysis (ETA).
Além disso, o Cisco DNA Assurance coleta dados de telemetria de dispositivos em toda a rede e
usa AI ou em português IA (Inteligência Artificial) e aprendizado de máquina (machine
learning) para ajudar a garantir o alinhamento da operação da rede com a intenção do negócio.
Ao fazer isso, o Cisco DNA Assurance otimiza o desempenho da rede, aplica políticas de rede e
reduz o tempo gasto em tarefas mais simples e repetitivas de solução de problemas.
A plataforma Cisco DNA Center também oferece extensibilidade de 360 graus (360-degree
extensibility) com um amplo ecossistema de parceiros e ISVs (Independent Software Vendors
ou Desenvolvedores de Software Independentes) que permitem tornar a rede ágil e totalmente
sintonizada com as prioridades dos negócios.
O DNA Center da Cisco é o único sistema de gerenciamento de rede centralizado a trazer toda
essa funcionalidade para um único plano.
Resumindo a operação do Cisco DNA Center, a infraestrutura de rede programável envia dados
para o dispositivo Cisco DNA Center, o qual ativa recursos nos componentes de rede usando o
software Cisco DNA e tudo é gerenciado a partir do painel do Cisco DNA Center.
Dica: É necessário ter uma licença do software Cisco DNA para cada roteador, switch, WLC e
access point sem fio.
Gerenciamento
Visualização granular de toda a rede, a partir de um único painel
Gerenciamento do ciclo de vida do dispositivo
Integração de vários domínios
Aberto e extensível
Automação
Descoberta de dispositivos automatizada
Criação de política Drag-and-drop (de arrastar e soltar)
Implantação automatizada de dispositivos e gerenciamento do ciclo de vida
Qualidade de serviço (QoS) automatizada
Uso de Controladoras e APIs abertos
Análise de IA/ML
Tudo como um sensor
Análise guiada por contexto
Mais de 150 insights úteis
Análise de IA no local e na nuvem
Segurança
Detecção e resposta a ameaças
Integração entre o Stealthwatch e o ISE
Análise de tráfego criptografado (ETA)
Segmentação extremamente segura
A rede física com seus equipamentos passa a se tornar um Underlay (camada inferior) que
conectará os endpoints de uma forma que não precisamos mais nos preocupar com a rede
física. Uma vez montado o Underlay dificilmente precisaremos configurá-los novamente.
Essa conexão entre os endpoints é feita no Overlay (camada superior), o qual forma o “Fabric”.
O Fabric é a combinação da parte lógica do Overlay com a parte física da Rede que está
suportando tudo isso.
Veja que o conceito de Underlay/Overlay não é novo, ele é utilizando no CAPWAP, GRE, MPLS
VPNs e outras tecnologias. Por exemplo, um túnel VPN usa toda a infraestrutura para conectar
duas redes distintas de forma segura sem ao menos essas duas redes ter que interagir com os
dispositivos que estão no meio do caminho entre elas, concorda?
Portanto, em uma rede que utiliza o SD-Access e o DNA Center, quando dois servidores, hosts,
computadores ou endpoints quaisquer quiserem se comunicar é como se eles estivessem
conectados à rede superior, sem a complexidade da rede inferior do desenho anterior.
Na prática é criada uma VXLAN entre os dispositivos para que eles se comuniquem. (Esse
assunto foge do escopo desse curso e será tratado em cursos mais avançados).
O ACI ao invés de pensar primeiro na rede tem um foco inicial nas aplicações e cria uma
infraestrutura ao redor dessas aplicações.
Um exemplo disso é a maneira que o ACI trata as rotinas de iniciar, parar e mover VMs em um
Data Center.
Por exemplo, algumas VMs precisam ter comunicação entre si e outras não, assim como elas
podem ter a necessidade de movimentação nesse ambiente virtualizado em nuvem, por isso ter
uma implementação/configuração por interface de switch ou roteador pode tornar o sistema
mais travado e não tão flexível e elástico como um ambiente em nuvem precisa, muitas vezes
essa visão pode até dificultar o “self-service” necessário para implementação de serviços em
nuvem como estudamos nos tópicos anteriores.
Portanto a Cisco definiu para o ACI o conceito de endpoints e policies (terminais e políticas),
onde os endpoints são VMs ou até mesmo servidores físicos.
Como vários endpoints tem as mesmas necessidades eles podem ser agrupados e ter políticas
comuns entre si, ou seja, ter políticas por grupos de VMs ou servidores.
Essas políticas podem definir como esses endpoints e seus grupos podem se comunicar (ou
não) entre si e entre outros grupos. Além disso, parâmetros de QoS e outros serviços podem
estar definidos nessa política.
Uma coisa deve ter ficado claro no parágrafo anterior, em nenhum momento foi falado em
VLAN, link, porta ou coisas desse tipo, certo? Isso porque agora temos uma visão da rede
centrada em aplicações ou “application-centric”.
Uma vez definidos os endpoints, grupos, políticas e demais detalhes a controladora vai
direcionar a rede para que os objetivos definidos sejam cumpridos, ou seja, ela vai configurar
as tabelas de encaminhamento para que a rede atue da forma definida.
Com isso a rede vai reagir corretamente aos processos como inicialização, parada ou
movimentação das VMs ou servidores do Data Center.
O APIC pode ser configurado por interface gráfica (GUI) e o poder de programar a rede através
do controle via software.
Tudo isso sem que o administrador de redes e sua equipe precisem entrar nos equipamentos
via CLI e configurá-los.
Mais tarde nesse mesmo curso vamos estudar as topologias de rede e dentro delas vamos ver o
Spine and Leaf, a qual é a estrutura utilizada pelo ACI.
5 Topologias de Rede
Os dispositivos de rede, sejam eles quais forem, devem seguir uma arquitetura tanto física
como lógica que permita uma fácil administração, crescimento, manutenção, gerenciamento e
controle.
Nesse capítulo vamos estudar as mais importantes tanto para nossa vida profissional como
para o exame CCNA, mas antes vamos fazer um exercício que não tem uma resolução
correta...
Pegue papel e caneta, de preferência, e faça um esboço da topologia de rede da sua casa e da
empresa que você trabalha.
Sobre a empresa, se você trabalhar em uma empresa muito grande, desenhe o que você
imagina que seja a topologia, não precisa ser exato nem perfeito.
Leve em conta o que estudamos até o momento e coloque onde estão os dispositivos de rede:
roteadores, switches, access points e endpoints.
Eu fiz um desenho simples da topologia que utilizamos em nosso escritório, que é basicamente
um Router-on-a-stick, ou seja, um roteador com um switch “pendurado” nele.
Não coloquei todos os pontos de rede, fiz somente um enpoint que usa um Telefone IP com o
lap-top conectado à ele, chegando em um switch de acesso, o qual também conecta nossos APs
e por fim esse mesmo switch é conectado a um roteador que tem duas saídas de Internet.
Bem simples, sendo que o roteador faz a função de roteador, central telefônica IP, Firewall e
IPS, tudo em apenas um dispositivo.
Você vai estudar a seguir que essa é uma topologia típica de um pequeno escritório ou small
office.
Vamos começar fazendo uma conversa sobre como podemos conectar os dispositivos de rede.
Por exemplo, um hub ou switch tem a topologia física em estrela, mas logicamente muitas
bibliografias tratam essas conexões como se fossem um barramento.
Se você traduzir literalmente esses nomes você terá: pequeno escritório/escritório em casa.
Para trabalhar em home office o usuário vai precisar de um acesso à Internet e uma maneira
de acessar os serviços de rede, aplicativos e arquivos da empresa de forma remota.
Existe a possibilidade de conexão utilizando cabo UTP (metálico), porém é algo mais raro ou
devido a algum requisito de segurança muito específico.
O roteador que conecta os enpoints até a Internet é geralmente um roteador sem fio, o qual se
conecta com o provedor de serviços de Internet ou ISP (Internet Service Provider) utilizando
uma tecnologia de última milha como ADSL, Cable Modem ou links de Fibra Óptica (FTTH –
Fiber to the Home).
Esse roteador sem fio ou wireless router tipicamente possui uma entrada para conectar a
Internet, um pequeno switch integrado com 4 portas (densidade mais comum de portas) e um
access point (AP) interno, tudo isso integrado ao mesmo dispositivo.
Se os aplicativos, arquivos ou o que o trabalhador remoto tenha que utilizar estiver em uma
nuvem pública ou servidores da empresa que estão diretamente conectados à Internet não é
preciso mais nada para que esse funcionário desempenhe suas tarefas.
Já se houver a necessidade de conexão com uma nuvem privada ou então à servidores que
estão dentro da rede da empresa será necessário ainda fechar ou estabelecer uma VPN (Virtual
Private Network) para proteger os dados que serão trafegados entre o trabalhador remoto e a
empresa.
Essa VPN pode ser realizada do roteador para empresa ou então com um cliente que pode ser
instalado diretamente no PC ou no Smart Phone do funcionário remoto.
Note que essa arquitetura serve tanto para um trabalhador remoto como para um pequeno
escritório, onde as exigências não sejam tão grandes com relação ao suporte de tecnologias e
ferramentas para monitoração remota da rede. Normalmente esses dispositivos pertencem ao
ISP e não permitem tanto controle por parte da empresa.
Um switch ethernet para conectar os endpoints que precisem de UTP como meio físico
(par metálico), assim como para conectar um AP.
O wireless access point ou AP para conectar dispositivos sem fio à rede, tais como smart
phones, tablets e até mesmo computadores e lap-tops (PCs).
Um roteador para encaminhar os pacotes IP de forma transparente para a Internet,
saindo para uma nuvem pública, privada ou para a rede privada remota sem que o
cliente precise instalar nenhum aplicativo em sua máquina.
Um firewall, o qual pode estar integrado no próprio roteador que se conecta à Internet,
por isso mesmo ele foi omitido da figura.
Essa rede pode ter um ou mais switches, uma ou mais saídas de Inernet, tudo depende da
quantidade de usuários e necessidade de redundância do escritório.
Você notou uma coisa nas topologias anteriores? O que elas têm em comum?
Ambas têm apenas uma camada na LAN, seja somente com um roteador wireless ou na
topologia com switch separado temos apenas uma camada na LAN. O porquê é simples:
quantidade de usuários pequena ou, falando em termos mais técnicos, baixa densidade de
portas.
Normalmente com a topologia anterior você pode até ter mais um ou dois switches conectados
em cascata com o primeiro switch, mas imagine que sua rede comece a crescer e você vá
inserindo switches até chegar 40 switches na rede...
Podemos conectar todos os switches entre si, formando uma cascata de switches, ou então
conectar todos os switches a um switch central em estrela, todos entre si formando uma rede
full mesh... ou seja, as opções são inúmeras, porém os problemas também.
É dividir a LAN em dois tiers ou camadas (óbvio rsrs), sendo uma camada para conectar os
endpoints (chamada de acesso ou access) e a segunda para conectar os switches da camada
inferior (chamada distribuição ou distribution).
Note que essa topologia tem uma regra de conexão entre os switches de acesso e distribuição,
você deve conectar um switch de acesso a cada um dos switches de distribuição, garantindo
redundância de link e equipamento.
Se um link ou uplink entre o switch de acesso e distribuição cair, teremos um segundo link para
continuar o tráfego de dados.
E se um dos switches de distribuição falhar, ficar sem energia ou tiver uma quebra qualquer, o
segundo switch assume a rede.
Isso garante no mínimo 99,9% de disponibilidade da rede LAN, ou seja, 8 horas e 46 minutos
no máximo de downtime (indisponibilidade da rede) por ano.
Além disso, em uma arquitetura 2 tier, a camada de distribuição pode conectar os dispositivos
que fazem conexão com a rede WAN, Internet e os servidores corporativos.
Note que essa topologia é um exemplo de arquitetura híbrida, pois ela usa no acesso uma
arquitetura em estrela e entre acesso e distribuição partial mesh.
Esse é o modelo tradicional e mais utilizado até os dias de hoje em projetos de redes mais
complexas, dividindo a rede em três camadas: Acesso, Distribuição e Núcleo (Access,
Distribution e Core). Veja a figura abaixo.
Nessa topologia temos um campus com switches de acesso em seus andares, os quais são
agregados nos switches de distribuição em cada edificação, normalmente switches layer-3.
Por sua vez os switches de distribuição dos diversos prédios são agregados em um ou mais
switches de núcleo, conforme a necessidade de redundância e porte da rede.
Note que no acesso ou access estão os switches onde conectamos os dispositivos dos usuários,
a distribuição ou distribution agrega os switches de acesso em blocos, os quais por sua vez são
interconectados através do núcleo ou core da rede.
Note que essa estrutura permite que qualquer usuário na camada de acesso se comunique com
outro dando no máximo três saltos entre switches, ou seja, o diâmetro da rede é fixo e sempre
bem conhecido.
5.5 WAN
Nos itens anteriores estudamos topologias típicas de uma rede LAN com o SOHO, 2 tier e 3 tier,
mas agora você precisa interconectar as diversas redes locais da sua empresa que estão
situadas distantes umas das outras, para isso podemos utilizar redes MAN (redes
metropolitanas ou Metropolitan Area Networks) e WAN (redes de longa distância ou Wide
Area Network).
Na prática acabamos chamando qualquer link entre duas unidades de WAN, por isso não se
preocupe com essa terminologia, vamos utilizar no CCNA apenas os termos LAN, para redes
locais, e WAN para conexões entre as unidades.
Temos duas opções para conectar unidades distantes umas das outras: construir a própria
infraestrutura (normalmente realizad para distâncias muito curtas) ou utilizar um Provedor de
Internet (ISP – Internet Service Provider) ou de Serviços de Telecomunicações (SP ou Service
Provider).
Na WAN podemos encontrar topologias ponto a ponto, full mesh, partial mesh e alguns termos
mais específicos como hub-and-spoke e ponto para multiponto (point-to-multipoint).
As tecnologias também podem ser diferentes do que utilizamos normalmente em uma LAN
corporativa, pois um service provider tem dois problemas que as empresas (segmento
Enterprise) não tem: distância e volume de clientes.
São redes que tem apenas dois pontos, portanto precisam de apenas dois endereços de
camada-3, normalmente redes /30 ou /31, apesar da última não ser tão comum em campo é
uma opção de uso se os roteadores suportarem essa máscara (vamos estudar máscaras e
endereços IP nesse curso em capítulos posteriores).
Em redes ponto a ponto utilizamos tecnologias como PPP e HDLC para realizar a conexão lógica
(camada-2) e links dedicados via fibra óptica ou pares metálicos para realizar a conexão física
entre os dispositivos, porém essas tecnologias estão cada vez mais caindo em desuso.
Apesar que existe o serviço ethernet ponto a ponto provido pela Metroethernet chamado
“Ethernet Line Service” ou E-Line.
As redes Hub and Spoke são redes muito comuns nas tecnologias Frame-relay, DMVPN
(Dynamic Multipoint VPN), metroethernet E-LAN (full mesh) e E-Tree (hub-and-spoke, partial
mesh ou ponto-a-multiponto).
Para que os Spokes falem entre si eles precisam passar pelo Hub, ou seja, o Hub faz o papel de
ponto focal da rede e tem a função de fazer acesso entre as unidades remotas ou até com
outros serviços de rede como a Internet.
Nesse tipo de topologia normalmente utilizamos uma rede IP que comporte o número de
componentes da rede, pois eles compartilham a mesma rede ou sub-rede IP. Veja no exemplo
abaixo.
A topologia Hub and Spoke na realidade é uma topolgia “partial mesh”, ou seja, não tem a
totalidade de links interconectados entre si.
A topologia full meshed ou full mesh faz conexão de todos os links possíveis entre os sites da
empresa, ou seja, não é preciso de intermediário para que dois pontos se comuniquem como no
hub and spoke, pois todos os componentes da rede têm links entre si.
Veja exemplo abaixo onde fizemos as conexões faltantes para que o exemplo do hub and spoke
fosse convertido em uma rede full mesh.
Note que agora existem links entre todas as unidades, ou seja, não é necessário mais do Hub
para que os spokes falem entre si.
Em comparação a topologia full mesh é muito mais cara que a hub and spoke ou partial mesh,
pois ela vai precisar de muito mais links, sejam eles físicos ou virtuais, para completar a
topologia.
Outra vantagem do MPLS é de ser indiferente ao tipo de dados transportado, podendo ser
tráfego IP ou qualquer outro protocolo de camada 3. O MPLS atua praticamente como um
protocolo de camada-3, em algumas bibliografias chegam a colocá-lo como um protocolo de
camada “2,5”, ou seja, entre as camadas 2 e 3 do modelo OSI. Veja a figura abaixo com a
topologia típica do MPLS.
Este protocolo permite a criação de Redes Virtuais Privadas (VPNs) garantindo um isolamento
completo do tráfego com a criação de tabelas de "labels" (usadas para roteamento) exclusivas
de cada VPN.
Além disso, é possível realizar QoS (Quality of Service) com a priorização de aplicações críticas,
dando um tratamento diferenciado para o tráfego entre os diferentes pontos da VPN.
O QoS cria as condições necessárias para o melhor uso dos recursos da rede, permitindo
também o tráfego de voz e vídeo, sendo um dos diferenciais do MPLS.
Com o MPLS podemos utilizar diversas tecnologias como links de acesso, pois sua missão é
“etiquetar” os pacotes e encaminhá-los através da rede.
Portanto não se assuste ao verificar nos roteadores da empresa onde você trabalha a rede
MPLS utilizando links frame-relay ou PPP chegando a sua interface serial ou gigabitethernet.
Como toda tecnologia de WAN o MPLS tem algumas terminologias próprias, sendo que o mais
importante são os termos: Customer Edge (CE) e Provider Edge (PE).
O customer edge (CE) é normalmente um roteador que está no lado do cliente, em inglês
“customer site”, ou seja, na empresa que está adquirindo o serviço de conexão via MPLS.
Já o provider edge (PE) fica nas pontas do provedor de serviços (SP – Service Provider), na
outra ponta do link de acesso que conecta à rede do cliente com a rede do provedor de
serviços.
Analisando a figura anterior podemos dizer que B1 a B4 são roteadores CEs e os roteadores
sem nome, os quais estão dentro do backbone MPLS são os PEs.
Utilizando esse tipo de serviço para o cliente existe a impressão de que ele tem um link
ethernet ponto a ponto, pois a meio de transmissão entre os dispositivos da operadora é
transparente para o cliente.
A vantagem para o cliente é que ele recebe um ponto de rede no padrão Ethernet que é
amplamente conhecido e dominado no mercado.
O padrão Metro Ethernet (MEN – Metro Ethernet Network) define uma topologia composta de
switches no service provider (SP – provedor de serviços), que ficam em um ponto de presença
(PoP – Point of presence), próximo aos clientes e conecta-se a eles utilizando um link de acesso
(last mile) normalmente via fibra óptica padrão Ethernet.
Tudo o que acontece com o link está definido em uma “User Network Interface” ou UNI
(interface de rede de usuário), onde o termo “rede” (network) refere-se a rede do SP, enquanto
o cliente (enterprise ou a própria empresa cliente) é o usuário (user) da rede.
O usuário remoto ou site remoto é também chamado de folha ou leaf e o site central ou matriz
é chamado de root.
As conexões UNI são definidas pelos padrões Ethernet, os quais alcançam distâncias muito
maiores via fibra que cabos metálicos UTP. Os seguintes padrões podem ser utilizados nos links
de acesso:
Você pode encontrar também o termo “carrier Ethernet” ao invés de Metro Ethernet para definir
esse serviço, o que significa a grosso modo “Ethernet para Provedores de Serviço”.
O Metro Ethernet oferece várias vantagens para provedores e assinantes, tais como não
necessidade de roteador na ponta do cliente, diminuindo custo, flexibilidade, fácil manutenção e
gerenciamento, o cliente lida com uma interface Ethernet comum e bem conhecida, integrando-
se perfeitamente a LAN já instalada, etc.
A conexão física dos clientes a uma rede Metro Ethernet é normalmente um cabo de fibra óptica
no padrão Ethernet, como citado anteriormente, porém o MEF (Metro Ethernet Fórum) define
vários padrões de conexão lógica entre os dispositivos da rede Metro Ethernet.
Vamos estudar aqui três tipos de especificações, as citadas na bibliografia oficial da Cisco:
Ethernet Line Service ou E-Line (topologia ponto a ponto): dois customer premise
equipment (CPE) trocando quadros Ethernet entre si, como linhas dedicadas ponto a
ponto. Os links são chamados e EVCs ou “Ethernet Virtual Connection” (conexão
ethernet virtual).
Ethernet LAN Service ou E-LAN (topologia full mesh): o mais parecido com uma LAN,
onde todos os CPEs pode trocar quadros entre si. Nessa topologia são criados EVCs
entre todos os usuários, por exemplo, com 3 dispositivos serão necessários 3 EVCs,
porém com 6 sites você precisará de 15 EVCs para fazer a topologia full mesh.
Cada vez mais as empresas estão abandonando os circuitos dedicados de alto custo e migrando
suas conexões entre suas Unidades através da Internet, afinal ela é a “WAN das WANs”.
Com opções de conexão cada vez mais rápidas (banda larga), mais seguras e confiáveis a
Internet tem dois grandes problemas a serem resolvidos: segurança e privacidade.
Para resolver esse problema podemos utilizar as VPNs para garantir o tráfego de dados de
forma transparente entre as diversas LANs da empresa, de forma segura e privada.
Uma Rede Virtual Privada ou Virtual Private Network (VPN) tem a função principal de permitir a
criação de redes privadas através da Internet, permitindo privacidade e tunelamento de
protocolos dentro TCP/IP, visando acesso remoto de usuários que trabalham em Home Office
ou de Unidades Remotas através da Internet.
As VPNs são usadas diariamente para dar acesso corporativo à rede para usuários remotos,
conectividade a escritórios remotos utilizando um meio público como a Internet, sendo uma
opção mais barata que circuitos dedicados. Também podem ser uma opção para links de
contingência utilizando tecnologias como ADSL ou Internet via cabo coaxial. Veja na figura uma
topologia básica de aplicação de uma VPN em um ambiente corporativo.
Na construção de uma VPN são empregadas diversas técnicas combinadas como autenticação,
criptografia e tunelamento (as VPNs não são foco desse curso, serão estudadas em cursos
específicos).
Note que uma VPN é um protocolo encapsulado e criptografado passando dentro do pacote IP,
o que gera um grande overhead (cabeçalho adicional) devido às técnicas de tunelamento e
criptografia utilizadas.
Na realidade o tunelamento não garante segurança, para isso temos que usar um protocolo
como o IPSec em conjunto.
O IPSec (Internet Protocol Security) é um framework padrão do IETF, definido pela RFC 4301,
que proporciona confidencialidade, integridade e autenticação dos dados.
Com o IPSec podemos criar um túnel entre dois pontos, por onde os “dados sensíveis” (dados
que necessitam ser protegidos) são enviados. Veja a figura abaixo com um pacote protegido
pelo IPSec.
Simples, porque você precisa ter uma noção do assunto! Você vai provavelmente ter isso
implantado em sua Rede ou vai surgir em uma conversa de trabalho.
Implementar diversos sites em uma WAN tradicional pode levar dias, semanas e até meses,
pois circuitos MPLS não são tão simples de serem implementados como uma conexão de
Internet.
O mesmo processo é similar se usamos a Internet como WAN e VPNs para conectar os sites
remotos.
Outro ponto é que nas WANs tradicionais quem decide por onde um pacote será encaminhado
tipicamente é um protocolo de roteamento, o qual analisa apenas características do seu próprio
algoritmo, sem considerar necessidades dos usuários ou aplicações da rede.
Na prática o SD-WAN é você fazer toda a sua rede de longa distância controlada por software,
você terá como no DNA Center, que vimos anteriormente, um Underlay e um Overlay,
separando as funções de rede.
Isso permite que você controle as conexões através de políticas, agrupe essas políticas e as
aplique a diversos equipamentos simultaneamente.
Outra habilidade de uma rede SD-WAN é a escolha do melhor caminho utilizando outros
parâmetros que não sejam uma simples métrica calculada por um protocolo de roteamento,
permitindo que a escolha do caminho priorize usuários, aplicações e necessidades mais
específicas que somente “largura de banda”.
Ela pode misturar links de Internet, utilizando VPNs, MPLS e outras tecnologias para formar
uma WAN definida por software.
Ela consegue juntar agilidade, pois as configurações e resolução de problemas podem ser
centralizadas e aplicadas em diversos equipamentos ao mesmo tempo, melhora a performance
da WAN porque é capaz de analisar e escolher os melhores caminhos que cada usuário ou
aplicação necessita, e, por último, consegue reduzir os custos com implantação e manutenção
de novos sites inseridos na rede.
Já estudamos topologias e tecnologias para redes LAN e WAN, porém agora vamos ver uma
topologia utilizada em Data Centers para conectar os diversos servidores, sejam eles físicos ou
virtuais.
Um Data Center pode estar localizado dentro de uma empresa ou em um Provedor de Serviços.
Ele tem a finalidade de abrigar milhares de servidores e bancos de dados, e processar grandes
quantidades de informação, os equipamentos geralmente são montados em racks ou armários
metálicos.
Na foto anterior dá para se ter ideia da quantidade de conexões entre servidores e switches que
um data center requer! Para isso, por muito tempo utilizou-se a arquitetura em três camadas
para fazer essas conexões.
A topologia física típica dos data centers ou DCs é a top-of-rack e end-of-row (topo de rack e
final da fila, respectivamente). Switches de acesso no topo dos racks de servidores, agregando
as conexões de rede, e no final da fila um rack com switches de distribuição e core.
Porém a arquitetura em três camadas para data centers é complexa de se administrar e pode
trazer mais de três saltos entre os servidores, pois nem sempre teremos apenas um core
devido a grande densidade de portas para servidores que um data center exige.
Para tratar desse problema, já adequando o sistema ao conceito de SD-Access (acesso definido
por software) a topologia Spine and Leaf veio para substituir a arquitetura em três camadas.
Ela possui apenas duas camadas: switches de acesso que são chamados agora de “leaf
switches” e os switches que agregam o acesso chamados de “spine switches”. Veja imagem
a seguir.
Os servidores podem ser virtualizados e dentro deles várias VMs podem estar rodando
simultaneamente, porém não há variação na topologia. Além disso, os servidores podem
conectar-se a mais de um leaf switch por questões de redundância.
Note que não importa onde o servidor esteja posicionado na topologia spine and leaf que ele
sempre dará no máximo dois (2) saltos até o destino.
Por exemplo, para o server comunicar-se com o servidor de banco de dados (DB) ele pode sair
pela interface do switch leaf1, chegar ao spine1, o qual pode encaminhar o quadro até o leaf4,
o qual fará o quadro chegar ao seu destino final.
Nesse tópico vamos estudar sobre cloud computing services, iniciando com as características
que esse serviço deve ter segundo o NIST (National Institute of Standards and Technology –
US):
Você provavelmente já utiliza serviços em nuvem nas suas atividades pessoais ou até na
empresa que trabalha.
Uma nuvem pode ser On-Premise (nuvem privada ou private cloud) ou pública (public cloud
ou apenas cloud). Existem também as nuvens híbridas, uma mistura dos dois tipos de nuvens
anteriores, porém não é importante para o escopo do CCNA, por isso vamos focar nas públicas
e privadas.
Uma nuvem privada é aquela construída e administrada pela própria empresa, ou seja, quem é
“dono” da nuvem e quem a utiliza é a mesma empresa.
A vantagem de uma nuvem privada em relação ao serviço virtualizado seria que os serviços
estariam disponíveis em um catálogo de serviços, nos quais os desenvolvedores e operadores
poderiam preencher uma requisição, dar alguns cliques e em minutos teriam suas VMs criadas,
tudo de forma automatizada e sem intervenção humana.
Na realidade o time de TI nesse caso iria criar o sistema de nuvem privado, configurá-lo, criar o
catálogo, implementar os serviços e administrar o sistema como um todo, não precisariam mais
intervir em todas as requisições realizadas pelos clientes internos, o que traz mais agilidade ao
processo.
Em uma nuvem pública ou public cloud o provedor de serviços (SP ou Service Provider) é o
“dono” da nuvem e comercializa serviços para outras empresas a partir dessa plataforma.
A conexão do cliente com a nuvem do provedor de serviços pode ser realizada diretamente via
Internet ou se o cliente requisitar mais segurança pode ser feita via VPN ou até mesmo com um
link de WAN dedicado, por exemplo, via MPLS.
Note que essa é uma grande diferença entre uma nuvem privada e pública, pois a nuvem
privada pertence a empresa, por isso não tem problema de acesso externo porque tudo está na
mesma infraestrutura de redes. Isso traz mais segurança também.
Porém, o custo é muito maior, pois um provedor de serviços pode compartilhar o custo entre
vários clientes de tornar o valor muito mais atrativo.
Esse serviço é o que mais se aproxima ao que estudamos até o momento e o mais
simples de ser entendido, pois ele se assemelha a comprar um computador, onde você
especifica as capacidades de CPU, memória RAM, armazenamento, sistema operacional
e tem seu servidor em nuvem preparado para instalação dos seus aplicativos.
Um dos serviços mais comuns é o Amazon Web Services (AWS), um provedor de nuvem
pública onde você cria sua VM com parte do serviço de IaaS. Veja tela abaixo com
exemplo de máquina virtual EC2 chamada de “micro” com 1 vCPU e 1Gb de memória
RAM.
É importante lembrar que nessa modalidade de serviços o cliente não escolhe a máquina
virtual que rodará o serviço de software ou suas características, ele apenas escolhe as
opções da aplicação que deseja utilizar.
O PaaS vai além do IaaS, sendo uma solução para desenvolvimento de aplicações,
apesar de que em ambas as opções o cliente pode escolher o número de VMs, CPU,
memórias, no PaaS existem mais opções de ferramentas de software além do sistema
operacional.
EaaS - Everything as a Service: Tudo como Serviço... o nome já diz tudo... é quando
se utiliza tudo, infraestrurura, plataformas, software, suporte, enfim, tudo o que envolve
Tecnologia da Informação e Comunicação como um Serviço.
DBaaS - Data Base as a Service: o Banco de dados como Serviço é quando o cliente
utiliza a parte de servidores de banco de dados como serviço.
Os três primeiros são os mais comuns e por isso são os mais importantes para o exame do
CCNA.
Como já foi citado anteriormente, se a nuvem for privada não precisamos nos preocupar em
como fazer a conexão, pois os recursos estão todos no mesmo ambiente de infraestrutura de
redes.
O mesmo não ocorre quando a conexão é entre a empresa e serviços que estão em nuvens
públicas, pois nesse caso será necessária a conexão através da WAN, seja ela através de um
link dedicado ou via rede pública através da Internet.
Se pensarmos no fluxo (workflow) de uma nuvem pública tudo se inicia com o cliente
acessando o portal de serviços do provedor de Cloud Computing, escolhendo um serviço do
seu catálogo, por exemplo, a criação de uma VM para hospedagem de um determinado
aplicativo, a seguir a VM é criada e o cliente recebe os devidos acessos para instalar seus
aplicativos. Tudo realizado de forma automatizada e sem intervenção humana por parte do
provedor para criar a VM.
Veja que até esse ponto temos um tráfego leve, apenas o responsável da TI da empresa cliente
especificando e criando sua VM.
Uma vez instalado e testado o aplicativo ele é liberado para uso interno dos funcionários da
empresa ou setor que vai utilizar aquela aplicação. Nesse momento o tráfego vai aumentar,
pois mais pessoas farão conexão com esse aplicativo para realizar suas tarefas.
Além disso, pode haver uma comunicação entre servidores (físicos ou virtuais) que estão na
rede da empresa, por exemplo, um servidor de autenticação em uma DMZ, e o aplicativo
instalado na VM em nuvem.
Portanto, existem vários acessos entre a empresa e suas VMs ou serviços em nuvem, por isso
os dois principais pontos a serem analisados são: largura de banda e segurança.
A largura de banda do link de Internet deve suportar os acessos do dia a dia mais o fluxo entre
a rede interna e a nuvem, pois esse serviço em nuvem soma ao que já estava sendo utilizado
normalmente pela empresa em termos de link de Internet.
Lembre-se que normalmente um serviço em nuvem retira o que estava sendo utilizado
internamente com servidores locais e move o serviço para a nuvem do provedor de serviços,
por isso esse tráfego é novo para a WAN ou Internet.
Outro ponto é que se esses dados forem enviados sem nenhuma proteção (sem criptografia),
eles podem ser capturados, lidos ou até alterados nesse fluxo entre o cliente e seu provedor de
serviços em nuvem.
Os pontos positivos da nuvem pública são agilidade, pois tudo está pronto para uso e não é
necessário passar pelo processo de compra de uma nuvem privada, a Internet permite acesso
de usuários de qualquer localização geográfica, por exemplo, equipes de vendas podem acessar
a aplicação de registro e controle de pedidos de qualquer dispositivos onde quer que eles
estejam. Por último é a facilidade de migração em caso de problemas ou sobrecarga, pois todos
os provedores de serviço estão na Internet e fica muito mais fácil essas movimentações.
As desvantagens desse acesso são segurança, pois os dados da empresa passarão a trafegar
em uma rede pública aumentando o risco de espionagem ou ataques de Man-in-the-Middle
(MITM).
Outro ponto é a sobrecarga no tráfego de Internet, que pode levar a aumento de custos de
conexão. Além disso, na Internet não tem QoS, por isso fatores como delay e perda de pacotes
podem afetar as aplicações mais sensíveis a esses fatores. É claro que normalmente links de
Internet não oferecem SLA ou acordos de nível de serviço como em links WAN dedicados.
Como especificado pelo NIST as nuvens devem ser acessíveis de várias formas diferentes, por
isso os provedores de serviços de nuvem pública oferecem as opções de conexão via VPN ou
até mesmo via link dedicado, por exemplo, via MPLS layer 2 ou layer 3.
Para criar um túnel VPN até o provedor de serviços em nuvem podemos utilizar os mesmos
conceitos estudado aqui nesse material em capítulos anteriores, somente adaptando para as
especificações passadas pelo provedor, o qual normalmente já oferece essa opção com um
roteador que ficará pré-configurado do lado dele.
Ou o cliente pode subir um roteador virtual, por exemplo, a Cisco oferece o Cloud Services
Router (CSR) para fazer a mesma coisa que um roteador físico, porém rodando em uma VM do
provedor de cloud, podendo inclusive fechar VPNs. Essa opção pode até economizar recursos,
pois a empresa usa seu próprio roteador virtual ao invés de pagar para usar um que seria do
provedor de serviços.
Para fazer uma conexão via links dedicados através de Multiprotocol Label Switching (MPLS)
VPN ou Ethernet WAN vai precisar trabalhar tanto com o provedor de nuvem como com o
provedor de serviços de WAN, principalmente se forem empresas diferentes.
Por isso mesmo esse tipo de conexão exige um planejamento extra, pois dependem de vários
fatores, configurações, localização para terminação dos links dedicados, etc. Grandes
provedores de public cloud como Amazon Web Services, Google Compute Cloud, Microsoft
Azure e Rackspace oferecem esse tipo de conexão e disponibilizam informações sobre suas
especificações, configurações e localizações onde os circuitos podem ser terminados.
Portanto, utilizar links WANs dedicados resolve o problema de segurança em relação ao uso da
Internet sem VPN, além disso, os links MPLS permitem que você faça QoS e priorize o tráfego
mais importante.
Por outro lado, esses tipos de link são mais caros e necessitam de mais planejamento, por
exemplo, se o link for fornecido por um provedor diferente do seu provedor de nuvem podem
ocorrer atrasos nas implantações, principalmente nos casos de migração para outros
provedores. Você perde a agilidade que a Internet traz para ter mais segurança.
O meio termo para a questão de segurança é o uso da Internet com adição de uma VPN, porém
mesmo com mais segurança você continua sem QoS.
Além disso, o uso da Internet com ou sem VPN torna necessidades de migração entre
provedores muito mais simples, porém vamos falar desse assunto no próximo tópico.
Nesse tópico vamos falar sobre como conectar fisicamente os dispositivos de redes e endpoints.
O principal cabo metálico utilizado nas redes é o par trançado, os quais podem ser blindados ou
não blindados e possuem 4 pares por cabo. Cada par é separado por cores para facilitar a
conectorização.
As principais vantagens de uso do cabo par trançado são taxa de transmissão, baixo custo do
cabo e baixo custo de manutenção de rede. As taxas usadas nas redes com o cabo par trançado
são:
10 Mbps (Ethernet)
100 Mbps (Fast Ethernet)
1000 Mbps (Gigabit Ethernet)
10.000 Mbps ou 10Gbps (10Gigabit Ethernet)
O mais utilizado na prática é o cabo não blindado denominado UTP (Unshielded Twisted Pair ou
Par Trançado sem Blindagem), o qual pode ser utilizado para transmissão tanto de dados como
voz.
Para a conexão dos cabos UTP são utilizados os conectores RJ-45 macho ou fêmea. Os
conectores machos são utilizados como terminação das conexões e os fêmeas, conhecidos
como keystone jacks, são utilizados nos painéis de distribuição (de patch-panels), nas tomadas
de telecomunicações (utilizadas nas mesas e paredes), placas de rede e assim por diante.
Antes de vermos os padrões vamos conhecer as cores dos fios, que são:
Laranja e branco
Laranja
Verde e branco
Azul
Azul e branco
Verde
Castanho (ou marrom) e branco
Castanho (ou marrom)
A norma EIA/TIA-568-B prevê duas montagens para os cabos, denominadas T568A e T568B.
A montagem T568A usa a sequência branco e verde, verde, branco e laranja, azul, branco e
azul, laranja, branco e castanho, castanho.
A montagem T568B usa a sequência branco e laranja, laranja, branco e verde, azul, branco e
azul, verde, branco e castanho, castanho.
Um cabo cujas duas pontas usam a mesma montagem é denominado "Cabo Direto" (T568B-
T568B), e serve para ligar estações de trabalho e roteadores a switches ou hubs.
Um cabo em que cada ponta é usada um padrão diferente (T568A-T568B) é denominado "Cabo
Crossover", e serve para ligar equipamentos do mesmo tipo entre si.
A fibra óptica pode ser representada como um tubo flexível de vidro onde a luz se propaga.
O núcleo é coberto com uma casca que tem a função de proteger e garantir que a luz fique
confinada dentro do núcleo.
Você vai ver que existem diversos tipos de fibras ópticas e abaixo temos a representação dos
diâmetros típicos de fibras do tipo multimodo e monomodo.
A luz de um LED ou um laser é colocada na ponta do núcleo e então ocorre a propagação até o
destino.
A forma com que a luz se propaga no núcleo é o objeto de estudo da óptica, assim como os
tipos de fibra óptica.
Fibras Multimodo
Fibras Monomodo
1. Um feixe (f1) sai da parte de baixo do laser e reflete na parte de cima do núcleo da fibra
óptica e vai se propagando em zigue-zague até o destino.
2. Um segundo feixe (f2) sai da parte do meio do laser e se propaga em linha reta na fibra
óptica até chegar do outro lado da fibra.
3. E finalmente, um feixe (f3), sai da parte de cima do laser e reflete na parte de baixo do
núcleo da fibra óptica e vai se propagando em zigue-zague até a outra extremidade.
Como esses 3 feixes, “n” feixes saem do laser resultando em “n” modos de propagação,
portanto, dentre os tipos de fibra óptica, aquela que proporciona esse tipo de propagação é
chamada de fibra multimodo.
As fibras multimodo foram as primeiras a surgir e possuem um núcleo maior que as fibras
monomodo, o que resulta nos “n” modos de propagação.
Como elas são menos “exigentes” no modo que a luz se propaga são também mais “baratas”,
porém suportam distâncias menores que as monomodo que vamos estudar a seguir.
Nesse caso existe somente um caminho possível para a propagação, ou seja, somente um
modo.
Entre os diversos tipos de fibra óptica, as fibras com essas características são denominadas
fibras monomodo.
Nas fibras monomodo anula-se a dispersão modal e obtém-se uma menor atenuação.
A conectividade do laser, contudo, é mais difícil o que exige que o laser utilizado seja mais
preciso de alta qualidade elevando o custo de todo o sistema.
A princípio as fibras monomodo são utilizadas em sistemas de média e longas distâncias, cabos
de fibras estaduais, backbones de grandes distâncias e inclusive em comunicações
intercontinentais (cabos submarinos) onde há a transmissão de altas taxas de dados.
Para você ter uma ideia das dimensões de uma fibra veja a figura a seguir, trata-se de uma
fibra multimodo em que a casca tem 125 mícrons e o núcleo 62,5 mícrons, abaixo tem uma
agulha para comparação das dimensões.
6.2.4 Onde Devo Utilizar os Tipos de Fibra Óptica Monomodo e Multimodo na prática?
Normalmente essas distâncias podem ser de até 120 quilômetros sem o uso de regeneradores
ópticos.
Portanto, se sua empresa tem links internos de até 2km conectando os switches de Core,
Distribuição e Acesso, as fibras multimodo podem ser utilizadas tranquilamente.
Agora, se houver necessidade de links com distâncias superiores a 2km até 120km o uso de
uma fibra óptica monomodo é mais recomendado.
Os conectores ST e SC eram os mais populares até pouco tempo atrás, mas os LC têm crescido
bastante em popularidade e podem vir a tornar-se o padrão dominante.
Os conectores MT-RJ também têm crescido em popularidade devido ao seu formato compacto,
mas ainda estão restritos a alguns nichos. Como cada conector oferece algumas vantagens
sobre os concorrentes e é apoiada por um conjunto diferente de empresas, a escolha recai
sobre o conector usado pelos equipamentos que pretender usar.
É possível também utilizar conectores diferentes dos dois lados do cabo, usando conectores LC
de um lado e conectores SC do outro, por exemplo. Além disso, existem adaptadores para que
você possa conectar fibras do mesmo tipo ou de tipos diferentes. Veja a figura a seguir com um
cordão com conector MT-RJ em uma ponta e outra com conector LC. O cordão óptico também é
conhecido como “pigtail”.
Outro equipamento muito comum de ser encontrado em redes que utilizam fibras ópticas são
as caixas de distribuição ópticas (que podem ser também caixas de emendas ópticas ou caixas
de terminações ópticas), utilizadas para acomodar as conexões de fibra e é onde normalmente
fica terminado um circuito de fibra.
Elas são utilizadas para conectar do equipamento, como um switch ou conversor óptico à fibra
de maneira segura, pois como a fibra é mais sensível que um cabo óptico deixá-la solta seria
muito arriscado, seria similar ao patch pannel de uma rede metálica. Veja a figura seguinte com
uma caixa de terminações ópticas.
Vamos agora montar um circuito simples com uma conexão óptica entre switches de uma
empresa. Por exemplo, temos dois switches com interface SFP com conectores do tipo LC que
utiliza fibra multimodo (MM). Portanto, vamos precisar de um cabo de fibra multimodo e duas
caixas de terminação ópticas com conectores do tipo LC, lançar um cabo com fibras entre os
dois pontos e fazer emendas nas caixas de terminação óptica.
Uma vez o circuito montado o caminho precisa ser testado e depois precisaremos de cordões
ópticos para ligar das portas dos switches para a caixa de terminação óptica.
Essas velocidades são suportadas em quase todas as linhas de switches Cisco Catalyst.
Outras opções mais recentes são conexões de 40Gbps e de 100Gbps, principalmente utilizadas
em Datacenters e soluções para provedores de serviços.
Quando falamos das tecnologias 10/100/1000 Mbps podemos utilizar tanto cabos UTP categoria
5 ou superior com conector RJ-45 para distâncias até 100m ou fibras ópticas para links mais
longos ou conexões entre switches.
Todas essas tecnologias tem a mesma raiz no 802.3 e seguem o mesmo formato de quadro,
operação do CSMA/CD, full duplex e outras características do Ethernet, porém o padrão
específico do Gigabit Ethernet é definido no 802.3z, pois a sua camada física teve que sofrer
alterações devido ao aumento da velocidade de transmissão.
Já o 10-Gigabit Ethernet segue a 802.3ae que difere das antecessoras na camada física (PHY –
Phisical layer) operando apenas com full-duplex.
Além disso, são definidos vários tipos de transceivers utilizados como Protocol Media Dependent
ou PMD e classificados como:
Assim como para os padrões antecessores o 10-Gigabit tem nomenclaturas e padrões que
determinam o meio físico e distâncias cobertas pelos enlaces, vamos ver os principais exemplos
a seguir.
Normalmente encontramos switches de acesso com portas 10/100 Mbps ou 10/100/1000 Mbps
através de portas UTP de 8, 12, 16, 24 e 48 portas com duas ou até quatro SFPs que são
entradas para módulos de fibra.
Um dispositivo de rede e um endpoint, que são muito utilizados nas redes, normalmente
necessitam de uma fonte de alimentação, os quais são:
Telefones IP
Access Points
Câmeras IP
Imagine uma rede com 500 telefones IP e 50 access points, note que isso não é uma rede de
grande porte. Pense que teríamos que ter 550 tomadas a mais, além das que já precisamos
para alimentar esses dispositivos.
Mas isso não poderia ser resolvido se o próprio ponto de rede que conecta esses dispositivos já
fornecesse a energia necessária para que eles funcionassem?
Essa é a função do PoE ou Power over Ethernet (em português alimentação via cabo Ethernet)!
Além disso, estamos entrando na era dos dispositivos IoT, os quais muitos serão alimentados
via PoE também.
Existe uma família de padrões que tem a função de fornecer energia a endpoints, porém
chamamos todas de uma maneira geral como Power over Ethernet ou PoE.
Numa arquitetura com PoE precisamos ter uma fonte de energia, a qual pode ser a fonte de um
switch ou réguas de alimentação PoE ou até mesmo apenas um alimentador simples, porém
aqui vamos focar nos switches.
A energia será fornecida pelo mesmo cabo UTP que conecta o endpoint, o qual na arquitetura
PoE é chamado de PD ou Powered Devices. Veja imagem a seguir.
Podemos ter PoE padronizados pela IEEE (PoE e PoE+) e suportados por quaisquer dispositivos
ou proprietários da Cisco (UPOE e UPOE+). Além disso, existe um padrão mais antigo também
proprietário da Cisco chamado Inline Power (ILP).
Veja a imagem abaixo para fixar o número de pares e como a potência é fornecida de acordo
com os padrões anteriores.
Cada dispositivo alimentado pelo PoE tem uma necessidade específica de energia, assim como
uma rede elétrica temos equipamentos 110V e 220V temos diversos níveis de potência e
energia que podem ser danificados caso recebam a quantidade de energia errada.
Para evitar esse tipo de problema a IEEE estendeu o processo de autonegociação utilizado pelo
Ethernet para o PoE.
O primeiro passo quando um endpoint é conectado a um switch que suporta PoE, ou seja, um
PSE, é que ele precisa verificar se esse endpoint é ou não um PD.
Para isso o PSE envia um pulso de detecção de voltagem no cabo para medir a corrente
elétrica.
Se o PSE detecta uma assinatura válida (conforme voltagens definidas pela IEEE 802.3af/at),
um PD é detectado.
A partir desse momento o PSE manda pulsos curtos de voltagem nos pares e mede quanta
potência o PD necessita.
O PD responde aos pulsos com uma quantidade de corrente elétrica pré-determinada para que
o PSE determinar a classe de dispositivo que esse PD pertence conforme tabela a seguir. Note
que Class é a classe e Power é a Potência.
Se ambos PSE ou o PD são tipo 1 (PSE suportando máximo de 15.4W ou PD Classe 0 a 3), esse
handshake via hardware é finalizado e a potência necessária (até 12.95W) é fornecida
conforme classe do PD provisionada na porta do PSE.
Por padrão um PSE tipo 1 fornece apenas classificação em um evento (one-event classification),
conforme descrito anteriormente e não importando o tipo do PD que está na ponta.
Se o PSE e o PD forem tipo 2 pode ocorrer um segundo passo de negociação ou um segundo
handshake.
Pode haver uma classificação via hardware em dois eventos ou dois passos ou então uma
classificação via CDP (Cisco Discovery Protocol) ou LLDP (Link Layer Discovery Protocol).
Esses dois métodos de classificação são utilizados para determinar a potência de dispositivos
que necessitam de maior energia, podendo chegar até 90W de potência.
Falando ainda sobre o gerenciamento da potência que pode ser realizado pelo CDP e LLDP, que
são protocolos para troca de informações de vizinhança (serão estudados em curso a parte),
existem um ajuste previsto na IEEE 802.3af chamado “Inline Power IEEE Power Classification
Override”.
Esse classification override monitora um PD e exige que ele use menos potência que o previsto
pela IEEE, caso a comparação do consumo feito pelo PD com o consumo previsto pela IEEE
802.3af ultrapassa o limite definido na norma o PD será desconectado.
Powered Devices: verifique o tipo de PD que você irá utilizar na rede, os padrões que
ele suporta e quanto de energia que você deverá fornecer para cada um deles.
Requisitos de Potência: tenha todos os tipos e quantidades de PDs a serem utilizados
na rede para determinar seu “power budget” ou orçamento de potência. Com esse valor
você saberá quanto de potência cada switch precisará fornecer para a rede.
Portas dos Switches: alguns switches não suportam PoE em todas as portas, por isso
cuidado com os modelos a serem escolhidos para cada parte de rede.
Power Supplies: alguns switches podem trabalhar com mais de uma fonte de
alimentação ou power supply. Dependendo do seu power budget será necessário
escolher switches que suportem os requisitos, pois não é porque um switch tem 24
portas PoE que você vai conseguir alimentar 24 dispositivos.
Além disso verifique se os padrões utilizados não estão gastando mais que o endpoint usado
como PD necessita, por exemplo, você pode ter dois dispositivos que suportam PoE+, o qual
suporta até 30W, mas o PD precisa somente 9W.
Isso pode no final das contas dar um aumento no consumo de energia que está simplesmente
sendo desperdiçado.
Falar sobre problemas com cabeamento e interfaces em dispositivos Cisco é falar do comando
“show interfaces”.
No “show interfaces” são mostrados os contadores de erro que uma interface pode estar
sofrendo. Caso você deseje zerar esse contador para monitorar uma interface a partir daquele
certo momento utilize o comando “clear counters interface eth|fast|giga x/y” (o professor
explicará a nomenclatura das interfaces durante as vídeo aulas).
Vale a pena relembrar abaixo o status que o show interfaces pode nos fornecer (grave muito
bem cada uma das condições, seu significado, problemas e como resolvê-los quando aplicável):
Apesar de o comando show interfaces ser bem conhecido, a maioria das vezes ele é utilizado
apenas para ver se a interface está up ou down. No entanto, muitas outras informações úteis
podem ser retiradas da saída desse comando.
O comando pode ser utilizado para exibir informações de todas as interfaces (show interfaces)
ou para uma interface específica (show interfaces GigabitEthernet1/1 – ou simplesmente sh int
gig1/1). Veja o exemplo da saída do comando abaixo para uma interface serial.
Vamos agora ver as informações mais importantes do show interfaces e os problemas que
podem gerar crescimento nos contadores de erros.
O segundo bloco da saída do comando exibe informações dos contadores de erros. São esses
campos que o comando clear counters irá zerar, quando executado. Vamos ver os tipos de
erros abaixo.
Normalmente em interfaces seriais os problemas são detectados pelo incremento dos Input
Errors (erros de entrada) e CRC simultaneamente.
Já o output erros em uma interface serial pode significar que a própria placa está com
problemas.
Outros problemas comuns são cabos com padrão errado para conexão dos dispositivos (cross
ou direto) e configuração errada da velocidade e/ou modo de operação Duplex/Half-Duplex.
Quando ligamos um cabo errado a interface não irá subir, ou seja, ficará Down/Down.
Existem switches, como os da linha 2960, que possuem o recurso de Auto-MDIX, o qual
permite que você conecte qualquer tipo de cabo, cruzado ou direto, com o switch que ele irá
internamente converter o padrão e fazer a interface funcionar.
No CCNA normalmente não temos o recurso de auto-mdix nos equipamentos e temos que
lembrar que entre dois switches, switch/HUB, Roteador/Computador, Computador/Computador
e HUB/HUB utilizam-se cabos cruzados, já entre Roteador/Switch ou HUB, Computador/Switch
ou HUB utiliza-se cabos diretos.
Quando o problema entre duas interfaces LAN é o modo de operação, no roteador ou switch
será gerada uma mensagem de erro do tipo “Mismatch” (tipo errado ou descasamento de
configurações entre as duas pontas).
As mensagens de mismatch são geradas quando em uma das pontas não temos o protocolo ou
processo correto configurado, abaixo segue a mensagem que o equipamento dá quando uma
das pontas é Half e deveria ser Full-Duplex:
Traduzindo a mensagem o switch local detectou que sua interface fast 0/1 está conectada ao
switch remoto SW-DlteC.dltec.com.br via Interface Giga 0/2, a qual é Half-Duplex, porém ela
está como Full-Duplex, por isso o erro está acontecendo. Veja a figura abaixo.
Como a interface que está configurada como Full-duplex desativa o circuito de detecção de
colisões (não detecta mais colisões), os campos de Collisions e Late Collisions tendem a ser
incrementados somente na interface que está configurada como Half-Duplex nos casos de
descasamento do modo de operação.
Para visualizar o status das interfaces em switches, se elas são half ou full e a velocidade
utilize o comando “show interface status”, veja exemplo abaixo.
Note que o comando traz várias informações úteis para o dia a dia da administração de redes
com switches Cisco, tais como porta, VLAN, o estado se a porta está conectada ou não, etc. O
prefixo “a-” em frente do estado de Duplex e Speed (velocidade) significa que esse parâmetro
foi autonegociado.
O uso de tecnologias de transmissão sem fio em redes de computadores não é tão novo como
se pensa. As primeiras transmissões sem fio aconteceram na década de 70 com redes ponto a
ponto utilizando a frequência de 900MHz, porém através de protocolos proprietários e bastante
lentas em relação aos padrões atuais.
Para que as redes que conhecemos atualmente do padrão 802.11 fossem desenvolvidas foi
necessária a padronização da tecnologia e regulamentação do uso das frequências, pois as
frequências de rádio disponíveis são utilizadas por diversos serviços essenciais, tais como
polícia e bombeiros, assim como para transmissão de rádio (AM/FM), televisão, telefonia celular
e muitas outras aplicações. Essa padronização nasce com a definição do uso de frequências
para Aplicações Industriais, Científicas e Médicas (ou ISM) nas décadas de 80 e 90. Em paralelo
a IEEE em 1997 define a primeira norma 802.11 que descreve como o sinal deve ser enviado
utilizando a faixa de frequências ISM, portanto a maioria dos protocolos que utilizamos
atualmente foram desenvolvidos entre 1997 e 2003.
Para entender melhor a transmissão sem fio, vamos analisar a figura abaixo com as faixas de
frequência que podem ser transmitidas em meio aéreo ou em “espaço livre”.
Hertz – Hz: A medida de frequência dos sinais é medida em Hz (Hertz), que representa a
unidade de frequência derivada do SI (Sistema Internacional de Medidas) para frequência, a
qual é expressa, em termos de ciclos por segundo, a frequência de um evento periódico,
oscilações (vibrações) ou rotações por segundo. Um de seus principais usos é descrever ondas
senoidais, como as de rádio ou sonoras.
Note que as frequências mais baixas são as de áudio, sendo que as audíveis pelo ouvido
humano estão entre 20Hz e 20KHz (20.000Hz). Depois temos o ultrassom, frequências da rádio
AM, FM, sinais de televisão, as quais estão na faixa de KHz (Quilo Hertz - 1.000Hz) e MHz
(Mega Hertz - 1.000.000Hz) e então vem as micro-ondas que estão na faixa do GHz (Giga
Hertz - 1.000.000.000Hz).
Os sinais das redes 802.11 estão na faixa de frequência entre 1GHz a 5GHz, ou seja, entre um
bilhão e cinco bilhões de ciclos por segundo! Acima disso começamos a entrar no infravermelho,
o qual também foi e é utilizado até hoje para transmissão de curtas distâncias com velocidade
mais baixa, depois temos a luz visível, passando para o ultravioleta, raios-X e raios-gama.
Se compararmos uma rede sem fio com a rede cabeada poderemos entender melhor o que é
uma rede sem fio e suas características. Veja abaixo algumas semelhanças e diferenças entre
estes dois tipos de redes LAN:
Ambas são IEEE 802, sendo que as redes com fio fazem parte da família 802.3 e as
redes sem fio da 802.11. Isso significa que, para o usuário, se ele estiver acessando
uma rede LAN com ou sem fio o acesso será transparente. Tirando a placa de rede que
uma tem um conector para plugar o cabo e outra não, o acesso aos dados em uma rede
LAN com ou sem fio é transparente para os usuários finais. Veja uma topologia com
redes wireless na figura abaixo.
As redes 802.3 e 802.11 definem o acesso das camadas física e de enlace, sendo que
ambos padrões utilizam endereços MAC no mesmo padrão de 48 bits divididos em 12
algarismos Hexadecimais.
A principal diferença é que o meio de transmissão utilizado em uma rede sem fio do tipo
802.11 é o ar e não mais cabos metálicos ou fibras ópticas como no padrão 802.3. A
transmissão dos dados digitais é realizada por RF (rádio frequência) utilizando a faixa
das micro-ondas, conforme já estudamos anteriormente. Portanto a primeira e mais
gritante diferença está na camada 1 do modelo OSI que utiliza o ar como meio de
transmissão para as redes sem fio.
As redes com fio utilizam o CSMA/CD para transmitir os dados, porém como em uma
rede sem fio não há como detectar uma colisão ela precisa de um novo protocolo de
acesso aos meios, chamado de CSMA/CA ou “Carrier Sense Multiple Access with
Collision Avoidance”. Nas redes com fio tínhamos a detecção da colisão, porém nas
redes sem fio temos que “evitar uma colisão”, por isso o termo “CA – Collision
Avoidance”. Portanto, ambos tipos de redes (com e sem fio) utilizam a detecção de
portadoras ou “Carrier Sense”, a diferença é que nas redes com fio as colisões são
detectadas e nas redes sem fio são evitadas com o uso do protocolo RTS (Request to
Send – requisição para enviar) e CTS (Clear to Send – Pronto para enviar). Como em
uma rede sem fio não é possível que a estação transmita e receba ao mesmo tempo fica
impossível de detectar uma colisão.
Os quadros do 802.3 e do 802.11 também são diferentes, pois as comunicações sem fio
precisam de protocolos adicionais para funcionar, porém os dois utilizam os MACs de
origem e destino para montar seus quadros. Veja a figura abaixo, note que o quadro
tem quatro campos de endereço, pois deve conter origem e destino para a transmissão
e origem e destino para envio até o Access Point.
As redes sem fio suportam mobilidade (mobility), facilidade parecida com o roaming
dos telefones celulares, onde ao cruzar células de rádio sua ligação não cai e sim é
“transferida” para a nova célula que você está entrando. Isso possibilita o uso de
diversas facilidades em redes corporativas, tais como telefonia IP sem fio.
Em uma rede cabeada nosso sinal é convertido em impulsos elétricos ou ópticos para serem
transmitidos no meio físico, essa é a característica das tecnologias da família 802.3 (Ethernet).
Já nas redes sem fio, que pertencem à família 802.11, os bits a serem transmitidos são
convertidos em ondas de RF e os bits são codificados ou modulados utilizando diversas
tecnologias de espalhamento espectral ou Spread Spectrum.
Segundo a Wi-Fi Alliance atualmente existem mais dispositivos WI-Fi em uso do que a
quantidade de pessoas na terra, e mais da metade do tráfego da internet passa por uma rede
Wi-Fi.
Lembre-se que no Brasil o órgão que regulamenta o uso das frequências é a Anatel (Agência
Nacional de Telecomunicações).
As redes sem fio locais podem operar de dois modos, sendo o primeiro chamado Ad-hoc ou
IBSS (Independent Basic Service Set), e o segundo de Infraestrutura (Infrastructure), a qual
pode ser dividida em dois tipos de operação: BSS (Basic Service Set) e ESS (Extended Service
Set). Estes modos definem como a comunicação entre os diversos dispositivos de uma rede
local vai ser estabelecida.
Em uma rede Ad-hoc ou IBSS, temos a comunicação direta entre os equipamentos sem fio,
sem a necessidade de um intermediário. É como se criássemos um domínio, ou grupo de
trabalho, onde os componentes podem trocar informação direta entre si.
As redes Ad-hoc também são conhecidas como redes sem fio P2P (Peer to Peer) ou IBSS
(Independent Basic Service Set – Grupo ou Conjunto de Serviço Básico Independente).
Nesse modo de operação redes com poucos dispositivos podem ser criadas diretamente
utilizando os computadores de algumas pessoas e suas placas de rede sem fio para
compartilhar informações, por exemplo. Como cada computador em uma rede Ad-hoc está
utilizando apenas um rádio, a comunicação feita entre os dispositivos será do tipo half-duplex,
assim como acontecia anteriormente com os HUBs em uma rede cabeada.
No modo infraestrutura não há comunicação direta entre dois clientes de rede sem fio, pois eles
obrigatoriamente precisarão passar pelo AP para falar entre si ou com o restante dos
dispositivos da rede cabeada ou com dispositivos que estejam em outras células sem fio
distantes.
Os APs não necessariamente terão apenas uma rede vinculada a sua interface aérea, pois
existem modelos de AP que possuem mais de uma interface de rádio e permitem a
configuração de múltiplas redes LAN sem fio (WLANs) em um mesmo dispositivo. Esta
facilidade é utilizada, por exemplo, para fornecer acesso à rede conhecida como Guest, ou
seja, uma rede disponibilizada para visitantes ou parceiros poderem acessar a Internet com
segurança, sem precisar passar pela rede corporativa da empresa.
Agora vamos analisar os dois modos de Infraestrutura sem fio que podemos encontrar na
prática: BSS e ESS.
A Basic Service Area é um modo de operação onde os APs trabalham de forma independente
uns dos outros na rede ou temos apenas um AP isolado. Este tipo de arquitetura é a que
utilizamos em nossas residências ou pequenos escritórios.
Os APs seguem o mesmo conceito de célula da telefonia celular, pois cada AP tem uma área de
cobertura e a célula está delimitada pela região que o AP consegue dar cobertura de sinal aos
seus clientes. Esta área de cobertura é o BSS ou Grupo de Serviços Básico que o AP irá fornecer
aos seus clientes, sendo que a identificação da rede sem fio se dá através do identificador do
grupo de serviços, conhecido como SSID ou Service Set Identifier. Veja o detalhe na figura
anterior, onde o AP divulga sua rede com o SSID “DlteC”.
O padrão 802.11 não impõe nenhuma limitação ao número de terminais que podem estar
associados a um AP, porém esta limitação é normalmente baseada nos requisitos de taxa de
transmissão necessária para os clientes e por recomendações dos fabricantes. Por exemplo, APs
do fabricante Cisco conseguem suportar até 2048 endereços MAC em sua tabela de endereços
MAC, porém o fabricante não recomenda mais do que 50 usuários por AP para não afetar o
throughput da rede.
A BSS (rede com 1 AP ou APs isolados) tem apenas a capacidade de cobertura para pequenos
escritórios ou instalações pessoais, conforme estudamos anteriormente. Porém, o padrão
802.11 permite a criação de redes wireless de área estendida a partir do agrupamento de
várias BSSs em uma ESS (Extended Service Set – Grupo ou Conjunto de Serviço
Estendido).
As ESSs são criadas agrupando todas as BSSs utilizando uma rede backbone, sendo que todos
os AP na ESS tem configurado o mesmo SSID (Service Set Identifier), que funciona como o
nome da rede do ponto de vista dos clientes. Um detalhe é que essa tecnologia utilizada na
rede backbone não é especificada pelo padrão 802.11, o qual define apenas uma série de
serviços obrigatórios que a ESS deve fornecer a seus clientes.
A principal vantagem do uso do modo ESS em rede sem fio é a possibilidade do Roaming, ou
seja, trocar de célula (trocar de AP) sem perder a conexão de rede. Esse roaming é semelhante
ao de uma rede de telefonia celular, onde não há queda da chamada quando você passa de
uma célula para outra, pois senão não seria possível falar ao celular quando nos deslocamos de
carro ou ônibus. O roaming possibilita implementar recursos de “mobilidade” na WLAN com
ESS, permitindo que recursos como a telefonia IP sem fio seja possível.
Para a implementação do ESS a maioria dos fabricantes exige o uso de controladoras de redes
sem fio, chamadas de Wireless LAN Controllers ou simplesmente WLC (já estudadas
anteriormente).
Além do que já vimos, os APs podem operar com bridges, ou seja, apenas uma ponte entre
duas redes ou uma extensão para a rede cabeada, porém agora sem fio. Em modo bridge o AP
também pode funcionar como uma estação repetidora para aumentar o alcance de uma rede
sem fio.
Existem modelos de AP que podem também atuar como um link ponto a ponto em modo
bridge, bastando conectar uma antena correta para essa aplicação. Dessa forma, empresas
podem estender a comunicação entre suas edificações que está em linha de visada (que dá
para enxergar sem obstáculos) sem o uso de cabos metálicos ou fibras ópticas.
Como já estudamos anteriormente, em uma rede 802.3 podemos ter as interfaces físicas
metálicas e ópticas. Com pares metálicos os bits são transmitidos através de níveis de tensão,
por exemplo, +5V para o bit 1 e -5V para o bit zero. Já para uma transmissão óptica é ligando
e desligando o laser ou led que representamos os bits um e zero respectivamente. Mas e com
uma rede sem fio, como os bits são representados?
Vamos primeiro analisar o que é uma onda. Veja na figura ao lado que a onda eletromagnética
é um sinal que varia com o tempo e tem duas características básicas: Amplitude e Frequência.
Agora pode