Você está na página 1de 120

Curso de Redes de Computadores – Plataforma Windows

1º Conceitos básicos ............................................................................................................................. 2


Introdução a Redes ........................................................................................................................... 2
Porque redes? ............................................................................................................................... 2
Tipos de redes .............................................................................................................................. 3
Redes Ponto-A-Ponto ................................................................................................................... 3
Redes Cliente / Servidor .............................................................................................................. 5
Tipos de servidores .............................................................................................................................. 5
Classificações ............................................................................................................................... 8
Componentes de uma rede ........................................................................................................... 9
Transmissão de Dados ................................................................................................................. 9
Informação Analógica vs. Digital .............................................................................................. 11
Modulação .................................................................................................................................. 12
Números Binários ...................................................................................................................... 12
Transmissão em serie contra a paralela...................................................................................... 13
Protocolos....................................................................................................................................... 14
Conceitos Básicos ...................................................................................................................... 14
O modelo OSI ............................................................................................................................ 16
Camada 7 - Aplicação ................................................................................................................ 19
Camada 6 - Apresentação .......................................................................................................... 19
Camada 5 - Sessão ..................................................................................................................... 19
Camada 4 - Transporte ............................................................................................................... 19
Camada 3 – Rede ....................................................................................................................... 20
Camada 2 – Link de dados ......................................................................................................... 20
Camada 1 - Física ....................................................................................................................... 20
Padrão IEEE 802 ........................................................................................................................ 20
Controle de acesso ao meio (MAC) ........................................................................................... 22
Estrutura de um quadro MAC .................................................................................................... 22
Controle do link lógico (LLC) ................................................................................................... 23
Estrutura de um quadro LLC ..................................................................................................... 23
NDIS e ODI ............................................................................................................................... 23
TCP/IP ............................................................................................................................................ 25
Fundamentos .............................................................................................................................. 25
Camada de aplicação .................................................................................................................. 26
Camada de transporte ................................................................................................................. 27
Camada de Internet .................................................................................................................... 27
Camada de interface com a rede ................................................................................................ 28
Endereçamento IP ...................................................................................................................... 28
Máscara de rede ......................................................................................................................... 32
ARP – Address Resolution Protocol .......................................................................................... 33
RARP (Reverse Adrress Resolution Protocol) .......................................................................... 33
IP – Internet Protocol ................................................................................................................. 34
Fragmentação de Datagramas .................................................................................................... 35
ICMP (Internet Control Message Protocol) ............................................................................... 36
UDP – User Data Protocol ......................................................................................................... 37
Estrutura do datagrama UDP ..................................................................................................... 37
TCP – Transmission Control Protocol ....................................................................................... 38
Protocolos de aplicação .............................................................................................................. 42
IPX/SPX ......................................................................................................................................... 46
IPX – Internet Packet Exchange ................................................................................................ 47
SPX (Sequence Packet Exchange) ............................................................................................. 47
SAP (Service Advertisement Protocol)...................................................................................... 49
X.25 ................................................................................................................................................ 49
Curso de Redes de Computadores – Plataforma Windows

Fundamentos .............................................................................................................................. 49
Funcionamento do X.25 ............................................................................................................. 51
Nível de pacote........................................................................................................................... 51
Nível de Link (LAPB - Link Access Protocol Balanced ) ......................................................... 52
Nível Físico (x.21) ..................................................................................................................... 53
Frame Relay ................................................................................................................................... 54
Fundamentos .............................................................................................................................. 54
Funcionamento do Frame Relay ................................................................................................ 55
ATM ............................................................................................................................................... 55
Fundamentos .............................................................................................................................. 55
Funcionamento do ATM ............................................................................................................ 56
Transporte de Células................................................................................................................. 57
Camada de adaptação ................................................................................................................. 58
Camada Física ............................................................................................................................ 58
TCP/IP sobre ATM .................................................................................................................... 58
Outros Protocolos ........................................................................................................................... 60
Fundamentos .............................................................................................................................. 60
NetBEUI..................................................................................................................................... 60
AppleTalk................................................................................................................................... 61
PPP ............................................................................................................................................. 62
SNA............................................................................................................................................ 62
Cabeamento ........................................................................................................................................ 63
Cabo Coaxial .................................................................................................................................. 63
Fundamento ................................................................................................................................ 63
Ruído e Atenuação ..................................................................................................................... 64
Tipos de transmissão .................................................................................................................. 65
Tipos de cabo coaxial ................................................................................................................. 65
Trabalhando com Cabo Coaxial................................................................................................. 70
Par Trançado .................................................................................................................................. 75
Fundamentos .............................................................................................................................. 75
Topologia ................................................................................................................................... 76
Par Trançado sem Blindagem (UTP) ......................................................................................... 77
Pinagem ...................................................................................................................................... 77
1000BASET (GIGABIT ETHERNET) ..................................................................................... 79
Cross-Over ................................................................................................................................. 80
Montando cabo par trançado sem blindagem ............................................................................ 82
Par trançado com blindagem (STP) ........................................................................................... 84
Cabeamento estruturado ............................................................................................................. 84
Fibra Óptica.................................................................................................................................... 87
Fundamentos .............................................................................................................................. 87
Tipos........................................................................................................................................... 88
Largura de banda ........................................................................................................................ 88
Perda........................................................................................................................................... 88
Redes de fibra ópticas ................................................................................................................ 88
Conectores .................................................................................................................................. 90
Montando cabos de fibra óptica ................................................................................................. 91
Redes sem fio ................................................................................................................................. 91
Fundamentos .............................................................................................................................. 91
Rádio .......................................................................................................................................... 91
Infravermelho ............................................................................................................................. 95
LASER ....................................................................................................................................... 96
Arquitetura de redes locais ................................................................................................................. 96
Curso de Redes de Computadores – Plataforma Windows

Ethernet .......................................................................................................................................... 96
Fundamentos .............................................................................................................................. 96
Camada Física ............................................................................................................................ 99
Controle de Acesso ao Meio (MAC,IEEE 802.3) .................................................................... 103
Controle do Link Lógico (LLC,IEEE 802.2) ........................................................................... 104
Topologias ................................................................................................................................ 106
Token Ring ................................................................................................................................... 108
Fundamentos ............................................................................................................................ 108
Topologia ................................................................................................................................. 109
Camada Física .......................................................................................................................... 111
Controle de Acesso ao Meio (MAC, IEEE 802.5) ................................................................... 111
Controle de Link Lógico .......................................................................................................... 113
FDDI ............................................................................................................................................ 113
Fundamentos ............................................................................................................................ 113
Topologia ................................................................................................................................. 114
Camada Física .......................................................................................................................... 116
Controle de acesso ao meio (MAC) ......................................................................................... 117
Controle do Link Lógico (LLC, IEEE 802.2) .......................................................................... 118
Curso de Redes de Computadores – Plataforma Windows

1º CONCEITOS BÁSICOS

Introdução a Redes

Porque redes?
Hoje em dia boa parte das pequenas empresas já utilizam redes de dados para comunicação
local e remota, com as grandes corporações então, isso já está no dia dia, em cada departamento.
Com este espantoso crescimento das Redes, aprender como elas funcionam é muito importante.
Existe muito mercado para quem quer trabalhar nesta área, e os profissionais de Informática
precisam dos conhecimentos básicos sobre redes. Para os desenvolvedores de Internet conhecer o
funcionamento dos protocolos e transmissão, também é muito exigido.
O curso completo de redes foi desenvolvido de forma a instruir o aluno com todas as
informações necessárias para planejar e implantar o ambiente de rede na empresa. Os detalhes
contidos neste curso sobre como instalar, configurar e oferecer suporte a este novo ambiente irão
ajudá-lo a economizar muito tempo e assegurar que você aproveite ao máximo o seu investimento.
As redes de computadores surgiram da necessidade da troca de informações, onde é possível
ter acesso a um dado que está fisicamente localizado distante de você, e na maioria das vezes onde
os dados estão fisicamente armazenados não tem a menor importância. As redes não são uma
tecnologia que podemos chamar de nova. Elas existem desde a época dos primeiros computadores,
antes de os primeiros computadores pessoais (PCs) existirem. Entretanto, novas padronizações e
tecnologias permitiram que computadores pudessem se comunicar melhor a um custo menor.
Com a queda de custos a implementação de redes, é praticamente impossível pensar em um
ambiente de trabalho em que os micros existentes não estejam interligados, por menor que seja esse
ambiente. Mesmo em pequenos escritórios com apenas dois micros a necessidade de uma rede
torna-se evidente quando é necessário ficar levando disquetes de um micro a outro contendo
arquivos de trabalho, ainda mais se esses arquivos foram grandes e não couberem em um só
disquete, o que hoje em dia é cada vez mais comum.
Outra vantagem em se ter uma rede é o compartilhamento de periféricos, como uma
impressora ou um modem para acesso a Internet, podendo significar uma redução nos custos de
equipamentos.
Como pode ser observado na figura 1, os computadores B e C podem ler os arquivos
gravados no computador A, e todos podem usar a impressora que está disponível na rede.

Figura 1 – Motivo básico de uma rede: troca de arquivos e compartilhamento de periféricos

Quando falamos de trocas de dados, essa troca não é só de arquivos, mas de qualquer dado
do computador. Uma das aplicações bastante corriqueiras em uma rede é a criação de um correio
eletrônico que agiliza a comunicação entre os funcionários da empresa, mas devido principalmente
a integração da rede das empresas com a Internet, o correio eletrônico interno da empresa

2
Curso de Redes de Computadores – Plataforma Windows

normalmente também serve para receber e enviar e-mail para pessoas fora da empresa. Agendas de
compromissos, também vem se tornando uma ferramenta de destaque, onde reuniões e outros
compromissos podem ser agendados com um, alguns ou todos os funcionários da empresa.
Como pode ser observado, pessoas e empresas pensam em implementar uma rede
basicamente por dois motivos, tendo em vista o aumento de produtividade:
- Troca de dados (arquivos, e-mails, etc.).
- Compartilhamento de periféricos (impressoras, modens, unidades de CD-ROM, etc.).
Como pode ser visto na figura 2, os funcionários da empresa podem se comunicar através do
correio eletrônico e também com pessoa que estejam fora da empresa, através da Internet.

Figura 2 – Exemplos de correio eletrônico.

Tipos de redes

Do ponto de vista da maneira com que os dados de uma rede são compartilhados, existem
dois tipos básicos de redes: ponto-a-ponto e cliente / servidor. A rede ponto-a-ponto é usada em
redes pequenas, enquanto a cliente / servidor é largamente usada tanto em redes pequenas quanto
em redes grandes. Essa classificação independe da estrutura física usada pela rede, isto é, como a
rede está fisicamente montada, mas da maneira com que ela esta configurada em software.

Redes Ponto-A-Ponto

Esse é o tipo mais simples de redes que pode ser montada. Praticamente todos os sistemas
operacionais já vêm com suporte a rede ponto-a-ponto: Windows 9x, OS/2, etc. Os sistemas
operacionais desenvolvidos para o ambiente de redes, como o Windows NT, Windows 2000, Unix,
Linux, suportam redes ponto-a-ponto, alem de serem sistemas operacionais do tipo cliente /
servidor, como veremos adiante.
Na rede ponto-a-ponto os micros compartilham dados e periféricos sem muita “burocracia”.
Qualquer micro pode facilmente ler e escrever arquivos armazenados em outros micros da rede bem
como usar periféricos que estejam instalados em outros computadores, obviamente isso tudo
depende de configuração, que é feita em cada micro individualmente. Ou seja, não há o papel de um
micro “servidor” como nas redes cliente / servidor: qualquer um dos micros da rede pode ser um
servidor de dados e periféricos.

3
Curso de Redes de Computadores – Plataforma Windows

Figura 3 – Exemplo de uma rede ponto a ponto

A figura 3 mostra um escritório com três micros ligados em rede (rede ponto-a-pono). Em
um desses micros, há uma impressora instalada, para que todos os micros possam ter acesso a
impressora, basta o usuário daquele micro (José) configurar o seu compartilhamento.
O compartilhamento de arquivos, diretórios e unidades de disco são feitos de maneira
similar. Em ambos os compartilhamentos, tanto no de impressora como no de arquivos, uma senha
pode ser definida para limitar o acesso aos recursos compartilhados.
Ë importante lembrar que os micros presentes em uma rede ponto-a-ponto são micros
“completos”, isto é, são micros que funcionam normalmente quando não estão ligados em rede,
tanto no tocante a Hardware e a software.
Além disso, por não ser uma rede do tipo cliente / servidor, não é possível a utilização de
aplicações cliente / servidor, especialmente banco de dados. Por exemplo, não é possível em uma
rede ponto-a-ponto que os usuários compartilhem um mesmo arquivo ao mesmo tempo, adicionado
dados a um banco de dados, por exemplo. Apesar dos usuários poderem ler um arquivo ao mesmo
tempo, somente um usuário poderá modificar cada arquivo de dados por vez.
As redes ponto-a-ponto têm vantagens e desvantagens. A grande vantagem é a facilidade de
instalação e configuração, onde os próprios usuários podem configurar manualmente a que recursos
os demais usuários podem ter acesso em seu micro. Essa vantagem, entretanto traz algumas
desvantagens, a principal delas é a relação à segurança da rede.
Como não existe um servidor e todos os micros podem, em principio ler e escrever em
arquivos em qualquer unidades de disco existentes no ambiente de trabalho, pode ser que ocorra de
haver vários arquivos de dados com o mesmo nome (provavelmente com conteúdos diferentes) e
uma certa desorganização tomar conta do ambiente de trabalho. Uma solução simples para isso é
definir um dos micros para armazenar os arquivos de dados de todos os usuários da rede.
Como os micro de uma rede ponto-a-ponto geralmente estão em uma mesma área de
trabalho, a questão da segurança pode não incomodar tanto, mas se isso for um problema é
recomendado a instalação de uma rede cliente / servidor.
Redes ponto-a-ponto: Resumo
- Usada em redes pequenas, normalmente com até 10 micros;
- Baixo custo;
- Fácil implementação;
- Baixa segurança;
- Sistema simples de cabeamento;
- Todos os micros precisam necessariamente ser completos, isto é ter a capacidade de
funcionar normalmente sem estar ligado em rede;

4
Curso de Redes de Computadores – Plataforma Windows

- Micros geralmente estão instalados em um mesmo ambiente de trabalho;


- Não existe um administrador de rede, a rede é administrada por cada usuário;
- Não existem micros servidores, cada micro ora age como servidor, ora agem como
clientes acessando arquivos e recursos de outros computadores;
- A rede terá problemas para crescer de tamanho.

Redes Cliente / Servidor

Neste tipo de redes existe a figura de um servidor, normalmente um micro que gera recurso
para os demais micros da rede. O servidor é um micro especializado em um só tipo de tarefa, não
sendo usado para outra finalidade como o que ocorre nas redes ponto-a-ponto, onde um mesmo
micro que está compartilhando arquivos para o restante da rede, e esta sendo usado por seu usuário
para a edição de um gráfico, por exemplo. Isso torna a rede lenta, já que a maquina está utilizando o
seu processamento para a edição do gráfico, e por conseqüência o pedido de um arquivo pela rede
tem que esperar até o processador do micro estar livre para atendê-lo.
Com o servidor dedicado a uma só tarefa, ele consegue responder rapidamente aos pedidos
vindos dos demais micros da rede, não comprometendo o desempenho.
Em redes cliente/servidor pequenas, onde o desempenho não é um item tão importante, é
comum encontrar maquinas servidoras não-dedicadas, isto é micros servidores sendo usados
também como estações de trabalho ou então como servidores de mais de uma tarefa.
Além disso, um servidor nem sempre é um micro, existem diversas soluções no mercado
onde o servidor não é um microcomputador, mas sim um aparelho criado exclusivamente para
aquela tarefa.
Podemos citar como exemplo um servidor de comunicação que ao invés de ser um micro
com um modem instalado é um aparelho conectado a rede, com um modem embutido
desempenhando o mesmo papel, mas com a vantagem de ser mais seguro a falhas e mais barato.
Nas redes cliente/servidor, a administração e configuração da rede são centralizadas, o que
melhora a organização e a segurança da rede. Além disso, há a possibilidade de serem executados
programas cliente/servidor, como um banco de dados que pode ser manipulado por diversos
usuários ao mesmo tempo.

TIPOS DE SERVIDORES

Redes cliente/servidor se baseiam em servidores especializados em uma determinada tarefa.


Os tipos mais comuns de servidores são os seguintes:

 Servidor de arquivos: É um servidor responsável pelo armazenamento de arquivos, como


arquivos de textos, planilhas e gráficos, que necessitem ser compartilhados com os usuários
da rede. Note que o programa necessário para ler o arquivo é instalado e executado na
máquina do usuário (cliente) e não no servidor. Neste tipo de servidor não há o
processamento de informações; o servidor é responsável apenas por entregar o arquivo
solicitado, para então o arquivo ser processado no cliente.

5
Curso de Redes de Computadores – Plataforma Windows

Figura 4 – Servidor de arquivos

 Servidor de impressão: É um servidor responsável por processar os pedidos de impressão


solicitados pelos micros da rede e enviá-los para as impressoras disponíveis. Como os
diversos pedidos de impressão podem ser gerados ao mesmo tempo na rede, o servidor fica
responsável por enviar os dados para as impressoras corretas e na ordem de chegada, ou em
uma outra ordem, dependendo da configuração de prioridade.

Figura 5 – Servidor de impressão

 Servidor de aplicações: O servidor de aplicações é responsável por executar aplicações


cliente/servidor, como por exemplo, um banco de dados. Ao contrário do servidor de
arquivos, que somente armazena arquivos de dados e não os processa, o servidor de
aplicações executa as aplicações e processa os arquivos de dados. Por exemplo quando um
usuário faz uma consulta em um bando de dados cliente/servidor, essa consulta será
processada pelo servidor de aplicações que enviará o resultado ao micro cliente. Com isso é
possível que vários usuários acessem e manipulem ao mesmo tempo uma única aplicação,
fazendo com que os dados fiquem sincronizados.

6
Curso de Redes de Computadores – Plataforma Windows

Figura 6 – Servidor de aplicações

 Servidor de correio eletrônico: Responsável pelo processamento e pela entrega de


mensagens eletrônicas. Se for um e-mail destinado a uma pessoa fora da rede, este será
repassado ao servidor de comunicação.

Figura 7 – Servidor de correio eletrônico

 Servidor de fax: Permite que os usuários passem e recebam fax facilmente. Normalmente é
um micro dotado de uma placa de fax. Quando algum usuário que passar um fax, a
mensagem de fax é repassada ao servidor de fax que disca para o numero do fax desejado e
envia o documento.

Figura 8 – Servidor de fax

 Servidor de comunicação: Usado na comunicação entre a sua rede e outras redes, com a
Internet. Por exemplo, se você acessa a Internet através de uma linha telefônica
convencional, o servidor de comunicação pode ser um micro com uma placa de modem que
disca automaticamente para o provedor assim que alguém tenta acessar a Internet.

7
Curso de Redes de Computadores – Plataforma Windows

Figura 9 – Servidor de comunicação

Você poderá encontrar outros tipos de servidores dependendo da necessidade da rede, como
por exemplo, um servidor de backup, responsável por fazer backup dos dados do servidor de
arquivos e até mesmo de servidores redundantes, que são servidores que possuem os mesmo dados
de um servidor principal e, caso este apresente defeito, o servidor redundante entra imediatamente
em ação substituindo o servidor defeituoso.

Redes Cliente/Servidor: Resumo


- Usada normalmente em redes com mais de 10 micros ou redes pequenas que
necessitem de um alto grau de segurança;
- Custo maior do que as redes ponto-a-ponto;
- Maior desempenho do que redes ponto-a-ponto;
- Implementação necessita de especialistas;
- Alta segurança;
- A manutenção e configuração da rede são feitas de maneira centralizada, pelo
administrador da rede;
- Existência de servidores, que são micro ou equipamentos capazes de oferecer
recursos aos demais micros da rede, como impressão, armazenamento de arquivos e
envio de mensagens eletrônicas;
- Possibilidade de uso de aplicações cliente/servidor, como banco de dados.

Classificações

Uma rede pode ser classificada por inúmeros acrônimos (Palavra formada pela primeira letra
(ou mais de uma) de cada uma das partes sucessivas).

 LAN – Local Área Network – Rede local;


 MAN – Metropolitan Área Network – Redes metropolitanas
 WAN – Wide Área Network – Redes geograficamente distribuídas.

Outros termos comuns:

 Internet: Rede mundial de computadores;


 Intranet: Rede local que usa a mesma estrutura da Internet para o acesso a dados da rede.
 Extranet: Uma Intranet que permite acesso remoto, isto é, que pessoas tenham acesso a ela
através de um modem.

8
Curso de Redes de Computadores – Plataforma Windows

Componentes de uma rede

Uma rede local é um circuito para a conexão de computadores e envolve, pelo menos
computadores e cabos. A figura abaixo apresenta uma rede com seus componentes básicos, que são
encontrados na maioria das redes.

Figura 10 – Componentes básicos de uma rede

 Servidor: É um micro ou dispositivo capaz de oferecer um recurso para a rede. Em redes


ponto-a-ponto não há a figura do servidor, neste tipo de rede os micros ora funcionam como
servidores, ora como clientes.
 Cliente: É um micro ou dispositivo que acessa os recursos oferecidos pela rede.
 Recurso: Qualquer coisa que possa ser oferecida e usada pelos clientes da rede, como
impressoras, arquivos, unidades de disco, acesso a Internet, etc.
 Protocolo: Para que todos os dispositivos de uma rede possam entender, independente do
programa usado ou do fabricante dos componentes, eles precisam conversar usando uma
mesma linguagem. Essa é genericamente chamada de protocolo. Dessa forma os dados de
uma rede são trocados de acordo com um protocolo, como por exemplo, o famoso TCP/IP.
 Cabeamento: Os cabos da rede transmitem os dados que serão trocados entre os diversos
dispositivos que compõem a rede.
 Placa de rede: A placa de rede, também chamada NIC (Network Interface Card), permite
que PCs consigam ser conectados a rede, já que internamente os PCs usam um sistema de
comunicação totalmente diferente do utilizado em redes.
 Hardware de rede: Eventualmente poderá ser necessário o uso de periféricos para efetuar a
comunicação da rede. Na figura 1.10 utilizamos um hub, também chamado concentrador.
Switches e roteadores são apenas outros periféricos que você poderá eventualmente
encontrar.

Transmissão de Dados

Eletronicamente falando, existem três tipos de transmissão de dados:


 Simples: Neste tipo de transmissão de dados, exemplificado na figura 11, um dispositivo é o
transmissor (Tx) e outro dispositivo é o receptor (Rx), sendo que esse papel não se inverte,

9
Curso de Redes de Computadores – Plataforma Windows

isto é o dispositivo A é sempre o transmissor e o B é sempre o receptor. A transmissão de


dados simples é, portanto unidirecional.

Figura 11 – Transmissão de dados simples

 Half-duplex: Esse tipo de transmissão de dados é bidirecional mas, por compartilharem o


mesmo canal de comunicação, não é possível transmitir e receber dados ao mesmo tempo.
Como podemos observar na figura12, ou o dispositivo A transmite, ou então B transmite;
não há como os dois transmitirem dados simultaneamente. Tradicionalmente a comunicação
em redes é do tipo half-duplex.

Figura 12 – Transmissão de dados Half-duplex

 Full-duplex: É a verdadeira comunicação bidirecional, A e B podem transmitir e receber


dados ao mesmo tempo. Tradicionalmente em redes a comunicação full-duplex não é tão
usual, sendo recomendada para dispositivos que necessitem de alto desempenho, como
servidores de arquivo. Com a popularização das placas de rede que permitem esse tipo de
comunicação, está cada vez mais comum encontrarmos redes que só usam esse tipo de
comunicação, aumentando o desempenho da rede.

Figura 13 – Transmissão de dados Full-duplex

10
Curso de Redes de Computadores – Plataforma Windows

Informação Analógica vs. Digital

As informações analógicas podem representar qualquer valor, isto é uma grande vantagem e
também sua grande desvantagem, ou seja, como o receptor é também analógico e o sinal
analógico pode assumir qualquer valor ao longo do tempo, o receptor não tem como verificar se
o sinal recebido está correto ou não. Com isso, se houver qualquer ruído no caminho, como uma
interferência eletromagnética no cabo, e a informação for alterada, o receptor é obrigado a
aceitar a informação corrompida como sendo correta, pois ele não tem como verificar se a
informação está ou não correta. A figura 14 mostra esse problema.

Figura 14 – O problema de se usar informações analógicas

Como existem inúmeras fontes de interferência eletromagnética – incluindo ai outros fios que
estejam ao lado do fio que esteja transmitindo a informação, o uso de informações analógicas é
inviável em sistemas de computador.
Os computadores usam um sistema de informações digital, onde somente são possíveis dois
valores, 0 e 1. Apesar de só poder representar dois valores, ao contrário de sistemas analógico,
que pode representar infinitos valores, o receptor pode simplesmente descartar qualquer valor
diferente de 0 e de 1 que receba. Assim caso o dado seja corrompido no meio do caminho por
causa de um ruído qualquer, o receptor tem como recusar o seu recebimento caso ele seja um
valor diferente de 0 ou de 1. A figura 15 ilustra um sinal digital. Fisicamente falando o 0 e 1 são
tensões elétricas, tradicionalmente de 0 volt e 5 volts, respectivamente.

Figura 15 – Exemplo de um sinal digital

Na verdade os computadores só entendem números e, portanto, toda e qualquer informação


é transmitida pela rede em forma de números. Por exemplo, quando você manda um e-mail pela
rede, apesar de a mensagem conter caracteres e até mesmo fotos, essas informações são

11
Curso de Redes de Computadores – Plataforma Windows

transmitidas pelos cabos da rede em forma de números, em seqüência de 0 e 1. O computador


receptor pega esses números e o converte novamente na mensagem de e-mail, essa conversão é
feita pelo protocolo da rede.
Como os dados transmitidos são na realidade números, o dispositivo receptor pode
usar mecanismos de correção de erro para verificar se o dados está ou não corrompido.

Modulação

Esses números digitais, por sua vez, são transmitidos em formas de impulsos elétricos,
ópticos ou ondas de radio, dependendo do meio usado na conexão dos computadores (cabos
elétricos, fibras ópticas, transmissão via radio, etc.). Eventualmente os sinais digitais
manipulados pelo computador necessitam ser transformados em sinais analógicos para serem
transmitidos pelo meio de transmissão, como mostra a figura 16. Esse método é conhecido por
modulação de dados.
Ao contrario de uma transmissão analógica “pura”, essa transmissão analógica estará
enviando, através de sinais analógicos, dados que originalmente são digitais. Com isso o
receptor, após os dados terem sido demodulados, poderá verificar se os dados que acabou de
receber estão corrompidos, pedindo uma retransmissão caso eles tenham sido corrompidos no
caminho.

Figura 16 – Modulação de dados

A maioria dos usuários usa esse tipo de transmissão em seu computador, através de um
dispositivo chamado modem, que justamente significa Modulador / DEModulador, responsável
pela transmissão de dados digitais através da linha telefônica. Nas redes locais a modulação e a
demodulação é feita pela placa de rede.

Números Binários

Como vimos as informações digitais só podem assumir dois valores: 0 e 1. Esse tipo de
números é também chamado de número binário e cada algarismo binários é chamado bit
(contração de Binary digIT).
Como os números binários só possuem dois algarismos (0 e 1), sua representação é feita na
base 2.
1 bit = 0 ou 1
8 bits = byte = uma letra ou número
Assim, quando falamos “transmissão de um byte” equivale a dizer “transmissão de oito
bits”, isto é, a transmissão de uma seqüência de oitos zeros e uns. Veja o exemplo de
transmissão de um byte na figura 17.

12
Curso de Redes de Computadores – Plataforma Windows

Figura 17 – Transmissão paralela

Transmissão em serie contra a paralela.

Dentro do computador, o tipo de transmissão mais usual é chamada paralela. Neste tipo
de transmissão, o transmissor envia todos os bits de dados que ele é capaz de transmitir de uma
só vez para o receptor. Tanto o transmissor como o receptor tem de ser capazes de "falar" a uma
mesma quantidade de bits para que a transmissão possa ser feita. Ilustramos isso na Figura 17.
Neste exemplo, o transmissor e o receptor trabalham a oito bits por vez (comunicação paralela
de oito bits) e o transmissor está enviando o dado 10101110 ao receptor.
Fisicamente falando, e necessário um fio para transmitir cada bit de dados. Assim, na
transmissão paralela ilustrada na Figura 17, são necessários oito fios ligando o circuito
transmissor ao circuito receptor para que esse esquema funcione. Uma transmissão paralela de
32 bits necessitara de 32 fios, por exemplo.
Outra desvantagem da transmissão paralela e que normalmente esses fios ficarão lado a ]ado
e um fio poderá criar uma interferência eletromagnética no fio adjacente, corrompendo os dados.
Apesar de haver sistemas de correção de erros, a transmissão ficara mais lenta, já que há a
necessidade de o receptor pedir uma retransmissão de dados toda vez que os dados chegarem
corrompidos. Dessa forma, a transmissão paralela e altamente dependente do meio (sistema de fios)
usado. Alem disso, os fios têm de ser a curtos para evitar a degradação do sinal e também para
diminuir a incidência de erros na transmissão.
Um exemplo de uso da porta paralela é a comunicação entra a impressora e o micro, através
da porta paralela do computador. Os dispositivos externos ao micro que necessitem de cabos longos
- como o teclado, o mouse, a porta USB e, principalmente, as redes - usam um outro tipo de
comunicação chamada em serie (serial communications).
Na comunicação em serie, e necessário somente um fio para transmitir os dados. Os bits são
transmitidos um a um. Mostramos, na Figura 18, a transmissão do mesmo dado da Figura 17,
10101110, em serie.

Figura 18 – Transmissão em série

13
Curso de Redes de Computadores – Plataforma Windows

Apesar de lenta, a comunicação em serie tem como vantagem o limite de comprimento do cabo
ser maior e também a grande vantagem de somente usar um canal de transmissão (um fio).
É por esse motivo que as redes locais usam comunicação do tipo em serie.
A unidade de medida de velocidade de comunicação em serie e o bps (bits por segundo), que é o
numero de bits por segundo que o transmissor consegue enviar para o receptor.

Protocolos

Conceitos Básicos

Para que todos os dispositivos de uma rede consigam conversar entre si, todos eles deverão
estar usando uma mesma linguagem, isto e, um mesmo protocolo.
Uma rede pode usar diversos protocolos, como o TCP/IP, o NetBEUI e o SPX/IPX, entre
outros.
Embora cada um desses protocolos funcione de uma forma particular, eles tem algumas
similaridades, essas similaridades existem porque, na verdade, os protocolos surgiram com um
mesmo objetivo: transmitir dados através de uma rede.
Para entendermos melhor como os protocolos funcionam, considere as seguintes premissas:
 A maioria das transmissões de dados em redes locais e do tipo half-duplex.
 Tradicionalmente os computadores de uma rede compartilham um mesmo cabo e, com isso,
todos os computadores recebem uma mesma informação ao mesmo tempo. Mesmo em redes
que utilizem hubs, onde cada micro é conectado a rede usando um cabo individual, esse
componente na verdade funciona apenas como um repetidor, enviando para todas as
maquinas as informações que ele recebe, ao mesmo tempo. Observe a Figura 19. Se o
computador A quiser enviar um dado para o computador B, este dado também chegara ao
computador C.
 Se uma transmissão esta sendo feita entre dois dispositivos, nenhuma outra transmissão
poderá ser feita ao mesmo tempo, mesmo que seja entre dois dispositivos que não estejam
participando da transmissão em curso, já que o cabo já estará sendo usado. Como você pode
ver na Figura 20, o computador C não poderá enviar dados para nenhum outro micro da rede
enquanto o cabo estiver sendo usado, mesmo que seja um micro que não esteja participando
da comunicação atualmente em curso, por exemplo, um computador D.

FIGURA 19 – Enviando um dado em uma rede

14
Curso de Redes de Computadores – Plataforma Windows

FIGURA 20 – Nenhum computador pode transmitir dados enquanto o cabo esta sendo usado.

 Se um arquivo grande tiver de ser transmitido, os demais dispositivos da rede terão de


esperar muito tempo para começarem a transmitir (pois o arquivo é grande e demora algum
tempo para ser transmitido), já que o cabo já estará sendo usado.
 Poderão ocorrer interferências de algum tipo no meio do caminho e o dado pode não chegar
corretamente ao seu destino.

Os protocolos são justamente uma solução para todos esses problemas. Primeiro, o protocolo
pega os dados que devem ser transmitidos na rede e divide ele em pequenos pedaços de tamanho
fixo chamados pacotes ou quadros. Isso significa que um arquivo não é transmitido na rede de uma
só vez. Por exemplo, se um arquivo a ser transmitido possui 100 KB e o protocolo usado divide os
dados em pacotes de 1 KB, então esse arquivo será transmitido em 100 pacotes de 1 KB cada.
Dentro de cada pacote há uma informação de endereçamento que informa a origem e o destino
do pacote. Observe a Figura 19. Se o computador A está enviando um arquivo para o computador B
e todos os computadores da rede recebem essa informação ao mesmo tempo, como o computador B
sabe que o dado é para ele? Como os demais computadores da rede sabem que o dado não é para
eles? Justamente observando essa informação de endereçamento.
As placas de rede dos computadores possuem um endereço fixo, que é gravado em hardware.
Dessa forma, o computador de destino sabe que o pacote atualmente transitando no cabo da rede é
para ele, porque há o endereço de sua placa de rede no cabeçalho de destino do pacote. Da mesma
forma, os demais computadores sabem que aquele pacote não é para eles, já que não há o endereço
de nenhuma das placas de rede dos outros computadores no pacote.
O uso de pacotes de dados otimiza enormemente o uso da rede, já que, em vez de uma única
transmissão de um dado grande (um arquivo grande, por exemplo), existirão várias transmissões de
dados menores.
Dessa forma, é possível que vários dispositivos se comuniquem "ao mesmo tempo" em uma
rede. Fisicamente, essas transmissões não são efetuadas simultaneamente, mas intercalando os
vários pacotes de dados, como exemplificamos na Figura 21, onde mostramos o exemplo de dois
computadores, A e C, enviando um arquivo cada para o computador B. Ao longo do tempo, serão
intercalados no cabo pacotes vindos do computador A e do computador C. O computador receptor
se encarregará de "montar" os pacotes à medida em que eles vão chegando, o que é fácil, já que em
cada pacote há a informação do computador de origem.

15
Curso de Redes de Computadores – Plataforma Windows

Figura 21 – Transmissão simultânea de dois arquivos

Como você pode facilmente notar, a velocidade da transmissão de dados em uma rede é
altamente dependente do número de transmissões "simultâneas" que estão sendo efetuadas. Quanto
mais transmissões estiverem em curso ao mesmo tempo, mais lenta será a rede.
Dessa forma, há uma relação direta entre o número de máquinas instaladas em uma rede e o
seu desempenho. Teoricamente, quanto mais máquinas colocarmos na rede, mais lenta ela será, pois
maior será a probabilidade de mais de uma transmissão ser requerida por vez.
A placa de rede, ao colocar um pacote de dados no cabo da rede, faz uma conta chamada
checksum ou CRC (Cyclical Redundancy Check). Essa conta consiste em somar todos os bytes
presentes no pacote de dados e enviar o resultado dentro do próprio pacote. A placa de rede do
dispositivo receptor irá refazer essa conta e verificar se o resultado calculado corresponde ao valor
enviado pelo dispositivo transmissor. Se os valores forem iguais, significa que o pacote chegou
íntegro ao seu destino. Caso contrário, significa que houve algo de errado na transmissão (uma
interferência no cabo, por exemplo) e os dados recebidos são diferentes dos originalmente enviados,
ou seja, os dados chegaram corrompidos ao destino. Nesse caso, o dispositivo receptor pede ao
transmissor uma retransmissão do pacote defeituoso.
Essa é outra vantagem de se trabalhar com pequenos pacotes em vez de transmitir
diretamente o arquivo. Imagine ter de esperar receber o arquivo todo para só então verificar se ele
chegou em perfeito estado! Com o uso de pacotes, a verificação de erros é feita a cada pacote
recebido.

FIGURA 22 - Exemplo de um pacote de dados

O modelo OSI

Para facilitar a interconexão de sistemas de computadores, a ISO (International Standards


Organization) desenvolveu um modelo de referência chamado OSI (Open Systems
Interconnection), para que os fabricantes pudessem criar protocolos a partir desse modelo.
Interessante notar que a maioria dos protocolos existentes - como o TCP/IP, o IPX/SPX e o
NetBEUI - não segue esse modelo de referência ao pé da letra (esses protocolos só correspondem a
partes do padrão OSI).
O modelo de protocolos OSI é um modelo de sete camadas, apresentadas na Figura 23.

16
Curso de Redes de Computadores – Plataforma Windows

Na transmissão de um dado, cada camada pega as informações passadas pela camada


superior, acrescenta informações pelas quais ela seja responsável e passa os dados para a camada
imediatamente inferior, como mostra a Figura 24. Esse processo é conhecido como
encapsulamento. Na camada 4, Transporte, o dado enviado pelo aplicativo é dividido em pacotes.
Na camada 2, Link de Dados, o pacote é dividido em vários quadros. Na recepção de um dado, o
processo é o inverso.

Figura 23 – Modelo OSI de protocolos.

Um usuário que pede para o seu programa de e-mail baixar seus e-mails, na verdade está
fazendo com que o seu programa de e-mail inicie uma transmissão de dados com a camada 7 -
Aplicação - do protocolo usado, pedindo para baixar os e-mails do servidor de e-mails. Essa camada
processa esse pedido, acrescenta informações de sua competência, e passa os dados para a camada
imediatamente inferior, a camada 6 (Apresentação). Esse processo continua até a camada 1 (Física)
enviar o quadro de dados para o cabeamento da rede, quando, então, atingirá o dispositivo receptor,
que fará o processo inverso, até a sua aplicação-no nosso exemplo, um programa servidor de e-mail.

Figura 24 – Comunicação entre as camadas do modelo OSI.

17
Curso de Redes de Computadores – Plataforma Windows

Na prática acabamos simplificando e falando que uma determinada camada do transmissor


comunica-se diretamente com a mesma camada do dispositivo receptor. Por exemplo, a camada 4,
Transporte, do dispositivo transmissor comunica-se diretamente com a camada 4 do dispositivo
receptor e simplesmente ignoramos as comunicações efetuadas pelas camadas inferiores existentes.
Por exemplo, na prática simplesmente falamos que um programa cliente de e-mail está
requisitando dados de um programa servidor de e-mail, e não nos preocupamos muito como isto é
feito. O mesmo ocorre na comunicação virtual do modelo OSI. Quando analisamos a comunicação
de uma camada do transmissor com a mesma camada no receptor, normalmente não estamos nos
preocupando (ou não precisamos saber) como está ocorrendo a comunicação nas camadas inferiores
àquela estudada.
A maioria dos protocolos comerciais também trabalha com o conceito de camadas, porém
essas camadas não necessariamente possuem o mesmo nome e função das apresentadas no modelo
OSI. Muitas vezes, para cada uma dessas camadas há um protocolo envolvido. Dessa forma, muitos
protocolos são, na verdade, um conjunto de protocolos, cada um com papel específico em sua
estrutura de camadas.
As camadas do modelo OSI podem ser divididas em três grupos: aplicação, transporte e
rede, como você confere na Figura 25. As camadas de rede se preocupam com a transmissão e
recepção dos dados através da rede e, portanto, são camadas de baixo nível. A camada de transporte
é responsável por pegar os dados recebidos pela rede e repassá-los para as camadas de aplicação de
uma forma compreensível, isto é, ela pega os pacotes de dados e transforma-os em dados quase
prontos para serem usados pela aplicação. As camadas de aplicação, que são camadas de alto nível,
colocam o dado recebido em um padrão que seja compreensível pelo programa (aplicação) que fará
uso desse dado.

FIGURA 25 - Grupos das camadas do Modelo OSI

Um quadro é um conjunto de dados enviado através da rede, de forma mais "bruta" ou,
melhor dizendo, de mais baixo nível. Dentro de um quadro encontramos informações de
endereçamento físico, como, por exemplo, o endereço real de uma placa de rede. Logo, um quadro
está associado às camadas mais baixas (1 e 2) do modelo OSI.
Um pacote de dados se refere a um conjunto de dados manipulados nas camadas 3 e 4 do
modelo OSI. No pacote há informações de endereçamento virtual. Por exemplo, a camada 4 cria um
pacote de dados para ser enviado pela rede e a camada 2 divide esse pacote em vários quadros que
serão efetivamente enviados através do cabo da rede. Um pacote, portanto, contém a informação
proveniente de vários quadros.

18
Curso de Redes de Computadores – Plataforma Windows

Vamos da um exemplo, em uma rede usando o protocolo TCP/IP, a camada IP adiciona


informações de endereçamento de um pacote (número do endereço IP da máquina de destino), que é
um endereçamento virtual. Já a camada Controle de Acesso ao Meio (MAC) - que corresponde à
camada 2 do modelo OSI - transformará esse pacote em um ou mais quadros e esses quadros terão o
endereço da placa de rede de destino (endereço real, físico) que corresponda ao número IP
fornecido.

Camada 7 - Aplicação
A camada de aplicação faz a interface entre o protocolo de comunicação e o aplicativo que
pediu ou receberá a informação através da rede. Por exemplo, se você quiser baixar o seu email com
seu aplicativo de e-mail, ele entrará em contato com a camada de Aplicação do protocolo de rede
efetuando este pedido.

Camada 6 - Apresentação
A camada de Apresentação, também chamada camada de Tradução, converte o formato do
dado recebido pela camada de Aplicação em um formato comum a ser usado na transmissão desse
dado, ou seja, um formato entendido pelo protocolo usado. Pode ter outros usos, como compressão
de dados e criptografia.
A compressão de dados pega os dados recebidos da camada sete e os comprime e a camada
6 do dispositivo receptor fica responsável por descompactar esses dados. A transmissão dos dados
torna-se mais rápida, já que haverá menos dados a serem transmitidos: os dados recebidos da
camada 7 foram "encolhidos" e enviados à camada 5.
Para aumentar a segurança, pode-se usar algum esquema de criptografia neste nível, sendo
que os dados só serão decodificados na camada 6 do dispositivo receptor.

Camada 5 - Sessão
A camada de Sessão permite que duas aplicações em computadores diferentes estabeleçam
uma sessão de comunicação. Nesta sessão, essas aplicações definem como será feita a transmissão
de dados e coloca marcações nos dados que estão sendo transmitidos. Se porventura a rede falhar,
os computadores reiniciam a transmissão dos dados a partir da última marcação recebida pelo
computador receptor.

Camada 4 - Transporte
A camada de Transporte é responsável por pegar os dados enviados pela camada de Sessão e
dividi-los em pacotes que serão repassados para a camada de Rede. No receptor, a camada de
Transporte é responsável por pegar os pacotes recebidos da camada de Rede e remontar o dado
original para enviá-lo à camada de Sessão. Isso inclui controle de fluxo (colocar os pacotes
recebidos em ordem, caso eles tenham chegado fora de ordem) e correção de erros, tipicamente
enviando para o transmissor uma informação de reconhecimento (acknowledge), informando que o
pacote foi recebido com sucesso.
A camada de Transporte separa as camadas de nível de aplicação (camadas 5 a 7) das
camadas de nível físico (camadas de 1 a 3). Como você pode facilmente perceber, as camadas de 1
a 3 estão preocupadas com a maneira com que os dados serão transmitidos e recebidos pela rede,
mais especificamente com os quadros transmitidos pela rede. já as camadas de 5 a 7 estão
preocupadas com os dados contidos nos pacotes de dados, para serem enviados ou recebidos para a
aplicação responsável pelos dados. A camada 4, Transporte, faz a ligação entre esses dois grupos.

19
Curso de Redes de Computadores – Plataforma Windows

Camada 3 – Rede
A camada de Rede é responsável pelo endereçamento dos pacotes, convertendo endereços
lógicos em endereços físicos, de forma que os pacotes consigam chegar corretamente ao destino.
Essa camada também determina a rota que os pacotes irão seguir para atingir o destino, baseada em
fatores como condições de tráfego da rede e prioridades. Essa camada é usada quando a rede possui
mais de um segmento e, com isso, há mais de um caminho para um pacote de dados trafegar da
origem até o destino.

Camada 2 – Link de dados


A camada de Link de Dados (também chamada camada de Enlace) pega os pacotes de dados
recebidos da camada de Rede e os transforma em quadros que serão trafegados pela rede,
adicionando informações como o endereço da placa de rede de origem, o endereço da placa de rede
de destino, dados de controle, os dados em si e o CRC. A estrutura do pacote de dados criado por
essa camada nós já vimos na Figura 22.
O quadro criado pela camada Link de Dados é enviado para a camada Física, que converte
esse quadro em sinais elétricos para serem enviados através do cabo da rede.
Quando o receptor recebe um quadro, a sua camada Link de Dados confere se o dado
chegou íntegro, refazendo o CRC. Se os dados estão o.k., ele envia uma confirmação de
recebimento (chamada acknowledge ou simplesmente ack).

Camada 1 - Física
A camada Física pega os quadros enviados pela camada de Link de Dados e os transforma
em sinais compatíveis com o meio onde os dados deverão ser transmitidos. Se o meio for elétrico,
essa camada converte os zeros e uns dos quadros em sinais elétricos a serem transmitidos pelo cabo.
Se o meio for óptico (uma fibra óptica), essa camada converte os zeros e uns dos quadros em sinais
luminosos e assim por diante, dependendo do meio de transmissão de dados.
A camada Física especifica, portanto, a maneira com que os zeros e uns dos quadros serão
enviados para a rede (ou recebidos da rede, no caso da recepção de dados).
A camada Física não inclui o meio onde os dados circulam, isto é, o cabo da rede. O
máximo com que essa camada se preocupa é com o tipo de conector e o tipo de cabo usado para a
transmissão e recepção dos dados, de forma que os zeros e uns sejam convertidos corretamente no
tipo de sinal requerido pelo cabo, mas o cabo em si não é responsabilidade dessa camada.

Padrão IEEE 802

O IEEE (Institute of Electrical and Electronic Engineers) criou uma série de padrões de
protocolos. O mais importante foi a série 802, que é largamente usada e é um conjunto de
protocolos usados no acesso à rede. Como você pode ver na Figura 26, os protocolos IEEE 802
possuem três camadas, que equivalem às camadas 1 e 2 do modelo OSI. A camada 2 do modelo
OSI no modelo IEEE 802 é dividida em duas: Controle do Link Lógico (LLC, Logic Link Control)
e Controle de Acesso ao Meio (MAC, Media Access Control).
Como a maioria das redes usa o padrão IEEE 802 para acessar a rede (isto é, o cabeamento),
podemos dizer que o modelo de protocolo é o mostrado na Figura 27. As camadas 3 a 7 do modelo
OSI serão preenchidas de acordo com os protocolos usados pela rede, que poderão equivaler a uma
ou mais dessas camadas.

20
Curso de Redes de Computadores – Plataforma Windows

FIGURA 26 – Camadas dos protocolos IEEE 802

FIGURA 27 – Camadas dos protocolos IEEE 802

Existem vários padrões IEEE 802, como IEEE 802.2, IEEE 802.3, etc. O padrão IEEE 802.2
especifica o funcionamento da camada de Controle do Link Lógico (LLC). Os demais padrões
IEEE operam na camada de Controle de Acesso ao Meio (MAC) e na camada física.
Comparando mais uma vez o padrão IEEE 802 com o modelo OSI, o padrão IEEE 802.2
equivale a parte da camada 2 (Link de Dados), enquanto que padrões como o 802.3, 802.4 e 802.5
equivalem a parte da camada 2 (Link de Dados) e à camada 1 (Física).
IEEE 802.3 (Ethernet): Usa o conceito de detecção de colisão, chamado CSMA/CD
(Carrier Sense, Multiple Acesss with Collision Detection), onde todos os computadores da rede
compartilham um mesmo cabo. Os computadores só podem enviar dados para a rede quando o cabo
está livre. Caso dois computadores tentem enviar um dado ao mesmo tempo na rede, há uma colisão
e as placas de rede esperam um período de tempo aleatório e tentam reenviar o pacote para o cabo
de rede.
IEEE 802.5 (Token Ring): Usado em redes com topologia em anel. Um pacote especial,
chamado token (ficha) circula no anel passando de micro em micro. Somente o computador que
detenha o token pode enviar dados, gravando o seu pacote de dados dentro do token. A ficha circula
no anel até atingir o destino do dado, quando então será descarregada, ficando livre para receber um
novo dado. Esse padrão de transmissão de dados não é tão comum como o Ethernet.
O padrão Ethernet (IEEE 802.3) é o protocolo mais comum para a transmissão de dados na
rede. Em geral, quando usamos o termo protocolo de rede normalmente estamos nos referindo a
protocolos que trabalham nas camadas 3 e 4 do modelo OSI, como o TCP/ IP, o IPS/SPX e o
NetBEUI. O Ethernet e o Token Ring são protocolos que trabalham nas camadas 1 e 2.
A camada física pega os quadros enviados pela camada de Controle de Acesso ao Meio e os
envia para o meio físico (cabeamento). A camada física do padrão IEEE 802 define também o tipo
de topologia usado pela rede e o tipo de conector usado pela placa de rede e, conseqüentemente, o
tipo de cabo que será usado.

21
Curso de Redes de Computadores – Plataforma Windows

Controle de acesso ao meio (MAC)

O controle de acesso ao meio define, entre outras coisas, o uso de um endereço MAC em
cada placa de rede. Cada placa de rede existente em um dispositivo conectado à rede possui um
endereço MAC único, que é gravado em hardware e teoricamente não há como ser alterado (isto é,
a placa de rede vem de fábrica com esse endereço gravado). Esse endereço utiliza seis bytes, como,
por exemplo, 02608C428197.
O IEEE padronizou os endereços MAC na forma mostrada na Figura 28. Os três primeiros
bytes são o endereço OUI (Organizationally Unique Identifier), que indicam o fabricante da placa
de rede. Os três últimos bytes são controlados pela fabricante da placa de rede, e cada placa de rede
produzida por cada fabricante recebe um número diferente. Assim, o fabricante que quiser produzir
uma placa de rede deverá se cadastrar no IEEE para ganhar o seu número OUI. Cada fabricante é
responsável por controlar a numeração MAC das placas de rede que produz.
Um mesmo fabricante pode ter mais de um endereço OUI, evitando, assim, o problema de
ter produzido mais placas do que o número de endereços que possui disponível para numerar as
suas placas.

FIGURA 28 – Estrutura do endereço MAC

No quadro enviado à rede, a camada de Controle de Acesso ao Meio irá incluir o endereço
MAC de origem e de destino. A placa de rede contendo o endereço de destino irá capturar o quadro,
enquanto as demais placas de rede não entrarão em ação naquele momento.
Outra função da camada de Controle de Acesso ao Meio é justamente controlar o uso do
cabo. Ela verifica se o cabo está ou não ocupado. Se o cabo estiver ocupado, o quadro não é
enviado. Caso o quadro seja enviado ao mesmo tempo em que outra máquina, há uma colisão, que é
detectada pelas camadas de Controle de Acesso ao Meio das máquinas envolvidas com a colisão.
Essa camada espera o cabo ficar livre para tentar uma retransmissão, esperando um período
aleatório de tempo, para que não ocorra uma nova colisão.

Estrutura de um quadro MAC

Como o padrão IEEE 802.3 (Ethernet) é o mais usado por redes locais, estudaremos a
estrutura de seu quadro. Esse quadro é passado para a camada Física (através do driver da placa de
rede), para ser enviado para o cabeamento da rede. Os dados presentes no quadro são fornecidos
pela camada Controle do Link Lógico (LLC), que estudaremos a seguir.

FIGURA 29 – Formato de um quadro MAC Ethernet (IEEE 802.3)

Neste quadro há as seguintes informações:

Preâmbulo: Marca o início do quadro. São sete bytes 10101010. Junto com o SFD forma
um padrão de sincronismo, isto é, ao encontrar sete bytes 10101010 e um byte 10101011, o
dispositivo receptor sabe estar diante do início de um quadro.

22
Curso de Redes de Computadores – Plataforma Windows

SFD (Start of Frame Delimiter): É um byte 10101011.


Endereço MAC de destino: Neste campo é incluído o endereço MAC da placa de rede de
destino, que possui seis bytes.
Endereço MAC de origem: Neste campo é informado o endereço MAC da placa de rede
que está gerando o quadro. É um número de seis bytes.
Comprimento: Indica quantos bytes estão sendo transferidos no campo de dados do quadro.
Dados: São os dados enviados pela camada de Controle de Link Lógico (LLC). Esse campo
possui um comprimento mínimo de 46 bytes e máximo de 1.500 bytes.
Pad: Se a camada LLC enviar menos do que 46 bytes de dados para a camada MAC, então
são inseridos dados chamados pad para que o campo de dados atinja o seu tamanho mínimo de 46
bytes.
FCS (Frame Check Sequence): Contém informações para o controle de correção de erros
(CRC) que, como foi visto, é o resultado de uma soma efetuada com os dados presente no campo de
dados do quadro. Usa 4 bytes.
Como o campo de dados do quadro usado em redes Ethernet é variável (pode ter entre 46 e
1.500 bytes), o tamanho do quadro Ethernet é variável. O tamanho mínimo de um quadro Ethernet é
de 72 bytes e o tamanho máximo, 1.526 bytes.

Controle do link lógico (LLC)

A camada de Controle do Link Lógico, que é regida pelo padrão IEEE 802.2, permite que
mais de um protocolo seja usado acima dela (protocolos de camada 3, Rede, no modelo OSI). Para
isso, essa camada define pontos de comunicação entre o transmissor e o receptor chamados SAP
(Service Access Point, Ponto de Acesso a Serviços).
Dessa forma, o papel da camada de Controle do Link Lógico é adicionar, ao dado recebido,
informações de quem enviou esta informação (o protocolo responsável por ter passado essa
informação) para que, no receptor, a camada de Controle do Link Lógico consiga entregar a
informação ao protocolo de destino, que conseguirá ler a informação corretamente.
Dessa forma, a camada Controle do Link Lógico serve para endereçar o quadro de dados a
um determinado protocolo da camada 3 do modelo OSI no computador de destino, permitindo que
exista mais de um protocolo desta camada nos computadores da rede.

Estrutura de um quadro LLC

Como vimos, esta camada passa para a camada inferior, Controle de Acesso ao Meio, um
dado que pode ter entre 46 e 1.500 bytes. Desses bytes de dados, oito são usados para armazenar
informações de controle inseridas por esta camada, sendo que os dados são passados da camada
superior (camada de Rede, no modelo OSI). Esses dados adicionados são justamente o
endereçamento SAP de origem e de destino, que, como vimos, significa o protocolo usado na
conexão.
Originalmente, o quadro LLC adicionava apenas três bytes de controle aos dados recebidos
da camada superior (SAP de origem, SAP de destino e controle). Teoricamente, cada protocolo que
operasse na camada 3 do modelo OSI (Rede) teria de ter o seu próprio número SAP, para que tanto
o transmissor quanto o receptor soubessem qual é o protocolo envolvido na comunicação.

NDIS e ODI

Criado pela Microsoft e pela 3Com, o NDIS (Network Driver Interface Specification) é um
driver instalado no sistema operacional que permite que uma única placa de rede possa utilizar mais
de um protocolo de rede ao mesmo tempo.

23
Curso de Redes de Computadores – Plataforma Windows

FIGURA 30 – Funcionamento do NDIS

Quando um quadro é recebido pelo driver da placa de rede, ele o passa para a camada
vector, que o envia para o primeiro protocolo, que poderá aceitar ou rejeitar o pacote. Caso o
primeiro protocolo rejeite o quadro, a camada vector entrega o quadro ao segundo protocolo. Esse
processo continua até que um dos protocolos instalados aceite o quadro ou então todos o tenham
rejeitado.
Outra finalidade da especificação NDIS é possibilitar a existência de mais de uma placa de
rede em um mesmo micro. Muitas vezes esse procedimento é necessário para ligar um mesmo
computador a dois segmentos de rede diferentes. No caso de termos mais de uma placa de rede
instalada no micro.
Em princípio, sem o NDIS, se você tivesse duas placas de rede em um micro, você teria de
ter duas pilhas de protocolos completas, uma para cada placa de rede (isto é, se fôssemos seguir o
modelo OSI, teríamos protocolos completos com sete camadas para cada placa de rede instalada).
Com o NDIS, você pode compartilhar uma única pilha de protocolos (isto é, tudo aquilo que estiver
da camada 3 do modelo OSI para cima) com todas as placas de rede instaladas.
O ODI (Open Datalink Interface) é um driver com o mesmo objetivo que o NDIS, criado
pela Novell e pela Apple para os seus sistemas operacionais, só que com um funcionamento um
pouco mais complexo. A grande diferença entre o ODI e o NDIS é o uso da camada Controle do
Link Lógico (LLC) do padrão IEEE (IEEE 802.2), que não é usada no NDIS (no NDIS há a camada
vector, que possui funcionamento similar, porém funciona de maneira diferente). No modelo ODI,
essa camada é chamada Camada de Suporte ao Link (Link Support Layer), como você pode ver na
Figura 31.

24
Curso de Redes de Computadores – Plataforma Windows

FIGURA 31 – Funcionamento da ODI

Neste modelo são adicionadas duas interfaces, uma chamada Interface para Múltiplos
Protocolos (MPI, Multiple Protocol Interface), que faz a interface entre a Camada de Suporte ao
Link e os protocolos instalados, e outra chamada Interface para Múltiplos Links (MLI, Multiple
Link Interface), que faz a interface entre a Camada de Suporte ao Link e os drivers das placas de
rede instaladas. Os drivers da placa de rede compatíveis com o padrão ODI são chamados MLID ou
Multiple Link Interface Driver.
A principal diferença entre o NDIS e o ODI é que, como a camada Controle do Link Lógico
(ou Camada de Suporte ao Link, como é chamada no padrão ODI) possui um campo de
endereçamento de protocolos, tanto o transmissor quanto o receptor sabem qual é o protocolo que
está sendo usado no dado que foi encapsulado dentro do quadro.
Com isso, ao receber um quadro, a interface de múltiplos protocolos (MPI) entrega
diretamente os dados para o protocolo responsável. No NDIS, quando um quadro chega, a camada
vector tenta "empurrar" o quadro para cada um dos protocolos instalados, até um deles aceitar (ou
todos rejeitarem), já que não há o campo do endereçamento.

TCP/IP

Fundamentos

O protocolo TCP/IP atualmente é o protocolo mais usado em redes locais. Isso se deve
basicamente à popularização da Internet, a rede mundial de computadores, já que esse protocolo foi
criado para ser usado na Internet. Mesmo os sistemas operacionais de redes, que no passado só
utilizavam o seu protocolo proprietário (como o Windows NT com o seu NetBEUI e o Netware
com o seu IPX/SPX), hoje suportam o protocolo TCP/IP.
Uma das grandes vantagens do TCP/IP em relação a outros protocolos existentes é que ele é
roteável, isto é, foi criado pensando em redes grandes e de longa distância, onde pode haver vários
caminhos para o dado atingir o computador receptor.

25
Curso de Redes de Computadores – Plataforma Windows

Outro fato que tornou o TCP/IP popular é que ele possui arquitetura aberta e qualquer
fabricante pode adotar a sua própria versão do TCP/IP em seu sistema operacional, sem a
necessidade de pagamento de direitos autorais a ninguém. Com isso, todos os fabricantes de
sistemas operacionais acabaram adotando o TCP/IP, transformando-o em um protocolo universal,
possibilitando que todos os sistemas possam comunicar-se entre si sem dificuldade.
A arquitetura do TCP/IP é mostrada na Figura 32. Como você pode observar, ele é um
protocolo de quatro camadas. Nesta figura fazemos a correlação das camadas do TCP/IP com as
camadas do modelo OSI.

FIGURA 32 – Arquitetura do TCP/IP

O TCP/IP é, na realidade, um conjunto de protocolos. Os mais conhecidos dão justamente o


nome desse conjunto: TCP (Transmission Control Protocol, Protocolo de Controle da Transmissão)
e IP (Internet Protocol), que operam nas camadas Transporte e Internet, respectivamente. Mas eles
não são os únicos.

Camada de aplicação

Esta camada equivale às camadas 5, 6 e 7 do modelo OSI e faz a comunicação entre os


aplicativos e o protocolo de transporte. Existem vários protocolos que operam na camada de
aplicação. Os mais conhecidos são o HTTP (HyperText Transfer Protocol), SMTP (Simple Mail
Transfer Protocol), o FTP (File Transfer Protocol), o SNMP (Simple Network Management
Protocol), o DNS (Domain Name System) e o Telnet.
Dessa forma, quando um programa cliente de e-mail quer baixar os e-mails que estão
armazenados no servidor de e-mail, ele irá efetuar esse pedido para a camada de aplicação do
TCP/IP, sendo atendido pelo protocolo SMTP Quando você entra um endereço www em seu
browser para visualizar uma página na Internet, o seu browser irá comunicar-se com a camada de
aplicação do TCP/IP, sendo atendido pelo protocolo HTTP E assim por diante.
A camada de aplicação comunica-se com a camada de transporte através de uma porta. As
portas são numeradas e as aplicações padrão usam sempre uma mesma porta. Por exemplo, o
protocolo SMTP utiliza sempre a porta 25, o protocolo HTTP utiliza sempre a porta 80 e o FTP as
portas 20 (para a transmissão de dados) e 21 (para transmissão de informações de controle).
O uso de um número de porta permite ao protocolo de transporte (tipicamente o TCP) saber
qual é o tipo de conteúdo do pacote de dados (por exemplo, saber que o dado que ele está

26
Curso de Redes de Computadores – Plataforma Windows

transportando é um e-mail) e, no receptor, saber para qual protocolo de aplicação ele deverá
entregar o pacote de dados, já que, como estamos vendo, existem inúmeros. Assim, ao receber um
pacote destinado à porta 25, o protocolo TCP irá entregá-lo ao protocolo que estiver conectado a
esta porta, tipicamente o SMTP, que por sua vez entregará o dado à aplicação que o solicitou (o
programa de e-mail).

FIGURA 33 – Funcionamento da camada de aplicação do TCP/IP

Camada de transporte

A camada de transporte do TCP/IP é um equivalente direto da camada de transporte (camada


4) do modelo OSI. Esta camada é responsável por pegar os dados enviados pela camada de
aplicação e transformá-los em pacotes, a serem repassados para a camada de Internet.
No modelo TCP/IP a camada de transporte utiliza um esquema de multiplexação, onde é
possível transmitir "simultaneamente" dados das mais diferentes aplicações. Na verdade, ocorre o
conceito de intercalamento de pacotes; vários programas poderão estar comunicando-se com a rede
ao mesmo tempo, mas os pacotes gerados serão enviados à rede de forma intercalada, não sendo
preciso terminar um tipo de aplicação de rede para então começar outra. Isso é possível graças ao
uso do conceito de portas. Ou seja, em uma mesma seqüência de pacotes recebidos pelo micro
receptor, as informações podem não ser da mesma aplicação. Ao receber três pacotes, por exemplo,
o primeiro pode ser de e-mail, o segundo de www e o terceiro, de FTP.
Nesta camada operam dois protocolos: o já falado TCP (Transmission Control Protocol) e o
UDP (User Datagram Protocol). Ao contrário do TCP, este segundo protocolo não verifica se o
dado chegou ou não ao destino. Por esse motivo, o protocolo mais usado na transmissão de dados é
o TCP, enquanto que o UDP é tipicamente usado na transmissão de informações de controle.
Na recepção de dados, a camada de transporte pega os pacotes passados pela camada
Internet e trata de colocá-los em ordem e verificar se todos chegaram corretamente.

Camada de Internet

A camada de Internet do modelo TCP/IP é equivalente à camada 3 (Rede) do modelo OSI.


Há vários protocolos que podem operar nessa camada: IP (Internet Protocol), ICMP
(Internet Control Message Protocol), ARP (Address Resolution Protocol) e RARP (Reverse
Address Resolution Protocol).
Na transmissão de um dado de programa, o pacote de dados recebido da camada TCP é
dividido em pacotes chamados datagramas. Os datagramas são enviados para a camada de interface
com a rede, onde são transmitidos pelo cabeamento da rede através de quadros. Esta camada não
verifica se os datagramas chegaram ao destino, isto é feito pelo TCP.
Esta camada é responsável pelo roteamento de pacotes, isto é, adiciona ao datagrama
informações sobre o caminho que ele deverá percorrer.

27
Curso de Redes de Computadores – Plataforma Windows

Camada de interface com a rede

Esta camada, que é equivalente às camadas 1 e 2 do modelo OSI, é responsável por enviar o
datagrama recebido pela camada de Internet em forma de um quadro através da rede.. A Figura 34
mostra o esquema completo de um computador operando com o protocolo TCP/IP.

FIGURA 34 – Funcionamento do TCP/IP

Endereçamento IP

Como foi dito anteriormente, o protocolo TCP/IP é roteável, isto é, ele foi criado pensando-
se na interligação de diversas redes - onde podemos ter diversos caminhos interligando o
transmissor e o receptor, culminando na rede mundial que hoje conhecemos por Internet. Por isso,
ele utiliza um esquema de endereçamento lógico chamado endereçamento IP. Em uma rede TCP/IP
cada dispositivo conectado em rede necessita usar pelo menos um endereço IP. Esse endereço
permite identificar o dispositivo e a rede na qual ele pertence.
Vamos pegar o exemplo da Figura 35, onde temos três redes interligadas. As redes são
interligadas através de dispositivos chamados roteadores. Quando um computador da rede 1 quer
enviar um dado para um computador da rede 2, ele envia o pacote de dados ao roteador 1, que fica
responsável por encaminhar esse pacote ao computador de destino. No caso de um computador da
rede 1 querer enviar um pacote de dados para um computador da rede 3, ele envia o pacote ao
roteador 1, que então repassará esse pacote diretamente ao roteador 2, que então se encarregará de
entregar esse pacote ao computador de destino na rede 3.

28
Curso de Redes de Computadores – Plataforma Windows

FIGURA 35 – Interligação entre redes

Esse esquema de entrega de pacotes é feito facilmente pelo roteador porque os pacotes de
dados possuem o endereço IP do computador de destino. Nesse endereço IP há a informação de
qual a rede onde o pacote deve ser entregue. Por esse motivo, quando o computador da rede 1 quer
falar com o computador da rede 3, o roteador 1 sabe que aquele pacote de dados não é para a rede 2,
pois no endereço IP de destino há a informação de que o pacote deve ser entregue à rede 3. Então o
roteador 1 envia o pacote diretamente ao roteador 2, sem perder tempo tentando entregá-lo a todos
os computadores existentes na rede 2 para então verificar que o pacote não era para aquela rede
(isto é, ficar esperando que todos os computadores recusem o pacote para então tentar entregá-lo
para a próxima rede existente).
É assim que as redes baseadas no protocolo TCP/IP funcionam. Elas têm um ponto de saída
da rede, também chamado gateway, que é para onde vão todos os pacotes de dados recebidos e que
não são para aquela rede. As redes subseqüentes vão, por sua vez, enviando o pacote aos seus
gateways até que o pacote atinja a rede de destino.
Isso é possível porque o endereço IP possui basicamente duas partes: uma que indica a rede
e outra que indica o dispositivo (um computador, por exemplo).
O endereço IP é um número de 32 bits, representado em decimal em forma de quatro
números de oito bits separados por um ponto, no formato a.b.c.d. Assim, o menor endereço IP
possível é 0.0.0.0 e o maior, 255.255.255.255.
Com isso, teoricamente uma rede TCP/IP pode ter até 4.294.967.296 endereços IP (256 4).
Como está quantidade está prestes a ser alcançada, já foi padronizado o endereçamento IP
usando 128 bits em vez de 32 bits. Esse endereçamento, que ainda não está comercialmente em uso,
é chamado IPv6, IP Next Generation (IPng) ou Simple Internet Protocol Plus (SIPP). Com 128 bits
é possível endereçarmos 340.282.366.920.938.463.463.3 74.607.431.770.000.000 dispositivos
diferentes.
Cada dispositivo de uma rede TCP/IP precisa ter um endereço IP único, para que o pacote de
dados consiga ser entregue corretamente. Por isso, você não pode simplesmente usar em sua rede
qualquer endereço IP que você quiser. Você terá de obrigatoriamente usar endereços que não
estejam sendo usados por nenhum outro computador da rede.
Para facilitar a distribuição dos endereços IP, foram especificadas cinco classes de endereços
IP, como mostra a figura abaixo.

FIGURA 36 – Classes de endereçamento IP

29
Curso de Redes de Computadores – Plataforma Windows

Como você pode reparar, há alguns bits fixos no início de cada classe de endereço IP. Isso
faz com que cada classe de endereços IP seja dividida conforme mostra a tabela a seguir.

Classe Endereço mais baixo Endereço mais alto


A 1.0.0.0 126.0.0.0
B 128.1.0.0 191.255.0.0
C 192.0.1.0 223.255.255.0
D 224.0.0.0 239.255.255.255
E 240.0.0.0 255.255.255.254

Em redes usamos somente os endereços IP das classes A, B e C.


- Classe A: O primeiro número identifica a rede, os demais três números indicam a máquina.
Cada endereço classe A consegue endereçar até 16.777.216 máquinas.
- Classe B: Os dois primeiros números identificam a rede, os dois demais indicam a
máquina. Esse tipo de endereço consegue endereçar até 65.536 máquinas.
- Classe C: Os três primeiros números identificam a rede, o último número indica a máquina.
Com isso, consegue endereçar até 256 máquinas.
Para que você entenda melhor essa classificação, vamos explicar primeiro os endereços de
classe C. Nesse tipo de endereço IP, os três primeiros números indicam a rede e o último número
indica a máquina. Se você for usar um endereço IP classe C em sua rede, você poderá ter, pelo
menos teoricamente, até 256 dispositivos conectados em sua rede (de 0 a 255). Na verdade, você
poderá ter até 254 dispositivos, já que os endereços 0 e 255 são reservados, como veremos adiante.
Se você precisar de mais endereços IP, você precisará ter acesso a mais um endereço classe C, ou
mesmo pleitear um endereço classe B, caso sua rede seja realmente muito grande.
O sistema de redes que forma a estrutura básica da Internet é chamado backbone. Para que a
sua rede esteja conectada à Internet, ela terá de estar conectada ao backbone de alguma forma, seja
diretamente, seja indiretamente, através de uma outra rede que esteja conectada ao backbone. Por
exemplo, no Brasil, um dos backbones existentes é o da Embratel. Dessa forma, se você quiser que
sua rede esteja conectada à Internet, ela deverá estar conectada diretamente à rede da Embratel ou
indiretamente, conectando a sua rede a uma outra rede que possua essa conexão.
A Internet possui uma estrutura hierárquica. O responsável pelo backbone é o responsável
pelo controle e fornecimento de números IPs a seus subordinados; por sua vez os números IPs que o
responsável pelo backbone pode ceder a seus subordinados foi estabelecido pelo backbone
hierarquicamente superior ao backbone em questão.
Existem alguns endereços que são conhecidos como "endereços mágicos", que são
endereços IPs reservados para redes privadas. Assim, você pode montar a sua rede TCP/ IP baseada
nesses endereços que não gerará conflito com os endereços IP da Internet, pois os roteadores da
Internet reconhecem esses endereços como sendo de uma rede particular.

Esses endereços especiais (reservados para redes privadas) são os seguintes:


Classe A: 10.0.0.0 a 10.255.255.255
Classe B: 172.16.0.0 a 172.31.255.255
Classe C: 192.168.0.0 a 192.168.255.255

A Figura 37 mostra o exemplo de uma rede TCP/IP com cinco computadores usando esse
endereçamento. Como você pode ver, cada máquina possuirá o seu próprio endereço IP.

30
Curso de Redes de Computadores – Plataforma Windows

FIGURA 37 – Exemplo de uma rede TCP/IP

O endereço 0 indica "rede". Assim, o endereço 192.168.0.0 indica a rede que usa endereços
que comecem por 192.168.0. Como esse endereço é classe C, somente o último byte é usado para
endereçar as máquinas presentes na rede, por isso os três primeiros números são fixos e só o último
varia. Já o endereço 10.0.0.0, por ser da classe A, indica a rede que usa endereços que comecem por
10, pois no endereçamento classe A somente o primeiro byte indica a rede, os três bytes seguintes
são usados para o endereçamento das máquinas presentes na rede.
Já o endereço 255 é reservado para broadcast, o ato de enviar um mesmo pacote de dados
para mais de uma máquina ao mesmo tempo. Um pacote de dados de broadcast é recebido por todas
as máquinas da rede.
Para fazer a ligação da rede apresentada na Figura 37 com a Internet, há duas soluções. A
primeira é simplesmente conseguir um endereço classe C público para a rede e reconfigurar todas as
máquinas usando endereços IP únicos dentro da Internet. A Figura 38 mostra a estrutura de
endereçamento IP dessa rede. Repare que o roteador possui duas portas, uma conectada à sua rede e
outra conectada à outra rede (rede 2, em nosso exemplo). A cada uma das portas deverá ser definido
um endereço IP válido dentro da rede na qual a porta está conectada. Repare que definimos o
endereço 200.321.321.1 para a porta deste dispositivo que está conectada à rede 2 (200.321.321.0).

FIGURA 38 – Exemplo de uma rede conectada a Internet

31
Curso de Redes de Computadores – Plataforma Windows

Outra solução é criar uma tabela de tradução no roteador, que pega os pacotes vindos com
endereços IP válidos na Internet e converte esses endereços em endereços privados, aceitos somente
na rede local. Essa tradução pode ser estática ou dinâmica.
Na tradução estática, um determinado endereço privado é sempre convertido em um mesmo
endereço público. Por exemplo, ao receber um pacote destinado ao endereço 200.123.123.1, o
roteador pegaria esse pacote e trocaria o seu endereço para o endereço 192.168.0.1. A tradução
estática é usada com computadores servidores, que necessitam ter sempre o mesmo endereço IP.
Já a tradução dinâmica é usada por clientes, isto é, computadores que não prestam serviços
para a rede. Nesse tipo de tradução, o endereço privado nem sempre usará o mesmo endereço
público. Com isso, é possível que mais de um endereço privado, usado na rede local, acesse a
Internet usando um mesmo endereço IP público. Essa solução é interessante para quando temos
mais computadores do que endereços IPs disponíveis para montarmos a rede.
No uso da tradução dinâmica é muito comum o uso de um protocolo chamado DHCP
(Dynamic Host Configuration Protocol, Protocolo de Configuração Dinâmica de Máquinas). Um
servidor DHCP distribui para os computadores clientes um IP válido na Internet assim que um
computador cliente pede. Dessa forma, se um micro da rede interna pedir uma página www da
Internet, o servidor DHCP fornece um endereço IP público válido para ele poder se conectar à
Internet. Assim que essa máquina terminar de carregar a página www solicitada, o servidor DHCP
"toma" esse endereço IP de volta. Se o usuário desse cliente continuar navegando, o servidor poderá
dar o mesmo endereço IP ou mesmo dar um outro endereço IP.

Máscara de rede

Um termo que você encontrará com facilidade ao configurar redes baseadas no protocolo
TCP/IP é máscara de rede. A máscara é formada por 32 bits no mesmo formato que o
endereçamento IP e cada bit 1 da máscara informa a parte do endereço IP que é usada para o
endereçamento da rede e cada bit 0 informa a parte do endereço IP que é usada para o
endereçamento das máquinas. Dessa forma, as máscaras padrões são:

Classe A: 255.0.0.0
Classe B: 255.255.0.0
Classe C: 255.255.255.0

A máscara é usada fora de seus valores padrão quando há a necessidade de segmentação da


rede. Damos um exemplo na Figura 39. Neste exemplo, recebemos somente um endereço IP de
classe C (200.123.123.0), mas pretendemos usar esses endereços para distribuí-los em quatro redes:
uma rede local e três redes situadas em outros locais, sendo a nossa necessidade a seguinte:

Rede local: 31 endereços IP (de 200.123.123.1 a 200.123.123.31, máscara 255.255.255.224)


Rede 1: 32 endereços IP (de 200.123.123.32 a 200.123.123.63, máscara 255.255.255.224)
Rede 2: 64 endereços IP (de 200.123.123.64 a 200.123.123.127, máscara 255.255.255.192)
Rede 3: 127 endereços IP (de 200.123.123.128 a 200.123.123.254, máscara 255.255.255.128)

O valor da máscara é a diferença entre 256 e o número de IPs disponíveis na sub-rede em


questão. Nessa conta você deve levar em conta os endereços 0 e 255, apesar de eles não poderem
ser usados para o endereçamento de máquinas

32
Curso de Redes de Computadores – Plataforma Windows

FIGURA 39 – Rede segmentada usando mascara de rede

ARP – Address Resolution Protocol

O protocolo ARP é responsável por fazer a conversão entre os endereços IPs e os endereços
MAC da rede. Em uma rede grande, os pacotes TCP/IP são encaminhados até a rede de destino
através dos roteadores, como explicamos. Atingindo a rede de destino, o protocolo ARP entra em
ação para detectar o endereço da placa de rede para a qual o pacote deve ser entregue, já que no
pacote há somente o endereço IP de destino e não o endereço da placa de rede.
O ARP funciona mandando primeiramente uma mensagem de broadcast para a rede
perguntando, a todas as máquinas, qual responde pelo endereço IP para o qual pretende se transmitir
um pacote. Então, a máquina que corresponde a tal endereço responde, identificando-se e
informando o seu endereço MAC para que a transmissão de dados entre essas máquinas possa ser
estabelecida.
Para não ocupar a rede muitas vezes - já que, para saber quem é responsável por um
endereço IP o ARP tem de enviar uma mensagem para todas as máquinas -, o dispositivo
transmissor armazena os endereços IPs recentemente acessados e seus endereços MAC
correspondentes em uma tabela na memória; assim ele não precisará fazer um broadcast se precisar
acessar um endereço IP já conhecido.

RARP (Reverse Adrress Resolution Protocol)

O protocolo RARP permite que uma máquina descubra um endereço IP através de um


endereço MAC, fazendo o inverso do que o protocolo ARP faz.
Quando ligamos um computador, ele não sabe qual é o seu endereço IP Essa informação
estará gravada em algum arquivo de configuração dentro do disco rígido da máquina (ou dentro de
alguma memória eletrônica não volátil, no caso de dispositivos que não sejam computadores, como
roteadores, switches, etc.). Acontece que máquinas que não tenham disco rígido (boot remoto) não

33
Curso de Redes de Computadores – Plataforma Windows

têm, portanto, como saber o seu endereço IP e, portanto, não têm como iniciarem uma comunicação
de rede usando o protocolo TCP/IP.
Assim, em redes TCP/IP com esse tipo de máquina haverá a necessidade de ser criado um
servidor RARP. Esse servidor armazenará uma tabela contendo os endereços MAC das placas de
rede presentes na rede e os seus respectivos endereços IP.
Uma máquina que necessite saber o seu próprio endereço IP envia para todas as máquinas
esse pedido, mas somente o servidor RARP responde, informando o seu IP e podendo, a partir de
então, iniciar a comunicação com a rede usando o protocolo TCP/IP.
Após a máquina saber o seu endereço IP, essa informação fica armazenada em sua memória
RAM, resolvendo o problema e tornando possível qualquer comunicação via rede utilizando o
protocolo TCP/IP.

IP – Internet Protocol

A principal função do IP é o roteamento, ou seja, adicionar mecanismos para que o


datagrama chegue o mais rapidamente possível ao seu destino. Isso é feito com o auxílio dos
roteadores da rede, que escolhem os caminhos mais rápidos entre a origem e o destino, já que em
redes grandes (especialmente a Internet) há inúmeros caminhos que um pacote pode tomar para
chegar até o seu destino.
A estrutura do datagrama IP é apresentada nas Figura 40 e 41. Na Figura 40 apresentamos a
estrutura simplificada do datagrama, e na Figura 41 apresentamos todos os campos existentes no
cabeçalho. O campo Opções + Pad pode não existir, reduzindo o tamanho do cabeçalho para 20
bytes. A área de dados não tem tamanho fixo e, portanto, o tamanho de um datagrama IP é variável.
O tamanho máximo de um datagrama IP é de 65.535 bytes, incluindo aí o cabeçalho (ou seja, a área
de dados é de 65.515bytes ou 65.511bytes, dependendo se o campo Opções+Pad for ou não usado).

Figura 40 – Estrutura simplificada do datagrama IP

Figura 41 – Estrutura do datagrama IP

34
Curso de Redes de Computadores – Plataforma Windows

No datagrama IP encontramos os seguintes campos:


Versão: Indica a versão do protocolo IP que está sendo usado. O protocolo IP que estamos
descrevendo é o IPv4; portanto neste campo encontraremos o valor quatro.
Tamanho do Cabeçalho (IHL, Internet Header Length): Indica o comprimento do
cabeçalho do datagrama.
Tipo de Serviço: Este campo informa a qualidade desejada para a entrega do datagrama.
Indicando também, detalhes sobre o tipo de serviço que pretendemos ter na entrega do datagrama.
Tamanho Total: Indica o número total de bytes que compõem o datagrama.
Identificação: Usado para identificar o datagrama. Quando o transmissor cria e envia um
datagrama pela rede, é atribuído a ele um número de identificação..
Flags: Esse campo é usado para controlar a fragmentação de datagramas.
Offset do Fragmento: Esse campo também é usado para o controle da fragmentação de
datagramas.
Tempo de Vida (TU, Time to Live): Indica o tempo máximo de vida do datagrama. Cada
vez que o datagrama passa por um gateway (um roteador, por exemplo) esse número é
decrementado. Quando chega a zero, o datagrama é descartado, não atingindo o destino. No
receptor, o protocolo TCP irá perceber que está faltando um datagrama e pedirá uma retransmissão
do datagrama que está faltando.
Protocolo: Esse campo indica o protocolo de que pediu o envio do datagrama, através de
um código numérico. Por exemplo, o número seis indica o TCP, o número 17 indica o UDP, o
número um indica o ICMP e assim por diante.
Checksum do Cabeçalho: O protocolo IP adiciona um campo de checksum para os valores
presentes no cabeçalho. Os roteadores analisam o cabeçalho e refazem o checksum para saber se o
cabeçalho está ou não corrompido.
Endereço IP de Origem: Neste campo há o endereço IP de onde está partindo o datagrama.
Endereço IP de Destino: Neste campo há o endereço IP de destino do datagrama.
Opções + Pad: Esse campo é opcional. Se não for usado, o cabeçalho possuirá 20 bytes.
Caso seja usado, o cabeçalho passa a ter 24 bytes. Como o campo de opções possui tamanho
variável, ele é preenchido com zeros até ter 32 bits de comprimento. Esses zeros adicionais são
conhecidos como pad ou padding. As duas funções mais importantes desse campo são traçar a rota
de rede que está sendo usada da origem até o destino (traceroute) e marcar o horário (com precisão
de milissegundos) com que o datagrama passa por cada roteador da origem até o destino
(tirnestamp). Esses dois recursos são muito úteis na detecção de erros em uma rede
Dados: São os dados que o datagrama está carregando.

Fragmentação de Datagramas

Como os datagramas são enviados à rede através da camada Física, o seu tamanho fica
limitado ao tamanho da área de dados do quadro do protocolo que estiver sendo usado nesta camada
(MTU). Como estamos em um ambiente com diversos tipos de redes instaladas, pode ser que
aconteça de uma rede no meio do caminho por onde o pacote de dados tenha de passar para atingir
o seu destino ter um MTU menor que o da rede de onde partiu o quadro. Com isso, ocorre de,
teoricamente, o pacote não poder ser transmitido, já que ele não "cabe" dentro do quadro de dados
da rede que há no meio, a solução para esse problema é a fragmentação de datagramas.
O protocolo IP permite a fragmentação de seus datagramas graças à existência de três
campos: Identificação, Flags e Offset do Fragmento.
O campo Identificação é preenchido com um número gerado pela máquina que enviou o
datagrama. Em geral, esse número é um número seqüencial e, a cada datagrama gerado, o
computador incrementa um contador em memória. Assim, quando um datagrama é fragmentado,
todos os fragmentos criados possuem o mesmo número de identificação. Na hora de remontar o
datagrama, o roteador sabe quais fragmentos pertencem a um mesmo datagrama.

35
Curso de Redes de Computadores – Plataforma Windows

O campo Flags possui três bits. O primeiro é sempre zero, o segundo é chamado DF (Don't
Fragment - Não Fragmentar), e o terceiro, MF (More Fragments - Mais Fragmentos). Quando o flag
DF está ativado, o datagrama não pode ser fragmentado. Já o flag MF indica qual é o último
fragmento: todos os fragmentos possuem esse bit em 1, indicando que há mais fragmentos depois
deles. Somente o último fragmento possui esse bit em zero, informando que ele é o último
fragmento do datagrama.
O campo Offset do Fragmento controla a fragmentação em si, isto é, a ordem dos
fragmentos. Esse campo conta os fragmentos em blocos de oito bytes, e por isso a obrigação de o
tamanho dos fragmentos ter de ser múltiplo desse valor.

ICMP (Internet Control Message Protocol)

Caso um roteador não consiga passar adiante um datagrama recebido - por estar
congestionado demais ou então por ter zerado o campo Tempo de Vida (TU, Time to Live) do
datagrama, por exemplo -, ele precisa informar ao transmissor do datagrama que ocorreu um erro.
O mecanismo usado pelos roteadores para informar esse tipo de erro é o uso do protocolo
ICMP, Internet Control Message Protocol. que é parte integrante do protocolo IP.
O ICMP é somente um mecanismo usado para informar à máquina transmissora da
ocorrência de um erro com o datagrama enviado, através de mensagens enviadas pelos roteadores
da rede. Ele não se preocupa em corrigir o erro nem tampouco em verificar a integridade dos
datagramas que circulam pela rede.
É importante saber que as mensagens ICMP que informam erros ocorridos com um
datagrama trazem o cabeçalho do datagrama problemático e os primeiros 64 bits da área de dados
deste datagrama. Como os protocolos de alto nível (TCP e UDP, por exemplo) adicionam
informações importantes nos primeiros 64 bits da área de dados do datagrama IP, é possível saber,
tendo esses bits disponíveis, o protocolo e a aplicação envolvidos com o datagrama problemático,
facilitando o gerenciamento do erro.
Mensagens ICMP existentes:
- Eco - A mensagem de eco serve para verificar se o caminho entre o transmissor e o receptor
está bom. O transmissor envia um datagrama contendo uma mensagem ICMP de eco e o
receptor, ao receber essa mensagem, responde com uma mensagem ICMP de resposta de
eco, incluindo no datagrama os dados recebidos no datagrama original, esta tarefa é
chamada Ping. Versões mais sofisticadas do ping, em vez de enviarem uma única
mensagem de eco, enviam várias, mostrando estatísticas de tempo de resposta e perda de
datagramas.
- Destino Inalcançável - Caso um roteador não consiga entregar um determinado datagrama,
ele envia para o transmissor uma mensagem ICMP de destino inalcançável.
- Congestionamento - Um roteador pode porventura receber um número maior de
datagramas do que ele é capaz de processar. Caso isso ocorra, dizemos que o roteador está
congestionado. Neste tipo de situação, o roteador inclusive pode ter de descartar
datagramas por não estar sendo capaz de recebê-los naquele momento.
- Redirecionamento - Caso o roteador verifique que na rede local onde ele está instalado
existe uma rota melhor a ser usada para enviar um datagrama recebido, ele envia uma
mensagem ICMP de solicitação de redirecionamento ao transmissor, enviando também o
datagrama ao destino.
- Tempo de vida excedido - Quando o contador Tempo de Vida (TU, Time to Live) do
datagrama é zerado, o roteador envia para a máquina transmissora uma mensagem ICMP de
tempo de vida excedido.
- Problema nos parâmetros - Quando um roteador ou uma máquina encontra problemas
para processar um datagrama e não há nenhuma outra mensagem ICMP que cubra o

36
Curso de Redes de Computadores – Plataforma Windows

problema encontrado, o roteador (ou máquina) envia uma mensagem de problema nos
parâmetros para o transmissor.
- Solicitação de horário - Através dessa mensagem de controle, uma máquina pode pedir o
horário do relógio de outra máquina que esteja conectada na rede.

UDP – User Data Protocol

O protocolo UDP é um protocolo de transporte não orientado à conexão, isto é, ao contrário


do TCP, ele não verifica se o pacote de dados chegou ou não ao seu destino.
As aplicações que usem o UDP deverão criar mecanismos para verificar se os dados foram
recebidos corretamente e para colocar os datagramas recebidos em ordem, ou seja, a aplicação passa
a fazer o papel que normalmente é feito pelo protocolo TCP.
A vantagem para programas usarem o UDP em vez do TCP é que a transmissão de dados
fica mais rápida. Primeiro, o tamanho do pacote de dados a ser transmitido fica menor, já que o
cabeçalho UDP é bem menor que o cabeçalho TCP e, segundo, no UDP não existe um mecanismo
de verificação de chegada do pacote (acknowledge), que existe no TCP, acelerando o envio de
pacotes, já que o transmissor não precisará esperar receber uma mensagem de acknowledge do
receptor para enviar o próximo pacote.
Em redes locais confiáveis, onde não há quase perda de pacotes, o uso do protocolo UDP é
até viável. Mas, em redes grandes e, principalmente, na Internet, a taxa de perda de pacotes pode ser
alta demais e acabar dando muito trabalho para a aplicação, tornando o envio de pacotes UDP
inviável do ponto de vista prático. Por esse motivo, o UDP só é usado para o envio de dados
pequenos e onde a taxa de perda de pacotes não seja um problema, isto é, não vai dar muito trabalho
para a aplicação. Um dos usos mais conhecidos do protocolo UDP é para o envio de mensagens
DNS (Domain Name System).

Estrutura do datagrama UDP

As aplicações comunicam-se com os protocolos da camada de transporte (o UDP e o TCP)


através de portas.

Figura 42 – Estrutura do datagram UDP

Os campos porta de origem e porta de destino especificam a aplicação que originou o


datagrama e para cuja aplicação o datagrama deverá ser entregue na máquina de destino. Mesmo
que a máquina de destino receba vários datagramas UDP vindos de várias aplicações diferentes, ela
tem como saber para qual aplicação ela deve entregar o conteúdo do datagrama por causa da
existência do campo Porta de Destino.
O campo Tamanho especifica o tamanho do datagrama UDP em bytes, incluindo o seu
cabeçalho e a sua área de dados.
Já o checksum é calculado de uma forma não convencional. O protocolo UDP cria um
pseudocabeçalho. Esse pseudocabeçalho é formado apenas para ser utilizado na soma que resultará
no checksum do datagrama, não sendo transmitido junto com o datagrama. Esse pseudocabeçalho é
formado pelo endereço IP de origem, pelo endereço IP de destino, pelo conjunto de oito zeros
(campo Zeros), pelo número que o protocolo UDP representa no protocolo IP (17, campo
Protocolo) e, novamente, o tamanho do datagrama UDP.

37
Curso de Redes de Computadores – Plataforma Windows

Para formar o seu checksum, o UDP faz uma soma usando os valores desse
pseudocabeçalho (que não é transmitido), os valores de seu cabeçalho verdadeiro (este sim é
transmitido), e os valores presentes em seu campo de dados.
Teoricamente o campo checksum é opcional (para não usar o checksum, basta preencher
esse campo com todos os bits em um). Entretanto, sem o uso do checksum torna-se impossível
saber se o dado recebido está ou não corrompido.

TCP – Transmission Control Protocol

O protocolo TCP é o mais complexo do sistema de protocolos TCP/IP. Ele recebe os


datagramas IP e trata de colocá-los em ordem (já que em redes grandes os datagramas geralmente
chegam fora de ordem) e verificar se todos chegaram corretamente. Como vimos anteriormente, o
IP não verifica se um datagrama chegou ou não ao destino, ficando o TCP responsável por essa
tarefa.
As aplicações enviam dados a serem transmitidos pela rede ao protocolo TCP, através de
canais virtuais de comunicação chamados portas, As portas mais usadas pelo protocolo TCP são:

Porta Uso
11 Systat
15 Netstat
20 FTP (Dados)
21 FTP (Controle)
23 Telnet
25 SMTP
43 Whis
19 Finger
80 HTTP

O TCP empacota os dados recebidos adicionando as informações da porta de origem e da


porta de destino, entre outras, passando o pacote de dados ao protocolo IP. O protocolo IP adiciona
as informações de endereço IP de origem e destino (entre outras) aos dados recebidos da camada
TCP, encapsulando esses dados em um datagrama. Esse datagrama é passado para a camada de
interface com a rede (o driver da placa de rede), que encapsula o datagrama em um quadro que será
enviado para rede através da placa de rede.
Ao receber um quadro, a camada de interface com a rede da máquina receptora (o driver e a
placa de rede) irá passar os dados para a camada IP, que por sua vez passará os dados para a camada
TCP, que passará os dados para a aplicação correta. A camada TCP sabe para qual aplicação ela
deve entregar os dados por causa do uso do conceito de portas. Por exemplo, se o pacote de dados é
destinado à porta 25, a camada TCP sabe que os dados devem ser entregues ao programa de e-mail.

Transmissão e recepção de pacotes

Ao receber um pacote de dados, o protocolo TCP envia uma mensagem de confirmação de


recebimento à máquina transmissora, chamada acknowledge (também chamada ack).
Se o transmissor não receber uma confirmação de recebimento dentro de um determinado
tempo, o pacote é retransmitido, já que isso significa que datagramas IP carregando informações
inseridas pelo protocolo TCP foram descartadas no meio do caminho por algum motivo.

38
Curso de Redes de Computadores – Plataforma Windows

Esse "determinado tempo" a que nos referimos no parágrafo anterior, chamado RTT (Round
Trip Time, Tempo Aproximado de Viagem), é calculado dinamicamente pelo protocolo TCP, já que
em redes grandes não dá para utilizarmos um valor de tempo fixo.
O problema da retransmissão é o tempo que é perdido. Além disso, em princípio o
transmissor tem de esperar o recebimento de uma mensagem de confirmação para então enviar um
novo pacote, tornando o mecanismo de envio de dados extremamente lento: sempre serão
acumulados inúmeros pacotes a serem transmitidos, mas o transmissor não os pode enviar para a
camada IP enquanto a confirmação do último pacote enviado não chegar.
O protocolo TCP não conta os dados transmitidos através de pacotes, mas sim através dos
bytes que estão sendo enviados da aplicação para a camada TCP Com isso, os pacotes não são
numerados seqüencialmente como estamos mostrando em nossas ilustrações, mas sim numerados
de acordo com o número de ordem do primeiro byte do pacote dentro do fluxo de dados que está
sendo recebido pelo protocolo TCP Essa numeração é armazenada no cabeçalho TCP dentro de um
campo chamado Número de Seqüência.
Por exemplo, vamos imaginar que a área de dados que esteja sendo usada no pacote TCP
seja de 536 bytes. Assim, o número de seqüência do primeiro pacote será 1, o número de seqüência
do segundo pacote será 537 e o número de seqüência do terceiro pacote será 1.073, e assim por
diante.
No protocolo TCP, o receptor na realidade envia ao transmissor o número de seqüência do
próximo pacote que ele espera receber. Continuando com o nosso exemplo, ao receber o primeiro
pacote, o receptor irá enviar como confirmação de recebimento o número 537, que é o número de
seqüência do segundo pacote. Essa informação de confirmação de recebimento é enviada no
cabeçalho TCP dentro de um campo chamado Número de Confirmação.

Conexão

A comunicação entre duas aplicações em duas diferentes máquinas é chamada conexão. O


protocolo TCP é responsável por abrir uma conexão, mantê-la e fechá-la.
A abertura da conexão é feita através de um processo chamado handshake (aperto de mão),
onde o transmissor e o receptor irão confirmar qual é o número de seqüência inicial que eles usarão.
A conexão é mantida através do envio de dados do transmissor ao receptor.
Se tudo correr bem durante a conexão, o transmissor irá fechar a conexão quando ele não
tiver mais dados para serem transmitidos. Esse fechamento é feito da mesma forma que a abertura,
usando um handshake de três tempos.

Socket

Cada porta permite o uso de um conceito chamado socket. O socket define uma conexão
dentro de uma porta. Com o uso deste conceito, pode-se ter várias conexões diferentes em uma
mesma porta. Assim, dois browsers podem estar abertos simultaneamente e carregando dados
totalmente diferentes da rede. A camada de aplicação saberá para qual browser deverá entregar os
dados recebidos por causa da existência da informação de qual é o socket de destino dentro da área
de dados do pacote, inserida pela camada de aplicação do transmissor.
Os sockets podem ser classificados em ativos ou passivos. Um socket ativo é aquele que
envia dados e um passivo é aquele que recebe dados. Normalmente as máquinas possuem um socket
passivo monitorando uma determinada porta à espera de uma conexão. Ao receber uma conexão,
esse socket passivo pode gerar um socket ativo ou socket passivo para aquela conexão, dependendo
do sentido (se for uma transmissão ou uma recepção).

39
Curso de Redes de Computadores – Plataforma Windows

Janela

Para aumentar o desempenho do envio de pacotes, o protocolo TCP trabalha com o conceito
de janela. Com esse conceito, o transmissor pode enviar outros pacotes antes de ter recebido a
confirmação de recebimento do primeiro pacote enviado.
Esse sistema aumenta o desempenho do protocolo, já que o tempo que teoricamente seria
perdido entre a transmissão do pacote e a recepção de sua confirmação é usado para transmitir mais
pacotes. Caso o tempo expire e o transmissor não receba a confirmação de recebimento do primeiro
pacote, ele é retransmitido. O procedimento continua analogamente para os demais pacotes.
No caso específico do protocolo TCP, o sistema de janela funciona de uma maneira um
pouco mais complexa do que a apresentada. Neste protocolo a janela não é contada em número de
pacotes a serem enviados, mas sim em número de bytes a serem enviados. Além disso, o tamanho
da janela no protocolo TCP é variável e pode ser alterado a qualquer instante, de forma a melhorar o
desempenho da conexão. Dessa forma, a janela opera no fluxo de dados enviados pela aplicação e
que estão sendo empacotados pelo protocolo TCP.
O protocolo TCP utiliza três ponteiros de janela. O primeiro (ponteiro 1) marca o início da
janela. O segundo (ponteiro 2) separa, dentro da janela, os bytes que foram enviados daqueles que
ainda não foram enviados. E o terceiro ponteiro indica o fim da janela.
Em outras palavras, o ponteiro do meio (ponteiro 2) vai "correndo" da esquerda para a
direita a uma velocidade fixa, até atingir o limite da janela. A própria janela "anda" à medida em
que os primeiros bytes enviados vão sendo confirmados, criando espaço para esse ponteiro ir
"correndo".

Organização dos segmentos recebidos

Por causa do uso de uma janela, o receptor pode receber os pacotes de dados fora de ordem.
Em princípio, o protocolo TCP da máquina receptora pode colocar os segmentos recebidos em
ordem facilmente observando o campo Número de Seqüência dos segmentos.
Também vimos que a confirmação de recebimento no protocolo TCP é feita não
confirmando o pacote recebido, mas sim enviando ao transmissor o número de seqüência do
próximo pacote que ele espera receber - o que teoricamente acabaria dando no mesmo, só que na
prática acaba gerando um outro problema.
Para que você entenda melhor essa questão, imagine que o protocolo TCP esteja trabalhando
com uma área de dados de 536 bytes. Os três primeiros pacotes de uma seqüência foram enviados,
com números de seqüência 1, 537 e 1.073.
Caso o primeiro pacote seja perdido no meio do caminho, ao receber os outros dois pacotes
o receptor irá enviar como número de confirmação para cada um desses pacotes o valor 1 - o
número de seqüência do próximo pacote que ele espera receber, pois ele ainda está esperando
receber o primeiro pacote.
Ou seja, o transmissor irá retransmitir os três pacotes novamente, já que ele não recebeu a
confirmação de recebimento de nenhum pacote, por incrível que pareça, já que a confirmação
recebida para cada pacote recebido não foi "recebi o pacote 2" nem "recebi o pacote 3", mas sim
"ainda estou esperando o pacote 1". E o transmissor ficou sem nenhum mecanismo para saber se os
demais pacotes enviados chegaram corretamente ao destino. (pois o receptor somente pediu o 1º
pacote e não informou que recebeu o 2º e o 3º).
Dessa forma, o esquema de confirmação de recebimento de pacotes do protocolo TCP tem
como grande falha fazer com que todos os segmentos presentes em uma mesma janela tenham de
ser retransmitidos quando um dos segmentos é perdido, mesmo quando a maior parte dos
segmentos já tenha chegado corretamente ao receptor.

40
Curso de Redes de Computadores – Plataforma Windows

Estrutura do segmento

Estudando a estrutura do segmento TCP, o funcionamento deste protocolo ficará ainda mais
claro.

Figura 43 – Estrutura do segmento TCP.

Encontramos os seguintes campos no cabeçalho TCP:


Porta de Origem: Indica a aplicação que originou os dados.
Porta de Destino: Indica a aplicação para a qual os dados serão entregues no receptor.
Número de Seqüência: Identifica o número do primeiro byte presente no segmento dentro
do fluxo de dados gerado pela aplicação.
Número de Confirmação: É o acknowledge (ack) do qual tanto falamos. Aqui é colocado o
número de seqüência do próximo segmento que o receptor espera receber.
HLEN ou Offset: Esse campo (Header LENght) especifica o tamanho do cabeçalho do
pacote TCP, contado em números de 32 bits. O tamanho mínimo do cabeçalho é de cinco palavras

41
Curso de Redes de Computadores – Plataforma Windows

de 32 bits (20 bytes), sendo esse o valor mais comum do campo HLEN, já que normalmente o
campo Opções + Pad não é usado. Quando este campo é usado, o valor do campo HLEN é seis.
Bits de Controle ou Bits de Código: Esses bits são usados para controle, conforme mostra
a próxima tabela (os seis bits deste campo são contados da esquerda para a direita, isto é, o bit URG
é o primeiro da esquerda e assim por diante).

Bit Significado
URG 0 campo Ponteiro Urgente é válido
ACK 0 campo Número de Confirmação é válido
PSH Forca a entrega dos dados (push)
RST Reiniciar a conexão
SYN Sincronismo, determina o Número de Seqüência inicial
FIN 0 transmissor chegou ao fim de seus dados

Tamanho da janela: Define o tamanho da janela, em bytes, que será usada na conexão.
Checksum: É calculado de forma similar ao checksum do protocolo UDP, com a criação de
um pseudocabeçalho. O checksum é calculado somando-se o cabeçalho, o pseudocabeçalho e a área
de dados do segmento TCP. Mais uma vez lembrando que o pseudocabeçalho é usado apenas para
efeitos de soma, não sendo transmitido.
Ponteiro Urgente: Caso existam dados que precisem ser processados antes de a conexão
chegar ao fim, dentro de uma mesma conexão, o bit URG é ativado e este campo é usado para
informar a posição, dentro do segmento, em que os dados urgentes terminam.
Opções + Pad: Esse campo é opcional e possui tamanho variável. Se não for usado, o
tamanho do cabeçalho TCP é de 20 bytes. Caso seja usado, o tamanho do cabeçalho passa a ter 24
bytes. Se o campo Opções for menor que 32 bits, então são adicionados zeros (chamados pad) até
que o tamanho desse campo tenha 32 bits (4 bytes).

Protocolos de aplicação

São protocolos de alto nível.


Existem inúmeros protocolos, mas estaremos abordando somente os protocolos de aplicação
mais comuns:
DNS (Domain Name System): Usado para identificar máquinas através de nomes em vez de
endereços IP.
Telnet: Usado para comunicar-se remotamente com uma máquina.
FTP (File Transfer Protocol): Usado na transferência de arquivos.
SMTP (Simple Mail Transfer Protocol): Usado no envio e recebimento de e-mails.
HTTP (Hyper Text Transfer Protocol): Usado na transferência de documentos hipermídia
(WWW, World Wide Web).

DNS (DOMAIN NAME SYSTEM)

Todas as máquinas em uma rede TCP/IP possui um endereço IP. Acontece que os endereços
IP não são tão fáceis de ser recordados quanto nomes. Por isso, foi criado o sistema DNS, que
permite dar nome a endereços IP, facilitando a localização de máquinas por nós, humanos.
Você já conhece vários endereços de máquinas na Internet. Endereços como
www.seusite.com.br na verdade são uma conversão para a forma nominal de um endereço IP (é
muito mais fácil guardar o endereço nominal www.seusite.com.br do que o endereço IP

42
Curso de Redes de Computadores – Plataforma Windows

200.123.123.7, por exemplo). Quando você entra esse endereço em um browser Internet, o browser
se comunica com um servidor DNS, que é responsável por descobrir o endereço IP do nome
entrado, permitindo que a conexão seja efetuada.
Dessa forma, os servidores DNS possuem duas funções: converter endereços nominais em
endereços IP e vice-versa.
Sem o uso de servidores DNS, cada máquina conectada à internet teria de ter uma tabela
contendo todos os endereços IP e os nomes das máquinas, o que atualmente é impossível, já que
existem milhões de endereços na Internet. Como a idéia da Internet é ser uma rede gigantesca - e ela
foi criada justamente para isso -, o sistema de nomes foi criado de forma a acomodar o crescimento
da rede: Para isso, o sistema de nomes utilizado possui uma estrutura hierárquica.

Figura 44 - Exemplo do estrutura hierárquica de servidores no Internet

Na Figura 44 vemos um exemplo de como funciona essa estrutura. Um servidor.com, por


exemplo, é responsável por todos os endereços terminados em com, assim como um servidor
com.br é responsável por todos os endereços terminados em .com.br.
Cada rede local TCP/IP precisa ter ao menos um servidor DNS. Todos os pedidos por
conversão de nomes em endereços IP ou vice-versa são enviados a este servidor. Caso ele não
consiga efetuar essa conversão (também chamada resolução), ele responde o pedido informando o
endereço de um servidor que seja hierarquicamente superior a ele e, com isso, a maior
probabilidade de conhecer o endereço solicitado.
Se o outro servidor contactado também não conhecer o endereço, ele responderá informando
o endereço de outro servidor hierarquicamente superior e assim sucessivamente, até o endereço ser
localizado (ou não, caso seja um endereço inexistente).
Em outras palavras, os endereços Internet são resolvidos da direita para a esquerda. No
exemplo seusite.org.br, primeiro o pedido é enviado para o servidor.br, que enviará o pedido para o
servidor.org.br que então verifica se existe o domínio seusite.org.br. No caso de o endereço ser mais
longo, www.seusite.org.br ou nome.seusite.org.br, www e nome, são nomes de máquinas dentro da
rede seusite.org.br e serão resolvidos pelo servidor DNS da rede local.
Da maneira que estamos explicando, o sistema DNS criaria um tráfego gigantesco na
Internet, por causa da replicação dos pedidos de resolução de endereços para servidores
hierarquicamente superiores. Para que isso não aconteça, quando o pedido de resolução é atendido,
o servidor DNS da rede local "aprende" aquele novo endereço. Assim, se aquele nome/endereço for
pedido novamente por alguma máquina da rede, o servidor de DNS local poderá dessa vez atender

43
Curso de Redes de Computadores – Plataforma Windows

ao pedido, não precisando ter de passar o pedido para outros servidores, diminuindo, assim, o
tráfego da rede. Esse procedimento é conhecido como cache.
quando um servidor hierarquicamente superior responde a um pedido de DNS, ele inclui um
valor de Tempo de Vida (TTL, Time To Live), que informa ao servidor local durante quanto tempo
ele pode ficar com aquela informação. Quando o tempo de vida for atingido, o endereço IP e o
nome do domínio são removidos do cache do servidor DNS local, fazendo com que novos pedidos
daquele nome/endereço tenham de ser requisitados ao servidor hierarquicamente superior,
atualizando, assim, o cache do servidor local.
Na verdade, um pedido enviado a um servidor de DNS principal é atendido por várias
máquinas, utilizando o conceito de computação distribuída. Além disso, na maior parte das vezes
eles não atendem diretamente a pedidos DNS: eles respondem ao pedido indicando outros
servidores capazes de atendê-lo.
Quando o usuário pede uma conexão com um determinado endereço - por exemplo,
digitando www.seusite.com.br dentro de um browser Internet -, a aplicação (no caso o browser)
precisará saber o endereço IP deste endereço para pode abrir a conexão TCP e começar a troca de
dados. Para isso, a máquina pergunta ao servidor DNS local se ele conhece o endereço
www.seusite.com.br. Se ele conhecer (isto é, se este endereço estiver presente em seu cache), ele
executa a resolução, passando o endereço IP referente a este endereço para a máquina. Caso
contrário, ele precisará enviar uma mensagem DNS para o servidor hierarquicamente superior para
descobrir o endereço IP do endereço solicitado.

Telnet

O Telnet é um terminal remoto, onde o micro cliente pode fazer um login em um servidor
qualquer que esteja conectado à rede (ou à Internet, se a rede estiver conectada a ela). Com isso,
através do Telnet o usuário pode manipular o servidor como se ele estivesse sentado em frente a ele,
localmente - muito embora o usuário possa estar a milhares de quilômetros de distância. Tudo
aquilo que o usuário fizer no terminal remoto, na verdade ele estará fazendo no servidor, e não em
seu computador local.

FTP – File Transfer Protocol

Como o próprio nome sugere, o FTP é um protocolo usado na transferência de arquivos.


Esse protocolo utiliza duas portas para se comunicar com o TCP: 21, por onde circulam
informações de controle (por exemplo, o nome do arquivo a ser transferido) e 20, por onde circulam
os dados.
Os micros clientes necessitam de um programa cliente FTP para terem acesso a um servidor
FTP Na conexão, é pedido um login e uma senha. O servidor de FTP pode ser configurado para
receber conexões anônimas, sem a necessidade de senha, para arquivos que deseje tornar público.

TFTP – Trivial File Transfer Protocol

O protocolo TFTP (Trivial File Transfer Protocol) é um protocolo para a transferência de


arquivos muito mais simples e mais rudimentar que o FTP. Para começar, ele usa o protocolo de
transporte UDP (utilizando a porta 69), que não possui nenhum mecanismo para verificar se o
pacote de dados chegou corretamente ao destino. Com isso, é a própria aplicação que tem de
verificar isso.
O TFTP divide os dados a serem transmitidos em blocos de 512 bytes. Para cada bloco
enviado, o transmissor espera o receptor enviar um bloco de confirmação de recebimento
(acknowledge). Caso esse bloco não seja recebido, o bloco de dados é reenviado.

44
Curso de Redes de Computadores – Plataforma Windows

O primeiro bloco de dados enviado informa ao servidor se haverá uma transferência de um


arquivo do servidor para o cliente (operação de leitura de arquivo) ou se haverá uma transferência
de arquivo do cliente para o servidor (operação de escrita de arquivo).

SMPP – Simple Mail Transfer Protocol

O e-mail é hoje um dos meios mais conhecidos para nós, humanos, trocarmos informações.
Ele é trocado através de um protocolo chamado SMTP (Simple Mail Transfer Protocol).
A transferência de e-mals tem de levar em conta a possibilidade de o servidor de destino
estar temporariamente fora do ar, pois o usuário não irá querer ficar manualmente tentando enviar
um determinado e-mail até conseguir que ele consiga chegar ao destino.
A mensagem é enviada pelo usuário para o seu servidor de e-mail, que, por sua vez, trata de
entregar a mensagem até o destino (muitas vezes usando o sistema DNS para descobrir o endereço
IP da máquina para a qual ele deve enviar o e-mail). Caso o destino esteja inalcançável por algum
motivo, o servidor armazena a mensagem e tenta uma nova transmissão mais tarde. Se o servidor
ficar inalcançável por muito tempo (tipicamente por três ou quatro dias), o servidor remove a
mensagem de sua lista de entrega e envia uma mensagem de erro ao remetente.

HTTP (Hypertext Transfer Protocol)

Um site www consiste em uma série de documentos hipermídia, acessados através de um


endereço, também chamado URL (Uniform Resource Locator), como, por exemplo,
www.seusite.com.br.
É claro que, como vimos anteriormente, quando entramos um endereço como
www.seusite.com.br em um browser ele irá consultar o servidor DNS para conseguir o endereço IP
do servidor www e, com isso, iniciar a conexão.
A transferência de documentos hipermídia é feita através do protocolo HTTP. Um servidor
www hospeda o site, enquanto um cliente (um browser Internet) faz a requisição dos documentos lá
contidos. Essa transferência é feita usando a porta 80 do protocolo TCP. Esses documentos são
escritos em diversas linguagens e o browser é o responsável por interpretar tais linguagens. A mais
simples de todas é o texto puro, passando pelo famoso HTML (HyperText Markup Language) e
chegando a outras linguagens mais recentes e suportadas somente pelos browsers mais novos.
Outro recurso interessante do HTTP chama-se CGI (Common Gateway Interface), que
permite que programas sejam armazenados e executados no próprio servidor www, emitindo uma
resposta no formato HTML para ser transmitida para o browser do micro cliente. Esse recurso
permite que documentos sejam criados dinamicamente.
A comunicação usando o protocolo HTTP é bidirecional e permite dois recursos para a
diminuição do tráfego da rede e para o aumento do desempenho.
Primeiro, o cache, que é a cópia dos últimos arquivos acessados no disco rígido do usuário,
permite que o browser em vez de ir novamente no servidor www buscar os mesmos arquivos já
lidos, os busque do disco rígido local do usuário, aumentando o desempenho (já que é mais rápido
ler um arquivo do disco rígido do que carregá-lo através da Internet) e diminuindo o tráfego da rede.
O segundo é chamado proxy, que permite que uma máquina intermediária entre o cliente e o
servidor www funcione como um cache. Por exemplo, você pode configurar um servidor proxy em
sua rede local para ser usado como intermediário no acesso à Internet. Quando uma máquina faz
acesso à Internet, os dados são copiados para o disco rígido do servidor proxy. Com isso, se alguma
máquina pedir um documento que já esteja no proxy, não será necessário ir na Internet buscar os
dados, aumentando o desempenho e diminuindo o tráfego da Internet. O único detalhe é que os
browsers Internet de todas as máquinas deverão estar configurados a acessar o proxy em vez de
fazer um acesso direto à Internet, ou caso contrário não adiantará em nada ter um servidor proxy na
rede.

45
Curso de Redes de Computadores – Plataforma Windows

Figura 45 – Funcionamento do servidor Proxy

IPX/SPX

O IPX/SPX é o protocolo proprietário criado pela Novell para o seu sistema operacional
Netware, baseado no protocolo XNS (Xerox Network Systems).
O funcionamento deste protocolo possui muita semelhança com o TCP/IP. O IPX (Internet
Packet Exchange) é um protocolo que opera na camada de rede, equivalendo ao IP, enquanto o SPX
(Sequenced Packet Exchange) opera na camada de transporte, equivalendo ao TCP, como você
pode observar na Figura 4.1. Além disso, o IPX/SPX faz uso do ODI (Open Datalink Interface) para
se comunicar com o driver da placa de rede.

Figura 46 – Arquitetura do IPX/SPX

O IPX é um protocolo roteável, assim como o IP, podendo operar em redes gigantescas e,
por incrível que pareça, é um protocolo verdadeiramente autoconfigurável (plug and play), como
veremos.
Vocês devem estar se perguntando, Então, por que hoje em dia o IPX/SPX não é um
protocolo tão popular quanto o TCP/ IP? Existem várias respostas. Primeiro, no passado o IPX/SPX
era, sim, muito mais popular que o TCP/IP. Na década de 80, o Netware era o sistema operacional

46
Curso de Redes de Computadores – Plataforma Windows

para redes locais mais usado no mercado, mas com o aumento e a popularização da Internet, a
escolha pelo TCP/IP passou a ser óbvia, já que é este o protocolo usado na Internet - e ninguém
monta uma rede hoje não pensando em conectá-la de alguma forma à Internet (a Novell, inclusive, a
partir do Netware 4 passou a permitir o TCP/IP como protocolo de rede). Além disso o protocolo
SPX trabalha com uma janela muito pequena, fazendo com que o IPX/SPX não tenha um bom
desempenho para redes realmente muito grandes.

IPX – Internet Packet Exchange

O IPX é o equivalente no IPX/SPX ao IP do TCP/IP. Uma das diferenças entre esses dois
protocolos é o sistema de endereçamento usado pelo IPX. Nele, há dois campos: rede, de 4 bytes, e
nó, de 6 bytes. Como está claro, o endereço IPX (que possui 10 bytes) é muito maior que o
endereço IP (que só possui 4 bytes). Mas há uma enorme vantagem neste sistema. No campo nó são
colocados os 6 bytes do endereço MAC da placa de rede. Como cada máquina possui um endereço
MAC único no mundo, não é necessário ficar criando, gerenciando e atribuindo endereços IPX para
cada máquina - ao contrário do que ocorre no IP, onde temos de atribuir um endereço IP para cada
máquina. Isso torna o protocolo IPX autoconfigurável (plug and play), já que ele não precisa se
preocupar em ficar atribuindo endereços às máquinas da rede (cada máquina possui seu endereço
MAC gravado em hardware, na placa de rede).
Outra vantagem desse sistema é que o IPX não precisa de um protocolo como o ARP, usado
no TCP/IP para descobrir o endereço MAC de uma máquina, já que o seu sistema de
endereçamento já é baseado no endereçamento MAC. Isso obviamente diminui o tráfego da rede.
O campo Rede é usado para identificar a rede em ambientes com diversas redes interligadas.
Com 4 bytes é possível termos até 4.294.967.296 redes (com até 281.474.976.710.656 máquinas em
cada uma).

Figura 47 – Formato do endereçamento IPX

Se o campo Nó tiver todos os seus bits colocados em 1 (endereço de nó FFFFFFFFFFFF),


significa que o datagrama IPX está carregando uma mensagem de broadcast (mensagem a ser
entregue a todas as máquinas da rede). Já o endereço do Nó com valor um indica o servidor da rede
local.
Da mesma forma que o IP, o IPX baseia-se em um datagrama que não utiliza nenhum
sistema para verificar se o dado chegou ou não ao destino. É o protocolo de transporte, o SPX, que
envia pacotes contendo a confirmação de recebimento do pacote (acknowledge). A estrutura do
datagrama IPX é extremamente simples, como veremos a seguir.

SPX (Sequence Packet Exchange)

O SPX trabalha de maneira muito parecida com o TCP, com a diferença de não trabalhar
com o conceito de janela e, por isso, ter um baixo desempenho. Em outras palavras, o SPX tem de
esperar receber a confirmação do último pacote enviado para poder enviar um novo pacote. Já o
protocolo SPX II, lançado junto com o Netware 4, resolve esse problema. Esta nova versão do SPX
trabalha com o conceito de janela e ainda permite uma quantidade maior de dados na área de dados
do pacote.

47
Curso de Redes de Computadores – Plataforma Windows

Figura 48 – Formato do pacote SPX

A estrutura do pacote SPX pode ser vista na Figura 48. O sistema de envio e confirmação
funciona de maneira similar ao TCP. O transmissor adiciona ao pacote um número de seqüência e,
quando o destinatário recebe o pacote, ele envia uma mensagem de confirmação (acknowledge)
informando o número de seqüência do próximo pacote que ele espera receber.
Os campos presentes no pacote SPX são:
Controle da Conexão: Esse campo é utilizado da maneira descrita na próxima tabela. Os
bits 2 e 3 são usados somente pelo protocolo SPX II.

Bit Significado
2 Negociação de tamanho
3 Indica que o protocolo é o SPX II
4 EOM (End Of Message, Fim da Mensagem)
5 ATT (Atenção, não utilizado pelo SPX)
6 ACK (Confirmação de recebimento requerida)

1 SYS (Controle de transporte)

Tipo de Fluxo de dados: Especifica o tipo de dado que está sendo transportado dentro do
pacote. Valores de 0 a 253 neste campo são ignorados pelo SPX. O valor 254 neste campo indica o

48
Curso de Redes de Computadores – Plataforma Windows

fim da conexão e o valor 255 indica fim da confirmação de recebimento de um pacote


(acknowledge).
Identificação da Conexão: Usado para identificar o protocolo de alto nível que gerou os
dados que estão sendo transportados pelo SPX. Equivale ao conceito de porta usado pelo TCP/IP.
Número de Seqüência: Número que identifica o pacote.
Número de Confirmação: Confirmação do recebimento do pacote. O receptor envia aqui o
número do próximo pacote (número de seqüência) que ele espera receber.
Número de Alocação: Informa o número de pacotes já enviados que ainda não tiveram o
recebimento confirmado.
Confirmação Estendida: Esse campo só existe no protocolo SPX 11.

SAP (Service Advertisement Protocol)


O Netware utiliza um protocolo chamado SAP para comunicar a todas as máquinas na rede
os recursos existentes.
Todo serviço periodicamente (tipicamente a cada minuto) envia para todas as máquinas da
rede (através de broadcast) a informação de que serviço ele é, o seu nome e o seu endereço através
do SAP.
Quando uma nova impressora ou um novo servidor de arquivos torna-se disponível na rede,
quase que imediatamente todos os computadores sabem disso, não havendo a necessidade de
configuração manual para esse tipo de detecção.
Por outro lado, as mensagens SAP congestionam a rede, já que são enviadas informações em
broadcast (isto é, para todas as máquinas da rede) de minuto em minuto. Em redes pequenas isso
não é um problema, mas para redes grandes esse é um inconveniente e tanto.
Uma das maneiras de se livrar desse congestionamento é através da configuração dos
roteadores da rede, para não replicarem mensagens SAP, por exemplo. Outra solução é o uso do
protocolo NLSP (Netware Link Services Protocol), que faz com que os roteadores da rede
divulguem os recursos presentes na rede apenas uma única vez, só divulgando novamente caso haja
alguma alteração (algum recurso adicionado ou removido, por exemplo). Na verdade, os roteadores
reenviam essa informação a cada duas horas, o que é bem menos freqüente do que enviá-las a cada
minuto.
Por isso, a partir do Netware 4, em vez de o sistema operacional usar o SAP, ele mantém um
diretório no servidor contendo todos os recursos da rede. Às máquinas que desejarem saber os
recursos existentes na rede basta acessar esse diretório.

X .2 5

Fundamentos

Até agora falamos de protocolos não orientados à conexão operando na camada 3 do modelo
OSI (camada de rede), como o IP e o IPX. Esse tipo de protocolo não garante a entrega dos dados.
A entrega dos dados é conferida pelo protocolo que está trabalhando acima deles, como o TCP e o
SPX, respectivamente.
Em redes convencionais baseadas em protocolos não orientados à conexão, os datagramas
são enviados para a rede e os roteadores da rede decidem, dinamicamente, qual é a melhor rota para
o datagrama seguir até chegar ao seu destino.
Já nas redes comutadas, o funcionamento é diferente. Suponha que o computador A deseja
enviar dados para o computador B usando a estrutura de redes mostrada na Figura 49 (é claro que
entre cada roteador há uma rede local, mas nós as removemos para facilitar a compreensão).
Primeiro, o computador A enviará ao roteador 1 uma mensagem pedindo para abrir uma conexão
com o computador B. O roteador 1 replicará esse pedido para o roteador 2, que o replicará para o

49
Curso de Redes de Computadores – Plataforma Windows

roteador 3, até que a mensagem chega ao computador B. O computador B, aceitando essa conexão,
enviará uma resposta usando o mesmo caminho. Quando a conexão se estabelece, os dados poderão
ser trocados livremente nos dois sentidos (a conexão é full duplex), mas sempre usando o mesmo
caminho estabelecido quando A pediu uma conexão para B (o estabelecimento da conexão é
conhecido como chamada).
Dessa forma, essa é a primeira característica das redes comutadas: durante a conexão, o
caminho usado será sempre o mesmo. Esse caminho é chamado circuito virtual.
Esse caminho, o circuito virtual, fica "preso" à conexão que está em curso, mesmo que
nenhum dado esteja sendo transmitido em um determinado momento. O caminho só é "liberado"
quando a conexão é terminada.
A melhor maneira de você entender esse conceito é comparar redes comutadas ao sistema
telefônico. Quando você liga para alguém, a conexão se mantém até ela ser desligada por uma das
duas partes (ou então "cair"), mesmo que nenhuma das duas pessoas não esteja falando
absolutamente nada.

Figura 49 – Funcionamento de uma rede orientada a conexão

Os roteadores permitem várias conexões simultâneas. Assim, a conexão de A com B só está


ocupando um dos canais de comunicação existentes nos rotèadores envolvidos. Supondo que o
roteador 1 tenha 1.000 canais, ainda sobrariam outros 999 para novas conexões. Por outro lado, na
milésima primeira chamada o roteador irá automaticamente recusar esta chamada, já que ele não
terá nenhum canal disponível para efetuar essa chamada.
Em redes não-comutadas isso não ocorre: todo roteador possui uma memória (chamada
buffer) que armazena os últimos datagramas recebidos. Mesmo que o roteador não seja capaz de
responder aos datagramas recebidos naquele momento, eles são armazenados nessa memória, até
que o roteador fique livre para atendê-los. A não ser que o tráfego seja intenso demais e o roteador
não possua mais memória disponível para armazenar os datagramas recebidos, quando então
começa a descartá-los.
A grande vantagem de reservar um canal para a conexão é o desempenho. Quando novas
conexões são estabelecidas no roteador, o desempenho do fluxo de dados dos demais canais não é
alterado. Como acabamos de ver, isso não ocorre em redes não-comutadas: os roteadores aceitam
mais dados mesmo que estejam sobrecarregados, diminuindo o desempenho das conexões (já que o
roteador demorará mais tempo até atender os últimos datagramas recebidos, pois existem outros a
serem atendidos na frente deles).
Dessa forma, o fato de os roteadores de redes comutadas recusarem chamadas quando estão
com todos os seus canais tomados é, na verdade, uma medida para proteger o desempenho das
demais conexões em curso.

50
Curso de Redes de Computadores – Plataforma Windows

E, por fim, como dissemos, os protocolos orientados à conexão, como o X.25 e o ATM,
garantem a entrega dos dados. Isso significa que a cada pacote recebido ele é confirmado através de
uma mensagem de confirmação (acknowledge), o que não ocorre no IP e no IPX, por exemplo.

Funcionamento do X.25

A arquitetura do X.25 é mostrada na Figura 50. Em geral quando falamos apenas "X.25"
estamos nos referindo à camada Nível de Pacote, como fica claro na figura. A camada Nível de
Link é responsável por transformar os pacotes recebidos do protocolo X.25 em quadros a serem
transmitidos pela rede. O protocolo mais usado nesta camada chama-se LAPB (Link Access
Protocol, Balanced). E a camada Nível Físico recebe os quadros enviados pela camada superior,
Nível de Link, e os transforma em sinais elétricos a serem transmitidos pela rede. O padrão mais
usual nesta camada é o X.21, que especifica a interface com o cabeamento da rede (pinos, sinais
elétricos, etc.).

Figura 50 – Arquitetura do X.25

Como você pode reparar na Figura 50, as camadas Nível de Link e Nível Físico do padrão
X.25 são amarradas ao protocolo X.25 como sendo parte dele, ao contrário do que ocorre em outros
protocolos como o TCP/IP e o IPX/SPX. Nestes, o protocolo pode usar qualquer outro tipo de
protocolo nas camadas 1 e 2 do modelo OSI como, por exemplo, o Ethernet, o Token Ring, o FDDI
e, inclusive, o próprio X.25. Isso significa que, enquanto o TCP/IP e o IPX/SPX podem ser
utilizados em qualquer rede independente de sua estrutura física (tipo de cabo e como esse cabo
transmite informações), o X.25 está amarrado em um único tipo de estrutura física, definida por
suas camadas Nível de Link e Nível Físico.
Uma característica ruim em redes X.25 é o atraso causado pelo funcionamento desse
protocolo.
O protocolo X.25 trabalha com dois conceitos: DTE (Data Terminal Equipment) e DCE
(Data Circuit Terminating Equipment). Normalmente o DTE é um computador e o DCE é um
roteador ou um switch. O DCE também pode ser um modem. O caminho entre o DTE e o DCE é,
normalmente, uma rede local.
A seguir veremos como o protocolo X.25 funciona em detalhes.

Nível de pacote

51
Curso de Redes de Computadores – Plataforma Windows

O protocolo X.25 utiliza um número de 12 bits para numerar os canais de comunicação.


Como o canal 0 é reservado, pode-se ter até 4.095 canais em cada DCE (212 - 1). Nos pacotes X.25
o número do canal é separado em dois campos, Grupo (com 4 bits) e Canal (com 8 bits).

Chamada

Para estabelecer uma conexão, o DTE de origem (vamos chamá-lo de A) manda um pedido
de chamada para o DTE de destino (vamos chamá-lo de B).
O DTE A, ao comunicar-se com o DCE A, escolhe um número de canal que esteja vago. Ele
coloca esse número no campo Número do Canal.
Se o DTE B aceitar o pedido de chamada do DTE A, ele enviará um pacote de chamada
aceita para o DTE A. Esse pacote passando pelo DCE B e pelo DCE A irá fechar o circuito virtual,
isto é, irá criar um SVC. O canal usado para comunicar o DTE A com o DCE A irá permanecer o
mesmo até o fim da conexão, assim como o canal usado para comunicar o DCE B com o DTE B.
A conexão permanece até um dos dois DTEs enviar um pacote de término de conexão para o
seu DCE, chamado clear request. O DCE enviará esse pacote para o outro DCE, liberando a
conexão assim que o pedido for confirmado pelo outro DCE, desfazendo o circuito virtual e
liberando os canais envolvidos na comunicação.

Transmissão de dados

O protocolo X.25 permite o uso de dois tipos de pacotes de dados. No primeiro tipo,
chamado Módulo 8, o número do pacote e o número de confirmação utilizam 3 bits. No segundo
tipo, chamado Módulo 128, o número do pacote e o número de confirmação utilizam 7 bits. O
tamanho do Módulo identifica o tamanho da janela do protocolo X.25. Dessa forma, em uma
conexão usando pacotes Módulo 8, o transmissor pode enviar até 8 pacotes antes de receber a
confirmação do primeiro pacote pelo receptor. Em uma conexão usando pacotes Módulo 128, o
transmissor pode enviar até 128 pacotes antes de receber a confirmação de recebimento do primeiro
pacote.

Fragmentação

Pode ser que a rede de destino utilize pacotes de tamanhos menores que a rede de origem.
Quando isso ocorre, os pacotes enviados precisam ser fragmentados.

Nível de Link (LAPB - Link Access Protocol Balanced )

O nível de link é responsável por pegar os pacotes gerados pelo nível de pacote e encapsulá-
los em forma de quadros que serão enviados para a rede. O protocolo mais usado nesta camada é o
LAPB.
Um quadro LAPB possui a estrutura mostrada na Figura 51

Figura 51 – Estrutura do quadro LAPB


Os campos existentes no quadro LAPB são os seguintes:

Flag: Indica o início ou o fim do quadro. Sempre possui o valor 01111110 (7Eh).

52
Curso de Redes de Computadores – Plataforma Windows

Endereço: Em princípio, esse campo indicaria o endereço do DTE ou DCE de destino, mas
isso não ocorre na prática, já que o pacote X.25 (que é encapsulado dentro do quadro LAPB) já
possui essa informação. Por isso, esse campo é usado para indicar o sentido dos comandos de
controle. O valor 1 neste campo indica quadros contendo comandos do DTE para o DCE e respostas
do DCE para o DTE. O valor 3 neste campo indica quadros contendo comandos do DCE para o
DTE e respostas do DTE para o DCE.
Controle: Indica o tipo de quadro, como, por exemplo, "Informação", quando o quadro
possui dados a serem transmitidos e "Supervisão", quando o quadro possui comandos de controle.
Checksum: O checksum é calculado e colocado neste campo, para que o dispositivo
receptor possa recalculá-lo e verificar se os dados chegaram íntegros.

Nível Físico (x.21)

A especificação X.21 é a mais usada em redes X.25. Essa especificação determina o


conector e os pinos do conector que os dispositivos de redes X.25 devem utilizar. Esse conector
possui 15 pinos e a pinagem é mostrada na Figura 52 e explicada na tabela a seguir.

Figura 52 – Conector X.21, usado em redes X.25

Pino Sinal Significado Origem

1 Não usado - -
2 T (a) Transmissão DTE
3 C (a) Controle DTE
4 R (a) Recepção DCE
5 1(a) Indicação DCE
6 S (a) Temporização dos bits DCE
7 B (a) Temporização do quadro DCE
8 Terra Terra -
9 T (b) Transmissão DTE
10 C (b) Controle DTE
11 R (b) Recepção DCE
12 I (b) Indicação DCE
13 S (b) Temporização dos bits DCE
14 B (b) Temporização dos bytes DCE

15 Não usado - -

O DTE utiliza os pinos T e C para transmitir dados para o DCE. Já o DCE utiliza os pinos R
e 1 para transmitir dados para o DTE. Dessa forma, os termos "transmissão" e "recepção" usados
pelo X.21 referem-se ao ponto de vista do DTE. O pino S é um sinal de clock que informa o início e

53
Curso de Redes de Computadores – Plataforma Windows

o final de cada bit de dado. Já o pino 13 é um sinal de clock que indica o início e o final de cada
byte (grupo de oito bits). Esse pino normalmente não é utilizado.

Frame Relay

Fundamentos

O Frame Relay é um protocolo baseado em redes comutadas, assim como o X.25 e o ATM.
O funcionamento do Frame Relay é muito parecido com o do X.25. A grande diferença é que o
Frame Relay, ao contrário do X.25, não é um protocolo orientado à conexão. Portanto, em redes
usando o Frame Relay, a entrega dos dados não é garantida. A verificação dos pacotes recebidos
não é feita pelo Frame Relay, mas sim pelo protocolo que estiver acima dele, igual ao que ocorre
com o IP e com o IPX, por exemplo, onde a verificação é feita pelo TCP e pelo SPX,
respectivamente.

Figura 53 – Arquitetura do Frame Relay

A vantagem do Frame Relay em relação ao X.25 é a velocidade. Por não possuir nenhum
mecanismo para verificar se o datagrama chegou ou não ao destino, este protocolo consegue ser
mais rápido do que o X.25, já que no X.25 o receptor precisa enviar uma informação de
confirmação (acknowledge) ao transmissor a cada pacote recebido.
Quando um roteador Frame Relay encontra um erro com o quadro recebido, ele é
simplesmente descartado, sem avisar nada tanto ao transmissor quanto ao receptor (no protocolo IP,
quando isso ocorre o roteador envia uma mensagem ICMP ao transmissor informando a ocorrência
do erro).
Além disso, o X.25, ao contrário do Frame Relay, utiliza o esquema store-and-forward, onde
cada DCE (roteador, switch, modem, etc.) armazena os dados antes de passá-los adiante. O atraso,
que no X.25 é de 600 milissegundos, praticamente não ocorre no Frame Relay, onde cada DCE
simplesmente envia diretamente os dados ao próximo DCE através do canal virtual estabelecido.
Frame Relay foi criado em uma época em que linhas digitais já estavam disponíveis, onde a
taxa de erros é muito baixa e, portanto, as retransmissões de pacotes perdidos ou com erros não são
tão freqüentes quanto em linhas analógicas. A interligação de redes usando o Frame Relay é
tipicamente feita usando-se canais T1 (de 1,544 Mbps, padrão usado nos Estados Unidos) ou E1 (de
2 Mbps, padrão usado na Europa e no Brasil). Esses canais podem ser alugados das empresas que

54
Curso de Redes de Computadores – Plataforma Windows

oferecem redes públicas, como a Embratel. Quando o serviço é contratado, duas informações são
solicitadas: a velocidade máxima de transferência, ou seja, a velocidade do link da sua rede com a
rede Frame Relay, e a velocidade média de transmissão, chamada CIR (Committed Information
Rate).
Dessa maneira, a demora na retransmissão de um pacote é compensada pela velocidade na
transmissão de dados. Além disso, a taxa de erros é baixa.
Ou seja, o Frame Relay é um protocolo usado em redes comutadas que é extremamente
rápido, porém não garante a entrega dos dados.

Funcionamento do Frame Relay

No Frame Relay cada canal virtual é chamado de DLCI (Data Link Connection Identifier).
Apesar de o Frame Relay permitir conexões utilizando o método por chamada (SVC, Switched
Virtual Circuit), isto é; abrindo um canal somente quando o D'I'E A quiser transmitir dados ao DTE
B, o tipo de conexão mais usado em redes Frame Relay é o PVC (Permanent Virtual Circuit), onde
a conexão fica aberta permanentemente, e é estabelecida pelo provedor do serviço.
Em redes Frame Relay o DCE é chamado nó. Assim como um DCE, um nó pode ser
qualquer dispositivo que esteja fazendo o chaveamento da rede: um roteador, um switch, um
modem, etc.
Como o número do canal DLCI é armazenado em uma variável de 10 bits no quadro Frame
Relay, em princípio existem 1.024 canais em cada nó (210), permitindo, portanto, até 1.024
conexões.
A velocidade média, CIR, é usada para detectar o congestionamento da rede. Você deve
estar se perguntando o seguinte: "se a rede é comutada, como pode haver congestionamento, já que
a rede está fazendo a ligação direta do transmissor com o receptor?" O que ocorre é que a rede pode
usar linhas de comunicação de diferentes velocidades.
Provedores de redes Frame Relay mais baratos configuram o CIR como zero, fazendo com
que todos os quadros Frame Relay enviados pela rede de origem tenham esse bit ativado. Ou seja,
em caso de congestionamento, todos os quadros gerados por essa rede terão preferência para serem
descartados (e daí o por quê do serviço ser mais barato). Dessa forma, ao contratar um provedor de
redes Frame Relay, opte pelo CIR mais alto que você puder.

ATM

Fundamentos

Redes ATM (Asynchronous Transfer Mode) funcionam com o mesmo princípio de redes
X.25: são redes comutadas orientadas à conexão. A grande diferença são as altas taxas de
transferência obtidas pelo ATM, que variam entre 25 e 622 Mbps (já existem sistemas em testes
operando na casa de Gbps). A taxa de transferência mais usual em redes ATM é de 155 Mbps.
Compare esse valor com o 64 Kbps do X.25, com o 2 Mbps do Frame Relay, com o 10 Mbps do
Ethernet padrão e mesmo com o 100 Mbps do Ethernet 100BaseT para ver que o ATM é uma
tecnologia realmente promissora.
Assim como o X.25 e o Frame Relay, o ATM trabalha nas camadas mais baixas do modelo
OSI (de 1 a 3) e, portanto, necessita de um protocolo trabalhando acima dele. Vários protocolos
podem ser usados, como o TCP/IP e o próprio Frame Relay (sim, é possível usar redes ATM para
transportar quadros Frame Relay). Como a Internet tem sido um dos assuntos mais populares na
área de redes nos últimos anos, o uso do ATM transportando pacotes TCP/IP é assunto "quente" na
área.

55
Curso de Redes de Computadores – Plataforma Windows

Na Figura 54 vemos a arquitetura do ATM. Não há uma correlação exata das camadas ATM
(Camada de Adaptação e Transporte de Células) com as camadas 2 e 3 do modelo OSI; por esse
motivo não estamos comparando o ATM com esse modelo de referência. Interessante notar que
todas as camadas ATM estão fisicamente implementadas na placa de rede ATM.

Figura 54 – Arquitetura do ATM

Outra similaridade do ATM com o X.25 e com o ATM é o uso de redes públicas para o
transporte de dados entre duas ou mais redes. Redes públicas são aquelas oferecidas por
companhias especializadas em interligar redes (como a Embratel).
uma das grandes diferenças do Frame Relay para o X.25 é que o Frame Relay foi criado
baseado em redes públicas usando links digitais, enquanto o X.25 foi criado baseado em redes
públicas usando links analógicos. Já o ATM representa a terceira geração de redes públicas, usando
links por fibras ópticas, que apresentam uma série de vantagens inerentes às fibras ópticas (como a
total imunidade a ruídos),
Se você reparar bem, tecnicamente falando o ATM não é uma rede orientada à conexão, já
que ela não usa nenhum mecanismo de confirmação de recebimento de dados (acknowledge),
similarmente ao que ocorre no Frame Relay. Por outro lado, as redes ATM se baseiam na
transmissão de dados via fibras ópticas, onde a taxa de erro é inexistente. Como as fibras ópticas
transmitem dados por luz, a interferência eletromagnética (como ruídos) não corrompem os dados
que estão sendo transmitidos. É por esse motivo que, apesar de não haver confirmação do
recebimento dos pacotes ATM, as redes ATM são classificadas como sendo redes orientadas à
conexão.

Funcionamento do ATM

No ATM cada canal virtual é identificado com um número de 24 bits. Com isso é possível
termos até 16.777.216 canais em cada DCE (224). Em redes ATM o DCE é normalmente um switch,
que nesse tipo de rede possui a mesma função de um roteador: definir a rota entre a origem e o
destino.
A identificação de canal virtual possui dois campos: um de oito bits chamado VPI (Virtual
Path ldentifier) e outro de 16 bits chamado VCI (Virtual Channel Identifier), como vemos na Figura
55. Normalmente a identificação de canal virtual é também chamada par VPI/VCI.

56
Curso de Redes de Computadores – Plataforma Windows

Figura 55 – Exemplos de circuitos digitais em uma rede ATM.

A divisão da identificação do canal virtual em dois campos facilita na hora dos switches da
rede definirem o caminho da origem até o destino. Lembramos também que a numeração de
circuitos virtuais é referente a cada switch.
Como comentamos, as redes ATM geralmente são redes públicas cuja estrutura pode ser
alugada para conectar redes fisicamente distantes como, por exemplo, ligar duas redes de uma
mesma organização. Quando você contrata o serviço ATM, geralmente você pode escolher um dos
seguintes tipos de serviço, dependendo da sua necessidade de serviços e custos:
CBR (Constant Bit Rate, Taxa de Transferência Constante): Você define a velocidade do
link da sua rede com a rede ATM e essa velocidade será sempre a mesma.
VBR (Variable Bit Rate, Taxa de Transferência Variável): Embora o provedor da rede
defina uma taxa de transferência, ela não é fixa.
UBR (Unspecified Bit Rate, Taxa de Transferência não Especificada): Não garante nenhuma
velocidade de transferência, isto é, a velocidade não é pré-definida.
ABR (Available Bit Rate, Taxa de Transferência Disponível): Especifica uma taxa de
transferência mínima, e a taxa de transferência aumenta automaticamente se a rede estiver
descongestionada.

Transporte de Células

Os pacotes ATM são chamados células. No ATM não existe a possibilidade de as células
serem entregues fora de ordem. As células são enviadas em ordem e elas são recebidas na mesma
ordem de envio.
As células ATM são extremamente pequenas, carregando somente 48 bytes de dados cada.
Esse é o ponto mais estranho do ATM. Ter células pequenas compromete o desempenho por causa
da velocidade de chaveamento, pois na transmissão de dados são necessárias mais células ATM.
Por exemplo, para transmitir 1 KB de dados serão necessárias 22 células ATM, enquanto que em
uma rede local Ethernet seria necessário apenas um único quadro para transmitir esses dados. Com
isso, os switches terão de ser extremamente rápidos para poder ler e decodificar os cabeçalhos das
células, já que eles existirão em maior quantidade nas redes ATM do que em qualquer outro tipo de
rede.

57
Curso de Redes de Computadores – Plataforma Windows

Existem dois tipos de células ATM: UNI (User to Network Interface) e NNI (Network to
Network Interface). A célula do tipo UNI é usada no transporte de dados entre um computador e um
switch, enquanto a célula do tipo NNI é usada no transporte de dados entre dois switches.

Camada de adaptação

Por causa do tamanho da área de dados das células ATM - 48 bytes -, existe uma camada
intermediária entre os protocolos de alto nível a serem usados e a camada de Transporte de Células.
Essa camada é chamada Camada de Adaptação e abreviada como AAL (ATM Adaption Layer). O
papel dessa camada é pegar os dados recebidos dos protocolos de alto nível, encapsulá-los em um
pacote específico dessa camada e dividir esses pacotes em blocos de 48 bytes a serem enviados para
a camada inferior. Esse processo é chamado SAR (Segmentation And Reassembling).
A máquina receptora irá fazer o papel inverso: a sua camada de adaptação irá pegar as
células de 48 bytes recebidas e remontar os pacotes específicos dessa camada, de forma a enviar os
dados contidos na área de dados desse pacote para os protocolos de alto nível que estejam instalados
na máquina.
Existem vários padrões usados nesta camada, mas, no final das contas, somente a
especificação AALS sobreviveu e é este o padrão a que nos referimos quando falamos da camada
de adaptação ATM.

Camada Física

Redes ATM utilizam tipicamente fibras ópticas, utilizando os conectores padrões


disponíveis.
Há a possibilidade de se usar cabo par trançado categoria 5 operando a 155 Mbps em redes
ATM (nesse caso o comprimento do cabo será menor). Esse tipo de implementação não é
recomendado.

TCP/IP sobre ATM

Como foi falado, o ATM necessita de um protocolo operando acima dele. Como o TCP/IP é
o protocolo mais popular da atualidade - especialmente por conta da Internet -, nada mais justo do
que pensarmos no ATM operando com o TCP/IP acima dele. Quando isso ocorre, a relação entre
esses dois protocolos é a mostrada na Figura 56.

58
Curso de Redes de Computadores – Plataforma Windows

Figura 56 - Arquitetura de TCP/IP sobre o ATM

Como já foi visto, o tamanho máximo de um datagrama IP é de 64 KB, exatamente o mesmo


tamanho máximo do pacote AALS. Em princípio, para agilizar a comunicação entre essas duas
camadas, poderíamos usar datagramas IP de 64 KB de comprimento. O problema é que o IP
restringe o tamanho de seu datagrama em 9.180 bytes quando está operando em redes ATM. Esse
valor foi escolhido para compatibilizar as redes ATM com um tipo antigo de rede chamada SMDS
(Switched Multimegabit Data Service).

Utilizando vários protocolos

Se você reparar atentamente, a camada AALS não possui nenhum mecanismo para
identificar o tipo de dados que ele está enviando para a camada inferior (Transporte de Células).
Isso significa que o micro receptor não sabe qual é o protocolo que gerou o pacote de dados que ele
acabou de receber e, com isso, não sabe para quem deverá entregá-lo. Portanto, em princípio não
seria possível usar vários protocolos de alto nível em uma rede ATM.
Existem duas soluções para esse problema. A primeira é fazer com que os computadores
envolvidos na conexão estabeleçam um circuito virtual para cada protocolo que eles quiserem usar

59
Curso de Redes de Computadores – Plataforma Windows

na comunicação entre eles. Assim, o receptor saberá qual é o protocolo de alto nível usado por
causa do circuito virtual no qual estão chegando os dados.
A outra solução é usar uma parte da área de dados da camada AALS para enviar as
informações de qual protocolo está sendo usado. A desvantagem desse método é que o tamanho
máximo da área de dados do pacote AALS diminui.

Outros Protocolos

Fundamentos

Existem inúmeros protocolos no mundo, mas a verdade é que, no dia-a-dia, somente alguns
poucos protocolos realmente são usados. Por isso é que deixamos de fora os protocolos que
possuem uso muito restrito, os protocolos que nunca foram implementados de fato, e os protocolos
que não são mais utilizados.

NetBEUI
O NetBEUI (pronuncia-se "netbuí"), NetBIOS Enhanced User Interface, é um protocolo
proprietário da Microsoft, que acompanha todos os seus sistemas operacionais e produtos de redes,
como o Windows 9x/ME, Windows NT/2000, LAN Manager, LAN Server, etc. Foi criado
originalmente pela IBM, na época em que a IBM e a Microsoft possuíam uma parceria para a
produção de sistemas operacionais e softwares (1985).
Muita gente confunde NetBIOS com NetBEUI. O NetBIOS é uma API de programação do
protocolo NetBEUI, que trabalha na camada 5 do modelo OSI (Camada de Sessão), fazendo o
interfaceamento entre programas e o protocolo NetBEUI. Ou seja, o NetBIOS é apenas uma parte
do NetBEUI (que trabalha nas camadas 3 e 4 do modelo OSI). O NetBIOS também pode ser
utilizado em conjunto com outros protocolos diferentes do NetBEUI operando nas camadas abaixo
da camada 5 do modelo OSI (como o TCP/IP e o IPX/SPX, por exemplo), permitindo que os
programas utilizem uma "linguagem" comum para acessarem a rede, independentemente do
protocolo que está instalado na máquina.
Na Figura 57 apresentamos a arquitetura do protocolo NetÌIEUI, onde ficará mais clara a
relação do NetBEUI com o NetBIOS e a comparação com o modelo OSI.

Figura 57 – Arquitetura do protocolo NetBEUI

60
Curso de Redes de Computadores – Plataforma Windows

O NetBEUI é um protocolo pequeno e rápido. Porém possui duas grandes desvantagens que
tornam o seu uso praticamente inviável para redes com mais de 80 máquinas.
Primeiro, ele é um protocolo não roteável. Isso significa que não pode ser usado em redes
que possuem outras redes interconectadas, isto é, que utilizem roteadores para se comunicar.
E, segundo: o NetBEUI utiliza excessivamente mensagens de broadcast, congestionando a
rede sem necessidade. Em uma rede usando este protocolo, qualquer coisa que é feita na rede é
comunicada através de mensagens de broadcast. Por exemplo, se uma máquina precisa imprimir um
documento na impressora da rede, ela envia uma mensagem para todas as máquinas (em broadcast)
e não somente para a máquina que possui a impressora instalada, como ocorre com o uso de outros
protocolos. Com isso, a rede fica excessivamente ocupada, diminuindo o seu desempenho. Em
redes grandes, a comunicação pode se tornar inviável, de tão lenta que a rede fica por conta do
excesso de mensagens de broadcast.
Como atualmente a tendência é a interconexão de redes, especialmente por conta da Internet,
o uso do protocolo NetBEUI é desaconselhável.

AppleTalk

O AppleTalk é um protocolo proprietário usado pelos computadores da Apple. Muita gente


confunde AppleTalk com LocalTalk. AppleTalk é um protocolo de rede, e LocalTalk é um tipo de
cabeamento de rede que acompanha os computadores da Apple. O AppleTalk pode ser usado em
conjunto com vários tipos de cabeamento, como Ethernet (EtherTalk), Token Ring (TokenTalk) e
FDDI (FDDITalk), além do próprio LocalTalk.
O problema é que o LocalTalk, é um cabeamento extremamente lento, e muita gente pensa
que o AppleTalk é uma rede lenta. Isso não é verdade. Como esse protocolo pode ser usado com
outros tipos de cabos (Ethernet, Token Ring ou FDDI), ele pode trabalhar rapidamente. Ou seja, a
velocidade tem a ver com o cabeamento usado, não com o protocolo.
A arquitetura deste protocolo é mostrada na Figura 58. Como você pode ver, ele é um
protocolo bem organizado e segue quase que fielmente o modelo OSI.

Figura 58 – Arquitetura do protocolo AppleTalk

Na transmissão e recepção de dados gerados por aplicativos, o seu protocolo de transporte,


ATP (AppIeTalk Transport Protocol), equivale ao TCP e ao SPX, enquanto o seu protocolo de rede,
DDP (Datagram Delivery Protocol), equivale ao IP e ao IPX.

61
Curso de Redes de Computadores – Plataforma Windows

PPP

O PPP (Protocolo Ponto-a-Ponto) é um protocolo criado para transportar datagramas IP na


conexão entre dois pontos, tipicamente dois modems. Interessante notar que, apesar de ter sido
criado para transportar datagramas IP, esse protocolo também pode ser utilizado por outros
protocolos, como o IPX/SPX, por exemplo. A Figura 59 ilustra uma aplicação típica do protocolo
PPP

Figura 59 – Exemplo de uso do protocolo PPP

Desenhamos duas redes, mas cada rede poderia ser um micro equipado com um modem.
Quando conectamos o nosso micro em casa a um provedor de acesso à Internet, estamos na verdade
estabelecendo uma conexão PPP do nosso micro com o provedor. Na comunicação entre os dois
modems circularão na verdade quadros PPP, que possuirão datagramas IP dentro deles.
O protocolo PPP, além de transportar os dados, define um protocolo para controlar a
conexão, chamado LCP (Link Control Protocol). Esse protocolo tem como finalidade estabelecer a
conexão, testar a conexão e controlá-la.

SNA

O SNA (Systems Network Architecture) é uma arquitetura de rede para mainframes


(computadores de grande porte) desenvolvida pela IBM. Seu funcionamento é extremamente
complexo.
Essa arquitetura surgiu antes de o modelo OSI ter sido criado e foi o primeiro sistema de
redes a usar o conceito de protocolos em camadas. Na verdade, o modelo OSI foi criado a partir do
modelo de protocolos do SNA. Como você pode ver na Figura 60, o SNA utiliza sete camadas com
exatamente as mesmas funções descritas pelo modelo OSI.

Figura 60 – Arquitetura do SNA

62
Curso de Redes de Computadores – Plataforma Windows

Como você pode ver, o SNA não define a sua camada física e, portanto, podem ser
utilizados vários tipos de interface na comunicação dentro de uma rede SNA, como X.25, Token
Ring, FDDI e Ethernet.
O SNA não morreu, muito menos foi descontinuado. Assim como o TCP/IP, ele é um
protocolo vivo e bastante usado, mas, infelizmente, está um pouco longe do contato com o público e
até muitos especialistas em rede não sabem dimensionar exatamente a importância desse protocolo.
Para resumir, basta dizer que grandes bancos, governos, instituições de pesquisa e grandes empresas
quase sempre dependem do SNA em alguma parte do processamento dos seus dados.
A estrutura SNA tradicional baseava-se em redes contendo mainframes, computadores de
grande porte responsáveis por centralizar o controle da rede. Com o passar dos anos, como os
mainframes passaram a ser cada vez mais substituídos por minicomputadores e os terminais burros
que eram ligados a eles por PCs, a IBM lançou a segunda geração do SNA, chamada APPN
(Advanced Peer-to-Peer Networking), que dispensa o uso de mainframes. Vamos estudar primeiro a
estrutura do SNA tradicional e, depois, a estrutura do APPN.

CABEAMENTO

Cabo Coaxial

Fundamento

O cabo coaxial foi um dos primeiros tipos de cabo usados em rede. Ele possui dois fios,
sendo um uma malha que envolve o cabo em toda a sua extensão (ver Figura 61). Essa malha
funciona como uma blindagem, oferecendo uma excelente proteção contra interferências
eletromagnéticas.

Figura 61 – Cabo coaxial

O cabo coaxial mais utilizado, chamado cabo coaxial fino ou 10Base2, utiliza em suas
extremidades conectores chamados BNC, como você pode ver na Figura 62.

63
Curso de Redes de Computadores – Plataforma Windows

VISTA LATERAL VISTA FRONTAL

Figura 62 – Conector BNC

O cabo coaxial possui uma impedância, que é medida em ohms (Ω). As redes Ethernet,
utilizam cabos coaxiais de 50 ohms. Já redes ARCNet, utilizavam cabos de 93 ohms. Tome muito
cuidado, pois apesar de o cabo coaxial ser muito parecido com o cabo coaxial usado por antenas de
televisão, esses dois tipos de cabo possuem impedâncias diferentes (o cabo coaxial usado em TV é
de 75 Ω).
As vantagens do cabo coaxial são:
- Sua blindagem permite que o cabo seja longo o suficiente.
- Permite o uso de redes multi-canal (broadband).
- Mais barato que o par trançado blindado.
- Melhor imunidade contra ruídos e contra atenuação do sinal que o par trançado sem
blindagem.

As desvantagens do cabo coaxial são:


- Por não ser flexível o suficiente, quebra e apresenta mau contato com facilidade.
- Pelo mesmo motivo é difícil de passá-lo através de conduítes, dificultando a
instalação da rede no ambiente de trabalho.
- Normalmente utilizado em topologia linear, onde caso o cabo quebre ou apresente
mau contato, o segmento inteiro da rede deixa de funcionar.
- Mais caro que o par trançado sem blindagem.
- Cada tipo de rede requer um cabo com impedância diferente (como a maioria das
redes locais é Ethernet, isso não chega a ser um inconveniente).

O fato de esse tipo de cabo ser normalmente usado em uma topologia de rede chamada
topologia linear, onde o segmento inteiro da rede deixa de funcionar caso o cabo se parta ou
apresente mau contato, em conjunto com o fato de ele ser mais caro que o par trançado, fez com que
esse tipo de cabo esteja cada vez mais em desuso.
Entretanto, ainda hoje existem aplicações para esse tipo de cabo. Ele é uma solução barata
para trechos de rede que estejam sob forte interferência eletromagnética (ambiente industrial, por
exemplo), já que o par trançado sem blindagem, como o nome sugere, não possui qualquer proteção
contra interferências externas. No entanto, a fibra óptica está cada vez mais preenchendo essa
lacuna deixada pelo par trançado, já que está com um custo cada vez mais acessível.
Outro ponto que fez com que o cabo coaxial seja considerado obsoleto é a sua taxa de
transferência máxima: 10 Mbps. Hoje, os sistemas de par trançado operam a 100 Mbps, ou seja, dez
vezes mais rápido que o par trançado.

Ruído e Atenuação

Falamos muito de interferências eletromagnéticas, que geram ruído na transmissão. Quando


ocorre um ruído na transmissão, a informação que está sendo transmitida é corrompida, fazendo
com que retransmissões sejam necessárias.

64
Curso de Redes de Computadores – Plataforma Windows

A malha existente no cabo coaxial o protege contra ruídos.


Outro problema que ocorre na transmissão de sinais é a “atenuação". O sinal, à medida em
que vai percorrendo o cabo, vai perdendo sua "força", ficando mais fraco. Por esse motivo, o cabo,
seja ele de qual tipo for, tem um limite de comprimento, pois ele não pode ser infinitamente longo.
Por exemplo, o cabo coaxial fino, que estudaremos em breve, possui um limite de comprimento de
185 metros. Se você usar um cabo coaxial fino mais longo do que isso a rede não funcionará, já que
o sinal será atenuado e o receptor não conseguirá compreender corretamente o sinal recebido (ele
estará fraco demais).

SINAL DE ORIGEM SINAL CORROMPIDO

Figura 63 – Atenuação na transmissão de dados

O problema de atenuação é resolvido com o uso de um dispositivo chamado repetidor. O


repetidor é, na verdade, um amplificador de sinal. Atualmente todos os dispositivos de rede mais
avançados, como hubs, switches e roteadores, possuem um repetidor embutido.

Tipos de transmissão

O cabo coaxial pode ser usado em dois tipos de transmissão: baseband(uni-canal) e


broadband(multi-canal).
Em transmissões uni-canal (baseband), o meio é usado para transmitir apenas um canal de
dados e a transmissão de dados é feita de forma digital. Esse é o sistema mais usado por redes
locais. Esse é um sistema unidirecional; logo, a transmissão de dados em uma rede usando cabo
coaxial utiliza transmissões half-duplex.
Já em transmissões multi-canal (broadband), o meio é usado para transmitir
simultaneamente vários canais de dados, e a transmissão de dados é feita de forma analógica. É
como funciona o cabo que transmite o sinal de TV: neste cabo é possível transmitirmos informações
de vários canais simultaneamente.
As transmissões multi-canal são unidirecionais. Para poder transmitir dados nas duas
direções, há duas soluções: o uso de dois cabos (um para transmissão e outro para a recepção) ou a
divisão dos canais ao meio, isto é, dividindo cada canal em dois canais com a metade da velocidade
máxima do canal cada (por exemplo, se cada canal possui uma taxa máxima de 10 Mbps, ele seria
dividido em dois canais de 5 Mbps). Uma metade será usada para transmissão e outra para
recepção.

Tipos de cabo coaxial

Há vários tipos de cabo coaxial no mercado, já que esse tipo de cabo é também usado não só
em redes locais, mas também na transmissão de sinais de áudio e vídeo. Em redes locais, dois tipos
de cabos coaxiais são usados: cabo coaxial fino, também chamado 10Base2, e cabo coaxial grosso,
também chamado 10Base5. A diferença física entre esses dois cabos é, obviamente, a espessura do
cabo. Por conta dessa diferença, o cabo coaxial grosso é mais resistente a interferências
eletromagnéticas e sofre menos com o problema da atenuação. Com isso, seu comprimento máximo
é maior.

65
Curso de Redes de Computadores – Plataforma Windows

As nomenclaturas de cabos utilizam o seguinte padrão:


[Taxa máxima de transmissão][Tipo de transmissão][Tipo do cabo]

Assim, 10Base2 significa que a taxa máxima de transmissão é de 10 Mbps, a transmissão é


do tipo baseband (uni-canal) e o cabo é coaxial com comprimento máximo de 200 metros, isto é,
cabo coaxial fino (na verdade, o comprimento máximo do cabo coaxial fino é de 185 metros; nessa
nomenclatura o comprimento máximo foi arredondado). Já 10Base5 indica cabo coaxial com
comprimento máximo de 500 metros, isto é, cabo coaxial grosso.

Cabo Coaxial Fino (10Base2)

O cabo coaxial fino é também conhecido por outros nomes, como 10Base2, thinnet e
cheapernet, tendo sido apresentado na Figura 61. Existem vários tipos de cabo coaxial fino. O usado
em redes Ethernet chama-se RG-58 e, como vimos, possui uma impedância de 50 Ω. O cabo coaxial
usado nas antigas redes ARCnet chama-se RG-62 que possui impedância de 93 Ω. Esse mesmo cabo
era usado pela IBM na conexão de seus terminais, como o IBM 3270. Os cabos RG-58 e RG-62
possuem o mesmo aspecto; por isso, a melhor maneira de diferenciá-los é lendo o que há marcado
no cabo. O seu comprimento máximo é de 185 metros por segmento de rede e possui um limite de
30 máquinas conectadas por segmento de rede.
O cabo coaxial é tipicamente usado em redes Ethernet, usando uma topologia conhecida
como topologia linear, nesta topologia, todos os computadores da rede local são conectados através
de um mesmo cabo.
Em redes usando o cabo coaxial fino, a conexão de cada micro com o cabo da rede é feita
através de conectores BNC em "T", que vêm junto com a placa de rede quando você a compra. Na
Figura 64 vemos um conector BNC em "T" e, na Figura 65, vemos como esse conector é instalado
ao cabo da rede.

Figura 64 – Conector BNC em T

Figura 65 – Instalação do conector BNC em T

66
Curso de Redes de Computadores – Plataforma Windows

Nas duas pontas do cabo devemos instalar um terminador resistivo de 50 Ω (um em cada
ponta), para dar a correta impedância do cabo. Esse terminador é mostrado na Figura 66 e a sua
instalação é mostrada na Figura 67.

Figura 66 – Terminador Resistivo.

Conectado a placa de rede


do ultimo micro

Figura 67 – Instalação do terminador resistivo.

Uma rede usando cabo coaxial fino com topologia linear possui, portanto, a aparência
mostrada na Figura 68. A distância mínima entre duas máquinas em uma rede usando cabo coaxial
fino é de 0,5 m.

Figura 68 – Exemplo de uma rede usando cabo coaxial fino

67
Curso de Redes de Computadores – Plataforma Windows

Como vimos, o cabo coaxial fino possui um limite de 185 metros de comprimento. É
possível aumentar o comprimento da rede através de um dispositivo chamado repetidor, como
mostra a Figura 69. A rede mostrada nessa figura possui dois segmentos, rede 1 e rede 2. Cada
segmento é tratado como uma rede independente, apesar de logicamente pertencerem à mesma rede
local. Com isso, o comprimento do cabo refere-se ao comprimento de cada segmento e não ao
comprimento total da rede.

O mesmo se aplica para o número máximo de máquinas instaladas. O cabo coaxial fino
possui um limite de 30 máquinas instaladas por segmento. Com o uso do repetidor, é possível,
portanto, aumentar esse limite. A rede da Figura 69 pode ter até 60 máquinas, 30 na rede 1 e 30 na
rede 2.

Figura 69 – Aumentando o comprimento máximo do cabo usando um repetidor

Cabo Coaxial Grosso (10Base5)

O cabo coaxial grosso é também conhecido como thicknet. O seu comprimento máximo é de
500 metros por segmento de rede.
Sua blindagem é dupla, ao contrário do cabo coaxial fino, que possui apenas uma
blindagem. É por esse motivo que esse tipo de cabo é grosso.
Como ele é mais grosso que o cabo coaxial fino, ele é menos flexível, o que dificulta o seu
uso (a passagem do cabo dentro de conduítes no ambiente de trabalho, por exemplo). Por isso, esse
cabo é bem menos utilizado que o cabo coaxial fino.
Antigamente, antes de a fibra óptica tornar-se tão acessível como é hoje, esse tipo de cabo
era usado para formar a espinha dorsal (backbone) da rede. Atualmente esse tipo de cabo não é mais
usado com essa finalidade, já que ele - assim como o cabo coaxial fino - possui um limite de
velocidade de 10 Mbps.
Em redes usando o cabo coaxial grosso, a ligação de cada micro ao cabo é feita através de
um conector chamado vampiro. Esse conector faz dois pequenos furos no cabo (daí o seu nome),
estabelecendo contato com o núcleo e com a malha do cabo. Esse conector é ligado a um
transceptor (transceiver), que por sua vez é ligado à placa de rede do micro através de um cabo (que
pode ter até 15 metros), como mostra a Figura 70.

68
Curso de Redes de Computadores – Plataforma Windows

Figura 70 – Conexão de um micro a uma rede usando cabo coaxial grosso

O conector usado no transceptor é um conector de 15 pinos. Para conectar esse dispositivo à


placa de rede, você precisará usar uma placa de rede que possua uma porta AUI (Attachment Unit
Interface), também chamada DIX (Digital Intel Xerox, nome das empresas que criaram essa porta).
Essa porta é um conector de 15 pinos fêmea e nem todas as placas de rede possuem essa porta. Na
Figura 71 mostramos o aspecto dessa porta.

Figura 71 – Porta AUI da placa de rede, onde o transceptor do cabo coaxial grosso é instalado

A instalação do transceptor pode ser feita com a rede ativa, isto é, não é necessário desligar a
rede para instalar esse componente.
A distância entre cada transceptor instalado no cabo coaxial grosso deve ser de, no mínimo,
2,5 m. Por esse motivo, o cabo coaxial grosso possui uma marcação a cada 2,5 m, para orientar o
técnico.
O revestimento externo do cabo coaxial grosso em geral é colorido (amarelo ou laranja),
com uma faixa preta a cada 2,5 m. Isso serve para facilitar a identificação do cabo da rede.

69
Curso de Redes de Computadores – Plataforma Windows

Assim como o cabo coaxial fino, o cabo coaxial grosso necessita de terminação resistiva de
50 Ω em cada uma das pontas do cabo. Em cada uma das duas pontas do cabo coaxial grosso é
instalado um conector coaxial chamado N. Esse conector é parecido com o BNC, só que o seu
encaixe é em forma de rosca.

Trabalhando com Cabo Coaxial

A grande dificuldade de trabalharmos com cabo coaxial é a sua espessura e a sua pouca
flexibilidade. Isso faz também com que problemas de mau contato e cabo partido ocorram com
facilidade. Como na maioria das vezes o cabo coaxial é instalado em topologia linear, se o cabo for
interrompido o segmento inteiro deixa de funcionar, ou seja, a rede deixa de funcionar.
Em redes usando o cabo coaxial fino, a rede é composta por vários trechos de cabos. Nesse
tipo de rede cada trecho deve ter, no mínimo, 0,5 m.

Fazendo Emendas
Você não pode fazer emendas no cabo coaxial. Caso ele se parta ou apresente mau contato, a
solução é refazer o cabo problemático, isto é, substituir o trecho de cabo danificado.
Outra solução que pode ser usada é o uso de um conector BNC de emenda, também
chamado barril, mostrado na Figura 72. Essa solução é bastante interessante caso você deseje
aumentar a extensão de um cabo coaxial mas ele já esteja preso de uma forma que dificulte a sua
substituição (por exemplo, um cabo longo dentro de um conduíte embutido em uma parede).
Entretanto, este conector deve ser utilizado como um último recurso, pois o seu uso faz cair
o desempenho do cabo.

Figura 72 – Conector BNC de emenda.

Montando Cabos Coaxiais Finos


Para agilizar a montagem de cabos coaxiais, os conectores BNC utilizados deverão ser
conectores BNC de instalação por pressão, mais conhecido como conector BNC para crimpagem.
Esse tipo de conector não usa solda e, por isso, a sua instalação é muito mais rápida do que os
antigos modelos que necessitavam de soldagem. Na Figura 73 nós vemos os componentes desse
conector: conduíte metálico, corpo e pino central.

Figura 73 – Conector BNC de pressão

Para a instalação do conector BNC no cabo coaxial são necessárias, além do cabo e do
conector, duas ferramentas apropriadas. A primeira é o descascador de cabo coaxial. Essa
ferramenta é responsável por desencapar o cabo corretamente e é mostrada na Figura 74. A segunda

70
Curso de Redes de Computadores – Plataforma Windows

ferramenta necessária para a montagem do cabo coaxial é o alicate para instalação do conector
BNC, mais conhecido como alicate para crimp, mostrado na Figura 75.

Figura 74 – Descascador de cabo coaxial

Figura 75 – Alicate crimp

Para instalar um conector BNC em um cabo coaxial, você deverá seguir os seguintes passos:

1. Depois que o conector BNC estiver instalado, fica muito mais difícil passar o cabo coaxial
por dentro de conduítes e outras instalações para ocultar o cabo que possam ser usadas. Por isso, o
primeiro passo é passar o cabo por essas estruturas usadas para ocultá-lo. Depois que o cabo for
devidamente passado, você deverá cortá-lo. Só não se esqueça de deixar uma folga de alguns
centímetros no cabo.
2. Desencape a extremidade do cabo. Para isso, use o descascador. O descascador possui
uma regulagem de altura da lâmina. Se a lâmina estiver muito levantada, o descascador não
conseguirá desencapar o cabo. Se a lâmina estiver muito abaixada, o descascador irá cortar não só a
capa plástica do cabo, mas também a malha do cabo A Figura 76 mostra o processo passo-a-passo
para o desencapamento do cabo coaxial. Já a Figura 77 mostra o cabo antes e depois de ser
desencapado.

71
Curso de Redes de Computadores – Plataforma Windows

Figura 76 – Desencapando a cabo coaxial

Figura 77 – Cabo coaxial antes e depois de ser desencapado

3. Após desencapar o cabo, instale o conduíte metálico, como mostra a Figura 78. Ele deverá
entrar sem dificuldade.
4. Levante a malha do cabo coaxial e desencape um pedaço da extremidade da proteção
plástica do condutor central do cabo, de modo que um pouco do condutor central fique à mostra,
como é ilustrado na Figura 79. O condutor central será inserido no pino central do conector BNC.

72
Curso de Redes de Computadores – Plataforma Windows

Com isso, você deverá verificar a "profundidade" do pino central e deverá desencapar somente a
quantidade exata do condutor central que será inserido no pino central.

Figura 78 – Instalação do conduíte metálico

Figura 79 – Preparando o cabo para receber o pino central

5. Instale o pino central. Observando esse pino, você verá que ele possui um furo. Insira o
condutor central do cabo coaxial dentro desse furo. Em seguida, você deverá utilizar o alicate de
crimp para fixar o pino central. Esse alicate possui um pequeno orifício apropriado para essa tarefa.
Basta abrir o alicate, instalar o pino (com o condutor central em seu interior, naturalmente) e fechar
o alicate. O alicate amassará o pino, prendendo-o no condutor central do cabo coaxial.

Antes de pressionar com o alicate.

Depois de pressionar com o alicate.

Figura 80 - Instalação do pino central.

6. Instale o corpo do conector BNC no cabo. Ele ficará com o aspecto mostrado na Figura
81. Repare que a extremidade do corpo BNC ficará sob a malha do cabo. Corte o excesso de malha,
isto é, o que ficar maior que a distância do cabo até o corpo do conector BNC.

Figura 81 - Instalação do corpo do conector BNC.

7. Mova o conduíte metálico até o corpo do conector BNC, como indicado na Figura 82.

Figura 82- Movendo o conduíte metálico ao seu devido lugar.

73
Curso de Redes de Computadores – Plataforma Windows

8. Por fim, prenda o conjunto usando o alicate de pressão. Basta abrir o alicate, inserir o
conduíte metálico no local apropriado do alicate e fechar o alicate. Pressione bem. Ao abrir o
alicate, o conector estará devidamente preso. A Figura 83 ilustra esse processo.

Antes de pressionar com o alicate.

Depois de pressionar com o alicate.

Figura 83 - Prendendo o conector BNC no cabo coaxial.

Instalando Transceptores em cabos coaxiais grossos


O transceptor que deve ser instalado no cabo coaxial grosso possui duas partes: um conjunto
que faz a perfuração do cabo grosso, também chamado conjunto da sonda, e o transceptor em si.
Dessa forma, a instalação do transceptor possui duas etapas básicas: a instalação do conjunto
da sonda ao cabo e, posteriormente, a instalação do transceptor a este conjunto. Na Figura 84 nós
vemos a vista explodida deste conjunto para uma melhor compreensão.

Figura 84 - Conjunto da sonda, que é presa ao cabo coaxial grosso.

74
Curso de Redes de Computadores – Plataforma Windows

A instalação do transceptor, portanto, não possui mistério algum. O único detalhe é que,
após a instalação do conjunto da sonda, o cabo precisa ser furado com uma furadeira através do
orifício onde a sonda será instalada. Somente após furar o cabo é que a sonda (que faz o contato
com o condutor central do cabo) é instalada. Em seguida, basta instalar o transceptor ao conjunto da
sonda.
Não devemos esquecer de que a distância mínima entre dois transceptores é de 2,5 m e que o
cabo coaxial grosso possui uma faixa, normalmente preta, pintada a cada 2,5 m. Por isso, é
interessante instalar o conjunto da sonda ao lado de uma faixa dessas, para facilitar o seu controle
da distância mínima, isto é, para você saber que não poderá instalar um outro transceptor antes da
próxima faixa existente no cabo.

Par Trançado

Fundamentos

O par trançado é o tipo de cabo de rede mais usado atualmente. Existem basicamente dois
tipos de cabo par trançado: sem blindagem, também chamado UTP (Unshielded Twisted Pair), e
com blindagem, também chamado STP (Shielded Twisted Pair). A diferença entre eles é justamente
a existência, no par trançado com blindagem, de uma malha em volta do cabo protegendo-o contra
interferências eletromagnéticas.
O par trançado mais popular é o par trançado sem blindagem, que é mostrado na Figura 85
Esse tipo de cabo utiliza um conector chamado RJ-45, que é mostrado na Figura 86. A maioria das
redes hoje em dia utiliza esse sistema de cabeamento.

Figura 85 - Par trançado sem blindagem.

Figura 86 - Conector RJ-45, utilizado pelo par trançado sem blindagem.

Você deve estar pensando o porquê de o tipo mais popular de cabo aparentemente não
oferecer nenhuma proteção contra ruídos, através de uma blindagem.
Na realidade, o par trançado sem blindagem possui uma ótima proteção contra ruídos, só que
usando uma técnica chamada cancelamento e não através de uma blindagem. Através dessa técnica,
as informações circulam repetidas em dois fios, sendo que no segundo fio a informação possui a sua
polaridade invertida.
Todo fio produz um campo eletromagnético ao seu redor quando um dado é transmitido. Se
esse campo for forte o suficiente, ele irá corromper os dados que estejam circulando no fio ao lado
(isto é, gera ruído). Em inglês esse problema é conhecido como cross-talk.
A direção desse campo eletromagnético depende do sentido da corrente que está circulando
no fio, isto é, se é positiva ou então negativa. No esquema usado pelo par trançado, como cada par
transmite a mesma informação só que com a polaridade invertida, cada fio gera um campo
eletromagnético de mesma intensidade, mas em sentido contrário. Com isso, o campo

75
Curso de Redes de Computadores – Plataforma Windows

eletromagnético gerado por um dos fios é anulado pelo campo eletromagnético gerado pelo outro
fio.
Além disso, como a informação é transmitida duplicada, o receptor pode facilmente verificar
se ela chegou ou não corrompida. Tudo o que circula em um dos fios deve existir no outro fio com
intensidade igual, só que com a polaridade invertida. Com isso, aquilo que for diferente nos dois
sinais é ruído e o receptor tem como facilmente identificá-lo e eliminá-lo.
Esses dois fios são enrolados um no outro, o que aumenta a força dessa proteção
eletromagnética. Por isso esse tipo de cabo é chamado par trançado. Os fios são agrupados de dois
em dois e enrolados.
O par trançado tradicional utiliza dois pares, um para a transmissão de dados (TD) e outro
para a recepção de dados (RD). Como utilizam canais separados para a transmissão e para a
recepção, é possível utilizar a comunicação full-duplex com esse tipo de cabo. No cabo par trançado
tradicional, existem quatro pares de fio. Dois deles não são utilizados.
A principal vantagem do par trançado, além do seu preço, é a sua flexibilidade de instalação.
Como ele é bastante flexível, ele pode ser facilmente passado por dentro de conduítes embutidos em
paredes, por exemplo. Prédios comerciais mais modernos inclusive são construídos já com a
instalação de cabeamento de rede, normalmente utilizando par trançado. Juntamente com o par
trançado surgiu o conceito de cabeamento estruturado, que nada mais é que um sistema de
organização do cabeamento da rede utilizado em redes que possuam muitos micros. O cabeamento
estruturado inclui tomadas de rede, racks e armários.
Sua principal desvantagem é o limite do comprimento do cabo (100 metros por trecho) e da
baixa imunidade contra interferências eletromagnéticas (somente no cabo sem blindagem, é claro).
Mas na maioria dos casos do dia-a-dia esses dois fatores não são tão importantes. Em um escritório
ou mesmo em um prédio comercial raramente a distância entre um micro e o concentrador é maior
que 100 metros. E a interferência eletromagnética realmente só será preocupante em ambientes
industriais, onde existam muitos motores, geradores, etc.
A taxa de transferência máxima padrão do par trançado é de 10 Mbps, a mesma velocidade
máxima do cabo coaxial. Esse tipo de cabo é chamado 10BaseT (10 Mbps, transmissão uni-canal,
par trançado). Atualmente o par trançado opera a 100 Mbps e é chamado 100BaseT. Existe ainda o
par trançado operando a 1.000 Mbps, chamado 1000BaseT ou Gigabit Ethernet.
O par trançado possui um limite de dois dispositivos por cabo.

Topologia

Redes usando o par trançado são fisicamente instaladas utilizando uma topologia chamada
estrela. Nesta topologia, existe um dispositivo concentrador, chamado hub, fazendo a conexão entre
os computadores, como mostra a Figura 87. Isso resolve o problema do limite de dois dispositivos
por cabo do par trançado.
A grande vantagem dessa topologia é que, caso um cabo se parta, somente o micro
conectado àquele cabo perde comunicação com a rede: o restante da rede continua funcionando
normalmente. Como vimos anteriormente, o cabo coaxial utiliza uma topologia chamada linear,
onde todos os micros compartilham um mesmo cabo e, com isso, caso o cabo se parta, todos os
micros perdem a conexão com a rede.
HUB

Figura 87 - Topologia em estrela.

76
Curso de Redes de Computadores – Plataforma Windows

Apesar de fisicamente a topologia utilizada pelo par trançado ser em estrela, logicamente ela
continua sendo uma topologia linear. Isto é, quando um dado é enviado para a rede, todas as
máquinas recebem aquele dado. Enquanto um micro estiver se comunicando com outro, nenhum
outro pode utilizar a rede, pois o cabeamento estará ocupado.
Dessa forma, comparando uma rede usando cabo coaxial com uma rede usando o par
trançado padrão (10BaseT), não há diferença alguma de desempenho, ao contrário do que muita
gente pensa. O hub não possui a capacidade de aumentar o desempenho da rede.
A vantagem de se utilizar um hub, isto é, uma rede com topologia em estrela, está na
flexibilidade dessa instalação. A adição de novas máquinas na rede não pára a rede como ocorre
com o cabo coaxial (pois na topologia linear você é obrigado a interromper o cabo para instalar
novos conectores "T" e, como temos exaustivamente falado, a interrupção do cabo pára a rede) e
caso haja problemas com o cabo, somente a máquina conectada ao cabo problemático perde a
conexão com a rede, facilitando, inclusive, a identificação do cabo defeituoso. Outra vantagem
dessa topologia é o uso do cabeamento estruturado.

Par Trançado sem Blindagem (UTP)

O par trançado sem blindagem é o tipo de cabo mais usado por redes atualmente. Ele
também é chamado UTP, Unshielded Twisted Pair. A EIA/TIA (Electronic Industries
Alliance/Telecommunications Industry Association), órgão norte-americano responsável pela
padronização de sistemas de telecomunicações, padronizou os cabos do tipo par trançado em uma
norma chamada 568. Nessa norma, os cabos são classificados em categorias, de 1 a 5.
Os cabos de categoria 1 e 2 são usados por sistemas de telefonia, enquanto os cabos de
categoria 3, 4 e 5 são usados por redes locais:
Categoria 3: Permite comunicações até 16 Mbps. É utilizado por redes 10BaseT, isto é, por
redes utilizando par trançado operando a 10 Mbps. É também utilizado em redes Token Ring.
Categoria 4: Permite comunicações até 20 Mbps.
Categoria 5: Permite comunicações até 100 Mbps. É o tipo de cabo par trançado mais usado
hoje em dia. Possui uma impedância de 100 Ω e é utilizado por redes 100BaseT. Também é
utilizado em redes 1000BaseT.
Dessa forma, atualmente quando dizemos "par trançado" está implícito o uso de cabo
categoria 5, que é o tipo de cabo mais usado atualmente.

Pinagem

O par trançado padrão utiliza apenas dois pares de fio, um para a transmissão de dados e
outro para a recepção de dados. Acontece que o cabo par trançado possui quatro pares de fios.
Portanto, dois não são utilizados. Vimos também que o par trançado sem blindagem utiliza em suas
extremidades um conector chamado RJ-45, que possui oito contatos. Para a correta identificação
dos pares dentro do cabo, os pares são coloridos: verde, laranja, marrom e azul. Um dos fios dos
pares é totalmente colorido (ou então colorido com uma pequena faixa branca) e o outro é branco
com uma faixa colorida. Por exemplo, no par verde, um dos fios é totalmente verde (ou verde com
pequenas faixas brancas) e o outro é branco com pequenas faixas verdes.
Como vimos anteriormente, o par trançado possui um limite de dois dispositivos por cabo;
logo, ele é sempre usado com dois plugues RJ-45, cada um conectado em uma das pontas do cabo.
Os cabos par trançado normalmente utilizam um esquema de ligação chamado pino-a-pino. Neste
esquema, o pino 1 do primeiro plugue é ligado ao pino 1 do segundo plugue, o pino 2 é ligado ao
pino 2 e assim sucessivamente até o oitavo pino, como mostra a Figura 88.

77
Curso de Redes de Computadores – Plataforma Windows

12345678 12345678

Figura 88 - ligação pino-a-pino.

Tudo seria muito simples se não houvesse diversas maneiras de se colocar os fios em ordem
no conector RJ-45. Em princípio, basta ligar o pino 1 do primeiro conector ao pino 1 do segundo
conector, o pino 2 do primeiro conector ao pino 2 do segundo e assim por diante para montar um
cabo par trançado.
O problema todo é a falta de padronização. Por exemplo, você poderia usar o fio laranja para
conectar o primeiro pino, outro técnico poderia utilizar o fio verde, enfim, cada técnico ao redor do
mundo iria utilizar o seu próprio padrão de fiação. Na hora de fazer a manutenção de uma rede,
ficaria difícil adivinhar qual foi a ordem dos fios que o técnico usou na montagem do cabo.
O sistema de cabeamento 10BaseT original utiliza o seguinte padrão:

Pino Cor Função


1 Branco com verde +TD
2 Verde -TD
3 Branco com laranja +RD
4 Azul Não usado
5 Branco com azul Não usado
6 Laranja -RD
7 Branco com marrom Não usado
8 Marrom Não usado

Esse esquema de fiação é derivado do padrão T568A do TIA/EIA, que é o padrão preferido
na ligação dos fios do cabo par trançado no plugue RJ-45. Esse padrão de fiação é apresentado na
Figura 89.

78
Curso de Redes de Computadores – Plataforma Windows

Figura 89 - Padrão de fiação T568A, usado em cabo par trançado sem blindagem.

As indicações T e R significam, respectivamente, Tip (ponta) e Ring (anel). Essa


nomenclatura, obsoleta por sinal, faz referência ao antigo padrão de cabeamento telefônico utilizado
antes da existência das centrais telefônicas automáticas. Cada conjunto T e R forma um par, como
você pode observar na Figura 89.
Importante notar que existem outros padrões de fiação, como o T568B e o USOC. Esses
padrões devem ser evitados. O padrão USOC (Universal Service Order Code) inclusive não pode
ser usado para redes locais. O que ocorre é que a ordem dos fios nesse esquema faz com que os fios
que pertencem a um mesmo par fiquem distantes, possibilitando a existência de interferência
eletromagnética e linha cruzada: o par 3 é ligado aos pinos 2 e 7 (e não aos pinos 1 e 2) e o par 4 é
ligado aos pinos 1 e 8 (e não aos pinos 7 e 8).
O esquema T568B pode ser alternativamente usado, mas é preferível que você use o
esquema T568A, que é o mais usado em todo o mundo. A diferença entre esses dois esquemas é que
a posição dos pares 2 e 3 (fios laranja e verde) é trocado. A tabela a seguir mostra a posição dos fios
do padrão T568B.

Pino Cor
1 Branco com laranja
2 Laranja
3 Branco com verde
4 Azul
5 Branco com azul
6 Verde
7 Branco com marrom
8 Marrom

1000BASET (GIGABIT ETHERNET)

Como falamos anteriormente, o cabo par trançado categoria 5 possui uma taxa de
transmissão máxima de 100 Mbps. Dessa forma, como as redes 1000BaseT (Gigabit Ethernet)
funcionam, se elas utilizam esse tipo de cabo?
Isso é possível porque o sistema Gigabit Ethernet utiliza um esquema onde os quatro pares
de fios são usados simultaneamente, isto é, os quatro pares são usados para transmitir pedaços da
mesma informação. Cada par é bi-direcional e trabalha em modo full-duplex. O esquema de
modulação usado pelo Gigabit Ethernet (chamado 4D-PAMS) permite que vários dados possam ser

79
Curso de Redes de Computadores – Plataforma Windows

enviados por vez (no sistema Ethernet padrão, apenas um bit é transmitido por vez), permitindo
atingir a taxa de transferência de 1000 Mbps.
O sistema de pinagem utilizado pelo Gigabit Ethernet é o mostrado na tabela a seguir
(baseada no padrão T568A).

Pino Cor Função


1 Branco com verde +BI_DA
2 Verde -BI_DA
3 Branco com laranja +BI_DB
4 Azul +BI_DC
5 Branco com azul -BI_DC
6 Laranja -BI_DB
7 Branco com marrom +BI_DD
8 Marrom -BI_DD

Cross-Over

Vimos que os cabos par trançado fazem uma ligação pino-a-pino entre os dispositivos que
estejam interligando, por exemplo, a ligação de um micro a um hub. Como vimos anteriormente,
um par de fios é usado para a transmissão e outro par é usado para a recepção. O que acontece
dentro do hub é que esse dispositivo conecta os sinais que estão saindo das máquinas (TD) às
entradas de dados das demais máquinas (RD) e vice-versa, para que a comunicação possa ser
estabelecida. Esse esquema é chamado crossover (cruzamento) e é mostrado na Figura 90. Sem o
cross-over dentro do hub a comunicação não seria possível, já que os micros tentariam transmitir
dados para a saída de dados dos demais micros, e não para a entrada de dados, como é o correto.

Figura 90 – Funcionamento do Cross-Over efetuado dentro do hub.

Em algumas situações pode ser que você tenha de interligar equipamentos que não façam o
cross-over internamente. Por exemplo, se você quiser montar uma rede com apenas dois micros
usando par trançado sem usar um hub (isto é, ligando os micros diretamente) o cabo pino-a-pino
não funcionará, pois com ele você ligará a saída de dados do primeiro micro à saída de dados do
segundo micro (e não à entrada de dados, como seria o correto). Nesse tipo de situação, você

80
Curso de Redes de Computadores – Plataforma Windows

precisa utilizar um cabo cross-over, que faz o cruzamento externamente, no cabo, como mostra a
Figura 91.

Figura 91 – Funcionamento do cabo Cross-Over

Outro uso bastante comum do cabo cross-over é na ligação de dois hubs. Se você ligar dois
hubs usando portas convencionais, que já façam o cross-over, um cabo pino-a-pino irá anular o
cruzamento, e os sinais de transmissão do primeiro hub serão ligados aos sinais de transmissão do
segundo hub, e não às entradas de recepção, como é o correto.
O cabo cross-over, ao contrário do cabo pino-a-pino, interliga a saída de dados do primeiro
micro à entrada de dados do segundo e vice-versa. A pinagem desse tipo de cabo para redes
10BaseT e 100BaseT é mostrada na tabela a seguir.

Pino (Conector A) Cor Pino (Conector B)


1 Branco com verde 3
2 Verde 6
3 Branco com laranja 1
4 Azul 4
5 Branco com azul 5
6 Laranja 2
7 Branco com marrom 7
8 Marrom 8

Em redes 1000BaseT (Gigabit Ethernet) a pinagem do cabo cross-over é a que se segue, já


que nesse tipo de rede todos os pares do cabo par trançado são utilizados.

Pino (Conector A) Cor Pino (Conector B)


1 Branco com verde 3
2 Verde 6
3 Branco com laranja 1
4 Azul 7
5 Branco com azul 8
6 Laranja 2

81
Curso de Redes de Computadores – Plataforma Windows

7 Branco com marrom 4


8 Marrom 5

Montando cabo par trançado sem blindagem

A montagem do cabo par trançado sem blindagem é relativamente simples. Além do cabo,
você precisará de um conector RJ-45 de pressão para cada extremidade do cabo e de um alicate de
pressão para conectores RJ-45 (também chamado de alicate de crimp). Esse alicate é mostrado na
Figura 92.
A seguir mostramos o passo-a-passo de como fazer para montar um cabo par trançado.

Figura 92 - Alicate de pressão para a instalação de conectores RJ-45.

1. Assim como ocorre com o cabo coaxial, fica muito difícil passar o cabo por conduítes e
por estruturas usadas para ocultar o cabo depois que os plugues RJ-45 estão instalados. Por isso,
passe o cabo primeiro antes de instalar os plugues. O cabo par trançado é vendido em rolos de
centenas de metros, por isso corte o cabo no comprimento desejado. Lembre-se de deixar uma folga
de alguns centímetros, já que o usuário poderá mover ou alterar a posição do micro que será
conectado na rede. Além disso, você poderá errar na hora de instalar o plugue RJ-45, fazendo com
que você precise cortar alguns poucos centímetros do cabo para instalar novamente o plugue.
2. Desencape aproximadamente 2,5 cm do cabo. Remova somente a proteção externa do
cabo (que normalmente é azul), não desencape os fios. Isso pode ser feito cuidadosamente com uma
pequena tesoura (ou com um desencapador de cabo par trançado, que é encontrado em lojas do
ramo). Alguns cabos possuem um filme plástico envolvendo os fios. Essa proteção deve também ser
removida.

2,5 cm
Figura 93 - Desencapando o cabo par trançado.

3. Desenrole os fios que ficaram para fora do cabo, ou seja, deixe-os "retos" e não trançados,
como mostra a Figura 94.

Figura 94 - Desenrolando os fios do cabo.

82
Curso de Redes de Computadores – Plataforma Windows

4. Coloque os fios na ordem em que eles serão instalados no conector RJ-45 (ver tabela a seguir).
Os pinos do conector RJ-45 são contados da esquerda para a direita, com os contatos virados para
você e com a parte onde o cabo entra apontada para baixo.

Pino Cor
1 Branco com verde
2 Verde
3 Branco com laranja
4 Azul
5 Branco com azul
6 Laranja
7 Branco com marrom
8 Marrom

5. Corte os fios a 1,5 cm do invólucro do cabo utilizando um alicate de corte, como mostra a Figura
95.

1.5 cm

Figura 95 - Cortando os fios para que eles possuam o comprimento correto.

6. Observe, no conector RJ-45, que para cada pino existe um pequeno "tubo" onde o fio deve ser
inserido. Insira cada fio em seu "tubo", até que atinja o final do conector. Não é necessário
desencapar os fios.

Figura 96: Inserindo os fios no conector RJ-45.

7. Ao terminar de inserir os fios no conector RJ-45, basta inserir o conector no alicate de pressão e
pressionar o alicate. Antes disso, verifique atentamente se todos os fios realmente atingiram o final
do conector. Os pinos do conector são pequenas lâminas que desencapam os fios e, ao mesmo
tempo, fazem o contato externo. Por isso não é necessário desencapar os fios (os próprios pinos, ao
serem pressionados com o alicate, efetuam essa tarefa por você).
8. Após pressionar o alicate, remova o conector do alicate e verifique se o cabo ficou bom. Para
isso, puxe o cabo para ver se não há nenhum fio que ficou solto ou frouxo.
9. Repita o processo para a outra ponta do cabo.

83
Curso de Redes de Computadores – Plataforma Windows

Par trançado com blindagem (STP)

Como comentamos, o par trançado com blindagem oferece uma proteção a mais contra
interferências eletromagnéticas, através de uma blindagem existente no cabo. Esse tipo de cabo é
também chamado STP (Shielded Twisted Pair).
Existem dois tipos de par trançado blindado. O mais simples, apresentado na Figura 97,
possui apenas uma malha, que protege os pares trançados. Sua impedância é de 100 ohms e,
portanto, não deixa de ser um cabo UTP com uma malha adicionada. Já o segundo tipo, apresentado
na Figura 98, apresenta uma malha individual para cada par trançado, além de uma malha externa
protegendo todo o conjunto. Esse cabo possui uma impedância de 150 ohms e é tipicamente usado
pelo sistema de cabos das redes Token Ring.

Figura 97 - Par trançado com blindagem simples (100 ohms).

Figura 98 - Par trançado com blindagem individual (150 ohms).

O grande cuidado a se tomar quando trabalhamos com par trançado blindado é o fato de que
a blindagem, ao contrário do que ocorre no cabo coaxial, não tem qualquer relação com o sinal que
está sendo transmitido através do cabo. Com isso, a blindagem tem de ser aterrada nos dois pontos
de conexão do cabo. Caso isso não seja feito, a blindagem funciona como uma antena, captando
ondas de rádio e acabando por gerar interferência eletromagnética no cabo.
Como fica fácil supor, o par trançado blindado de 100 ohms é usado em redes Ethernet
(Figura 97) e pode ser usado na substituição direta do par trançado sem blindagem. Já o par
trançado blindado de 150 ohms não pode ser usado em redes Ethernet, sendo indicado para redes
Token Ring. A IBM chama esse cabo de Tipo 1. Ele consegue atingir taxas de transferência de até
100 Mbps. Já o cabo Tipo 1A é um cabo Tipo 1 que consegue operar com taxas de até 300 Mbps.

Cabeamento estruturado

A idéia básica do cabeamento estruturado é fornecer ao ambiente de trabalho um sistema de


cabeamento que facilite a instalação e remoção de equipamentos, sem muita perda de tempo, igual
ao que ocorre com o sistema elétrico do prédio: para instalar um novo equipamento elétrico, basta
ter uma tomada de força disponível. Nada mais justo que, para instalar um novo micro a uma rede,
baste ter uma tomada de rede disponível.
Dessa forma, o sistema mais simples de cabeamento estruturado é aquele que provê tomadas
RJ-45 para os micros da rede em vez de conectarem o hub diretamente aos micros, como mostra a
Figura 99. Em um escritório, por exemplo, poderia haver vários pontos de rede já preparados para
receber novas máquinas. Assim, ao trocar um micro de lugar ou na instalação de um novo micro,

84
Curso de Redes de Computadores – Plataforma Windows

não haveria a necessidade de se fazer o cabeamento do micro até o hub; este cabeamento já estaria
feito, agilizando o dia-adia da empresa (repare que na Figura 99 ilustramos duas tomadas "vazias").
Muitos prédios modernos já são construídos com dutos próprios para a instalação do
cabeamento de redes, inclusive com esse tipo de cabeamento estruturado já montado. Existem
diversos tipos de tomadas, algumas para serem embutidas na parede (de modo a aproveitar um
sistema de dutos que já exista embutido na parede), outras externas, para a instalação em locais
onde não existam dutos embutidos na parede (e onde possivelmente você irá instalar um sistema de
dutos externo para ocultar o cabeamento da rede). Algumas tomadas inclusive apresentam
conectores de telefone, para você aproveitar o espaço da tomada para usar como ponto de ramal
telefônico.

Figura 99 - Sistema simples de cabeamento estruturado.

Só que a idéia do cabeamento estruturado vai muito além disso. Além do uso de tomadas, o
sistema de cabeamento estruturado utiliza um concentrador de cabos chamado patch panel (painel
de conexões). Em vez de os cabos que vêm das tomadas conectarem-se diretamente ao hub, eles são
conectados ao patch panel. Dessa forma, o patch panel funciona como um grande concentrador de
tomadas, como mostra a Figura 100.

85
Curso de Redes de Computadores – Plataforma Windows

Figura 100 - Sistema simples de cabeamento estruturado usando um patch pane].

O patch panel é um sistema passivo, ele não possui nenhum circuito eletrônico. Trata-se
somente de um painel contendo conectores. Esse painel é construído com um tamanho padrão, de
forma que ele possa ser instalado em um rack.
O uso de patch panels facilita enormemente a manutenção de redes médias e grandes. Por
exemplo, se for necessário trocar dispositivos, adicionar novos dispositivos (hubs e switches, por
exemplo), alterar a configuração de cabos, etc., basta trocar a conexão dos dispositivos no patch
panel, sem a necessidade de alterar os cabos que vão até os micros.
Em redes grandes é comum haver mais de um local contendo patch panels. Assim, as portas
dos patch panels não conectam somente os micros da rede, mas também fazem a ligação entre patch
panels.

86
Curso de Redes de Computadores – Plataforma Windows

Fibra Óptica

Fundamentos

A fibra óptica transmite informações através de sinais luminosos, em vez de sinais elétricos.
A idéia é simples: luz transmitida indica um valor "1" e luz não transmitida, um valor "0". Na
realidade não é bem assim que funciona no prática: uma determinada seqüência de "aceso e
apagado" indica o valor "0" e outra determinada seqüência indica o valor "1 ".
Há duas grandes vantagens da fibra óptica em relação aos cabos tradicionais. Primeiro,
interferências eletromagnéticas não ocorrem no tráfego da luz; logo, a fibra óptica é totalmente
imune a ruídos. Isso significa comunicações mais rápidas, já que praticamente não haverá a
necessidade de retransmissões de dados (já que raramente os dados chegarão corrompidos ao
receptor). Segundo, o sinal sofre menos do efeito da atenuação; logo, conseguimos ter um cabo de
fibra óptica muito mais longo sem a necessidade do uso de repetidores. A distância máxima de um
segmento do tipo de fibra óptica mais usado é de 2 Km. Há fibras ópticas que permitem um
segmento maior, enquanto outros tipos de fibra óptica possuem um limite menor de distância.
Outra vantagem é que a fibra não conduz corrente elétrica e, com isso, você nunca terá
problemas com raios (um cabo suspenso ligando dois prédios pode ser atingido por um raio) nem
qualquer outro problema envolvendo eletricidade, como problemas de diferença de potencial
elétrico ou problemas caso um fio de tensão encoste na fibra óptica.
Como a luz só pode ser transmitida em uma direção por vez, o cabo de fibra óptica possui
duas fibras, uma para a transmissão de dados e outra para a recepção, permitindo, dessa forma,
comunicações full-duplex. Interessante notar que a fibra óptica é bastante fina e flexível. Sua
espessura é similar à espessura do cabo par trançado sem blindagem, com isso dutos, racks e
dispositivos similares usados no cabeamento estruturado também podem ser usados pela fibra
óptica sem qualquer problema.
O conector mais usado por redes de fibra óptica chama-se ST (Straight Tip, ponta reta) e é
mostrado na Figura 101.

Figura 101 - Conector ST, usado pela fibra óptica.

Se a fibra óptica é tão melhor, por que os cabos de cobre ainda existem? O preço é o fator
determinante. Embora o custo da fibra óptica tenha caído muito nos últimos anos, o custo de
instalação ainda é alto. Todavia, esse custo não é tão alto como muita gente imagina. Por isso, a
solução mais usada na maioria das vezes é uma rede mista, usando fibras ópticas nas comunicações
que exijam alto desempenho, e par trançado sem blindagem (UTP) na conexão dos micros com os
dispositivos concentradores.

87
Curso de Redes de Computadores – Plataforma Windows

Tipos

Existem dois tipos de fibras ópticas: modo múltiplo (MMF, Multiple Mode Fiber) e modo
único (SMF, Single Mode Fiber). Essa classificação diz respeito a como a luz é transmitida através
da fibra.
As fibras de modo múltiplo são mais grossas do que as fibras de modo único. Como efeito, a
luz reflete mais de uma vez nas paredes da fibra e, com isso, a mesma informação chega várias
vezes ao destino, defasada da informação original. O receptor possui o trabalho de detectar a
informação correta e eliminar os sinais de luz duplicados. Quanto maior o comprimento do cabo,
maior esse problema.
Já as fibras de modo único são finas e, com isso, a luz não ricocheteia nas paredes da fibra,
chegando diretamente ao receptor. Com isso, esse tipo de fibra consegue ter um comprimento e um
desempenho maiores que as fibras de modo múltiplo.
Acontece que, como as fibras de modo único são bem mais finas, é muito mais difícil fazer o
acoplamento da olaca de rede com a fibra, isto é, alinhar o feixe de luz produzido pela placa de rede
com a fibra de transmissão, de modo que a luz possa ser transmitida e alinhar a fibra de recepção
com o receptor de luz, de modo que a placa possa receber informações corretamente.
Por esse motivo, aliado ao preço mais caro das fibras de modo único, as fibras ópticas mais
usadas em redes locais são as de modo múltiplo.
Existem no mercado basicamente dois tipos de fibras de modo múltiplo: as de 62,5 m, que
são as mais usadas, e as de 100 m, que são mais usadas por redes Token Ring usando fibra óptica.
Em geral as fibras são também classificadas de acordo com espessura de seu revestimento
externo. As fibras mais usadas, de 62,5 m, possuem um revestimento externo de 125 m e são
também chamadas 62,5/125.

Largura de banda

Os fabricantes de fibra óptica especificam a largura de banda máxima da fibra em uma


unidade chamada MHz-Km, MHz.Km ou MHz*Km. Essa unidade informa a taxa de transferência
máxima da fibra. Por exemplo, uma fibra de 200 MHz.Km pode transmitir dados a 200 MHz a até 1
Km de distância ou então a 100 MHz a até 2 Km de distância.

Perda

Os fabricantes também informam a perda (também chamada atenuação) que a fibra sofre no
sinal que está sendo transmitido, de acordo com a distância, em uma unidade chamada dB/Km
(decibéis por quilômetro). Uma fibra com perda de 3,5 dB/Km, por exemplo, diminuirá a força do
sinal que está sendo transmitido em 3,5 dB por quilômetro. Alguns fabricantes suprimem o "Km"
da nomenclatura, expressando a atenuação da fibra somente em dB. Nesse caso o "por quilômetro"
está implícito.

Redes de fibra ópticas

Com as explicações dadas nos tópicos anteriores, pode ficar parecendo que a quantidade de
tipos de fibras ópticas existentes no mercado é gigantesca. Apesar de isso ser verdade, alguns tipos
são mais usados do que outros por causa dos padrões mais comuns de arquiteturas de redes usando
fibras ópticas.
A seguir veremos as arquiteturas mais comuns de redes usando fibras ópticas e os tipos de
fibras ópticas usadas nessas redes.

88
Curso de Redes de Computadores – Plataforma Windows

FDDI (FIBER DISTRIBUTED DATA INTERFACE)

As fibras ópticas usadas nessa arquitetura possuem um limite de comprimento de 2 Km e


operam a 100 Mbps ou 200 Mbps, no caso do padrão FDDI-2.

FOIRL (FIBER-OPTIC INTERREPEATER LINK)

Esse padrão antigo era usado na conexão entre repetidores de fibra óptica. Possuía um limite
de comprimento de 1 Km e acabou cedendo seu espaço para o padrão 10BaseFL, especialmente
porque os repetidores acabaram caindo em desuso à medida em que os hubs passaram a incorporar
esses componentes internamente.

l 0BaseFL

Esse foi o primeiro padrão de redes Ethernet usando fibras ópticas. Sua taxa de transferência
máxima é de 10 Mbps, como o nome sugere. A luz usada para transmitir dados nesse padrão possui
um comprimento de onda de 850 m e a fibra possui um limite de 2 Km por segmento. Esse padrão
usa fibras de modo múltiplo.
O nome FL vem de Fiber Link. Outro padrão, chamado 10BaseFB (Fiber Backbone),
também foi criado, mas pouco usado. Seu objetivo era permitir um limite maior de número de
repetidores interligados. Outro padrão, chamado 10BaseFP (Fiber Passive), também foi criado mas
nunca implementado. Esse padrão permitia a interligação de fibras ópticas usando componentes
passivos (isto é, sem alimentação elétrica), com um limite de 500 metros por segmento e podendo
interligar até 33 computadores.
Os padrões 10BaseFL, 10BaseFB e 10BaseFP são genericamente chamados 10BaseF.
Entretanto, como o padrão 10BaseFB quase não foi usado e o padrão 10BaseFP nunca foi
implementado, normalmente 10BaseF acaba sendo usado para se referir ao padrão 10BaseFL.

100BaseFX

Esse é o padrão de redes Ethernet usando fibras ópticas de modo múltiplo operando a 100
Mbps. A luz utilizada na transmissão de dados possui um comprimento de onda de 1.350 m e a
fibra possui um limite de comprimento de 412 metros por segmento, se operando em modo half-
duplex, isto é, um único cabo sendo usado tanto para transmitir quanto para receber dados.
Operando em modo full-duplex (dois cabos), esse padrão tem um limite de 2 Km por segmento.
Segmentos de comprimento maior que 2 Km podem ser feitos usando-se fibras de modo único.
Sistemas 100BaseFX usando fibras de modo único podem ter segmentos de 20 Km de comprimento
ou até mais.

1000BaseSX

Esse é o padrão de redes Gigabit Ethernet usando fibras ópticas mais usado. Utiliza uma luz com
comprimento de onda de 850 m na transmissão de dados e o limite de comprimento do segmento
de fibra é de 220 metros. Sua taxa de transmissão é de 1 Gbps. O SX da nomenclatura do padrão
vem de Short (curto, em inglês), usado para indicar o uso de um comprimento de onda curto na
transmissão dos dados.

1000BaseLX

Esse é um segundo padrão de redes Gigabit Ethernet usando fibras ópticas, obtendo um
limite de comprimento do segmento da fibra superior ao 1000BaseSX. A luz utilizada na

89
Curso de Redes de Computadores – Plataforma Windows

transmissão de dados possui um comprimento de onda de 1.300 m. Usando fibras ópticas de modo
múltiplo, o limite de comprimento de cada trecho de fibra óptica é de 550 metros. Esse padrão
permite também o uso de fibras de modo único, onde o limite de comprimento do segmento é de 5
Km.
O LX da nomenclatura do padrão vem de Long (longo, em inglês), usado para indicar o uso
de um comprimento de onda longo na transmissão dos dados. 1000BaseX é o nome genérico do
padrão Gigabit Ethernet usando fibra óptica, que engloba os padrões 1000BaseSX e 1000BaseLX.

ATM

Redes ATM tipicamente operam a duas velocidades: 155 Mbps ou 622 Mbps. As fibras
ópticas usadas são as mesmas do padrão 1000BaseX.

Conectores

O conector ST é o mais usado por fibras ópticas. Uma das desvantagens do conector ST é
que, como a fibra óptica possui dois conectores iguais, você deve prestar muita atenção na hora de
instalá-lo na placa de rede ou dispositivo concentrador (switch), de modo a não instalar um plugue
no lugar do outro plugue.
Apesar de o conector ST ser o mais usado, existem outros conectores também muito usados.
O conector MIC (Medium Interface Connector), basicamente usado por redes FDDI, traz as duas
fibras presas em um mesmo conector. Assim não há como instalar um conector no lugar de outro
(ver Figura 102).

Figura 102 - Conector MIC.

Já o conector VF-45, mostrado na Figura 103, parece ter futuro. Trata-se de um conector
para fibras ópticas do tamanho de um conector RJ-45 padrão. Esse conector só é encaixado em uma
única posição, impedindo a instalação de uma fibra no lugar de outra.

90
Curso de Redes de Computadores – Plataforma Windows

Figura 103 - Conector VF-45.

Montando cabos de fibra óptica

A montagem de cabos de fibra óptica não é um procedimento simples. A nossa


recomendação é que você faça um curso de montagem de cabos de fibras ópticas, que é ministrado
pelos fabricantes de cabos. Isso ocorre porque a montagem desse tipo de cabo tem de ser a mais
precisa possível, já que o acoplamento entre o cabo e a placa de rede é óptica e qualquer diferença
no encaixe faz com que as informações não passem da placa para o cabo ou vice-versa. Em cabos
do tipo par trançado, por exemplo, uma pequena diferença no encaixe não ocasiona nenhum
problema, já que o acoplamento é elétrico e o contato é relativamente grande.

Redes sem fio

Fundamentos

Em alguns momentos, outros sistemas de transmissão de dados podem ser usados,


dependendo da necessidade. O mais conhecido é o sistema de transmissão de dados através de
ondas de rádio, onde, em vez de os micros da rede estarem conectados através de um cabo, eles
estão conectados a um transmissor e receptor de rádio.
Essa solução pode ser mais barata do que o aluguel de linhas E1 ou T1 das operadoras de
telecomunicações, isto é, ser mais barato do que o uso de redes públicas e com um desempenho
igual ou maior.
Entretanto, às vezes as tecnologias de rádio não podem ser usadas para a conexão de duas
(ou mais) redes, ou por conta da existência de muitos obstáculos físicos, ou por conta da distância.
Ou seja, a viabilidade do uso de conexões sem fio tem de ser estudada e levada em consideração
quando for feito o planejamento da ligação entre redes, e não devemos pensar somente nas soluções
existentes através de cabos ou das soluções disponibilizadas pelas concessionárias que oferecem
redes públicas, como normalmente acontece.
Os sistemas mais conhecidos para transmissão de dados sem fio são:

Rádio
Infravermelho
Laser

Rádio

91
Curso de Redes de Computadores – Plataforma Windows

Antes de explorarmos as tecnologias existentes no mercado, existem dois modos básicos de


transmitirmos dados através de ondas de rádio. No primeiro, a transmissão dos dados não é
direcional e, com isso, antenas localizadas na região de alcance das ondas de rádio da antena
transmissora podem captar os dados transmitidos.
Como você pode perceber, esse sistema não é seguro, já que qualquer antena na região de
alcance pode captar os dados transmitidos, incluindo aí pessoas que resolvam instalar uma antena
para captar os dados que estão sendo transmitidos para a sua rede (pode-se usar criptografia, mas aí
já é outra história).
Mesmo dentro de prédios a comunicação sem fio deve ser pensada seriamente como uma
alternativa ao cabo, não só pela praticidade de não haver a necessidade de instalar qualquer tipo de
cabo, mas também quando a passagem de cabos é muito difícil por algum motivo em particular.
Mas, é claro que o cabo continuará sendo uma opção mais segura e que oferece uma taxa de
transferência maior.
Outro sistema de transmissão usando ondas de rádio é a transmissão direcional, usando
pequenas antenas parabólicas. Nesse caso, somente duas redes podem se comunicar. Esse sistema
apresenta como grande vantagem transmitir os dados somente para o receptor, não dispersando as
ondas de rádio para outras antenas. A desvantagem é que as antenas têm de estar alinhadas. Isso
significa que não pode haver nenhum obstáculo no caminho e tempestades podem desalinhar a
antena, impedindo a comunicação entre as redes.
Veremos agora as tecnologias mais conhecidas para a transmissão de dados via ondas de
rádio.

TRANSMISSÕES NÃO-DIRECIONAIS DE FREQÜÊNCIA UNICA

Esse é o método de transmissão não-direcional. Sua grande desvantagem é usar uma


freqüência de transmissão fixa e, com isso, antenas instaladas na região de alcance da transmissão
podem captar as informações que estejam sendo transmitidas na rede.
Em casos de redes particulares, a divulgação dos dados que estão trafegando na rede não é
desejável e esse tipo de transmissão deve ser evitada.
O alcance desse tipo de rede é de 5 Km2 e a taxa de transferência típica é de 4,8 Mbps.

IEEE 802.11

Um dos grandes problemas das comunicações sem fio é a falta de padronização entre os
fabricantes. Antigamente, um determinado equipamento para a transmissão através de ondas de
rádio de um fabricante não era compatível com o equipamento produzido por outro fabricante,
mesmo quando usavam a mesma faixa de freqüência para a transmissão de dados (a questão não era
a faixa de freqüência usada, mas sim como os dados eram transmitidos).
Para resolver essa questão, o IEEE lançou o padrão 802.11, que define a camada de Controle
de Acesso ao Meio (MAC) para transmissões sem fio.
Com isso, redes sem fio operando via rádio podem ser facilmente construídas usando
equipamentos de diferentes fabricantes. Desde que eles usem o padrão IEEE 802.11, eles irão
comunicar-se entre si sem qualquer problema.
O padrão IEEE 802.11 utiliza um esquema de transmissão chamado CSMA/CA (Carrier
Sense Multiple Access with Collision Avoidance). Na primeira transmissão, o transmissor escuta o
canal para verificar se ele está desocupado. Se nenhuma transmissão estiver sendo efetuada, ele
inicia a primeira transmissão. Após a primeira transmissão ter ocorrido, cada máquina é configurada
para transmitir a um determinado período de tempo. Assim, não há colisões, já que cada máquina
possui uma hora certa de transmitir - e daí o nome desse método de transmissão (evitação de
colisão).

92
Curso de Redes de Computadores – Plataforma Windows

Se a rede ficar ociosa, isto é, se passar o tempo de todas as máquinas transmitirem e


nenhuma quiser transmitir, então o canal pára de ser usado e a rede volta ao estado anterior ao da
primeira transmissão, isto é, a alocação de tempo de transmissão de cada máquina só é definida
após a primeira transmissão ter sido efetuada.
Dessa forma, o único momento em que pode haver colisão nessa arquitetura é na primeira
transmissão, quando duas ou mais máquinas verificam que o canal está livre e tentam transmitir ao
mesmo tempo - ao contrário do que ocorre no esquema CSMA/CD (Carrier Sense Multiple Access
with Collision Detection) usado por redes Ethernet, onde a colisão pode ocorrer sempre que o canal
estiver livre.
Esse padrão define transmissões por rádio usando as técnicas FHSS ou DSSS, que
estudaremos a seguir, e transmissões infravermelhas usando uma técnica chamada DFIR (Diffused
Infra-Red).
Como veremos, esse padrão usa várias freqüências para a transmissão de dados, e não uma
freqüência fixa. Com isso, os problemas de segurança que levantamos anteriormente são bastante
atenuados. Outra vantagem do padrão IEEE 802.11 é o uso da freqüência de transmissão de 2,4
Ghz, que pertence a uma freqüência de uso público, não sendo necessário pedir qualquer
autorização dos órgãos governamentais para o uso dessa faixa de freqüência para o uso em sua rede.
O padrão IEEE 802.11 define ainda um esquema de criptografia chamado WEP (Wireless
Encryption Protocol), para que os dados sejam criptografados antes de serem transmitidos.

FHSS (FREQUENCY HOPPING SPREAD SPECTRUM)

Como comentamos, esse método de transmissão, em vez de uma freqüência de transmissão


fixa, usa uma faixa de freqüência, isto é, várias freqüências de transmissão. Essa faixa de freqüência
é dividida em canais.
Existem dois métodos para ser usar essa faixa de freqüência: FHSS (Frequency Hopping
Spread Spectrum) e DSSS (Direct Sequence Spread Spectrum).
No sistema FHSS, de tempos em tempos o canal usado é alterado automaticamente por
todos os dispositivos da rede, só que não de uma maneira seqüencial (canal l, canal 2, etc.), mas sim
de um maneira aleatória. Assim, para poderem transmitir e receber dados, os dispositivos da rede
necessitam saber a seqüência exata dos canais usados. Com isso, esse sistema oferece por si só uma
segurança que no sistema de rádio usando uma freqüência única não havia.
Tipicamente a faixa de freqüência usada pelo sistema FHSS é dividida em 79 canais e a
alternância de canais ocorre a cada 100 ms.
Mesmo que um hacker tenha uma antena multifreqüencial na região, se ele não souber a
seqüência de transmissão dos canais, ele não conseguirá captar os dados que estão sendo
transmitidos na rede. Além disso, esse sistema permite ainda o uso da criptografia WEP
Outra vantagem desse sistema é que várias redes operando por ondas de rádio podem co-
existir usando a mesma faixa de freqüência na mesma região sem gerarem interferência de rádio
entre elas. Normalmente, quando há dois sistemas de transmissão de rádio operando na mesma faixa
de freqüência dentro de uma mesma região de alcance, eles não funcionam corretamente, já que um
sistema irá interferir no outro.

DSSS (DIRECT SEQUENCE SPREAD SPECTRUM)

A tecnologia DSSS, que também é definida pelo padrão IEEE 802.11, funciona de maneira
similar à tecnologia FHSS, só que, em vez de a troca dos canais ser feita de uma forma aleatória, ela
é feita de uma forma seqüencial.
É importante notar que as tecnologias FHSS e DSSS são incompatíveis entre si. Apesar de
serem especificadas pelo mesmo padrão, uma antena FHSS não consegue comunicar-se com uma
antena DSSS e vice-versa.

93
Curso de Redes de Computadores – Plataforma Windows

Como comentamos, a tecnologia DSSS utiliza uma taxa de transmissão maior que a
tecnologia FHSS. No mercado você encontrará equipamentos DSSS operando a taxas de
transferência de 1 Mbps, 2 Mbps, 5,5 Mbps e 11 Mbps.

AIRPORT

AirPort é o nome comercial que a Apple dá ao sistema DSSS que vem embutido em seus
computadores Macintosh. Assim, AirPort e DSSS são sinônimos. Como usa um padrão de mercado
(IEEE 802.11), você poderá montar uma rede sem fio contendo computadores Macintosh com suas
antenas AirPort e PCs contendo antenas DSSS sem problemas (os computadores irão comunicar-se
entre si numa boa). A área de alcance do AirPort é de 45 metros.

MMDS (MULTIPOINT MICROWAVE DISTRIBUTION SYSTEM)

Também chamado Multi-channel Multi-point Distribution System, essa é uma tecnologia de


transmissão de dados usando antenas direcionais. A taxa máxima de transferência depende da faixa
de freqüência de transmissão que será utilizada. Usando freqüências que não necessitem de
autorização das autoridades governamentais (99 MHz, 2,4 Ghz e 5,7 Ghz), a taxa de transferência
máxima é de 27 Mbps. Usando freqüências mais altas (e que necessitam de registro junto às
autoridades governamentais), a taxa de transferência máxima sobe para 1 Gbps.
A distância máxima do alcance do sistema MMDS depende, sobretudo do ganho da antena
utilizada. Por exemplo, se for utilizada uma antena com ganho de 18 dB, a distância máxima é de
25 Km. Para uma antena com ganho de 24 dB, a distância máxima pula para 50 Km.
O MMDS - assim como o LDMS e o DTH, que veremos a seguir - é um sistema de
transmissão que foi criado para a transmissão de TV por assinatura.

LMDS (LOCAL MULTIPOINT DISTRIBUTION SERVICES)

Serviço similar ao MMDS, porém operando a uma faixa de freqüência maior (28 Ghz) e,
com isso, necessitando registro nos órgãos governamentais para o seu uso. Como a freqüência usada
é maior, sua taxa de transmissão máxima é também maior: 2 Gbps. Normalmente esse serviço é
contratado de alguma empresa que o oferece. E, da mesma forma que ocorre com o MMDS, a
distância máxima possível depende do ganho da antena.

DTH (DIRECT TO HOME)

Também chamado DSS (Direct Satellite System) ou DBS (Direct Broadcast System), esse
sistema usa comunicação direcional via satélite, através do uso de uma pequena antena parabólica.
Esse sistema é utilizado por diversas operadoras de TV por assinatura. Utiliza uma taxa de
transferência de 40 Mbps, que é dividida em dois canais, um para dados e outro para controle. Essa
divisão é feita dependendo do modo de transmissão, que podem ser dois: no modo básico, 23 Mbps
são alocados para transmissão de dados e 17 Mbps para a transmissão dos sinais de controle. No
modo de alto desempenho, 30 Mbps são alocados para a transmissão de dados e 10 Mbps, para
controle. A transmissão de alto desempenho exige uma antena com um maior ganho.
Da mesma forma que os outros sistemas, por operar em uma faixa de transmissão alta,
necessita de regulamentação das autoridades governamentais. Há um outro bom motivo para esse
sistema de transmissão ser terceirizado: o custo de se colocar um satélite em órbita.
A taxa de transferência obtida na prática por esse sistema é muito menor, em geral de 400
Kbps. Isso ocorre porque a operadora do sistema em geral tem de dividir a taxa de transferência
máxima da região entre diversos assinantes do sistema, incluindo aí tanto os assinantes da TV por
assinatura quanto os assinantes da transmissão de dados.

94
Curso de Redes de Computadores – Plataforma Windows

OUTROS SISTEMAS

Existem diversos outros sistemas possíveis de serem usados na comunicação de redes


usando rádio como, por exemplo, outros sistemas de link de microondas (além do MMDS e do
LMDS) e outros sistemas de comunicação via satélite além do DTH. Esses outros sistemas possuem
um custo extremamente elevado e, na maioria das vezes, a empresa que pretende ligar suas redes
usando esses sistemas irá contratar empresas que ofereçam esse serviço.

Infravermelho

Outras vezes, em vez de usarmos ondas de rádio, usamos luz infravermelha para fazer a
interligação de computadores sem usarmos cabos. É o caso de redes locais sem fio, especialmente
aquelas onde há necessidade de se conectar notebooks.
Existem dois métodos para a transmissão de dados usando luz infravermelha: transmissão
direta e transmissão difusa. Essas duas técnicas podem ser comparadas à transmissão direcional e à
transmissão não-direcional de ondas de rádio, que explicamos anteriormente. Na transmissão direta,
os dispositivos transmissores e receptores possuem um ângulo de abertura pequeno e, com isso,
precisam estar alinhados para que a transmissão possa ser efetuada. Já na transmissão difusa, os
sinais infravermelho são enviados em todas as direções.
Em termos práticos, a transmissão difusa obtém uma taxa de transmissão menor e uma área
de alcance menor do que a transmissão direta.
Independente da técnica de transmissão, a luz infravermelha possui como desvantagens o
fato de não atravessar objetos sólidos (paredes, por exemplo) e nem de "fazer curvas", como ocorre
nas transmissões de rádio. Além disso, o alcance é muito menor, praticamente restrito a
transmissões dentro de um mesmo ambiente.
A seguir veremos os dois padrões mais usados na transmissão de dados através de luz
infravermelha.

IEEE 802.11

Além de especificar o funcionamento de transmissões de rádio usando as tecnologias FHSS


e DSSS, o padrão IEEE 802.11 também especifica transmissões infravermelhas usando a técnica de
transmissão difusa. A taxa de transferência típica é de 1 Mbps. O alcance máximo desse sistema é
de 30 metros, sendo que na prática essa distância pode ser muito menor, dependendo da quantidade
de objetos existentes no ambiente onde esse sistema é instalado (a luz infravermelha reflete em
todos os objetos existentes).

IRDA (INFRARED DEVELOPERS ASSOCIATION)

O IrDA é um barramento que permite que PCs se comuniquem usando luz infravermelha.
Esse barramento está tipicamente disponível em notebooks e equipamentos projetados para uso em
conjunto com notebooks, tais como impressoras, mouses sem fio, teclados sem fio, etc. Em PCs
esse barramento é tipicamente disponível instalando-se um transmissor/receptor de luz
infravermelha conectada na porta serial, na porta USB do micro ou em um conector da placa-mãe,
já que a maioria das novas placas-mãe possui o hardware IrDA embutido, bastando a instalação dos
componentes ópticos (sensor e transmissor).

95
Curso de Redes de Computadores – Plataforma Windows

Esse barramento atualmente possui uma taxa de transferência máxima de 4 Mbps. Seu
alcance é de apenas 1 metro e os transmissores e receptores de luz infravermelha possuem uma
abertura com ângulo de 30 graus.
A taxa de transferência de 4 Mbps só é utilizada por equipamentos muito recentes. Os
equipamentos mais antigos trabalham com taxas que podem ser de 9.600 bps, 19.200 bps, 38.400
bps, 57.600 bps, 115.200 bps, 576 Kbps ou 1,152 Mbps. Os equipamentos inicialmente
comunicam-se a 9.600 bps e, em seguida, definem a taxa máxima a que eles podem transmitir
dados, já que há a possibilidade da conexão de dois equipamentos com taxas máximas diferentes.

LASER

Tecnologia similar à infravermelha, só que usando um outro comprimento de onda (isto é,


um outro tipo de luz) para as transmissões. A diferença entre transmissões usando laser e usando luz
infravermelha é que a transmissão laser é altamente direcional, isto é, os dispositivos de transmissão
e recepção necessitam estar perfeitamente alinhados. Nas transmissões usando luz infravermelha,
existe um ângulo de abertura e, com isso, os dispositivos não precisam estar perfeitamente
alinhados.
A vantagem do laser sobre o infravermelho é o alcance, que é muito maior. Em
compensação, qualquer obstáculo, por menor que seja, impede a transmissão. Isso inclui inclusive
fumaça e pingos de chuva.

ARQUITETURA DE REDES LOCAIS

Ethernet

Fundamentos

A arquitetura Ethernet é a mais usada em redes locais.


O Ethernet é um padrão que define como os dados serão transmitidos fisicamente através
dos cabos da rede. Dessa forma, essa arquitetura - assim como as arquiteturas Token Ring e FDDI -
opera nas camadas 1 e 2 do modelo OSI, como mostramos na Figura 104.
O papel do Ethernet é, portanto, pegar os dados entregues pelos protocolos de alto nível -
TCP/IP, IPX/SPX, NetBEUI, etc. e inseri-los dentro de quadros que serão enviados através da rede.
O Ethernet define também como fisicamente esses dados serão transmitidos (o formato do sinal, por
exemplo).

Figura 104 - Arquitetura Ethernet.

96
Curso de Redes de Computadores – Plataforma Windows

Uma representação mais realista da arquitetura do padrão Ethernet é mostrada na Figura


105, juntando a arquitetura do padrão Ethernet com o modelo OSI.
As camadas do modelo OSI podem ser substituídas pelas camadas do protocolo que estiver
sendo usado (ver Parte II do livro). Por exemplo, em uma rede local baseada no protocolo TCP/IP
usando a arquitetura Ethernet, o modelo real é o apresentado na Figura 106, onde a camada de
Interface com a Rede do protocolo TCP/IP é o padrão Ethernet.
Indo ainda mais além, a representação mais próxima do real é apresentada na Figura 107,
onde incluímos o driver da placa de rede.

Figura 105 - Modelo prático da arquitetura Ethernet.

97
Curso de Redes de Computadores – Plataforma Windows

Figura 106 - Arquitetura de uma rede usando o protocolo TCP/IP e o padrão Ethernet.

Figura 107 - Representação real do funcionamento do arquitetura Ethernet.

As três camadas da arquitetura Ethernet possuem as seguintes funções:

Controle do Link Lógico (LLC, IEEE 802.2): Inclui informações do protocolo de alto
nível que entregou o pacote de dados a ser transmitido. Com isso, a máquina receptora tem como

98
Curso de Redes de Computadores – Plataforma Windows

saber para qual protocolo de alto nível ela deve entregar os dados de um quadro que ela acabou de
receber.
Controle de Acesso ao Meio (MAC, IEEE 802.3): Monta o quadro de dados a ser
transmitido pela camada física, incluindo cabeçalhos próprios dessa camada aos dados recebidos da
camada de Controle do Link Lógico.
Física: Transmite os quadros entregues pela camada de Controle de Acesso ao Meio usando
o método CSMA/CD (Carrier Sense Multiple Access with Collision Detection), que estudaremos a
seguir. Define como os dados são transmitidos através do cabearnento da rede e também o formato
dos conectores usados na placa de rede.

Camada Física

Veremos agora o funcionamento da camada física da arquitetura Ethernet: o padrão


CSMA/CD, a codificação dos dados e a placa de rede.

CSMA/CD (CARRIER SENSE MULTIPLE ACCESS WITH COLLISION


DETECTION)

Em redes Ethernet, todos os micros compartilham o mesmo cabo, independentemente da


topologia utilizada. Mesmo em redes Ethernet montadas com uma topologia em estrela usando um
periférico chamado hub isso ocorre.
Isso significa que, quando o cabo está sendo utilizado, nenhuma outra máquina poderá usá-
lo ao mesmo tempo.
Exemplificamos essa condição na Figura 108. Enquanto a máquina B está transmitindo
dados para a máquina A, nenhuma outra máquina da rede poderá utilizar o cabo; elas terão de
esperar o cabo ficar livre.

Figura 108 - Funcionamento de redes Ethernet.

Assim, o primeiro passo na transmissão de dados em uma rede Ethernet é verificar se o cabo
está livre. Isso é feito pela placa de rede e daí o nome Carrier Sense (detecção de portadora). Se o
cabo estiver livre, a placa de rede inicia sua transmissão. Caso ele esteja ocupado, a placa espera até
que ele fique livre (não exista mais o sinal de portadora no cabo). A transmissão só será iniciada
caso o cabo esteja livre.
Entretanto, o protocolo CSMA/CD não gera nenhum tipo de prioridade (daí o nome
Multiple Access, acesso múltiplo). Com isso, pode ocorrer de duas ou mais placas de redes
perceberem que o cabo está livre e tentarem transmitir dados ao mesmo tempo. Quando isso ocorre,
há uma colisão e nenhuma das placas consegue transmitir dados.
Quando ocorre uma colisão, todas as placas de rede param de transmitir, esperam um
período de tempo aleatório, e tentam a retransmissão. Como cada placa de rede envolvida na colisão
provavelmente gerará um valor aleatório diferente, possivelmente não ocorrerá novamente outra
colisão, pois uma das placas começará a sua transmissão antes das demais. E as demais verificarão
que o cabo está ocupado e não tentarão transmitir.

99
Curso de Redes de Computadores – Plataforma Windows

Só que existe a possibilidade de haver sempre novas colisões, caso outras placas de rede que
não estavam envolvidas nessa primeira colisão tentem transmitir dados justamente no mesmo
momento em que terminou o tempo de espera de uma das placa de rede envolvidas na colisão.
Como sempre que há colisão é necessário gerar um período de espera, o desempenho de
redes Ethernet está intimamente ligado ao número de máquinas existentes na rede. Quanto mais
máquinas, maior a probabilidade de ocorrerem colisões e, com isso, o desempenho da rede cai, já
que haverá períodos de espera.
A verdade é que, quando usamos o termo colisão, parece que algo de errado está ocorrendo
com a rede, mas isso não é verdade. A colisão é um processo totalmente normal e desejável, já que
faz parte do funcionamento do protocolo CSMA/CD. Em redes pequenas, a queda de desempenho
não é perceptível, já que as retransmissões ocorrem na casa de microssegundos, mesmo em redes
Ethernet funcionando a 10 Mbps.
A queda de desempenho em redes Ethernet está mais relacionada ao fato de que somente
uma máquina pode usar o cabo por vez do que com a ocorrência de colisões, já que, enquanto o
cabo está sendo usado, nenhuma outra máquina pode transmitir dados, e as máquinas que têm dados
a serem transmitidos terão de esperar o cabo ficar livre. Uma das soluções para esse problema é a
divisão de uma rede Ethernet grande em diversas redes pequenas.
Na hora em que um quadro é transmitido, todas as máquinas recebem este quadro ao mesmo
tempo, já que todas as máquinas estão conectadas a um mesmo cabo. Todas as placas de rede
possuem um endereço chamado MAC, que é gravado fisicamente dentro de uma memória ROM
existente na placa. Com isso, mesmo todas as placas recebendo o mesmo quadro ao mesmo tempo,
somente a placa de rede cujo endereço MAC conste no campo Endereço MAC de Destino do
quadro é que captura o quadro para ela. A não ser quando se trata de um quadro de broadcast, que é
enviado para que todas as máquinas o recebam. Veremos esse assunto em mais detalhes no tópico
Controle de Acesso ao Meio (MAC, IEEE 802.3).

Transmissão de dados

Cada bit 0 ou 1 que deve ser transmitido pela rede não é substituído diretamente por um
valor de tensão, como 0 Volt para o valor 0 e 5 volts para o valor 1, ao contrário do que muitos
supõem. Se simplesmente transmitíssemos cada 0 e cada 1 diretamente, o receptor teria muito
trabalho para separar os dados recebidos.
Antes de serem transmitidos, os dados são codificados (modulados). Isso tem como
finalidade justamente fazer com que possam existir informações especiais de controle entre os
dados que estão sendo transmitidos.
Para cada taxa de transferência utilizada, um padrão diferente de codificação é usado:
10 Mbps (Ethernet padrão): É usada a codificação Manchester.
100 Mbps (Fast Ethernet): É usada uma codificação chamada 4B/SB.
1 Gbps (Gigabite Ethernet): Usa uma codificação chamada 4D-PAMS.
A seguir estudaremos o funcionamento desses sistemas de codificação.

Codificação Manchester

Em redes Ethernet operando a 10 Mbps, os dados são transmitidos usando uma codificação
chamada Manchester. Nessa codificação, cada 0 e cada 1 que deve ser transmitido não é substituído
diretamente por um valor de tensão (5 V para o valor 1 e 0 V para o valor 0, como é de se supor),
mas sim por uma transição de tensão. O valor 0 é substituído por uma transição de 1 para 0 e o valor
1 é substituído por uma transição de 0 para 1.

Codificação 4B/5B

100
Curso de Redes de Computadores – Plataforma Windows

Esse sistema de codificação é utilizado por redes Ethernet.operando a 100 Mbps e foi
desenvolvido a partir do sistema de codificação usado por redes FDDI.
Esse sistema de codificação separa os dados a serem transmitidos em blocos de quatro bits.
Cada bloco de quatro bits é transformado em um bloco de cinco bits de dados, e daí o nome desse
sistema de codificação.

Codificação 4D-PAM5

O sistema Gigabit Ethernet utiliza um sistema de codificação chamado 4D-PAM5. Através


desse sistema, os dados são transmitidos através de quatro pares de fios simultaneamente, ao
contrário das redes operando a 10 Mbps e 100 Mbps, onde são usados apenas dois pares, daí o nome
"4D".
São transmitidos dois bits de dados por vez, através de uma modulação por amplitude de
pulso (PAM, Pulse Amplitude Modulation). Isto é, em vez de os dados serem transmitidos em
forma de duas tensões elétricas, uma para 0 e outra para 1, eles são transmitidos em forma de várias
tensões elétricas (no caso, cinco tensões diferentes).

Placas de rede

O papel principal das placas de rede Ethernet é receber os quadros enviados pela camada de
Controle de Acesso ao Meio e transmitir os dados através do cabeamento da rede. Com isso, a placa
de rede é o componente não só responsável pela codificação que acabamos de estudar, mas também
pelo uso do protocolo CSMA/CD.
É necessário um componente chamado transceptor para transmitir o sinal codificado através
do sistema de cabeamento utilizado (cabo coaxial, par trançado ou fibra óptica). Antigamente esse
dispositivo era instalado na placa de rede através de um conector chamado AUI (Attachment Unit
Interface), também chamado DIX (Digital Intel Xerox). Esse é um conector de 15 pinos fêmea.
Assim, antigamente para se instalar um cabo a uma placa de rede Ethernet era necessário um
transceptor externo conectado à porta AUI da placa. O cabo da rede não era ligado diretamente na
placa de rede, mas sim no transceptor.
Atualmente, as placas de rede mais comuns possuem um transceptor para cabo coaxial fino
(10Base2) e/ou um transceptor para par trançado sem blindagem (10BaseT) embutidos na própria
placa de rede. Com isso, não há a necessidade de um transceptor externo, facilitando bastante a
montagem de uma rede local.
Com isso, em uma placa de rede Ethernet tradicional, você pode encontrar os seguintes
conectores:
BNC: Usado por cabo coaxial fino (10Base2).
AUI: Usado por transceptores externos, como, por exemplo, um transceptor para cabo
coaxial grosso (IOBase5).
RJ-45: Usado por cabo coaxial sem blindagem (10BaseT).

101
Curso de Redes de Computadores – Plataforma Windows

Figura 109 – Placa de rede Ethernet

Em placas de rede Ethernet para o uso de cabos de fibra óptica, você encontrará um conector
para fibra óptica (ST, MIC ou VF-45) ou então você deverá instalar a fibra óptica com o uso de um
transceptor externo conectado à porta AUI da placa de rede.

Cabeamento

Os padrões de cabeamento Ethernet são expressos no seguinte formato:


[Taxa máxima de transmissão] [Tipo de transmissão] [Tipo do cabo]
Taxa máxima de transmissão: é expressa em Mbps.
Tipo de transmissão: o tipo de transmissão usado em redes Ethernet é do tipo unicanal
(baseband) e, por isso, você encontrará o termo "Base".
Tipo do cabo: No caso do cabo coaxial, é expresso o comprimento máximo do cabo, "2"
para cabo coaxial fino e "5" para cabo coaxial grosso. O par trançado sem blindagem é expresso
com um "T" (de Twisted pair). E a fibra óptica é expressa com um "F". A exceção fica por conta
das fibras ópticas operando a 1 Gbps, onde é usada a nomenclatura "SX" para indicar o uso de luz
com um comprimento de onda curto (Short) e "LX" para indicar o uso de luz com um comprimento
de onda longo (Long).
Assim, temos os seguintes padrões de cabos em redes Ethernet:
10Base2: Cabo coaxial fino, com limite de comprimento de 185 metros por segmento. Opera
a 10 Mbps.
10Base5: Cabo coaxial grosso, com limite de comprimento de 500 metros por
segmento. Opera a 10 Mbps.
10BaseT: Cabo par trançado sem blindagem, com limite de comprimento de 100 metros por
segmento. Opera a 10 Mbps.
10BaseFL: Fibra óptica de modo múltiplo, com limite de comprimento de 2 Km por
segmento. Opera a 10 Mbps.
100BaseT: Cabo par trançado sem blindagem, com limite de comprimento de 100 metros
por segmento, operando a 100 Mbps. Esse padrão é também chamado Fast Ethernet.

102
Curso de Redes de Computadores – Plataforma Windows

100BaseFX: Fibra óptica de modo múltiplo, operando a 100 Mbps (padrão também
conhecido como Fast Ethernet). Possui um limite de comprimento de 412 metros por segmento,
caso seja usada apenas uma fibra e comunicação half-duplex. Caso sejam usadas duas fibras, a
comunicação usada é full-duplex e o limite de comprimento passa a ser de 2 Km por segmento.
Pode-se usar também fibras ópticas de modo único no padrão 100BaseFX. Nesse caso o limite de
comprimento é bem maior (20 Km ou até mais).
1000BaseT: Cabo par trançado sem blindagem, operando a 1 Gbps. Esse padrão é também
chamado Gigabit Ethernet. O limite de comprimento é de 100 metros por segmento.
1000BaseSX: Fibra óptica de modo múltiplo, operando a 1 Gbps (Gigabit Ethernet). O
limite de comprimento do cabo é de 220 metros por segmento. Esse é o padrão mais usado na
montagem de redes Gigabit Ethernet usando fibras ópticas.
1000BaseLX: Esse padrão de fibras ópticas permite um comprimento maior do cabo: 550
metros caso seja usada uma fibra óptica de modo múltiplo ou 5 Km caso seja usada uma fibra óptica
de modo único.

Controle de Acesso ao Meio (MAC,IEEE 802.3)

O papel primordial da camada de Controle de Acesso ao Meio (MAC) é gerar o quadro


Ethernet, pegando os dados passados pela camada imediatamente superior a ela (Controle do Link
Lógico, LLC) e acrescentado um cabeçalho a esses dados. Nesse quadro são inseridas as
informações de qual placa de rede está enviando o quadro e para qual placa de rede o quadro está
sendo enviado. Após gerar o quadro Ethernet, essa camada envia o quadro para a camada Física,
que é responsável pela transmissão desse quadro para o cabeamento da rede.

Endereçamento MAC

Na arquitetura Ethernet todas as placas de rede recebem um endereço chamado MAC. Esse
endereço é físico, gravado em uma memória ROM dentro da placa de rede. Não existem duas placas
de rede com um mesmo endereço MAC no mundo, isto é, o endereço MAC de cada placa de rede é
único. Com isso, quando um quadro é enviado para uma determinada máquina, somente aquela
máquina o captura, pois somente ela terá o endereço MAC descriminado no campo Endereço MAC
de Destino do quadro Ethernet, mesmo este quadro sendo recebido por todas as máquinas da rede,
já que em redes Ethernet todas as máquinas compartilham um mesmo cabo.
O endereço MAC consiste em seis bytes, como mostra a Figura 110. Os três primeiros bytes
são chamados OUI (Organizationally Unique Identifier) e identificam o fabricante da placa de rede
e são padronizados pelo IEEE, isto é, para um fabricante de placa de rede conseguir um número
OUI, ele precisa cadastrar-se no IEEE. Já os três últimos bytes são definidos e controlados pelo
fabricante. Nada impede de um mesmo fabricante ter mais de um número OUI. Isso é muito comum
ocorrer com fabricantes que produzem uma quantidade muito alta de placas de rede. Como
dissemos, cada placa de rede possui um endereço MAC diferente.

Figura 110 - Estrutura do endereço MAC.

103
Curso de Redes de Computadores – Plataforma Windows

Os endereços MAC são representados por números em hexadecimal, como, por exemplo
02608C428197. Cada algarismo em hexadecimal equivale a um número de quatro bits. Dessa
forma, um byte é representado por dois algarismos em hexadecimal e, com isso, o endereço MAC é
sempre representado como um conjunto de 12 algarismos em hexadecimal.

Quadro Ethernet

A camada de Controle de Acesso ao Meio insere um cabeçalho aos dados recebidos da


camada acima dela, formando o quadro Ethernet. A estrutura desse quadro pode ser vista na Figura
111. De uma forma resumida, o quadro Ethernet possui um cabeçalho de 22 bytes, uma área de
dados que varia entre 46 e 1500 bytes e um rabo de 4 bytes.

Figura 111 - Estrutura do quadro Ethernet.

Os campos existentes no quadro Ethernet são os seguintes:


Preâmbulo: Marca o início do quadro.
SFD (Start of Frame Delimiter): É um byte 10101011.
Endereço MAC de destino: Neste campo é incluído o endereço MAC da placa de rede de
destino, que possui seis bytes.
Endereço MAC de origem: Neste campo é informado o endereço MAC da placa de rede que
está gerando o quadro. É um número de seis bytes.
Comprimento: Indica quantos bytes estão sendo transferidos no campo de dados do quadro,
já que o campo de dados de um quadro Ethemet tem tamanho variável e não fixo.
Dados: São os dados enviados pela camada acima da camada de Controle de Acesso ao
Meio. Esse campo possui um comprimento mínimo de 46 bytes e máximo de 1.500 bytes.
Pad: Se a camada de Controle do Link Lógico (LLC) enviar menos do que 46 bytes de
dados para a camada de Controle de Acesso ao Meio (MAC), então são inseridos dados chamados
pad para que o campo de dados atinja o seu tamanho mínimo de 46 bytes.
FCS (Frame Check Sequence): Contém informações para o controle de correção de erros.
Possui 4 bytes (32 bits).

Espaço entre quadros

Como o campo de dados do quadro usado em redes Ethernet é variável (pode ter entre 46 e
1.500 bytes), o tamanho do quadro Ethernet é variável. O tamanho mínimo de um quadro Ethernet é
de 72 bytes e o tamanho máximo, 1.526 bytes.
Se dois quadros forem enviados em seqüência e não houver colisões, haverá um "espaço em
branco" entre esses dois quadros, chamado gap, que dura 9,6 s. A Figura 112 ilustra este espaço.

Figura 112 - Espaço existente entre quadros Ethernet.

Controle do Link Lógico (LLC,IEEE 802.2)

104
Curso de Redes de Computadores – Plataforma Windows

A camada de Controle do Link Lógico recebe os dados repassados pelo protocolo de alto
nível instalado na máquina (TCP/IP, IPX/SPX, NetBEUI, etc.) e acrescenta justamente a
informação de qual protocolo foi o responsável por gerar os dados. Com isso, torna-se possível o
uso simultâneo de vários protocolos de alto nível em uma mesma máquina.
Para você ter uma idéia mais clara disso, imagine uma rede baseada no protocolo TCP/ IP.
Acontece que esse protocolo é um protocolo de alto nível, que só é encontrado nas máquinas da
rede. Na parte física da rede, os dados circulam através de quadros Ethernet. Quando a máquina
receptora recebe o quadro, ela precisa saber para qual protocolo de alto nível ela deve entregar os
dados. Se essa informação não estivesse escrita em algum canto do quadro de dados, a máquina
simplesmente não saberia o que fazer com os dados recebidos (não adiantaria nada entregar dados
que foram gerados pelo TCP/IP para o protocolo IPX/SPX, por exemplo).
Acontece que a implementação padrão da camada de Controle do Link Lógico (LLC)
adicionava um cabeçalho de apenas três bytes aos dados recebidos do protocolo de alto nível:
DSAP (Destination Service Access Point, que indica o protocolo de destino), SSAP (Source Service
Access Point, que indica o protocolo de origem) e Controle.
Essa implementação mostrou-se ineficaz para identificar corretamente o protocolo de origem
e o protocolo de destino, isto é, havia poucos bytes para ser feita corretamente essa identificação -
ainda mais porque o número que cada protocolo usaria não era muito bem padronizado.
A solução para essa deficiência foi a criação de um campo chamado SNAP (Sub Network
Access Protocol), de cinco bytes, usando um padrão do IEEE para protocolos. Nesse padrão, três
bytes são usados para identificar o fabricante/desenvolvedor do protocolo e os outros dois bytes são
definidos pelo fabricante/desenvolvedor internamente, assim como ocorre com o endereçamento
MAC. Dessa forma, foi criada a padronização que antes não existia.
Na Figura 113 nós vemos a vista explodida de um quadro Ethernet. A camada de Controle
do Link Lógico (LLC) acrescenta dois cabeçalhos (LLC e SNAP), e a área de dados contém os
dados passados pelo protocolo de alto nível.

Figura 113 - Estrutura do quadro Ethernet com a camada de Controle do Link lógico (LLC).

Os campos existentes no cabeçalho acrescentado pela camada de Controle do Link Lógico


são, portanto, os seguintes:
DSAP (Destination Service Access Point): Indica o endereço SAP (protocolo de alto nível)
de destino (um byte). Se o campo SNAP for usado, o DSAP é fixado em 10101010.
SSAP (Source Service Access Point): Indica o endereço SAP (protocolo de alto nível) de
origem (um byte). Se o campo SNAP for usado, o SSAP é fixado em 10101010.
Controle: Também chamado CTL, pode assumir basicamente três valores. UI (Unnumbered
Information), usado quando se está transmitindo dados; XID (eXchange IDentification), usado para
trocar dados de identificação entre o transmissor e o receptor e pode ser um comando, que informa a
identidade do emissor e pede para o receptor enviar a sua identidade, ou uma resposta, que retorna a

105
Curso de Redes de Computadores – Plataforma Windows

identidade do receptor quando um comando é solicitado; e Teste, onde o transmissor envia um dado
e o receptor o recebe e o envia de volta, a fim de testar a comunicação.
Código: É o código do fabricante/desenvolvedor do protocolo no IEEE.
Tipo: É o código dado pelo fabricante/desenvolvedor ao protocolo.

Topologias

As redes Ethernet podem usar basicamente dois tipos de topologia: linear (também chamada
em barramento), onde todos os micros são ligados fisicamente a um mesmo cabo, em estrela, onde
todos os micros são ligados a um mesmo cabo através de um dispositivo concentrador, como um
hub. Independente do tipo de topologia usada, uma coisa é certa: todos os dispositivos da rede,
direta ou indiretamente, estão conectados a um mesmo cabo.

Topologia Linear
Nesse tipo de topologia todos os micros são ligados fisicamente a um mesmo cabo, como
mostra a Figura 114. Como todos os micros estão compartilhando o mesmo cabo, fica bastante claro
que nenhum micro pode usar o cabo enquanto uma comunicação está sendo efetuada.

Figura 114 - Topologia linear.

A grande desvantagem da topologia linear é que, se o cabo partir, todos os micros deixam de
ter acesso à rede. Normalmente não precisa ser um rompimento visível: basta que o cabo apresente
mau-contato para a rede deixar de funcionar.
Fisicamente falando, a topologia linear é implementada usando cabo coaxial. Existem dois
tipos de cabo coaxial: cabo coaxial fino (também chamado 10Base2) e cabo coaxial grosso (também
chamado 10Base5). A maneira com que a topologia linear é implementada na prática varia um
pouco de acordo com o tipo de cabo coaxial usado.

Cabo Coaxial Fino (10Base2)


Quando o cabo coaxial fino é usado, as máquinas são conectadas ao cabo da rede através de
um conector BNC "T". Nas pontas do cabo é necessário instalar um terminador resistivo de 50
ohms. As placas de rede para cabo coaxial fino já possuem um transceptor interno e, com isso, elas
já possuem um plugue BNC para a conexão do conector em "T". Na Figura 115 mostramos o
exemplo de uma pequena rede Ethernet com topologia linear usando cabo coaxial fino.

Figura 115 - Exemplo real de uma rede Ethernet com topologia linear, usando cabo coaxial fino.

106
Curso de Redes de Computadores – Plataforma Windows

O cabo coaxial fino possui um limite de comprimento de 185 metros per segmento. É
possível interligar segmentos de rede através de equipamentos especiais, fazendo com que esse
limite se amplie. No caso do cabo coaxial, o equipamento mais comum de ser usado para essa tarefa
é o repetidor.

Cabo Coaxial Grosso (10Base5)

A topologia linear funciona da mesma forma no cabo coaxial grosso. A diferença é que as
placas de rede não possuem transceptores internos para esse tipo de cabo, sendo necessária a
instalação de um transceptor externo. Esse transceptor é instalado na porta AUI da placa de rede.
Outra diferença é que, enquanto o cabo coaxial fino utiliza conectores do tipo BNC, o cabo
coaxial grosso usa conectores do tipo N. O limite de comprimento do cabo coaxial grosso é de 500
metros, que pode ser expandido através do uso de repetidores.

Topologia em Estrela

A topologia em estrela utiliza um periférico concentrador, normalmente um hub,


interligando todas as máquinas da rede, como mostra a Figura 116. Só que essa ligação em estrela é
apenas física. Logicamente, ou seja, dentro do hub, a rede continua funcionando como se ela fosse
uma rede com topologia linear. Isso significa que, quando um micro envia um quadro para outro,
todos os micros recebem esse quadro ao mesmo tempo, não podendo enviar dados enquanto o
cabeamento estiver ocupado.
Outro periférico concentrador, chamado switch (chaveador) pode ser utilizado. Esse
equipamento estabelece somente a conexão entre a máquina de origem e a máquina de destino, não
replicando os quadros recebidos por toda a rede. Esse equipamento é muito mais complexo que o
hub e, por isso, mais caro. É comumente usado em redes onde esteja havendo uma taxa muito alta
de colisões a ponto de estar afetando o desempenho da rede, ou então em redes preocupadas com
segurança (já que é mais seguro enviar um quadro somente para o seu destinatário do que replicá-lo
para a rede inteira).

HUB

Figura 116 - Topologia em estrela.

A grande vantagem da topologia em estrela é a sua flexibilidade. Como possui um periférico


concentrador, caso um dos cabos da rede se rompa, apenas a comunicação entre o hub e a máquina
na qual o cabo estava conectando será interrompida; a rede continuará funcionando perfeitamente,
ao contrário do que ocorre na topologia linear.

107
Curso de Redes de Computadores – Plataforma Windows

Outra vantagem é o uso do cabeamento estruturado. O limite de comprimento depende do


cabo usado. Redes com topologia em estrela são usadas por redes usando cabos do tipo par trançado
(redes Ethernet normalmente utilizam par trançado sem blindagem) e fibra óptica.

Token Ring

Fundamentos

Token Ring é uma arquitetura de redes locais criada pela IBM e padronizada pelo IEEE em
seu padrão 802.5. Isso significa que a arquitetura do padrão Token Ring é igual à arquitetura do
padrão Ethernet, com a diferença que as suas camadas Física e Controle de Acesso ao Meio
funcionam diferentemente (ver Figura 117).

Figura 117 - Arquitetura Token Ring.

Ou seja, igualmente ao Ethernet, o Token Ring trabalha nas camadas 1 e 2 do modelo OSI,
sendo responsável por enviar os dados gerados pelo protocolo de alto nível (TCP/ IP, IPX/SPX,
NetBEUI, etc.) fisicamente para a rede.
Tanto no padrão Ethernet quanto no padrão Token Ring o cabeamento da rede tem de estar
livre para um dado ser enviado. A diferença é que no Ethernet, todas as máquinas têm a mesma
prioridade e, com isso, podem ocorrer colisões, isto é, mais de uma máquina tentando enviar um
quadro de dados ao mesmo tempo quando percebem que o cabo está livre. Já na rede Token Ring,
cada máquina possui um tempo certo de enviar um quadro de dados. Ou seja, mesmo que o cabo
esteja livre, cada máquina só pode enviar dados em um determinado momento. Com isso, colisões
simplesmente não ocorrem, já que somente uma máquina pode enviar dados por vez.
O funcionamento básico da arquitetura Token Ring é mostrado na Figura 118. A topologia
das redes Token Ring é em anel (ring) e, dentro desse anel circula um quadro, chamado token
(ficha) - daí o nome dessa arquitetura ser Token Ring. Cada máquina só pode enviar um quadro de
dados para a rede quando a ficha passa pela máquina e esta estiver vazia. Assim, a rede consegue
garantir que somente uma transmissão é efetuada por vez. Só pode circular uma única ficha na rede
e ela sempre circula na mesma direção.
Nota: Existe uma função chamada Early Token Release que permite que a máquina transmissora do quadro
envie uma ficha vazia para a rede logo após ter enviado um quadro de dados para a rede, antes mesmo de ter recebido
uma confirmação de recebimento do quadro enviado. Com isso, é possível ter mais de uma ficha circulando na rede ao
mesmo tempo, ao contrário do que afirmamos no parágrafo anterior. Essa função foi criada para aumentar o

108
Curso de Redes de Computadores – Plataforma Windows

desempenho da rede. Como as fichas circularão a uma mesma velocidade e foram inseridas no anel em momentos
diferentes, não há a possibilidade de colisão entre elas.

Figura 118 - Funcionamento do arquitetura Token Ring.

Outra diferença importante entre o Token Ring e o Ethernet que vale a pena ser ressaltada é
o tamanho da área de dados do quadro. No Ethernet, cada quadro pode transmitir, no máximo,
1.500 bytes de dados. No Token Ring, a área de dados do seu quadro pode transportar até 17.800
bytes, o que garante um desempenho superior. Basta pensar o seguinte: quanto menos cabeçalhos
existirem para serem processados, melhor.
Para essa idéia ficar mais clara, comparando um quadro Ethernet com um quadro Token
Ring em seus tamanhos máximos, no Ethernet seu cabeçalho representa 1,73% do tamanho do
quadro, enquanto que no Token Ring seu cabeçalho representa apenas 0,12% do tamanho do
quadro.

Topologia

Como vimos na Figura 118, a topologia das redes Token Ring é em anel e nela circula uma
ficha (token). O primeiro computador da rede a ser ligado é responsável por gerar a ficha e
monitorar a sua circulação na rede. Esse computador passa a ser apropriadamente chamado de
monitor.
A circulação da ficha é comandada por cada micro da rede. Cada micro recebe a ficha, e,
caso ela esteja vazia, tem a oportunidade de enviar um quadro de dados para um outro micro da
rede, "enchendo" a ficha. Em seguida, esse computador transmite a ficha para o próximo micro do
anel.
A ficha fica circulando infinitamente. Caso ela esteja cheia, ela circula até chegar na
máquina que tenha o endereço de destino especificado no quadro de dados. Caso ela dê uma volta
inteira no anel e não atinja a máquina de destino, o computador monitor percebe isso e toma as
providências necessárias (esvaziar a ficha e retornar uma mensagem de erro para o micro
transmissor), já que o micro de destino não existe na rede.
Ao atingir o computador de destino, este "esvazia" a ficha e manda ela de volta para o
computador transmissor, marcando a ficha como "lida".

109
Curso de Redes de Computadores – Plataforma Windows

Caso a ficha esteja vazia, ela continua circulando infinitamente até que alguma máquina
queira transmitir dados para a rede.
Fica claro que a topologia usada na rede Token Ring é a topologia em anel. Entretanto, essa
é uma topologia apenas implementada logicamente. Fisicamente falando, as redes Token Ring
utilizam um periférico concentrador, genericamente chamado MAU (Multistation Access Unit).
Funciona como um hub, porém específico para redes Token Ring.
Isso ocorre porque a topologia em estrela dá uma flexibilidade muito maior para a rede, por
vários motivos. Se as redes Token Ring fossem implementadas fisicamente como mostrado na
Figura 118, teríamos as seguintes dificuldades:
A adição de uma nova máquina da rede pararia a rede inteira (já que a ficha
obrigatoriamente teria de parar de circular).
Cada placa de rede teria dois cabos conectados a ela, um para a máquina anterior e outro
para a próxima máquina do anel.
Dificuldade para a adição de uma nova máquina, já que muitas vezes todo o cabeamento
teria de ser redesenhado, já que a adição de uma nova máquina necessariamente implica a ligação
dessa máquina para a máquina anterior do anel e para a próxima máquina do anel. Isso significa não
só a instalação de novos cabos no ambiente de trabalho onde a rede está instalada, mas também no
possível remanejamento dos cabos já existentes.
O MAU, portanto, implementa o anel internamente. Quando uma máquina é adicionada ao
MAU ou então removida, esse dispositivo automaticamente percebe essa condição e altera o anel
interno de forma a adicionar ou remover a máquina do anel. Isso significa que a rede Token Ring
não pára quando uma máquina é adicionada ou removida da rede, quando esse dispositivo é usado.

Figura 119 - Funcionamento interno do MAU.

Nota: Na Figura 119 você pode observar que cada máquina necessita de dois cabos, um para a transmissão de
dados e outro para a recepção. Isso não é uma novidade. As redes Ethernet também operam dessa forma, quando usam

110
Curso de Redes de Computadores – Plataforma Windows

cabo par trançado. As redes Token Ring normalmente utilizam um cabo par trançado com blindagem com dois pares,
onde um par é usado para a transmissão de dados e o outro usado para a recepção de dados.
Fica claro que a diferença entre um hub Ethernet e um hub Token Ring (MAU) é que, no
primeiro, os dados transmitidos por uma máquina são replicados para todas as demais máquinas (ou
seja, para todas as portas do hub), enquanto que, no segundo, os dados transmitidos por uma
máquina são enviados somente para a próxima máquina do anel (isto é, somente para a próxima
porta do hub).
As redes Token Ring possuem um limite de 260 máquinas por rede.

Camada Física

A seguir veremos os principais pontos envolvidos com a camada física da arquitetura Token
Ring.

TRANSMISSÃO DE DADOS

A codificação utilizada para transmitir dados através do cabeamento em redes Token Ring é
a codificação Manchester.

CABEAMENTO

As redes Token Ring utilizam tipicamente o cabo par trançado com blindagem de 150 ohms.
A IBM chama esse cabo de Tipo 1. Ele consegue atingir taxas de transferência de até 100 Mbps. Já
o cabo Tipo 1A é um cabo Tipo 1 que consegue operar com taxas de até 300 Mbps.
Esse cabo utiliza um conector chamado IBM Data Connector. (conector de dados IBM) ou
simplesmente IDC.
Redes Token Ring também podem utilizar fibras ópticas.
Importante notar que a arquitetura Token Ring opera tipicamente a 4 Mbps ou 16 Mbps (o
primeiro padrão Token Ring operava a 1 Mbps e não existe mais). Taxas mais altas estão sendo
padronizadas, especialmente com o advento de cabeamentos que conseguem operar a taxas muito
maiores do que essas: 100 Mbps (padrão IEEE 802.5t) e 1 Gbps (padrão 802.5v).

Controle de Acesso ao Meio (MAC, IEEE 802.5)

A camada de Controle de Acesso ao Meio (MAC) do Token Ring pega as informações


passadas pela camada superior (Controle do Link Lógico, LLC) e insere dentro de um quadro
Token Ring. A estrutura desse quadro é totalmente diferente do quadro Ethernet.
Em uma rede Token Ring há três tipos de quadros: o token (ficha), que fica circulando na
rede à espera de dados a serem transmitidos; o quadro de dados, quando a ficha é capturada e dados
são transmitidos; e cancelamento, que é transmitido quando desejasse cancelar a transmissão
prematuramente. A estrutura desses três quadros é mostrada nas Figuras 120 a 122.

Figura 120 - Estrutura do ficha (token).

111
Curso de Redes de Computadores – Plataforma Windows

Figura 121 - Estrutura do quadro de dados Token Ring.

Figura 122 - Estrutura do quadro de cancelamento.

O tamanho máximo do quadro de dados varia conforme o padrão Token Ring. Em redes
Token Ring operando a 4 Mbps, o tamanho máximo do quadro é de 4.472 bytes. Em redes Token
Ring operando a 16 Mbps ou mais, o tamanho máximo do quadro é de 17.821 bytes.
Os três quadros Token Ring possíveis possuem campos iguais (por exemplo, o campo SD é
encontrado nos três quadros e possui a mesma função). Os campos encontrados em quadros Token
Ring são os seguintes (apresentamos na ordem em que eles aparecem no quadro de dados):
SD (Starting Delimiter): Indica o início de um quadro. É sempre o sinal JKOJK000.
AC (Access Control): Controla o acesso da máquina à rede Token Ring. Esse campo possui
as seguintes informações:
Prioridade (3 bits): Indica a prioridade do quadro que está sendo transmitido. Quanto maior
o valor colocado neste campo, maior é a prioridade do quadro.
Token (1 bit): Indica se o quadro é um quadro de dados (quando está em 0) ou uma ficha
(quando está em 1).
Monitor (1 bit): Quando um quadro é transmitido, esse bit é colocado em 0. Quando o
quadro passa pelo computador monitor, esse bit é mudado para 1. Assim, quando o computador
monitor recebe quadros que possuem esse campo em 1, ele sabe que o quadro já deu uma volta
completa no anel sem, no entanto, ter sido capturado por nenhuma das máquinas da rede. Com isso,
o computador monitor retira esse quadro da rede e envia uma mensagem de erro para o micro
transmissor, conforme havíamos explicado anteriormente.
Reserva de Prioridade (3 bits): Esse campo é usado quando a máquina transmissora quer
reservar a próxima ficha livre para ser usada por ela. Neste campo é colocado o valor da prioridade
interna da máquina que está transmitindo o quadro. Quando o quadro chega ao destino, o micro
receptor deverá capturar os dados e devolver para a rede uma ficha vazia. Nesta ficha vazia, ele
coloca no campo Prioridade o valor que havia contido no campo Reserva de Prioridade do quadro
de dados que ele recebeu. As máquinas da rede só podem usar a ficha livre caso a sua prioridade
interna tenha o mesmo valor ou um valor superior ao contido no campo prioridade da ficha. Ou
seja, a ficha livre irá direto para a máquina que havia transmitido o último quadro de dados, porque
as demais máquinas de rede possivelmente terão um número de prioridade inferior.
FC (Frame Control): Esse campo é usado para indicar se o quadro é de dados ou de controle
e, ainda, se a camada LLC será ou não usada.
DA (Destination Address): Indica o endereço da placa de rede de destino. Aqui entra o
endereço MAC da placa de rede de destino do quadro. Para mais informações sobre endereçamento
MAC, leia o capítulo passado.
AS (Source Address): Indica o endereço da placa de rede transmissora. Aqui entra o
endereço MAC da placa de rede que está transmitido o quadro. Para mais informações sobre
endereçamento MAC, leia o capítulo passado.
Dados: Dados que estão sendo transmitidos. Não possui tamanho mínimo. O tamanho
máximo depende do padrão Token Ring que está sendo utilizado.
FCS (Frame Check Sequence): É o checksum do quadro de dados Token Ring.

112
Curso de Redes de Computadores – Plataforma Windows

ED (Ending Delimiter): Indica o fim do quadro. É sempre o valor JK1JK1IE, onde I indica
se o quadro é o último na seqüência de quadros que estão sendo transmitidos (quando colocado em
0), e E indica que houve erro na transmissão (quando colocado em 1). O bit E é modificado por
qualquer estação por onde o quadro passe, caso ela encontre algum erro de checksum ou erro de
transmissão (por exemplo, algum campo com valor inválido, especialmente os campos SD e ED).
FC (Frame Status): Esse campo é usado para a transmissão da informação de acknowledge,
ou seja, confirmação de recebimento do quadro de dados.

Controle de Link Lógico

Esse assunto já foi estudado em detalhes no padrão Ethernet. A diferença, obviamente, é que
essa camada estará encapsulada dentro de um quadro Token Ring e não dentro de um quadro
Ethernet. A Figura 123 mostra essa camada encapsulada dentro de um quadro Token Ring.

Figura 123 - Estrutura do quadro Token Ring com a camada de Controle do Link Lógico
(LLC).

FDDI

Fundamentos

A arquitetura FDDI (Fiber Data Distributed Interface) foi uma das primeiras arquiteturas de
redes locais a permitir o uso da fibra óptica. Foi baseada no projeto 802 do IEEE, mas acabou sendo
padronizado pela ANSI (American National Standards Institute), sob o número X3T9.5. Na Figura
124 vemos o modelo de camadas do FDDI, e é nítida a sua similaridade com a arquitetura IEEE 802
(como a Ethernet e a Token Ring).

113
Curso de Redes de Computadores – Plataforma Windows

Figura 124 - Arquitetura FDDI.

Sua taxa de transferência máxima é de 100 Mbps e permite uma rede com extensão máxima
de 100 Km (sendo que a cada 2 Km é necessário haver um repetidor, ou seja, o limite de distância
entre cada nó é de 2 Km) e com até 500 computadores interligados. Um segundo padrão FDDI,
chamado FDDI-II, opera a uma taxa de transferência de 200 Mbps.
A FDDI é uma rede em anel como a Token Ring, mas com algumas diferenças substanciais.
Vamos a elas.

Topologia

A topologia da arquitetura FDDI é uma rede em anel duplo, como mostra a Figura 125. Cada
um dos anéis opera em sentido contrário ao do outro. Quando a rede está operando em suas
condições normais, somente um dos anéis, chamado primário, é usado. Caso ocorra algum
problema com esse anel (por exemplo, a conexão seja rompida), então o segundo anel (anel
secundário) é utilizado.

Figura 125 - Topologia em anel duplo, usada por redes FDDI.

114
Curso de Redes de Computadores – Plataforma Windows

A detecção e a recuperação de falhas é uma das grandes diferenças entre o FDDI e o Token
Ring. Em princípio, se uma máquina falhar rompendo a conexão com os dois anéis, a rede deixa de
funcionar, já que ambos os anéis estarão interrompidos, impedindo a circulação da ficha. A rede
FDDI, no entanto, tem a capacidade de se reconfigurar de modo a criar um anel excluindo a
máquina problemática. Isso é mostrado na Figura 126: o anel primário é conectado ao anel
secundário no ponto onde a rede foi interrompida, formando novamente um anel.
O processo de detecção de falhas - chamado beaconing - é muito interessante. Quando uma
máquina percebe que há uma interrupção no anel, ela emite um alarme para a máquina acima dela.
Essa máquina, ao receber o sinal de alarme, emite também um alarme, para a máquina acima e
também responde à máquina anterior que recebeu o pedido de alarme. Esse processo continua até
que uma das máquinas não responda ao pedido de alarme - essa será a máquina responsável pela
interrupção do anel. Detectando a máquina problemática, a rede se autoconfigurará para excluí-Ia
(Figura 126). Caso todas as máquinas respondam corretamente ao pedido de alarme e o pedido dê
uma volta completa no anel (isto é, a máquina que gerou o alarme recebe o mesmo pedido de
alarme vindo da máquina anterior a ela no anel), isso significa que o anel já foi restabelecido e que a
rede pode voltar a operar corretamente.

Figura 126 - Recuperação de falhos em redes FDDI.

As máquinas presentes em redes FDDI, assim como as Token Ring, podem ser interligadas
usando um dispositivo concentrador (hub FDDI). Esse hub é responsável por fazer a conexão das
máquinas. Nesse caso, é o concentrador que monta, internamente, o anel da rede.
Máquinas que estejam conectadas usando os dois anéis são chamadas de Classe A.
Opcionalmente as máquinas podem ser conectadas usando-se somente um anel, igual ao que ocorre
em redes Token Ring. Essas máquinas são classificadas como Classe B e obviamente perdem a
capacidade de reconfiguração da rede em caso de falha do anel.
O funcionamento básico da arquitetura FDDI é igual ao funcionamento das redes Token
Ring. Uma ficha circula no anel e, quando alguma máquina quer transmitir um quadro de dados, ela
captura essa ficha e a substitui por um quadro de dados.

115
Curso de Redes de Computadores – Plataforma Windows

A diferença é que na rede Token Ring (em seu funcionamento básico) só é possível o uso de
uma única ficha circulando no anel. Em redes FDDI, pode haver várias fichas circulando no anel
simultaneamente. Como a ficha circula sempre a uma velocidade conhecida, é possível manter
outras fichas circulando sem haver qualquer tipo de colisão ou conflito. A Figura 127 mostra o
exemplo de uma rede FDDI com duas fichas circulando. Como elas circulam a uma mesma
velocidade e estão em locais diferentes da rede, elas nunca se encontrarão, isto é, nunca haverá uma
colisão das fichas.

Figura 127 - Exemplo de duas fichas circulando em uma rede FDDI.

Camada Física

A seguir veremos as principais características da camada física do padrão FDDI.

Transmissão de Dados

A transmissão de dados em redes FDDI é feita utilizando a codificação 4B/5B, que


estudamos anteriormente, já que redes Ethernet operando a 100 Mbps utiliza esse tipo de
codificação.
Como vimos na ocasião, essa codificação consiste em pegar cada grupo de quatro bits de
dados e transmiti-lo na forma de cinco bits. Com isso, temos disponíveis 32 números diferentes (25)
para transmitirmos 16 números de dados (24). Sobram 16 números para serem usados como
controle. A diferença da codificação 4B/SB usada no Ethernet para a usada no FDDI é que no
Ethernet são utilizados apenas quatro números para controle, enquanto que no FDDI são utilizados
oito números para controle.

Cabeamento

As redes FDDI utilizam fibras ópticas de modo múltiplo operando com um comprimento de
onda de 1300 m. Na ponta dos cabos é utilizado um conector chamado MIC.
O comprimento total de cada anel FDDI pode ser de até 100 Km, sendo que cada cabo de
fibra óptica pode ter até 2 Km. O FDDI possui ainda um limite de 500 máquinas em sua rede.

116
Curso de Redes de Computadores – Plataforma Windows

Controle de acesso ao meio (MAC)

Essa camada é a responsável por pegar os dados enviados pela camada superior (Controle do
Link Lógico, LLC) e criar o quadro FDDI. Esse quadro FDDI será enviado para a camada física de
forma a ser transmitida na rede.
Existem dois tipos de quadro FDDI: a ficha (token) e o quadro de dados. A estrutura desses
dois quadros pode ser vista nas Figuras 128 e 129, respectivamente.

Figura 128 - Estrutura do ficha (token).

Figura 129 - Estrutura do quadro de dados FDDI.

Os campos existentes nesses dois quadros são iguais. Por exemplo, o campo PA existe nos
dois quadros e possui a mesma função. Os campos existentes nos quadros FDDI são os seguintes:
PA (Preâmbulo): São 16 ou mais símbolos Idle, usados para separar a transmissão
consecutiva de dois quadros. Ou seja, entre dois quadros transmitidos consecutivamente, existirão
pelo menos 16 símbolos Idle. O símbolo Idle possui valor 11111.
SD (Starting Delimiter): Indica o início do quadro.
FC (Frame Control): Informa o tipo do quadro. Por exemplo, o valor 41h ou 4Fh indica um
quadro de controle (chamado SMT, Station Management); o valor C2h ou C3h indica um quadro de
dados; e o valor 50h ou 51h indica o uso da camada de Controle do Link Lógico (LLC). No caso da
ficha, o valor 80h indica uma ficha não restrita, e o valor C0h indica uma ficha restrita.
DA (Destination Address): Aponta o endereço MAC da placa de rede de destino. Esse
endereço é composto por seis bytes.
AS (Source Address): Aponta o endereço MAC da placa de rede que está transmitindo o
quadro. Esse endereço é composto por seis.
Dados: Área de dados do quadro. Pode ter até 4.478 bytes de dados. Como o quadro FDDI
possui um campo que indica o final do quadro (ED) e como esse campo possui símbolos especiais
de controle que não são encontrados em nenhum outro lugar, não é necessário para o quadro FDDI
ter um campo indicando o tamanho do quadro (já que o tamanho da área de dados é variável).
FCS (Frame Check Sequence): É o checksum do quadro FDDI. Para calculá-lo, são usados
somente os campos FC, DA, SA, Dados e o próprio FCS, já que os demais campos são formados
por símbolos de controle e não por bits de dados.
ED (Ending Delimiter): Indica o final do quadro. É composto de um símbolo T, ou seja, é
transmitido o valor 01101.
FS (Frame Status): Esse campo possui a estrutura que possui três indicadores: Erro,
Acknowledge e Copiado. Quando o quadro é transmitido, o símbolo Reset é colocado nesses
indicadores. Quando o quadro chega ao destino, a máquina receptora coloca o símbolo Set no
indicador Acknowledge, para indicar que recebeu o quadro, e no indicador Copiado, para indicar
que copiou para si o conteúdo do quadro e "esvaziou" a ficha. O indicador Erro é alterado de Reset
para Set por qualquer máquina no caminho percorrido pelo quadro que tenha identificado algum
erro, como erro de checksum ou um campo inválido.

117
Curso de Redes de Computadores – Plataforma Windows

Controle do Link Lógico (LLC, IEEE 802.2)

O funcionamento dessa camada foi apresentado no padrão Ethernet. Em redes FDDI, o


funcionamento dessa camada é absolutamente igual, com a exceção de que essa camada encapsulará
dados dentro de quadros FDDI. A Figura 130 mostra essa camada encapsulada dentro de um quadro
de dados FDDI.

Figura 130 - Estrutura do quadro FDDI com a camada de Controle do Link Lógico (LLC).

118

Você também pode gostar