Você está na página 1de 35

Introdução ao TCP/IP

Fundamentos de Rede

www.datacom.ind.br
1
Sumário

• Breve Histórico das Redes de Computadores, 3 • Internet Protocol (IP), 19


• Protocolos e o Modelo em Camadas, 4 • Classes de Endereços IP, 20
• Modelo OSI, 5 • Endereços IP Reservados, 21
• Camadas do Modelo OSI, 6 • Endereços IP Públicos e Privados, 22
• Encapsulamento, 7 • Divisão em Sub-Redes, 23
• Modelo TCP/IP, 8 • Máscara de Sub-Rede, 24
• Ethernet, 9 • Roteadores, 25
• Meios Físicos, 10 • Protocolos de Roteamento, 26
• Nomenclatura da Ethernet IEEE, 11 • Address Resolution Protocol (ARP), 27
• Estrutura do Quadro Ethernet, 12 • Transmission Control Protocol (TCP) , 28
• CSMA/CD, 13 • Handshake Triplo, 29
• Autonegociação, 14 • Confirmação e Janelamento, 30
• Domínios de Colisão, 15 • User Datagram Protocol (UDP), 31
• Domínios de Broadcast, 16 • Números de Portas TCP e UDP, 32
• Virtual LAN, 17 • Camada de Aplicação, 33
• Spanning Tree Protocol (STP), 18 • Quality of Service (QoS), 34

www.datacom.ind.br
2
Breve Histórico das Redes de Computadores

• 1950s: Invenção do Circuito integrado


• 1960s: Computação mainframe
• 1969: ARPANET é implementada em UCLA, UCSB, U-Utah e Standford
• 1970s: Uso disseminado dos CI. Advento dos computadores pessoais
• 1970: ALOHANET é desenvolvida pela Universidade do Hawaii
• 1972: Ray Tomlinson cria o e-mail para enviar mensagens
• 1973: Bob Kahn e Vint Cert começam a trabalhar no que viria a ser TCP/IP
• 1980s: Uso disseminado dos computadores pessoais
• 1981: O termo internet a atribuído a um conjunto de redes conectadas
• 1982: A ISO lança o modelo OSI
• 1983: TCP/IP se torna a linguagem universal da internet
• 1990: A ARPANET se torna a internet
• 1991: O WWW é criado
• 1990s até hoje: Os usuários de internet dobram a cada 6 meses.

Nos anos 40, os computadores eram enormes dispositivos eletromecânicos propensos a falhas. Em 1947, a invenção de um
transistor semicondutor criou várias possibilidades para a fabricação de computadores menores e mais confiáveis. Nos anos 50, os
computadores mainframe, que eram acionados por programas em cartões perfurados, começaram a ser usados por grandes
instituições. No final dos anos 50, foi inventado o circuito integrado, que combinava vários, depois muitos e agora combina
milhões de transistores em uma pequena peça de semicondutor. Durante os anos 60, mainframes com terminais eram comuns e os
circuitos integrados tornaram-se muito usados.
No final dos anos 60 e 70, surgiram computadores menores, chamados de minicomputadores, (mesmo que ainda fossem enormes
para os padrões atuais). Em 1978, a empresa Apple Computer lançou o computador pessoal. Em 1981, a IBM apresentou o
computador pessoal de arquitetura aberta. O Mac amigável, o IBM PC de arquitetura aberta e a maior microminiaturização dos
circuitos integrados conduziram à difusão do uso de computadores pessoais nos lares e escritórios. A partir da segunda metade dos
anos 80, os usuários de computador, com os seus computadores autônomos, começaram a compartilhar dados (arquivos) e
recursos (impressoras). As pessoas se perguntavam, por que não conectá-los?
Enquanto tudo isso estava acontecendo, os sistemas telefônicos continuaram a melhorar. Especialmente nas áreas de tecnologia de
switching e de serviço de longa distância (devido às novas tecnologias como microondas e fibras ópticas), um sistema telefônico
confiável, mundial foi desenvolvido.
Tendo início nos anos 60 e continuando pelos anos 70, 80 e 90, o Departamento de Defesa americano desenvolveu grandes e
confiáveis redes de longa distância (WAN). Algumas de suas tecnologias foram usadas no desenvolvimento de LANs, porém o mais
importante foi que a WAN do Departamento de Defesa acabou se transformando na Internet.

www.datacom.ind.br
3
Protocolos e o Modelo em Camadas

• Um protocolo de comunicações
de dados é um conjunto de
regras, ou um acordo, que
determina o formato e a
transmissão de dados.

• O conceito de camadas é usado


para descrever como ocorre a
comunicação de um computador
para outro

A informação que navega pela rede é geralmente conhecida como dados ou um pacote. Um pacote é uma unidade de informações
logicamente agrupadas que se desloca entre sistemas de computadores. Conforme os dados são passados entre as camadas, cada
camada acrescenta informações adicionais que possibilitam uma comunicação efetiva com a camada correspondente no outro
computador.
Para que os pacotes de dados trafeguem de uma origem até um destino, através de uma rede, é importante que todos os
dispositivos da rede usem a mesma linguagem, ou protocolo. Um protocolo é um conjunto de regras que tornam mais eficiente a
comunicação em uma rede. Por exemplo, ao pilotarem um avião, os pilotos obedecem a regras muito específicas de comunicação
com outros aviões e com o controle de tráfego aéreo.
A Camada 4 no computador de origem comunica com a Camada 4 no computador de destino. As regras e convenções usadas para
esta camada são conhecidas como protocolos de Camada 4. É importante lembrar-se de que os protocolos preparam dados de
uma maneira linear. Um protocolo em uma camada realiza certos conjuntos de operações nos dados ao preparar os dados que
serão enviados através da rede. Em seguida os dados são passados para a próxima camada onde outro protocolo realiza um
conjunto diferente de operações.
Uma vez enviado o pacote até o destino, os protocolos desfazem a construção do pacote que foi feito no lado da fonte. Isto é feito
na ordem inversa. Os protocolos para cada camada no destino devolvem as informações na sua forma original, para que o
aplicativo possa ler os dados corretamente.
Os modelos OSI e TCP/IP possuem camadas que explicam como os dados são comunicados desde um computador para outro. Os
modelos diferem no número e função das camadas. Entretanto, cada modelo pode ser usado para ajudar na descrição e
fornecimento de detalhes sobre o fluxo de informação desde uma fonte até um destino.

www.datacom.ind.br
4
Modelo OSI

O início do desenvolvimento de redes era desorganizado em várias maneiras. No início da década de 80 houve um grande aumento
na quantidade e no tamanho das redes. À medida que as empresas percebiam as vantagens da utilização da tecnologia de redes,
novas redes eram criadas ou expandidas tão rapidamente quanto eram apresentadas novas tecnologias de rede.
Lá pelos meados de 1980, essas empresas começaram a sentir os problemas causados pela rápida expansão. Assim como pessoas
que não falam o mesmo idioma têm dificuldade na comunicação entre si, era difícil para as redes que usavam diferentes
especificações e implementações trocarem informações. O mesmo problema ocorreu com as empresas que desenvolveram
tecnologias de rede proprietária ou particular. Proprietário significa que uma empresa ou um pequeno grupo de empresas controla
todos os usos da tecnologia. As tecnologias de rede que seguiam estritamente as regras proprietárias não podiam comunicar-se
com tecnologias que seguiam diferentes regras proprietárias.
Para tratar dos problemas de incompatibilidade entre as redes, a International Organization for Standardization (ISO) realizou uma
pesquisa nos modelos de redes como Digital Equipment Corporation net (DECnet), Systems Network Architecture (SNA) e TCP/IP a
fim de encontrar um conjunto de regras aplicáveis a todas as redes. Com o resultado desta pesquisa, a ISO criou um modelo de
rede que ajuda os fabricantes na criação de redes que são compatíveis com outras redes.

www.datacom.ind.br
5
Camadas do Modelo OSI

• Cada camada de comunicação no computador de origem se comunica com uma


PDU específica da camada, e com a sua camada correspondente no computador
de destino

Para que os pacotes de dados trafeguem da origem para o destino, cada camada do modelo OSI na origem deve se comunicar com
sua camada par no destino. Essa forma de comunicação é chamada ponto-a-ponto. Durante este processo, os protocolos de cada
camada trocam informações, denominadas unidades de dados de protocolo (PDUs).
Pacotes de dados em uma rede são originados em uma origem e depois trafegam até um destino. Cada camada depende da
função de serviço da camada OSI abaixo dela. Para fornecer esse serviço, a camada inferior usa o encapsulamento para colocar a
PDU da camada superior no seu campo de dados; depois, adiciona os cabeçalhos e trailers que a camada precisa para executar sua
função. A seguir, enquanto os dados descem pelas camadas do modelo OSI, novos cabeçalhos e trailers são adicionados. Depois
que as Camadas 7, 6 e 5 tiverem adicionado suas informações, a Camada 4 adiciona mais informações. Esse agrupamento de
dados, a PDU da Camada 4, é chamado segmento.
A camada de rede, fornece um serviço à camada de transporte, e a camada de transporte apresenta os dados ao subsistema da
internetwork. A camada de rede tem a tarefa de mover os dados através da internetwork. Ela efetua essa tarefa encapsulando os
dados e anexando um cabeçalho, criando um pacote (a PDU da Camada 3). O cabeçalho tem as informações necessárias para
completar a transferência, como os endereços lógicos da origem e do destino.
A camada de enlace de dados fornece um serviço à camada de rede. Ela faz o encapsulamento das informações da camada de rede
em um diagrama (a PDU da Camada 2). O cabeçalho do quadro contém informações (por exemplo, endereços físicos) necessárias
para completar as funções de enlace de dados. A camada de enlace fornece um serviço à camada de rede encapsulando as
informações da camada de rede em um quadro.
A camada física também fornece um serviço à camada de enlace. A camada física codifica o quadro de enlace de dados em um
padrão de 1s e 0s (bits) para a transmissão no meio (geralmente um cabo) na Camada 1.

www.datacom.ind.br
6
Encapsulamento

1. Gerar os dados.
2. Segmentar os dados para
transporte fim-a-fim
3. Adicionar o endereço IP da rede
ao cabeçalho
4. Adicionar o cabeçalho e o trailer
da camada de enlace de dados
5. Converter em bits para
transmissão.

Todas as comunicações numa rede começam em uma origem e são enviadas a um destino. As informações enviadas através da
rede são conhecidas como dados ou pacotes de dados. Se um computador (host A) desejar enviar dados para outro computador
(host B), os dados devem primeiro ser empacotados através de um processo chamado encapsulamento.
O encapsulamento empacota as informações de protocolo necessárias antes que trafeguem pela rede. Assim, à medida que o
pacote de dados desce pelas camadas do modelo OSI, ele recebe cabeçalhos, trailers e outras informações.
Uma vez que os dados são enviados pela origem, eles viajam através da camada de aplicação em direção às outras camadas. O
empacotamento e o fluxo dos dados que são trocados passam por alterações à medida que as camadas executam seus serviços
para os usuários finais. As redes devem efetuar as cinco etapas de conversão a seguir para encapsular os dados:

1. Gerar os dados: Quando um usuário envia uma mensagem de correio eletrônico, os seus caracteres alfanuméricos são
convertidos em dados que podem trafegar na internetwork.
2. Empacotar os dados para transporte fim-a-fim: Os dados são empacotados para transporte na internetwork. Usando
segmentos, a função de transporte assegura que os hosts da mensagem em ambas as extremidades do sistema de correio
eletrônico possam comunicar-se com confiabilidade.
3. Adicionar o endereço IP da rede ao cabeçalho: Os dados são colocados em um pacote ou datagrama que contém um cabeçalho
de pacote contendo endereços lógicos de origem e destino. Esses endereços ajudam os dispositivos da rede a enviar os pacotes
através da rede por um caminho escolhido.
4. Adicionar o cabeçalho e o trailer da camada de enlace de dados: Cada dispositivo da rede deve colocar o pacote dentro de um
quadro. O quadro permite a conexão com o próximo dispositivo da rede diretamente conectado no link. Cada dispositivo no
caminho de rede escolhido requer enquadramento de forma que possa conectar-se com o próximo dispositivo.
5. Converter em bits para transmissão: O quadro deve ser convertido em um padrão de 1s e 0s (bits) para transmissão no meio
físico. Uma função de sincronização de clock permite que os dispositivos diferenciem esses bits à medida que trafegam no meio
físico. O meio físico das redes interconectadas pode variar ao longo do caminho usado. Por exemplo, a mensagem de correio
eletrônico pode ser originada em uma rede local, atravessar um backbone do campus e sair por um link da WAN até alcançar seu
destino em outra rede local remota.

www.datacom.ind.br
7
Modelo TCP/IP

Aplicação:
• File Transfer Protocol (FTP)
• Hypertext Transfer Protocol (HTTP)
• Simple Mail Transfer Protocol (SMTP)
• Sistema de Nomes de Domínios (DNS)
• Trivial File Transfer Protocol (TFTP)
Transporte:
• Transport Control Protocol (TCP)
• User Datagram Protocol (UDP)
Internet:
• Internet Protocol (IP)
• Internet Control Message Protocol (ICMP)
Acesso a rede:
• Ethernet
• Point-to-point Protocol (PPP)
• Address Resolution Protocol (ARP)

O padrão histórico e técnico da Internet é o modelo TCP/IP. O Departamento de Defesa dos Estados Unidos (DoD) desenvolveu o
modelo de referência TCP/IP porque queria uma rede que pudesse sobreviver a qualquer condição, mesmo a uma guerra nuclear.
Em um mundo conectado por diferentes tipos de meios de comunicação como fios de cobre, microondas, fibras ópticas e links de
satélite, o DoD queria a transmissão de pacotes a qualquer hora e em qualquer condição. Este problema de projeto extremamente
difícil originou a criação do modelo TCP/IP.
Ao contrário das tecnologias de rede proprietárias mencionadas anteriormente, o TCP/IP foi projetado como um padrão aberto. Isto
queria dizer que qualquer pessoa tinha a liberdade de usar o TCP/IP. Isto ajudou muito no rápido desenvolvimento do TCP/IP como
padrão.
Embora algumas das camadas no modelo TCP/IP tenham os mesmos nomes das camadas no modelo OSI, as camadas dos dois
modelos não correspondem exatamente. Mais notadamente, a camada de aplicação tem diferentes funções em cada modelo.
Os projetistas do TCP/IP decidiram que os protocolos de mais alto nível deviam incluir os detalhes da camada de sessão e de
apresentação do OSI. Eles simplesmente criaram uma camada de aplicação que trata de questões de representação, codificação e
controle de diálogo.
A camada de transporte lida com questões de qualidade de serviços de confiabilidade, controle de fluxo e correção de erros. Um de
seus protocolos, o Transmission Control Protocol (TCP), fornece formas excelentes e flexíveis de se desenvolver comunicações de
rede confiáveis com baixa taxa de erros e bom fluxo.
O propósito da camada de Internet é dividir os segmentos TCP em pacotes e enviá-los a partir de qualquer rede. Os pacotes
chegam à rede de destino independente do caminho levado para chegar até lá. O protocolo específico que governa essa camada é
chamado Internet Protocol (IP). A determinação do melhor caminho e a comutação de pacotes ocorrem nesta camada.
É muito importante a relação entre IP e TCP. Pode-se imaginar que o IP aponta o caminho para os pacotes, enquanto que o TCP
proporciona um transporte confiável.
O significado do nome da camada de acesso à rede é muito amplo e um pouco confuso. É também conhecida como a camada
host-para-rede. Esta camada lida com todos os componentes, tanto físico como lógico, que são necessários para fazer um link
físico. Isso inclui os detalhes da tecnologia de redes, inclusive todos os detalhes nas camadas física e de enlace do OSI.

www.datacom.ind.br
8
Ethernet

Características:
• Simplicidade e facilidade de
manutenção
• Capacidade de introdução de novas
tecnologias
• Confiabilidade
• Instalação e atualização econômicas

A maior parte do tráfego na Internet origina-se e termina com conexões Ethernet. Desde seu início nos anos 70, a Ethernet evoluiu
para acomodar o grande aumento na demanda de redes locais de alta velocidade. Quando foram produzidos novos meios físicos,
como a fibra ótica, a Ethernet adaptou-se para aproveitar a largura de banda superior e a baixa taxa de erros que as fibras
oferecem. Atualmente, o mesmo protocolo que transportava dados a 3 Mbps em 1973 está transportando dados a 10 Gbps.
Com a introdução da Gigabit Ethernet, aquilo que começou como uma tecnologia de redes locais, agora se estende a distâncias
que fazem da Ethernet um padrão para MAN (Rede Metropolitana) e para WAN (Rede de longa distância). A idéia original para
Ethernet surgiu de problemas de permitir que dois ou mais hosts usem o mesmo meio físico e de evitar que sinais interfiram um
com o outro. Esse problema de acesso de vários usuários a um meio físico compartilhado foi estudado no início dos anos 1970 na
University of Hawaii. Foi desenvolvido um sistema denominado Alohanet para permitir o acesso estruturado de várias estações nas
Ilhas do Havaí à banda compartilhada de radiofreqüência na atmosfera. Esse trabalho veio a formar a base para o método de
acesso Ethernet conhecido como CSMA/CD.
A primeira rede local do mundo foi a versão original da Ethernet. Robert Metcalfe e seus colegas na Xerox fizeram o seu projeto há
mais de trinta anos. O primeiro padrão Ethernet foi publicado em 1980 por um consórcio entre a Digital Equipment Company, a
Intel, e a Xerox (DIX). Metcalfe quis que a Ethernet fosse um padrão compartilhado que beneficiasse a todos e foi então lançada
como padrão aberto. Os primeiros produtos desenvolvidos que usavam o padrão Ethernet foram vendidos durante o início dos
anos 80. A Ethernet transmitia até 10 Mbps através de cabo coaxial grosso a uma distância de até 2 quilômetros. Esse tipo de cabo
coaxial era conhecido como thicknet e era da espessura de um pequeno dedo.
Em 1985, o comitê de padronização de Redes Locais e Metropolitanas do Institute of Electrical and Electronics Engineers (IEEE)
publicou padrões para redes locais. Esses padrões começam com o número 802. O padrão para Ethernet é 802.3. O IEEE procurou
assegurar que os padrões fossem compatíveis com o modelo da International Standards Organization (ISO)/OSI. Para fazer isso, o
padrão IEEE 802.3 teria que satisfazer às necessidades da camada 1 e da parte inferior da camada 2 do modelo OSI. Como
resultado, no 802.3, foram feitas algumas pequenas modificações em relação ao padrão Ethernet original.
As diferenças entre os dois padrões eram tão insignificantes que qualquer placa de rede Ethernet (NIC) poderia transmitir e receber
quadros tanto Ethernet como 802.3. Essencialmente, Ethernet e IEEE 802.3 são padrões idênticos.

www.datacom.ind.br
9
Meios Físicos

O cabo de par trançado blindado (STP) combina as técnicas de blindagem, cancelamento e trançamento de fios. Cada par de fios é
envolvido por uma malha metálica. Os dois pares de fios são totalmente envolvidos por uma malha ou folha metálica. Geralmente
é um cabo de 150 Ohm. Conforme especificado para utilização nas instalações de rede Token Ring, o STP reduz o ruído elétrico
dentro dos cabos como ligação dos pares e diafonia. O STP reduz também ruídos eletrônicos externos dos cabos, por exemplo a
interferência eletromagnética (EMI) e interferência da freqüência de rádio (RFI). O cabo de par trançado blindado compartilha
muitas das vantagens e desvantagens do cabo de par trançado não blindado (UTP). O STP oferece maior proteção contra todos os
tipos de interferência externa, mas é mais caro e difícil de instalar do que o UTP.
Cabo de par trançado não blindado (UTP) é um meio de fio de quatro pares usado em uma variedade de redes. Cada um dos 8 fios
individuais de cobre no cabo UTP é coberto por material isolante. Além disso, cada par de fios é trançado em volta de si. Esse tipo
de cabo usa apenas o efeito de cancelamento, produzido pelos pares de fios trançados para limitar a degradação do sinal causada
por EMI e RFI. Para reduzir ainda mais a diafonia entre os pares no cabo UTP, o número de trançamentos nos pares de fios varia.
Como o cabo STP, o cabo UTP deve seguir especificações precisas no que se refere a quantas torcidas ou trançados são permitidos
por metro de cabo.
A parte de uma fibra óptica através da qual os raios de luz se propagam é camada núcleo da fibra. Os raios de luz só podem entrar
no núcleo se seus ângulos estiverem dentro da abertura numérica da fibra. Da mesma maneira, uma vez que os raios tenham
entrado no núcleo da fibra, existe um número limitado de caminhos ópticos que podem ser seguidos pelo raio de luz através da
fibra. Estes caminhos ópticos são chamados modos. Se o diâmetro do núcleo da fibra for suficientemente grande para que hajam
muitos caminhos por onde a luz pode se propagar através da fibra, a fibra é chamada fibra "multimodo". A fibra monomodo possui
um núcleo muito menor que só permite que os raios de luz se propaguem em um modo dentro da fibra. Geralmente cada cabo de
fibra óptica é composto de 5 partes. As partes são: o núcleo, o revestimento interno, um buffer, um material reforçante, e uma
capa externa

www.datacom.ind.br
10
Nomenclatura da Ethernet IEEE

Na camada de enlace de dados, a estrutura do quadro é quase idêntica para todas as velocidades da Ethernet, desde 10 Mbps até
10.000 Mbps. No entanto, na camada física, quase todas as versões de Ethernet são substancialmente diferentes umas das outras,
com cada velocidade tendo um diferente conjunto de regras de projeto de arquitetura.
Quando a Ethernet precisa ser expandida para acrescentar um novo meio físico ou capacidade, o IEEE publica um novo suplemento
para o padrão 802.3. Os novos suplementos recebem uma ou duas letras de designação, como 802.3u. Uma descrição abreviada
(denominada identificador) também é designada para o suplemento.

A descrição abreviada consiste em:


• Um número indicando o número de Mbps transmitido.
• A palavra base, indicando que foi usada a sinalização banda base (baseband).
• Uma ou mais letras do alfabeto, indicando o tipo do meio físico usado (F = cabo de fibra ótica, T = par trançado de cobre não
blindado).

A Ethernet se vale da sinalização banda base (baseband), que usa toda a largura de banda disponível no meio físico de transmissão.
O sinal de dados é transmitido diretamente através do meio físico de transmissão.

www.datacom.ind.br
11
Estrutura do Quadro Ethernet

• Ethernet II (DIX) • IEEE 802.3

Na versão da Ethernet que foi desenvolvida por DIX antes da adoção da versão IEEE 802.3 da Ethernet, o Preâmbulo e o SFD (Start
Frame Delimiter) foram combinados em um único campo, apesar do padrão binário ser idêntico. O campo denominado
Comprimento/Tipo foi identificado apenas como Comprimento nas primeiras versões do IEEE e apenas como Tipo na versão DIX.
Esses dois usos do campo foram oficialmente combinados em uma versão mais recente do IEEE, pois os dois usos do campo são
comuns por toda a indústria.
O campo Tipo da Ethernet II está incorporado na definição de um quadro no padrão 802.3 atual. O nó receptor precisa determinar
qual é o protocolo de camada superior que está presente em um quadro de entrada, examinando o campo Comprimento/Tipo. Se
o valor dos dois octetos é igual ou maior que 0x0600 (hexadecimal), 1536 em decimal, então o conteúdo do campo de dados (data
field) do quadro é decodificado de acordo com o protocolo indicado. Ethernet II é o formato de quadro Ethernet utilizado em redes
TCP/IP.

www.datacom.ind.br
12
CSMA/CD

A Ethernet é uma tecnologia de


broadcast de meios físicos
compartilhados. O método de
acesso CSMA/CD usado na Ethernet
executa três funções:

• Transmitir e receber quadros de


dados
• Decodificar quadros de dados e
verificar se os endereços são válidos,
antes de passá-los às camadas
superiores do modelo OSI
• Detectar erros dentro dos quadros de
dados ou na rede

No método de acesso CSMA/CD, os dispositivos de rede com dados a serem transmitidos funcionam em modalidade de "escutar
antes de transmitir". Isso significa que, quando um nó deseja enviar dados, ele deve verificar primeiramente se os meios da rede
estão ocupados. Se o nó determinar que a rede está ocupada, o nó aguardará um tempo aleatório antes de tentar novamente. Se o
nó determinar que os meios físicos da rede não estão ocupados, o nó começará a transmitir e a escutar. O nó escuta para garantir
que nenhuma outra estação esteja transmitindo ao mesmo tempo. Depois de completar a transmissão dos dados, o dispositivo
retornará ao modo de escuta.
Os dispositivos de rede detectam a ocorrência de uma colisão pelo aumento da amplitude do sinal nos meios físicos da rede.
Quando ocorre uma colisão, cada um dos nós que está transmitindo continuará a transmitir por um curto espaço de tempo, para
garantir que todos os dispositivos identifiquem a colisão. Depois que todos os dispositivos detectaram a colisão, um algoritmo de
recuo (backoff) será invocado e a transmissão será interrompida. Os nós param então de transmitir durante um tempo aleatório
determinado pelo algoritmo de backoff. Quando este período expirar, cada um dos nós envolvidos poderá tentar obter acesso aos
meios físicos da rede. Os dispositivos envolvidos na colisão não terão prioridade na transmissão.
Em um cabo UTP, como 10BASE-T, 100BASE-TX e 1000BASE-T, uma colisão é detectada no segmento local somente quando uma
estação detecta um sinal no par RX ao mesmo tempo que está transmitindo através do par TX. Como os dois sinais estão em pares
diferentes, não há nenhuma mudança característica no sinal. As colisões são reconhecidas em UTP somente quando a estação está
operando em half-duplex. A única diferença funcional entre a operação half e full-duplex a esse respeito é se os pares de
transmissão e recepção podem ou não ser usados simultaneamente. Se a estação não estiver realizando uma transmissão, ela não
poderá detectar uma colisão local. Se a estação conectada estiver operando em full-duplex, a estação poderá enviar e receber
simultaneamente e não deverão ocorrer colisões.

www.datacom.ind.br
13
Autonegociação

• Com o crescimento da Ethernet de 10 a 100 e até 1000 Mbps, uma


exigência era possibilitar a interoperabilidade de cada uma destas
tecnologias, a ponto de permitir a conexão direta entre as interfaces de
10, 100 e 1000.
• Foi elaborado um processo denominado Autonegociação de velocidades
em half-duplex ou full-duplex. Este processo define como dois parceiros
de interligação podem negociar automaticamente a sua configuração
para oferecer o melhor nível de desempenho conjunto.
• O processo ainda possui a vantagem de envolver somente a parte mais
baixa da camada física.

10BASE-T exigia que cada estação emitisse um link pulse a cada 16 milissegundos, aproximadamente, enquanto a estação não
estivesse ocupada com a transmissão de uma mensagem. A autonegociação adotou este sinal e deu-lhe o novo nome de Normal
Link Pulse (NLP). Quando é enviada uma série de NLPs em um grupo para fins de Autonegociação, o grupo é denominado rajada de
Fast Link Pulse (FLP). Cada rajada de FLP é enviada num intervalo de temporização idêntico ao de um NLP e tem a finalidade de
permitir que os dispositivos 10BASE-T mais antigos operem normalmente no caso de receberem uma rajada de FLP.
A Autonegociação é realizada pela transmissão de uma rajada de Link Pulses 10BASE-T de cada um dos parceiros interligados. A
rajada comunica as capacidades da estação transmissora ao seu parceiro interligado. Após ambas as estações interpretarem o que
a outra parte está oferecendo, cada uma alterna para a configuração de desempenho conjunto mais alto e estabelecem um link
naquela velocidade. Se algo interromper as comunicações e o link for perdido, os dois parceiros primeiro tentarão restabelecer o
link à velocidade anteriormente negociada. Se isso falhar, ou se tiver decorrido muito tempo desde a perda do link, o processo de
Autonegociação irá recomeçar. O link pode ser perdido devido a influências externas, como falha do cabo, ou pela emissão de um
reset por um dos parceiros. Autonegociação é opcional para a maioria das implementações de Ethernet. Gigabit Ethernet exige a
sua implementação, embora o usuário possa desativá-la. A Autonegociação foi originalmente definida para implementações UTP de
Ethernet e foi estendida para funcionar com outras implementações em fibra ótica.
Existem apenas dois métodos de se obter um link full-duplex. Um método é através de um ciclo completo de Autonegociação e o
outro é pela imposição da execução do full-duplex em ambos os parceiros do link. Se um dos parceiros do link for forçado a full-
duplex, mas o outro tentar a Autonegociação, com certeza haverá uma incompatibilidade (mismatch) no modo de operaçào. Isto
resultará em colisões e erros nesse link. Além disso, se uma extremidade é forçada a full-duplex, a outra também precisa ser
forçada. A exceção a esta regra é a 10-Gigabit Ethernet, que não suporta half-duplex.

www.datacom.ind.br
14
Domínios de Colisão

Os dispositivos da Camada 2, bridges e os switches, segmentam ou dividem


os domínios de colisão.

A história de como a Ethernet lida colisões e domínios de colisão data do ano de 1970 em pesquisas na University of Hawaii.
Enquanto tentavam desenvolver um sistema de comunicação sem-fio para as ilhas do Havaí, os pesquisadores da universidade
desenvolveram um protocolo conhecido como Aloha. O protocolo Ethernet é na realidade baseado no protocolo Aloha.
Os dispositivos da Camada 2 segmentam ou dividem os domínios de colisão. O controle da propagação do quadro usando um
endereço MAC designado a cada dispositivo Ethernet realiza essa função. Os dispositivos da Camada 2, as bridges e os switches,
rastreiam os endereços MAC e os segmentos nos quais se encontram. Ao fazerem isso, estes dispositivos podem controlar o fluxo
do tráfego ao nível da Camada 2. Esta função aumenta a eficiência das redes ao permitir que os dados sejam transmitidos em
diferentes segmentos da rede local simultaneamente sem a colisão dos quadros. Com a utilização de bridges e switches, o domínio
de colisão é dividido em partes menores, cada um deles se tornando seu próprio domínio de colisão.
Geralmente, uma bridge possui apenas duas portas e divide o domínio de colisão em duas partes. Todas as decisões feitas por uma
bridge são baseadas no endereçamento MAC ou da Camada 2 e não afetam o endereçamento lógico ou da Camada 3. Assim, uma
bridge divide um domínio de colisão mas não tem efeito nenhum no domínio lógico ou de broadcast. Não importa quantas bridges
existam em uma rede, a não ser que haja um dispositivo como um roteador que funcione com o endereçamento da Camada 3, a
rede inteira compartilhará o mesmo espaço de endereço lógico de broadcast. Uma bridge criará mais domínios de colisão mas não
adicionará domínios de broadcast.
Um switch é essencialmente uma bridge rápida multiportas, que pode conter dezenas de portas. Em vez de criar dois domínios de
colisão, cada porta cria seu próprio domínio de colisão. Em uma rede de vinte nós, podem existir vinte domínios de colisão se cada
nó for ligado em sua própria porta no switch. Se estiver incluída uma porta uplink, um switch criará vinte e um domínios de colisão
com um único nó. Um switch dinamicamente constrói e mantém uma tabela CAM (Content-Addressable Memory), mantendo
todas as informações MAC necessárias para cada porta.

www.datacom.ind.br
15
Domínios de Broadcast

Para a comunicação com todos os domínios de colisão, os protocolos usam os quadros broadcast e multicast na Camada 2 do
modelo OSI. Quando um nó precisa comunicar-se com todos os hosts na rede, ele envia um quadro de broadcast com um endereço
MAC de destino FF:FF:FF:FF:FF:FF. Este é um endereço ao qual a placa de rede (NIC) de cada host precisa responder.
Os dispositivos da Camada 2 precisam propagar todo o tráfego de broadcast e multicast. O acúmulo de tráfego broadcast e
multicast de cada dispositivo na rede é conhecido como radiação de broadcast. Em alguns casos, a circulação da radiação de
broadcast poderá saturar a rede de maneira que não sobre largura de banda para os dados das aplicações. Neste caso, novas
conexões de rede não podem ser estabelecidas e as conexões existentes podem ser descartadas, uma situação conhecida como
tempestade de broadcast. A probabilidade de tempestades de broadcast aumenta com o crescimento da rede comutada. Já que a
placa de rede precisa interromper a CPU para processar cada grupo de broadcast ou multicast a que pertence, a radiação de
broadcast afeta o desempenho do host na rede.
Um switch mantém uma tabela de endereços MAC e as portas a eles associadas. O switch então encaminha ou descarta os quadros
baseados nas entradas da tabela.
A maneira pela qual um quadro é encaminhado à sua porta de destino é uma concessão entre latência e confiabilidade. Um switch
poderá começar a transferir o quadro assim que o endereço MAC de destino for recebido. A comutação feita neste ponto é
conhecida como comutação cut-through e resulta na latência mais baixa através do switch. No entanto, não oferece nenhuma
verificação de erros. Por outro lado, o switch pode receber um quadro completo antes de enviá-lo à porta de destino. Isso dá ao
software do switch a oportunidade de verificar o FCS (Frame Check Sequence) para garantir que o quadro foi recebido com
integridade antes de enviá-lo ao destino. Se o quadro for identificado como inválido, ele será descartado nesse switch e não no
destino final. Já que o quadro inteiro é armazenado antes de ser encaminhado, este modo é conhecido como store-forward.

www.datacom.ind.br
16
Virtual LAN

Uma VLAN é um domínio de broadcast criado por um ou mais switches

Uma característica importante do Ethernet é a capacidade de criar LANs virtuais (VLANs). Uma VLAN é um grupo
lógico de estações e dispositivos de rede. VLANs podem ser agrupados por funções ou departamentos trabalho,
independentemente da localização física dos usuários. O tráfego entre VLANs é restrito. Switches e bridges
encaminham tráfego unicast, multicast e broadcast apenas nos segmentos de VLAN à qual o tráfego pertence. Em
outras palavras, dispositivos em uma VLAN apenas comunicam com dispositivos que estejam na mesma VLAN.
Routers fornecer conectividade entre diferentes VLANs.
VLANs melhoram o desempenho global da rede pelo agrupamento lógico de usuários e recursos. As empresas
utilizam frequentemente VLANs como uma forma de garantir que um determinado conjunto de usuários são
agrupados logicamente, independentemente da localização física. Organizações usam VLANs para agrupar os usuários
do mesmo departamento. Por exemplo, os usuários do departamento de Marketing são colocados no Marketing
VLAN, enquanto os usuários do Departamento de Engenharia são colocados na Engenharia VLAN.

www.datacom.ind.br
17
Spanning Tree Protocol (STP)

• Ao criar redes tolerantes a falhas, um


caminho sem loops deverá existir entre
todos os nós Ethernet na rede. O algoritmo
Spanning Tree é usado para calcular um
caminho sem loops.

A principal função do Spanning-Tree Protocol é permitir os caminhos com bridges/switches duplicados sem os efeitos de latência
dos loops na rede. As bridges e os switches tomam as decisões de encaminhamento para os quadros unicast com base no endereço
MAC no quadro. Se o endereço MAC for desconhecido, o dispositivo transmitirá o quadro através de todas as portas na tentativa
de alcançar o destino desejado (flooding). Ele também faz isso em todos os quadros de broadcast.
O algoritmo Spanning Tree, implementado pelo Spanning-Tree Protocol, impede os loops calculando uma topologia de rede
spanning-tree estável. Ao criar redes tolerantes a falhas, um caminho sem loops deverá existir entre todos os nós Ethernet na rede.
O algoritmo Spanning Tree é usado para calcular um caminho sem loops. Quadros Spanning Tree, chamados de bridge protocol
data units (BPDUs), são enviados e recebidos por todos os switches na rede em intervalos regulares e são usados para determinar a
topologia spanning-tree.
Um switch usa o Spanning-Tree Protocol em todas as Ethernets e Fast Ethernets baseadas em VLANs. O Spanning-Tree Protocol
detecta e interrompe os loops colocando algumas conexões no modo de espera, que serão ativadas caso haja uma falha na
conexão ativa. Uma instância separada do Spanning-Tree Protocol é executada em cada VLAN configurada, garantindo as
topologias Ethernet que estão de acordo com os padrões da indústria através da rede.
Os estados do Spanning-Tree Protocol são os seguintes:
Bloqueando - Nenhum quadro encaminhado, BPDUs detectadas
Prestando atenção - Nenhum quadro encaminhado, prestando atenção nos quadros
Aprendendo - Nenhum quadro encaminhado, aprendendo os endereços
Encaminhando - Quadros encaminhados, aprendendo os endereços
Desativado - Nenhum quadro encaminhado, nenhuma BPDU detectada
O estado de cada VLAN é inicialmente definido pela configuração e modificado depois pelo processo Spanning-Tree Protocol.
Depois que esse estado de porta para VLAN for definido, o Spanning-Tree Protocol determinará se a porta irá encaminhar ou
bloquear os quadros. As portas poderão ser configuradas para entrar imediatamente no modo de encaminhamento Spanning-Tree
Protocol quando for feita uma conexão, em vez de seguir a seqüência usual de bloquear, aprender e encaminhar. A capacidade de
comutar rapidamente os estados de bloquear para encaminhar em vez de passar pelos estados da porta transacionais será útil em
situações onde o acesso imediato a um servidor for necessário.

www.datacom.ind.br
18
Internet Protocol (IP)

• Embora os endereços IP de origem e de destino sejam importantes, os outros


campos do cabeçalho têm feito do IP um protocolo bastante flexível.

Versão – Especifica o formato do cabeçalho do pacote IP. O campo versão (4-bits) contém o valor 4 se este for um pacote
IPv4 e 6 se este for um pacote IPv6. Entretanto, este campo não é utilizado para distinguir pacotes IPv4 e IPv6. O campo "Tipo
de protocolo" no cabeçalho da camada 2 é usado para isto.
Tamanho do cabeçalho IP (HLEN) – Indica o tamanho do cabeçalho do datagrama em palavras de 32 bits. Esse é o tamanho
total de todas as informações do cabeçalho, correspondentes aos dois campos de cabeçalho de tamanhos variáveis.
Tipo de serviço(TOS) – Especifica o nível de importância atribuído por um determinado protocolo de camada superior; oito
bits.
Extensão total – Especifica o tamanho total do pacote em bytes, inclusive dados e cabeçalho; 16 bits. Para obter o tamanho
do payload dos dados, subtraia o HLEN do tamanho total.
Identificação – Contém um número inteiro que identifica o datagrama atual; 16 bits. Esse é o número de seqüência.
Flags – Um campo de três bits em que os dois bits de ordem inferior controlam a fragmentação. Um bit especifica se o
pacote pode ser fragmentado; o outro, se este é o último fragmento de uma série de pacotes fragmentados.
Deslocamento de fragmento – Usado para ajudar a juntar fragmentos de datagramas; 13 bits. Este campo permite que o
anterior termine em um limite de 16 bits.
Time-to-live (TTL) – Um campo que especifica o número de saltos pelos quais um pacote pode trafegar. Este número diminui
em um à medida que o pacote trafega por um roteador. Quando o contador chega a zero, o pacote é descartado. Isso
impede que os pacotes permaneçam infinitamente em loop.
Protocol – Indica que protocolo de camada superior, por exemplo, TCP ou UDP, receberá os pacotes de entrada após a
conclusão do processamento IP; oito bits.
Checksum do cabeçalho – Ajuda a assegurar a integridade do cabeçalho IP; 16 bits.
Endereço de origem – Especifica o endereço IP do nó de envio; 32 bits.
Endereço de destino – Especifica o endereço IP do nó de recebimento; 32 bits.
Opções – Permite que o IP suporte várias opções, como segurança; tamanho variável.
Enchimento – Zeros adicionais são adicionados a este campo para assegurar que o cabeçalho IP seja sempre um múltiplo de
32 bits.
Dados – Contêm informações da camada superior; tamanho variável, máximo de 64 Kb.

www.datacom.ind.br
19
Classes de Endereços IP

• Para acomodar redes de


diferentes tamanhos e ajudar na
classificação dessas redes, os
endereços IP são divididos em
grupos chamados classes. Isto é
conhecido por enderçamento
classful.
• Cada endereço IP completo de
32 bits é dividido em uma parte
da rede e uma parte do host.
• Um bit ou uma seqüência de
bits no início de cada endereço
determina a classe do endereço.

O endereço de classe A foi criado para suportar redes extremamente grandes, com mais de 16 milhões de endereços de
host disponíveis. Os endereços IP de classe A usam somente o primeiro octeto para indicar o endereço de rede. Os três
octetos restantes são responsáveis pelos endereços de rede.
O primeiro bit de um endereço de classe A é sempre 0. Como esse primeiro bit é 0, o menor número que pode ser
representado é 00000000, que também é o 0 decimal. O maior número que pode ser representado é 01111111,
equivalente a 127 em decimal. Os números 0 e 127 são reservados e não podem ser usados como endereços de rede.
Qualquer endereço que comece com um valor entre 1 e 126 no primeiro octeto é um endereço de classe A.
A rede 127.0.0.0 é reservada para testes de loopback. Os roteadores ou as máquinas locais podem usar esse endereço
para enviar pacotes para si mesmos. Por isso, esse número não pode ser atribuído a nenhuma rede.
O endereço classe B foi criado para dar conta das necessidades de redes de porte médio a grande. Um endereço IP de
classe B usa os dois primeiros octetos para indicar o endereço da rede. Os outros dois octetos especificam os endereços
dos hosts.
Os dois primeiros bits do primeiro octeto de um endereço classe B são sempre 10. Os seis bits restantes podem ser
preenchidos com 1s ou 0s. Portanto, o menor número que pode ser representado por um endereço classe B é 10000000,
equivalente a 128 em decimal. O maior número que pode ser representado é 10111111, equivalente a 191 em decimal.
Qualquer endereço que comece com um valor no intervalo de 128 a 191 no primeiro octeto é um endereço classe B.
Das classes de endereços originais, o espaço de endereços de classe C é o mais usado. Esse espaço de endereços tinha
como objetivo suportar redes pequenas com no máximo 254 hosts.
Um endereço classe C começa com o binário 110. Assim, o menor número que pode ser representado é 11000000,
equivalente a 192 em decimal. O maior número que pode ser representado é 11011111, equivalente a 223 em decimal.
Se um endereço contém um número entre 192 e 223 no primeiro octeto, é um endereço classe C.
O endereço classe D foi criado para permitir multicasting em um endereço IP. Um endereço de multicast é um endereço
de rede exclusivo que direciona os pacotes com esse endereço de destino para grupos predefinidos de endereços IP.
Assim, uma única estação pode transmitir simultaneamente um único fluxo de dados para vários destinatários.
O espaço de endereços de classe D, de forma muito semelhante aos outros espaços de endereços, é
limitadomatematicamente. Os primeiros quatro bits de um endereço classe D devem ser 1110. Assim, o intervalo de
valores no primeiro octeto dos endereços de classe D vai de 11100000 a 11101111, ou de 224 a 239 em decimal. Um
endereço IP que comece com um valor no intervalo de 224 a 239 no primeiro octeto é um endereço classe D.
Também foi definido um endereço classe E. Entretanto, a IETF (Internet Engineering Task Force) reserva esses endereços
para suas próprias pesquisas. Dessa forma, nenhum endereço classe E foi liberado para uso na Internet. Os primeiros
quatro bits de um endereço classe E são sempre definidos como 1s. Assim, o intervalo de valores no primeiro octeto dos
endereços de classe E vai de 11110000 a 11111111, ou de 240 a 255 em decimal.

www.datacom.ind.br
20
Endereços IP Reservados

• Um endereço IP que termine com 0s


binários em todos os bits de host é
reservado para o endereço de rede.
No exemplo de rede de classe B, o
endereço IP 176.10.0.0 é o endereço
de uma rede ou ID da rede

• Os endereços IP de broadcast
terminam com 1s binários na parte
do host do endereço (campo do
host). O broadcast que seria enviado
a todos os dispositivos na rede
incluiria um endereço de destino
176.10.255.255 (já que 255 é o valor
decimal de um octeto que contém
11111111).

www.datacom.ind.br
21
Endereços IP Públicos e Privados

• Os endereços IP públicos são exclusivos. Nunca pode haver mais de uma máquina
que se conecte a uma rede pública com o mesmo endereço IP.
• O RFC 1918 reserva três blocos de endereços IP para uso interno e privado. Os
endereços dentro desses intervalos não são roteados no backbone da Internet.

A IANA (Internet Assigned Numbers Authority). gerencia cuidadosamente o estoque de endereços IP para garantir que não haja
duplicidade de endereços usados publicamente. A duplicidade causaria instabilidade na Internet e comprometeria sua capacidade
de entregar datagramas para as redes.
Os endereços IP públicos são exclusivos. Nunca pode haver mais de uma máquina que se conecte a uma rede pública com o mesmo
endereço IP, pois os endereços IP públicos são globais e padronizados. Todas as máquinas conectadas à Internet concordam em
obedecer a esse sistema. Os endereços IP públicos precisam ser obtidos de um provedor de serviços de Internet ou através de
registro a um certo custo.
Com o rápido crescimento da Internet, os endereços IP públicos começaram a escassear. Para ajudar a solucionar o problema,
foram desenvolvidos novos esquemas de endereçamento, como o CIDR (classless interdomain routing – roteamento sem classes
entre domínios) e o IPv6.
Os endereços IP privados são outra solução para o problema da escassez iminente dos endereços IP públicos. Como foi dito, as
redes públicas exigem que os hosts tenham endereços IP exclusivos. Entretanto, as redes privadas que não estão conectadas à
Internet podem usar quaisquer endereços de host, contanto que cada host dentro da rede privada seja exclusivo. Muitas redes
privadas existem em paralelo com as redes públicas. Porém, não é recomendável que uma rede privada use um endereço qualquer,
pois essa rede pode ser conectada à Internet algum dia. O RFC 1918 reserva três blocos de endereços IP para uso interno e
privado. Esses três blocos consistem de um endereço de classe A, um intervalo de endereços de classe B e um intervalo de
endereços de classe C. Os endereços dentro desses intervalos não são roteados no backbone da Internet. Os roteadores da Internet
descartam imediatamente os endereços privados. Para endereçar uma intranet não-pública, um laboratório de testes ou uma rede
doméstica, pode-se usar esses endereços privados no lugar dos endereços globalmente exclusivos.
Conectar uma rede que usa endereços privados à Internet exige a conversão dos endereços privados em endereços públicos. Esse
processo de conversão é chamado de NAT (Network Address Translation – Conversão de Endereços de Rede). Geralmente, o
roteador é o dispositivo que realiza a NAT.

www.datacom.ind.br
22
Divisão em Sub-Redes

• Sub-rede é um método usado para gerenciar endereços IP. Este método consiste em dividir
classes de endereços inteiras em partes menores. Para criar um endereço de sub-rede, toma-se
emprestados bits do campo do host e os designa como o campo da sub-rede.

O uso de sub-redes é um método usado para gerenciar endereços IP. Esse método de dividir classes inteiras de endereços de redes
em pedaços menores impediu o esgotamento completo dos endereços IP. É impossível abordar o TCP/IP sem mencionar as sub-
redes. Nem sempre é necessário dividir uma rede pequena em sub-redes. Entretanto, para redes grandes ou extremamente
grandes, a divisão em sub-redes é necessária. Dividir uma rede em sub-redes significa usar a máscara de sub-rede para dividir a
rede em segmentos menores, ou sub-redes, mais eficientes e mais fáceis de gerenciar. Um exemplo semelhante seria o sistema
telefônico brasileiro, que é dividido em códigos DDD, prefixos e números locais.
O administrador do sistema precisa resolver essas questões ao adicionar e expandir a rede. É importante saber quantas sub-redes
ou redes são necessárias e quantos hosts serão necessários em cada rede. Com as sub-redes, a rede não fica limitada às máscaras
de rede padrão de classes A, B ou C, e há maior flexibilidade no projeto da rede.
Os endereços de sub-rede incluem a parte da rede, mais um campo de sub-rede e um campo do host. O campo da sub-rede e o
campo do host são criados a partir da parte do host original para toda a rede. A possibilidade de decidir como dividir a parte
reservada originalmente ao endereço de host em novos campos para a identificação de sub-rede e host, provendo para o
administrador da rede uma maior flexibilidade no endereçamento.
Para criar um endereço de sub-rede, um administrador de rede toma emprestados alguns bits do campo do host e os designa
como o campo da sub-rede. A quantidade mínima de bits que podem ser emprestados é 2. Se criássemos uma sub-rede tomando
somente um bit emprestado, o número da rede seria .0. O número de broadcast seria .255. A quantidade máxima de bits que
podem ser emprestados é qualquer valor que deixe pelo menos 2 bits sobrando para o número do host

www.datacom.ind.br
23
Máscara de Sub-Rede

• A máscara de sub-rede fornece ao roteador as informações necessárias para determinar em


que rede e sub-rede um host específico reside.
• Uma operação lógica AND é executada entre o endereço IP e a máscara de sub-rede e o
resultado é o ID da sub-rede

A seleção do número de bits a serem usados no processo de sub-redes dependerá do número máximo de hosts exigido por sub-
rede.
A máscara de sub-rede fornece ao roteador as informações necessárias para determinar em que rede e sub-rede um host específico
reside. A máscara de sub-rede é criada com o uso de 1s binários nas posições dos bits relativos à rede. Os bits da sub-rede são
determinados com a adição do valor às posições dos bits tomados por empréstimo. Se tivessem sido tomados três bits, a máscara
para um endereço de classe C seria 255.255.255.224. Essa máscara também pode ser representada, no formato de barras, como
/27. O número após a barra é o total de bits usados para a parte da rede e da sub-rede.
O procedimento de divisão em sub-redes das classes A e B é idêntico ao da classe C, exceto que pode envolver um número
significativamente maior de bits. O número de bits disponíveis para atribuição ao campo de sub-rede em um endereço de Classe A
é 22, enquanto um endereço de classe B tem 14 bits.
A atribuição de 12 bits de um endereço de classe B ao campo de sub-rede cria uma máscara de sub-rede 255.255.255.240, ou /28.
Todos os oito bits foram atribuídos no terceiro octeto, resultando em 255, valor total dos oito bits. Quatro bits foram atribuídos no
quarto octeto, resultando em 240. Lembre-se que, a máscara com barra é a soma total dos bits atribuídos à sub-rede mais os bits
fixos da rede.
A atribuição de 20 de um endereço de classe A ao campo de sub-rede cria uma máscara de sub-rede 255.255.255.240, ou /28.
Todos os oito bits dos segundo e terceiro octetos foram atribuídos ao campo de sub-rede e quatro bits do quarto octeto.
Nessa situação, é visível que a máscara de sub-rede para os endereços das classes A e B parece idêntica. A menos que a máscara
esteja relacionada a um endereço de rede, não é possível saber quantos bits foram atribuídos ao campo de sub-rede.

www.datacom.ind.br
24
Roteadores

• Um roteador é um dispositivo de camada de rede que usa uma ou mais métricas


para determinar o caminho ideal pelo qual o tráfego da rede deve ser
encaminhado. Métricas de roteamento são valores usados para determinar a
vantagem de uma rota sobre a outra. Os protocolos de roteamento usam várias
combinações de métricas para determinar o melhor caminho para os dados.

A seguir as duas funções-chave de um roteador:


• Os roteadores devem manter tabelas de roteamento e verificar se os outros roteadores conhecem as alterações na topologia da
rede. Esta função é executada com o uso de um protocolo de roteamento para comunicar informações de rede a outros roteadores.
• Quando os pacotes chegam a uma interface, o roteador deve usar a tabela de roteamento para determinar para onde enviá-los.
O roteador comuta os pacotes para a interface apropriada, adiciona as informações de enquadramento necessárias à interface e
transmite o quadro.
Os roteadores interconectam segmentos de rede ou redes inteiras. Eles passam quadros de dados entre as redes com base nas
informações da camada 3. Os roteadores tomam decisões lógicas relativas ao melhor caminho para a entrega de dados. Em
seguida, direcionam os pacotes para a porta de saída apropriada, para que sejam encapsulados para transmissão. O processo de
encapsulamento e de desencapsulamento ocorre cada vez que um pacote trafega através de um roteador. O roteador precisa
desemcapsular o quadro de camada 2 para ter acesso e examinar os endereços da camada 3.
O processo a seguir é usado durante uma determinação do caminho para cada pacote roteado:
• O roteador compara o endereço IP do pacote que ele recebeu com as tabelas IP que tem.
• A máscara da primeira entrada da tabela de roteamento é aplicada ao endereço de destino.
• O destino com a máscara é comparado à tabela de roteamento.
• Se houver correspondência, o pacote é encaminhado à porta associada a essa entrada da tabela.
• Caso contrário, é verificada a próxima entrada da tabela.
• Se o pacote não corresponder a nenhuma entrada da tabela, o roteador verifica se foi definida uma rota padrão.
• Em caso afirmativo, o pacote é encaminhado à porta associada. Uma rota padrão é aquela configurada pelo administrador da
rede como a rota a ser usada caso não haja correspondências na tabela de roteamento.
• Se não houver rota padrão, o pacote é descartado. Normalmente, uma mensagem é enviada de volta ao dispositivo de envio,
com a indicação de que o destino não pôde ser alcançado.

www.datacom.ind.br
25
Protocolos de Roteamento

Os protocolos de roteamento podem ser classificados como IGPs ou EGPs, o que descreve se um grupo de roteadores está ou não
sob uma única administração. Os IGPs podem ser mais detalhadamente categorizados como protocolos de vetor de distância ou de
estado de link.
A abordagem de roteamento pelo vetor de distância determina a distância e a direção (,-vetor), para qualquer link na internetwork.
A distância pode ser a contagem de saltos até o link. Os roteadores que usam algoritmos de vetor de distância enviam
periodicamente todas ou parte das suas entradas da tabela de roteamento para roteadores adjacentes. Isso acontece mesmo que
não haja alterações na rede. Recebendo uma atualização do roteamento, um roteador pode verificar todas as rotas conhecidas e
alterar sua tabela de roteamento. A compreensão que um roteador tem da rede baseia-se na perspectiva do roteador adjacente na
topologia da rede.
Os protocolos de roteamento de estado de link foram criados para superar as limitações dos protocolos de roteamento de vetor de
distância. Eles respondem rapidamente a alterações da rede, enviando atualizações de disparo somente quando ocorre uma dessas
alterações. Os protocolos de roteamento de estado de link enviam atualizações periódicas, conhecidas como atualizações de estado
de link em intervalos maiores, como, por exemplo, a cada 30 minutos.
O Routing Information Protocol (RIP) é um protocolo de roteamento de vetor de distância que usa a contagem de saltos como
métrica para determinar a direção e a distância até qualquer link na internetwork. No entanto, como a contagem de saltos é a
única métrica de roteamento usada pelo RIP, ele nem sempre seleciona o caminho mais rápido até um destino. Além disso, o RIP
não pode rotear um pacote além de 15 saltos. O RIP versão 1 (RIPv1) exige que todos os dispositivos na rede usem a mesma
máscara de sub-rede, pois ele não inclui informações sobre essas máscaras nas atualizações de roteamento. Esse processo também
é conhecido como roteamento classful (por classes). O RIP versão 2 (RIPv2) fornece roteamento de prefixo e envia informações
sobre máscaras de sub-rede nas atualizações de roteamento. Esse processo também é conhecido como roteamento classless (sem
classes)
O Open Shortest Path First (OSPF) é um protocolo de roteamento de estado de link desenvolvido pela Internet Engineering Task
Force (IETF) em 1988. O OSPF foi escrito para atender às necessidades de internetworks de grande porte e, dimensionáveis, o que
não podia ser feito pelo RIP.
O Border Gateway Protocol (BGP) troca informações de roteamento entre sistemas autônomos, ao mesmo tempo que garante a
seleção de caminhos livre de loops. O BGP é o principal protocolo de anúncio de rota usado pelas maiores empresas e ISPs
(provedores de serviços de Internet) na Internet. O BGP4 é a primeira versão do BGP que suporta roteamento entre domínios (CIDR)
e agregação de rotas. Ao contrário dos protocolos Internal Gateway Protocols (IGPs) comuns, como o RIP e OSPF, o BGP não usa
métricas como a contagem de saltos, largura de banda ou atraso. Em vez disso, o BGP toma decisões de roteamento com base em
políticas de rede ou em regras que usam vários atributos de caminhos do BGP

www.datacom.ind.br
26
Address Resolution Protocol (ARP)

• Em redes TCP/IP , um pacote de dados deve conter tanto um endereço MAC de


destino quanto um endereço IP de destino. Se um dos dois estiver faltando, os
dados não passarão da camada 3 para as camadas superiores

Os endereços MAC e os endereços IP agem como verificadores e balanceadores entre si. Depois de determinarem os endereços IP
dos dispositivos de destino, os dispositivos podem adicionar os endereços MAC de destino aos pacotes de dados. Alguns
dispositivos mantêm tabelas que contêm os endereços MAC e os endereços IP de outros dispositivos conectados à mesma LAN.
Elas são chamadas de tabelas ARP. As tabelas ARP são armazenadas na memória RAM, onde as informações sobre cada um dos
dispositivos são mantidas automaticamente em cache. É muito raro que o usuário tenha que criar uma entrada na tabela ARP
manualmente. Cada dispositivo em uma rede mantém sua própria tabela ARP. Quando um dispositivo da rede quer enviar dados
através dela, ele usa as informações fornecidas pela tabela ARP.
Quando uma origem determina o endereço IP de um destino, ela consulta a tabela ARP a fim de localizar o endereço MAC do
destino. Se a origem localizar uma entrada na sua tabela (endereço IP de destino para o endereço MAC de destino), ela associa o
endereço IP ao endereço MAC e o utiliza para encapsular os dados. Então, o pacote de dados é enviado pelos meios físicos da rede
para ser capturado pelo dispositivo de destino.
Os dispositivos podem usar duas formas de obter os endereços MAC que eles precisam para adicionar aos dados encapsulados. A
primeira maneira é monitorar o tráfego que ocorre no segmento local da rede. Todas as estações de uma rede Ethernet analisarão
todo o tráfego para determinar se os dados são para elas. Parte desse processo é gravar os endereços IP e MAC de origem do
datagrama em uma tabela ARP. Conforme os dados são transmitidos pela rede, os pares de endereços preenchem a tabela ARP. A
outra maneira de obter um par de endereços para transmissão dos dados é enviar uma solicitação ARP broadcast.
O computador que requer um par de endereços IP e MAC envia uma solicitação ARP broadcast. Todos os outros dispositivos da
rede local analisam essa solicitação. Se um dos dispositivos locais corresponder ao endereço IP da solicitação, ele devolve uma
resposta ARP que contém seu par IP-MAC. Se o endereço IP for para a rede local e o computador não existir ou estiver desligado,
não haverá resposta à solicitação ARP. Nesta situação, o dispositivo de origem relata um erro. Se a solicitação for para uma rede
com outro IP, há outro processo que pode ser usado.
Os roteadores não encaminham pacotes de broadcast. Se este recurso estiver ativado, o roteador realiza um Proxy ARP. O Proxy
ARP é uma variação do protocolo ARP. Nesta variação, um roteador envia ao host solicitante uma resposta ARP com o endereço
MAC da interface na qual a solicitação foi recebida. O roteador responde com os endereços MAC às solicitações cujo endereço IP
não esteja no intervalo de endereços da sub-rede local.
Outro método para enviar dados ao endereço de um dispositivo que está em outro segmento da rede é configurar um gateway
padrão. O gateway padrão é uma opção de host em que o endereço IP da interface do roteador é armazenado na configuração
de rede do host. O host de origem compara o endereço IP de destino com o seu próprio endereço IP para determinar se os dois
endereços IP estão localizados no mesmo segmento. Se o host receptor não estiver no mesmo segmento, o host de origem envia os
dados usando o endereço IP real do destino e o endereço MAC do roteador. O endereço MAC do roteador foi obtido da tabela ARP,
usando o endereço IP desse roteador.
Se o gateway padrão no host e o recurso de Proxy ARP no roteador não estiverem configurados, nenhum tráfego poderá sair da
rede local. Um dos dois precisa estar configurado para que haja uma conexão para fora da rede local.

www.datacom.ind.br
27
Transmission Control Protocol (TCP)

• O Protocolo de Controle de Transmissão (TCP) é um protocolo da camada 4


orientado a conexão que fornece transmissão de dados full duplex confiável.

O TCP é responsável por decompor mensagens em segmentos, reagrupá-los na estação de destino, reenviar qualquer item não
recebido e reagrupar essas mensagens com base nos segmentos. O TCP proporciona um circuito virtual entre aplicações do usuário
final.

Porta de origem: Número da porta chamadora


Porta de destino: Número da porta chamada
Número de seqüência: Número usado para garantir a seqüência correta dos dados que estão chegando
Número de confirmação: Próximo octeto TCP esperado
HLEN: Número de palavras de 32 bits no cabeçalho
Reservado: Definido como zero
Bits de código: Funções de controle, como a configuração e término de uma sessão
Janela: Número de octetos que o remetente está disposto a aceitar
Checksum: Uma càlculo de verificação (checksum) feito a partir de campos do cabeçalho e dos dados
Urgent Pointer (Ponteiro de Urgência): Indica o final de dados urgentes
Opção: Uma opção atualmente definida, tamanho máximo do segmento TCP
Dados: Dados de protocolo de camada superior

www.datacom.ind.br
28
Handshake Triplo

• O TCP requer o estabelecimento de uma


conexão antes do começo da transferência
de dados.
• Para que uma conexão seja estabelecida ou
inicializada, os dois hosts devem sincronizar
seus Initial Sequence Numbers (ISNs).
• A sincronização é feita através da troca de
segmentos de estabelecimento de conexão
que transportam um bit de controle
chamado SYN, para a sincronização, e os
ISNs.
• Os segmentos que transportam o bit SYN
também são chamados "SYNs". Essa solução
requer um mecanismo adequado para a
obtenção de um número de seqüência
inicial e um handshake simples para a troca
de ISNs.

A sincronização requer que cada um dos lados envie seu número de seqüência inicial (ISN) e que receba uma confirmação dessa
troca através de um acknowledgment (ACK) enviado pelo outro lado. Cada um dos lados também deve receber o ISN do outro
lado e enviar um ACK de confirmação. A seqüência é:
1. O host (A) inicia uma conexão enviando um pacote SYN para o host (B) indicando que o seu ISN = X:
A —> B SYN, seq de A = X

2. B recebe o pacote, grava que a seq de A = X, responde com um ACK de X + 1, e indica que seu ISN = Y. O ACK de X + 1
significa que o host B já recebeu todos os bytes até ao byte X e que o próximo byte esperado é o X + 1:
B —> A ACK, seq de A = X, SYN seq de B = Y, ACK = X + 1

3. A recebe o pacote de B, fica sabendo que a sequência de B = Y, e responde com um ACK de Y + 1, que finaliza o processo de
estabelecimento da conexão:
A —> B ACK, seq de B = Y, ACK = Y + 1

Essa troca é chamada handshake triplo. Um handshake triplo é necessário porque os números de seqüência não são vinculados
a um relógio global na rede e os protocolos TCP podem ter mecanismos diferentes para captar o ISN. O receptor do primeiro
SYN não tem meios para saber se este é um segmento antigo atrasado, a menos que tenha registrado o último número de
seqüência usado na conexão. Nem sempre é possível lembrar esse número. Assim, o receptor deve pedir ao remetente que
verifique esse SYN

www.datacom.ind.br
29
Confirmação e Janelamento

• O Emissor transmite os pacotes de


dados 1, 2 e 3.
• O receptor confirma o recebimento
dos pacotes, solicitando o pacote 4.
• Ao receber a confirmação, o Emissor
envia os pacotes 4, 5 e 6.
• Se o pacote 5 não chegar ao destino,
o receptor confirma solicitando o
reenvio do pacote 5.
• O Emissor reenvia o pacote 5 e recebe
uma confirmação para prosseguir
com a transmissão do pacote 7.

Os pacotes de dados devem ser enviados ao receptor na mesma ordem em que foram transmitidos, para que haja uma
transferência de dados confiável, orientada à conexão. O protocolo falha se algum pacote for perdido, danificado, duplicado ou
recebido em ordem diferente. Uma solução fácil é fazer com que o receptor confirme o recebimento de cada pacote antes do envio
do pacote seguinte.
Se o remetente precisar esperar uma confirmação após enviar cada pacote, o throughput será lento. Por isso, a maioria dos
protocolos confiáveis, orientados à conexão, permite mais de um pacote trafegando na rede por vez. Como há tempo disponível
após o encerramento da transmissão de dados pelo remetente e antes que o receptor termine o processamento de qualquer
confirmação recebida, esse intervalo é usado para transmitir mais dados. O número de pacotes de dados restantes que o emissor
tem permissão para ter sem ter recebido uma confirmação é conhecido como tamanho da janela ou janela.
O TCP usa confirmações esperadas. A expressão "confirmações esperadas" significa que o número da confirmação refere-se ao
pacote esperado em seguida. A expressão "janelamento" refere-se ao fato de o tamanho da janela ser negociado dinamicamente
durante a sessão do TCP. O janelamento é um mecanismo de controle de fluxo. O janelamento exige que o dispositivo de origem
receba uma confirmação do destino depois de transmitir uma determinada quantidade de dados. O processo de recebimento TCP
informa uma "janela" ao TCP de envio. Essa janela especifica o número de pacotes, começando com o número da confirmação, que
o processo TCP receptor está preparado para receber no momento.
Com um tamanho de janela três, o dispositivo de origem pode enviar três bytes ao destino. O dispositivo de origem deve, então,
aguardar uma confirmação. Se o destino receber os três bytes, ele enviará uma confirmação ao dispositivo origem, que poderá
então transmitir mais três bytes. Se o destino não receber os três bytes, devido a sobrecarga nos buffers, não enviará a
confirmação. Por não receber a confirmação, a origem saberá que os bytes deverão ser retransmitidos e que a taxa de transmissão
deverá ser diminuída.
Os tamanhos de janela do TCP são variáveis durante todo o tempo de vida de uma conexão. Cada confirmação contém um anúncio
de janela que indica o número de bytes que o receptor pode aceitar. O TCP também mantém uma janela de controle de
congestionamento. Essa janela tem, normalmente, tamanho igual ao da janela do receptor. No entanto, ela é reduzida à metade
quando um pacote se perde, talvez como resultado de congestionamento na rede. Essa técnica permite que a janela seja expandida
ou reduzida conforme necessário, para gerenciar o espaço no buffer e o processamento. Um tamanho de janela maior permite o
processamento de mais dados.
A confirmação positiva com retransmissão é uma técnica que garante a entrega confiável de dados. Ela exige que um receptor se
conunique com a origem e retorne uma mensagem de confirmação quando os dados são recebidos. O remetente mantém registro
de cada pacote de dados (segmento TCP) enviado e espera uma confirmação. Ele também aciona um timer quando envia um
segmento e retransmitirá um segmento se o timer expirar antes que chegue uma confirmação.

www.datacom.ind.br
30
User Datagram Protocol (UDP)

• O Protocolo de Datagrama de Usuário (User Datagram Protocol UDP) é o


protocolo de transporte sem conexão da pilha de protocolos TCP/IP.

O UDP é um protocolo simples que troca datagramas, sem confirmações ou entrega garantida. O processamento de erros e a
retransmissão devem ser tratados por protocolos de camada superior.
O UDP não usa janelamento nem confirmações; assim, a confiabilidade, se necessária, é fornecida por protocolos da camada de
aplicação. O UDP é projetado para aplicações que não precisam juntar seqüências de segmentos.

Os protocolos que ultilizam o UDP incluem:


TFTP (Trivial File Transfer Protocol)
SNMP (Simple Network Management Protocol)
DHCP (Dynamic Host Control Protocol)
DNS (Sistema de Nomes de Domínio)

A seguir as definições dos campos no segmento UDP:


Porta de origem: Número da porta chamadora.
Porta de destino: Número da porta chamada
Comprimento: Número de bytes que inclui cabeçalho e dados
Checksum: Um cálculo de verificação (checksum) feito a partir de campos do cabeçalho e dos dados
Dados: Dados de protocolo de camada superior

www.datacom.ind.br
31
Números de Portas TCP e UDP

Tanto o TCP quanto o UDP usam números de porta (sockets) para passar as informações às camadas superiores. Os números de
porta são usados para manter registro de diferentes conversações que cruzam a rede ao mesmo tempo.
Os desenvolvedores de aplicações de software concordaram em usar números de porta bastante conhecidos, emitidos pelo órgão
Internet Assigned Numbers Authority (IANA). Toda conversação destinada à aplicação FTP usa os números de porta padrão 20 e 21.
A porta 20 é usada para a parte de dados; a porta 21 é usada para controle. As conversações que não envolvem uma aplicação
com número de porta conhecido recebem números de porta aleatórios em um intervalo específico acima de 1023. Algumas portas
são reservadas no TCP e no UDP, embora possa haver aplicações que não os suportem.
Os números de portas têm os seguintes intervalos atribuídos:
• Números abaixo de 1024 são considerados números de porta conhecidos.
• Números acima de 1023 recebem números de porta atribuídos dinamicamente.
• Números de porta registrados são aqueles registrados para aplicações específicas de fabricantes. A maioria desses números é
superior a 1024.
Os sistemas finais usam números de portas para selecionar a aplicação correta. O host origem atribui dinamicamente números de
porta de origem gerados na própia origem. Esses números são sempre superiores a 1023.

www.datacom.ind.br
32
Camada de Aplicação

Quando o modelo TCP/IP foi criado, as camadas de sessão e de apresentação do modelo OSI foram agrupadas na camada de
aplicação do modelo TCP. Isso significa que as questões de representação, codificação e controle de diálogo são tratadas na
camada de aplicação e não em camadas inferiores separadas, como ocorre no modelo OSI. O projeto garante que o modelo TCP/IP
forneça máxima flexibilidade na camada de aplicação para desenvolvedores de software. Os protocolos TCP/IP que suportam
transferência de arquivos, e-mail e logo remoto são, provavelmente, os mais familiares aos usuários da Internet.

Esses protocolos incluem as seguintes aplicações:


• Sistema de Nomes de Domínios (DNS)
• File Transfer Protocol (FTP)
• Hypertext Transfer Protocol (HTTP)
• Simple Mail Transfer Protocol (SMTP)
• Simple Network Management Protocol (SNMP)
• Telnet

www.datacom.ind.br
33
Quality of Service (QoS)
• Integrated Services: aplicações requisitam reserva de recursos à rede através de sinalização
(RSVP)
• Differentiated Services: a rede reconhece classes que precisam de tratamento diferenciado,
sem necessidade de sinalização
– O DSCP utiliza os mesmos 3 bits do IP Precedence, e os combina com os 3 bits seguintes de ToS para
gerar um campo de 6 bits para marcação QoS, permitindo valores de 0 a 63

– O IEEE 802.1p define um padrão para QoS em redes locais (LANs). Os pacotes são marcados com 3
bits CoS (User Priority), com valores de 0 para baixa prioridade a 7 para alta prioridade.

A rede TCP/IP foi desenvolvida tendo como uma de suas premissas básicas o requisito de poder ser utilizada com os diversos tipos
de meios físicos e tecnologias existentes na época de sua criação ("IP sobre Tudo" - Anos 70) de forma a viabilizar a comunicação
entre as aplicações fim-a-fim em rede. Em termos práticos, a rede IP foi desenvolvida de forma a ser capaz de comutar sobre meios
físicos e tecnologias de nível 2 confiáveis, não-confiáveis, de alto desempenho, de baixo desempenho, etc Neste contexto histórico,
as decisões arquiteturais tomadas na concepção do protocolo IP foram, na sua maioria, no sentido da simplicidade visando atender
o cenário imaginado na época para sua implantação em termos de rede. Este paradigma de concepção impõe algumas restrições
técnicas ao IP e, por conseqüência, restringe as aplicações suportadas às aplicações com poucos requisitos de operação (P. ex.:
aplicações de dados podem perder pacotes, permitem a existência de atrasos, ...).
O cenário atual das redes IP mudou. Hoje, o cenário de utilização das redes IP exige que "qualquer aplicação" possa rodar com
qualidade sobre o IP. Ou seja, a situação do IP atualmente é no sentido do "Tudo sobre IP" mantendo a premissa básica de projeto
do "IP sobre Tudo" dos anos 70. De certa forma o paradigma mudou e a questão que segue vem a ser a identificação das eventuais
limitações do IP e procedimentos necessários para adequá-lo à nova realidade das redes.
As alternativas técnicas básicas para a qualidade de serviço em redes IP são as seguintes:
•IntServ - Integrated Services Architecture com o RSVP (Resource Reservation Protocol): Na arquitetura IntServ a aplicação reserva
os recursos que vai utilizar antes de iniciar o envio de dados (áudio, vídeo, ...) pela rede através de sinalização (RSVP). Sua maior
desvantagem é a complexidade inerente à sua operação nos roteadores que, eventualmente, pode causar dificuldades nos
backbones de grandes redes.
•DiffServ - Differentiated Services Framework: A solução DiffServ não utiliza nenhum tipo de mecanismo de reserva de recursos.
Nesta solução os pacotes são classificados, marcados e processados segundo o seu rótulo (DSCP - Differentiated Service Code
Point). Os valores de DSCP podem ser expressados por nomes, chamados de per-hop behaviors (PHB). São definidas 4 classes de
PHBs:
Best Effort (BE ou DSCP 0): default, serviço best-effort
Assured Forwarding (Afxy): serviço de banda garantida
Expedited Forwarding (EF): serviço de baixo atraso (delay)
Class-Selector (Csx): compatibilidade com o IP Precedence (CS1 ao CS7 correspondem aos valores 1 a 7 de IP Precedence)
O IEEE 802.1p define um padrão para QoS em redes locais (LANs). Os pacotes são marcados com 3 bits CoS (User Priority), com
valores de 0 para baixa prioridade a 7 para alta prioridade.

Os pacotes classificados com maior prioridade são enviados primeiro, ou possuem garantia de banda. Os pacotes de menor
prioridade são escalonados ou descartados dependendo da política adotada. São utilizados mecanismos de enfileiramento de
pacotes para garantir que determinadas classes de serviço sejam priorizadas.

www.datacom.ind.br
34
Contatos

• Suporte Técnico:
51 3358 0122
suporte@datacom.ind.br

• Comercial:
513358 0140
comercial@datacom.ind.br

• DATACOM
Av. França, 735
Bairro Navegantes
CEP: 90230-220
Porto Alegre - RS – Brasil
www.datacom.ind.br

www.datacom.ind.br
35

Você também pode gostar