Você está na página 1de 568

DEFINIÇÃO

Conceitos básicos e introdutórios às redes de computadores: histórico, evolução e


classificação das redes, seus componentes fundamentais, aplicações, representação e
características gerais.

PROPÓSITO

Compreender, de forma técnica, como funcionam as estruturas das redes de


computadores e suas aplicações. Tal assunto tem emprego direto nas áreas de
Computação, Engenharia e em diversas outras áreas do conhecimento, dado o
protagonismo dessas redes em escala global.

OBJETIVOS

✓ Descrever o histórico e a evolução das redes de computadores e da Internet

✓ Classificar as redes quanto à topologia, aos meios de transmissão e à área de cobertura

✓ Identificar as características e as peculiaridades das redes sem fio

1 / 28
INTRODUÇÃO

A área de redes de computadores continua a evoluir com rapidez, atendendo às


crescentes demandas da sociedade. O imenso volume de dados e a necessidade de
disponibilidade instantânea das informações representam desafios para as redes de
computadores, que evoluem para cada vez mais aumentar a velocidade de suas conexões
e tratar os dados transmitidos com mais segurança (KLEINROCK, 2008).

2 / 28
CONCEITOS

Um dos conceitos fundamentais e inerentes às redes de computadores, que


causou uma mudança de paradigma nas comunicações e foi um dos responsáveis
pelo grande sucesso da Internet, é o paradigma da comutação de pacotes.

Antes do surgimento da Internet, as redes de comunicação, como as redes de telefonia


fixa convencional, eram baseadas no conceito da comutação de circuitos.

Na época, a grande inovação foi a mudança de paradigma para a comutação de pacotes,


que facilitou a conectividade e a rápida expansão das redes de computadores para uma
escala global.

Comutação de circuitos

Na comutação de circuitos, é necessário o estabelecimento prévio de um circuito físico


entre a origem e o destino antes da transmissão da informação propriamente dita.
Tomemos como exemplo a ilustração de uma conversa telefônica que utilize as redes
tradicionais de telefonia fixa.

3 / 28
Comutação de circuitos – rede tradicional de telefonia fixa

O usuário A deseja estabelecer uma ligação telefônica com o usuário B, localizado


em outra cidade.

Ao digitar o número do telefone do usuário B com o respectivo DDD, a central


telefônica local conectada ao aparelho do usuário A inicia um processo de
sinalização pela rede telefônica até que um caminho físico (circuito) seja
estabelecido da rede do terminal A ao terminal telefônico do usuário B.

Ao atender o telefone, o usuário B confirma a utilização desse circuito. A partir daí, a


conversa (troca de informação entre os usuários A e B) pode ser efetuada.

Comutação de pacotes

Atenção !

Na comutação de pacotes, não existem as fases 1 e 3 descritas anteriormente, que


compreendem o estabelecimento prévio de um circuito antes da transmissão dos dados
e a desconexão ou o encerramento do circuito estabelecido ao final da comunicação.

Neste tipo de comutação, a informação é dividida em conjuntos de dados


chamados pacotes, que também carregam a informação de identificação da origem e do
destino dentro da rede.

4 / 28
Assim, os pacotes são encaminhados individualmente e de forma independente; cada
ponto intermediário do percurso analisa as informações do pacote e decide por onde
encaminhá-lo dentro da rede, até que ele alcance o destinatário final.

Na imagem a seguir, temos um exemplo de um diagrama esquemático da transmissão de


dados entre origem “A” e destino “B” conectados pelos nós intermediários (S1, S2, S3, S4,
S5 e S6).

A informação foi particionada em quatro pacotes (1, 2, 3 e 4) que são encaminhados de


forma independente dentro da rede até alcançarem o destino “B”.

5 / 28
Atenção !

Observe que cada pacote pode seguir um caminho diferente, de forma que a ordem de
chegada ao destino não é preservada. Cabe assim ao nó destino “B” rearrumar os
pacotes na sequência correta para recuperar completamente a informação original
transmitida por “A”.

TENDÊNCIAS

As redes de computadores apresentaram uma evolução impressionante ao longo das


últimas décadas, e as projeções apontam para um desenvolvimento ainda mais rápido
nos próximos anos. Cada vez mais, as pessoas dependerão das redes de computadores
para o uso dos mais diversos serviços, com impactos cada vez maiores em todas as
áreas de atuação da sociedade.

Redes Definidas por Software

Dada a grande evolução e o crescimento das redes


de computadores, essas estruturas passaram a
integrar grande quantidade e diversidade de
sistemas, equipamentos, dispositivos, enlaces* e
serviços, tornando as tarefas de gerência bastante
complicadas e dispendiosas.

As Redes Definidas por Software (SDN: Software


Defined Networks) permitem programar o
comportamento da rede de forma centralizada e
controlada por meio de interfaces de programação
abertas.

*Enlaces: Como estudaremos no segundo módulo, enlaces representam as ligações


físicas entre os nós da rede, usando vários meios de transmissão (fibra ótica, par
trançado, cabo coaxial etc.)

6 / 28
A figura central em uma rede SDN é o controlador de rede*, por onde o gerente consegue
estabelecer políticas e comportamentos, e passar essas informações diretamente para os
equipamentos que compõe a rede. Assim, o plano de controle da rede fica independente
das características físicas e do hardware de cada equipamento, sendo implementado
agora no controlador de rede.

*Controlador de rede: O controlador da rede é um sistema que roda em um servidor


central desenvolvido para controlar todo o fluxo de informações na rede de forma a
facilitar o trabalho de gerência e melhorar o desempenho das aplicações de rede. O
controlador utiliza protocolos para se comunicar com os demais elementos da rede e
informar para onde encaminhar os pacotes.

Vimos, na imagem anterior, uma representação de rede onde o controlador possui a visão
global da topologia e atua diretamente nos equipamentos para estabelecer as políticas
definidas pelo gerente da rede.

7 / 28
Internet das coisas

A conectividade é a palavra-chave da
Internet; sendo assim, a evolução, no
sentido de aumentar ainda mais o grau de
conectividade, trouxe a tecnologia da
Internet das Coisas (IoT: Internet of Things).

A ideia por trás dessa iniciativa é conectar


não apenas os
computadores, smartphones e tablets, mas
também qualquer dispositivo, objeto e até
mesmo animais na rede. Isso permitiria que
todos os objetos do nosso cotidiano (ex.
geladeira, porta da casa, lata de lixo, par de
sapatos etc.) pudessem trocar dados e ser
utilizados remotamente.

VERIFICANDO O APRENDIZADO

1. Estudamos sobre a história e evolução das redes de computadores. Com base nos
fatos relatados no corrente módulo, assinale a alternativa correta:

a) A ARPANET, sendo uma rede financiada pelo governo dos Estados Unidos, ficou restrita
ao território americano.

b) As tecnologias desenvolvidas para a Internet foram essenciais para a criação da


ARPANET.

c) A comutação de pacotes trouxe uma mudança de paradigma na comunicação de


dados.

d) O surgimento das LANs e WLANs permitiu o estabelecimento de conexões de grande


alcance entre os nós da rede.

Comentário

Parabéns! A alternativa C está correta.

A introdução da tecnologia de comutação de pacotes favoreceu o desenvolvimento das


redes de computadores e causou uma mudança de paradigma em relação à comutação
de circuitos -- tecnologia anterior, empregada principalmente pelas redes tradicionais de
telefonia fixa.

8 / 28
2. Em relação à comutação de circuitos e comutação de pacotes, selecione a
opção incorreta:

a) Na comutação de circuitos, o processo de transmissão da informação ocorre em três


fases.

b) Na comutação de pacotes, cada pacote é encaminhado de forma independente dos


demais.

c) A comutação de circuitos é uma tecnologia anterior à comutação de pacotes.

d) Na comutação de pacotes, a ordem de recepção dos pacotes no destino é preservada.

Comentário

Parabéns! A alternativa D está correta.

Na comutação de pacotes, os pacotes são encaminhados de maneira independente pelos


nós da rede, de forma que cada pacote pode seguir um caminho diferente dos demais.
Assim, não é possível garantir que os pacotes cheguem ao destino na mesma ordem em
que foram transmitidos pela origem.

9 / 28
INTRODUÇÃO

As redes de computadores são constituídas de três componentes


fundamentais: nós, enlaces e protocolos.

Nós Enlaces Protocolos

Os nós representam Os enlaces representam as Os protocolos implementam


os sistemas finais ou sistemas ligações físicas entre os nós as regras de comunicação nas
intermediários que são da rede, podendo empregar os redes que organizam e
interconectados em rede. mais diferentes meios de controlam o fluxo de
transmissão: fibra ótica, par informação. Os protocolos
trançado, cabo coaxial, automatizam a comunicação
transmissão em RF, micro- entre os nós e resolvem os
ondas, enlace satelital, etc. problemas de transmissão,
erros, controles, gerência,
serviços e políticas de uso.

10 / 28
CLASSIFICAÇÃO QUANTO À TOPOLOGIA

A topologia de uma rede é representada pelo arranjo de ligação dos nós através dos
enlaces. Essas ligações podem ocorrer das mais diversas formas, o que resulta em
diferentes tipos de topologia.

Vejamos alguns tipos de arranjos e os respectivos nomes dados às topologias.

11 / 28
12 / 28
A topologia de uma rede tem influência direta no seu desempenho e na sua
robustez.

Classificação quanto à área de


cobertura (alcance)

As redes de computadores podem


também ser classificadas quanto à região
ou área física em que são dispostas para
prestarem serviços aos usuários. São
classificadas sob diversas siglas, que
detalharemos no vídeo a seguir: LAN,
MAN, WAN, WLAN, WMAN, SAN e PAN.

CLASSIFICAÇÃO SEGUNDO O MEIO DE TRANSMISSÃO

Podemos também classificar as redes em dois grandes grupos de acordo com o tipo de
meio físico usado para interconectar os dispositivos: redes cabeadas ou redes sem fio.

Redes cabeadas

Nas redes cabeadas (ou redes por cabo), as conexões entre os dispositivos empregam
meios físicos por onde o sinal é transmitido de forma confinada. São geralmente

13 / 28
empregados como meios físicos o cabo coaxial, o cabo de par trançado ou o cabo de
fibra óptica.

Par Trançado Fibra ótica Cabo coaxial

14 / 28
Algumas características da rede cabeada são:

TRANSPORTE DE SINAL

Tanto o par trançado quanto o cabo coaxial transportam o sinal eletromagnético,


enquanto na fibra óptica o sinal é propagado na forma de luz.

VANTAGENS E DESVANTAGENS

Cada um dos meios oferece vantagens e desvantagens em relação aos demais. Embora
o par trançado seja mais flexível e barato, enfrenta o problema de interferências
eletromagnéticas em maior escala. Já a fibra óptica, que é mais cara, está imune às
interferências e possui a capacidade de atingir altas taxas de transmissão.

Redes sem fio

Nas redes sem fio* o sinal é transmitido em espaço aberto, não guiado.

*Redes sem fio: São tecnologias de redes sem fio: a rede por infravermelhos, a rede por
micro-ondas e a rede por rádio. Cada qual com alcances, faixa operacional do espectro
eletromagnético, taxas de transmissão e imunidade a interferências diferentes.

15 / 28
Exemplo

Esses tipos de rede apresentam diversas facilidades em relação às redes cabeadas. Ex.:
rapidez na instalação, capacidade de mobilidade, pouco ou nenhum impacto sobre a
infraestrutura predial. Em alguns prédios históricos e locais críticos, acabam sendo a
única possibilidade viável para uma rede ser instalada.

VERIFICANDO O APRENDIZADO

1. Em relação aos diferentes arranjos topológicos que uma rede de computadores pode
assumir, assinale a alternativa correta:

a) A topologia centralizada não apresenta vantagens em relação a uma topologia


distribuída.

b) As topologias em estrela e anel são resistentes à queda de um enlace, mas a queda de


dois enlaces sempre desconecta os demais nós da rede.

c) A topologia distribuída apresenta uma maior tolerância a falhas do que as topologias


descentralizadas e centralizadas.

d) O arranjo topológico não interfere no desempenho global da rede.

Comentário

Parabéns! A alternativa C está correta.

A topologia distribuída é a mais tolerante a falhas por não apresentar nós ou enlaces
críticos que afetem o funcionamento global da rede. Nos outros dois tipos de arranjos
existem nós que caso apresentem falhas são capazes de comprometer toda a estrutura
da rede.

16 / 28
2. Neste módulo estudamos algumas formas de classificação das redes de
computadores. Está incorreta a afirmativa:

a) As redes de computadores podem ser classificadas quanto ao seu tamanho ou área de


cobertura.

b) Uma MAN pode ser caracterizada pela ligação de diversas LANs.

c) Os meios físicos empregados em redes cabeadas apresentam diferentes


características quanto à imunidade ao ruído.

d) As WLANs substituíram as LANs para poderem atingir maiores distâncias de ligação


entre os terminais.

Comentário

Parabéns! A alternativa D está correta.

Tanto as WLANs quanto as LANs são classificadas como redes locais e, portanto, não
visam ligações de longo alcance, as WLANs permitem, no entanto, que os terminais sejam
ligados em rede por meio de enlaces sem fio.

17 / 28
INTRODUÇÃO

Embora as redes sem fio para transmissão de dados tenham se popularizado


bastante nas últimas décadas, o seu desenvolvimento data do início dos anos 1970.
Pode-se afirmar que a primeira demonstração pública das redes sem fio em
pacotes (dados) ocorreu em junho de 1971, na Universidade do Havaí, conhecida
como ALOHAnet.

(ABRAMSON, 2009)

O objetivo da ALOHAnet era empregar equipamentos de rádio de baixo custo para as


transmissões que possibilitassem a conexão dos terminais dos usuários espalhados pela
universidade até um grande computador central de uso compartilhado.

18 / 28
Comentário

A contribuição que o sistema trouxe foi tão importante que, mais tarde, diversos
protocolos de comunicação empregados em redes celulares e até mesmo em redes
cabeadas foram inspirados na ALOHAnet.

Ilustração da rede ALOHA, onde os terminais remotos acessam a estação central através de transmissões UHF (Ultra
High Frequency) em meio aberto

A partir de então, o desenvolvimento das redes sem fio seguiu um ritmo constante, até
chegarmos à explosão de seu uso nos dias de hoje. Pode-se dizer que as tecnologias de
redes sem fio foram responsáveis pela imensa conectividade de usuários que
observamos em todo o mundo, como também são um veículo de participação e inclusão
social.

Porém, antes de abordarmos algumas de suas principais tecnologias, é importante


entender alguns conceitos e algumas peculiaridades das redes sem fio que as diferem
das redes cabeadas tradicionais.

CONCEITOS
Peculiaridades e características das redes sem fio

A simples possibilidade de se utilizar enlaces sem fio em vez de enlaces por cabo
em redes de computadores introduz diversas vantagens.

19 / 28
O lançamento de cabos em áreas urbanas ou rurais, ou mesmo a instalação predial de
cabos, pode, por vezes, ser bastante complicado, custoso ou até mesmo proibido. No
exemplo citado anteriormente da ALOHAnet, o terreno acidentado e a dispersão dos
terminais na universidade se tornaram claramente fatores motivadores para a utilização
de enlaces sem fio.

Existem também outras situações onde a adoção dos enlaces sem fio acaba se tornando
a única opção disponível.

Ex.: a instalação de uma rede em um prédio histórico tombado onde não é permitida
qualquer alteração, obra ou reforma; dentro de um centro cirúrgico de um hospital;
instalação de redes temporárias etc.

A mobilidade dos terminais também aparece como uma das grandes vantagens da
utilização de redes sem fio; assim, uma infinidade de diferentes cenários para a utilização
das redes de computadores se tornou possível, tais como: campos de batalha, regiões

20 / 28
afetadas por calamidades, operações de resgate, atividades esportivas, eventos, shows,
veículos autônomos não tripulados, redes de sensores.

A facilidade de expansão da rede com a inclusão de novos dispositivos e a rapidez com


que esses dispositivos podem ser instalados e ganhar acesso à rede sem fio também
configuram grandes vantagens em relação às redes com cabos. Podemos adicionar a
isso a flexibilidade de o terminal poder alcançar locais onde o cabo não chega.

No entanto, é importante também conhecer as desvantagens ou dificuldades encontradas


pelas redes sem fio. Em primeiro lugar, a transmissão em espaço aberto traz
preocupações imediatas com a segurança, visto que os sinais podem ser mais facilmente
capturados por algum terminal não autorizado que esteja escutando o meio.

A transmissão do sinal em espaço aberto também está sujeita a maior atenuação do sinal
e interferência de outras fontes, tendo em vista que não há a proteção e o isolamento do
meio guiado. Isso afeta diretamente as taxas de transmissão, o alcance e a potência
necessária nos transmissores.

A propagação do sinal também sofre o que se chama de propagação multivias; como o


meio não é guiado, o sinal pode sofrer reflexões em obstáculos pelo caminho, o que
dificulta a detecção da informação por parte dos receptores. Até mesmo as condições
climáticas (temperatura, pressão, umidade do ar) impõem dificuldades nas transmissões.
Em suma, a transmissão de sinais em meio aberto está sujeita a diferentes intemperes e
dificuldades que geralmente não afetam ou são mitigadas pelos meios guiados.

Sinal sendo refletido por múltiplos caminhos no espaço aberto (propagação multivias), dificultando a recepção da
informação no receptor.

21 / 28
Condições climáticas (chuva) causando a atenuação do sinal para o receptor.

Redes Locais Sem Fio – WiFi

As redes locais sem fio se tornaram


atualmente uma das mais importantes
tecnologias de acesso à Internet,
estando presente nos mais diversos
locais de atividade das pessoas: em
casa, no trabalho, nos hotéis, nas
universidades, escolas, nos
restaurantes, cafés, aeroportos,
estádios etc.

A tecnologia dominante empregada em redes locais sem fio é a tecnologia WiFi,


identificada pelo padrão IEEE 802.11.

Redes Móveis Celulares

Outra tecnologia de redes de comunicação sem fio amplamente utilizada nos dias atuais
é a tecnologia de redes móveis celulares. A cobertura que essas redes oferecem nas
grandes cidades, estradas e até mesmo em zonas rurais é bastante ampla, o que motivou
a explosão do consumo e a utilização de aparelhos celulares como plataformas de
acesso à Internet.

22 / 28
Um levantamento realizado pela empresa GSMA Intelligence estimou que, até janeiro de
2020, cerca de 5,18 billhões de pessoas aparecem como usuários de serviço de telefonia
celular, ou seja, 66.77% da população mundial. Esse dado confirma o grande sucesso e a
evolução tecnológica dessas redes ao longo dos anos e também reflete a necessidade da
população mundial por serviços de redes móveis sem fio.

Veja, a seguir, uma ilustração da estrutura básica de uma rede móvel celular. As células
representadas pelos hexágonos cobrem determinada região geográfica na qual o acesso
à rede é oferecido. O conjunto de células, então, garante a cobertura em uma área maior:
uma cidade, por exemplo. Cada célula possui uma estação-base – BS (Base Station), que
desempenha um papel semelhante ao dos APs nas redes IEEE 802.11.

Características das redes móveis celulares

23 / 28
HANDOFF

Um dos objetivos das redes móveis celulares é oferecer mobilidade total aos usuários.
Ao se movimentarem, os usuários podem trocar de célula de cobertura e, assim, trocar
também de acesso a outra BS. Esse processo é conhecido como handoff. O handoff é
totalmente despercebido pelos usuários e realizado automaticamente pela rede e pelos
dispositivos móveis.

UPLINK E DOWNLINK

A comunicação dos terminais até a BS é realizada pelo canal chamado uplink (canal de
subida que é compartilhado entre os terminais), e a comunicação da BS até os terminais
é realizada pelo downlink (canal de decida controlado unicamente pela BS).

Assim, no canal compartilhado uplink, são necessários também os protocolos de


múltiplo acesso para organizar a comunicação dos diversos terminais. Porém, diferente
das redes WiFi, aqui não se utiliza o protocolo CSMA/CA, e sim soluções de
compartilhamento estáticas baseadas, por exemplo, na técnica de múltiplo acesso por
divisão no tempo – TDMA (Time Division Multiple Access) ou divisão de frequência –
FDMA (Frequency Division Multiple Access). Essas soluções foram herdadas das redes
de telefonia anteriores, e não das redes de dados.

24 / 28
VERIFICANDO O APRENDIZADO

1. Em relação às características das redes sem fio e de todo o seu desenvolvimento,


pode-se afirmar que:

a) O desenvolvimento da ALOHAnet foi motivado pelo surgimento das WLANs.

b) A propagação multivias e a sensibilidade às condições climáticas afetam tanto as


redes cabeadas quanto as redes sem fio.

c) Soluções de múltiplo acesso ao meio físico são empregadas tanto nas WLANs quanto
nos uplinks de redes móveis celulares.

d) O protocolo CSMA/CA padronizado para as redes móveis celulares verifica se o meio


está livre antes de iniciar uma transmissão.

Comentário

Parabéns! A alternativa C está correta.

Ambos os canais são compartilhados pelos terminais dos usuários e portanto são
empregadas técnicas de múltiplo acesso para organizar as transmissões.

25 / 28
2. Assinale a alternativa incorreta:

a) Um dos objetivos do protocolo CSMA/CA é evitar a colisão entre os terminais durante


as transmissões.

b) Em uma BSS só pode existir um AP.

c) O handoff garante o suporte à mobilidade em redes celulares.

d) No protocolo CSMA/CA o terminal interrompe a transmissão tão logo detecta que


ocorreu uma colisão.

Comentário

Parabéns! A alternativa D está correta.

O protocolo CSMA/CA não emprega dispositivo para detecção de colisão durante a


transmissão. Uma colisão é detectada quando o terminal fonte não recebe a confirmação
do terminal destino, vide Figura 14.

26 / 28
CONSIDERAÇÕES FINAIS

As redes de computadores apresentam uma história relativamente recente; no entanto, os


avanços experimentados pela tecnologia de rede fizeram com que as redes de
computadores se tornassem presentes nas mais diversas atividades da sociedade, sendo
praticamente indispensáveis atualmente.

REFERÊNCIAS BIBLIOGRÁFICAS

ABRAMSON, N. The ALOHAnet – Surfing for Wireless Data, IEEE Communications


Magazine.47(12): 21–25.

BARAN, P. On Distributed Communication Networks: I. Introduction to Distributed


Communications Networks. Santa Monica, CA: RAND Corporation, 1964.

KLEINROCK, L. History of the Internet and its flexible future. IEEE Wireless
Communications Volume: 15.

KUROSE, F., ROSS, K. Redes de Computadores e a Internet. 5. ed. São Paulo, PEARSON,
2010.

LEINER, B. et. al. The Past and Future History of the Internet, Communications of the ACM
40(2):102-108.

STALLINGS, W. Redes e Sistemas de Comunicação de Dados. 1. ed. Altabooks, 2018.

TANENBAUM, A. Redes de Computadores. 5. ed. São Paulo: PEARSON, 2011.

27 / 28
EXPLORE+

Vídeo

Pesquise e assista ao vídeo História da internet no Brasil e a importância da RNP.

Texto

Busque e analise também o material IEEE 802.11TM WIRELESS LOCAL AREA


NETWORKS.

CONTEUDISTA

Ronaldo Moreira Salles

28 / 28
Histórico da Internet

Redes sem fio


• 1950 – 1960 : primeiros computadores
• 1960 : primeira rede de dados
• 1969 : ARPANET
• 1973 : primeira conexão do NORSAR à
ARPANET
• 1981: havia mais de 200 computadores
conectados à rede
• 1983 – protocolo TCP: nascimento da Peculiaridades
Internet
• Final de 1980 e início de 1990: provedores
de Internet
• Atualidade: rede de escala global com
números crescentes de usuários
Vantagens

• Enlaces sem fio


• Mobilidade dos terminais
• Facilidade de expansão da rede
Redes de computadores

Conceitos fundamentais Desvantagens

• Comutação de circuitos • Falta de segurança no espeço aberto


• Comutação de pacotes • Atenuação do sinal e interferências
• Propagação multiviais

Redes definidas por


softwares

Tecnologia WiFi
Componentes padrão IEEE 802.11.
fundamentais

• Nós
• Enlaces
• Protocolos

Topologia

• Centralizada
• Descentralizada
• Distribuída

Área de cobertura
(alcance)

• LAN
• MAM
• WAN
• WLAN
• WMAN
• WWAN
• SAN
• PAN

Meio de transmissãp

• Redes cabeadas
• Redes sem fio
DEFINIÇÃO

Organização das redes de comunicação de dados utilizadas pelos dispositivos


computacionais e os modelos e arquitetura de redes empregados.

PROPÓSITO

Reconhecer como as redes de computadores estão organizadas e estruturadas para


definir as ferramentas adequadas ao processo de troca de dados entre todos os
dispositivos.

OBJETIVOS

MÓDULO 1 MÓDULO 2 MÓDULO 3

Identificar o objetivo da Identificar as camadas do Identificar as camadas da


divisão da estrutura das Modelo OSI e suas Arquitetura TCP/IP e suas
redes em camadas funcionalidades funcionalidades.

1 / 38
INTRODUÇÃO

Uma infinidade de serviços é oferecida por meio da


internet, como, por exemplo, os governamentais,
financeiros, educacionais, entre muitos outros que
mudaram o comportamento humano. Ao ficarmos sem
acesso à internet nos sentimos como se estivéssemos
em uma ilha deserta. Experimente colocar seu
smartphone em modo avião durante um dia e perceba
como se sentirá isolado.

Mas, para que todos esses serviços possam funcionar,


um conjunto de funcionalidades complexas e difíceis de
implementar deve ser disponibilizada pelos dispositivos
que compõem uma rede. Portanto, desde o início das
redes de comunicação de dados foram pensadas formas
de otimizar o processo da transmissão de dados.

MODELO EM CAMADAS

A internet é um conjunto de redes de computadores que permite a troca de informações


entre dispositivos computacionais.

2 / 38
Para que essa troca seja realizada de forma eficiente, devem ser estabelecidas
regras de comunicação.

Essas regras são os protocolos de rede, que devem garantir que a comunicação
ocorra de forma confiável, segura, eficaz, no momento certo e para a pessoa certa.

De maneira intuitiva, percebemos que satisfazer a todos esses requisitos não é uma
tarefa fácil. São muitas regras que devem ser implementadas para garantir a efetividade
da comunicação, tornando o processo de troca de dados entre computadores uma tarefa
extremamente complexa.

Por causa dessa complexidade, os engenheiros e projetistas de redes do passado


pensaram em formas de facilitar o desenvolvimento das regras nos dispositivos
computacionais. Eles utilizaram um princípio básico de resolução de diversos outros
problemas:

A técnica de dividir para conquistar*.

*Dividir para conquistar: Nesta técnica, os projetistas dividem o problema em problemas


menores e resolvem cada um de forma isolada. Se cada pequeno problema for resolvido,
o grande problema será resolvido.

Para que essa divisão ocorresse de forma simplificada, os projetistas dividiram a


organização das redes de computadores em camadas, em que cada camada é
responsável por cuidar de determinada regra ou protocolo necessário ao processo
de comunicação.

3 / 38
A quantidade de camadas utilizadas depende de como as funcionalidades são divididas.
Quanto maior a divisão, maior o número de camadas que serão empilhadas, numerando
da mais baixa, camada 1, para a mais alta, camada n.

As camadas se inter- De forma contrária,


relacionam da podemos dizer que a
seguinte maneira: a camada inferior
camada superior oferece serviços
utiliza os serviços para outra
oferecidos por outra imediatamente
imediatamente superior, logo,
inferior, portanto, a camada 2 oferece
a camada 3 utiliza serviços para a
os serviços camada 3.
oferecidos pela
camada 2.

ELEMENTOS DA CAMADA

As camadas são formadas por três elementos principais:

4 / 38
Vamos entender melhor os elementos da camada!

Onde, exatamente, tudo isso é implementado no computador?

O que está implementado são os protocolos e interfaces, que podem estar desenvolvidos
em um hardware, como uma placa de rede, ou em um software, como no sistema
operacional da máquina.

Agora que os elementos da camada foram apresentados, é possível entender dois


conceitos importantes da arquitetura de redes:

Comunicação Vertical Comunicação Horizontal

COMUNICAÇÃO HORIZONTAL E VERTICAL

Já vimos que uma camada utiliza os serviços de outra imediatamente inferior,


sucessivamente, até chegar à camada mais baixa. Como estão empilhadas, podemos
fazer analogia à comunicação vertical, uma vez que o dado original, no topo do conjunto
de camadas, desce até a camada 1, caracterizando a verticalidade desse processo.

5 / 38
No destino, o processo ocorrerá de modo
contrário, pois o dado sobe pelas camadas
até o nível mais alto da arquitetura.
Na origem, o dado a ser transmitido desce Podemos, assim, associar a comunicação
pelas camadas até o nível mais baixo, a vertical aos serviços das camadas.
camada 1. Essa camada está conectada
ao meio de transmissão, como, por
exemplo, uma fibra ótica, um cabo de rede
metálico ou o ar, possíveis caminhos para
o dado fluir até o destino.

Conforme o dado passa por determinada camada, o hardware ou o software, responsável


por implementar o protocolo, irá preparar esse dado para que a regra (para a qual ele foi
projetado) possa ser executada.

Por exemplo, se a camada 2 é


responsável pela verificação
de erro, o dado será
preparado na origem por essa
camada para que, ao passar
pela camada 2 do destino,
seja verificado se houve erro
ou não.

No exemplo anterior, vimos que a camada 2 de origem preparou o dado para que a
camada 2 de destino verificasse se a informação está correta, caracterizando a existência
de uma conversa entre as duas camadas de mesmo nível em computadores distintos.
Essa conversa é a comunicação horizontal, realizada pelos protocolos que implementarão
a regra.

6 / 38
Figura 1 - Relação entre camadas, protocolos e interfaces. (Fonte: Adaptado de Tanembaum, 2011)

ENCAPSULAMENTO

Ainda pode estar um pouco abstrato como realmente a comunicação vertical e,


principalmente, horizontal funcionam.

Como a camada 2 da máquina de origem consegue conversar com a mesma camada na


máquina de destino?

A comunicação horizontal ocorre de forma virtual. A camada 2 da máquina de origem, ao


preparar o dado para ser enviado, adiciona informações que serão lidas e tratadas única e
exclusivamente pela mesma camada do dispositivo de destino. Essas informações são
denominadas cabeçalhos.

7 / 38
Cada camada adicionará um novo cabeçalho ao dado que será enviado, e esse processo é
chamado de encapsulamento.

Cada camada receberá o dado da camada superior, através da interface, e adicionará seu
próprio cabeçalho, encapsulando o dado recebido.

Nesse processo, quando determinada camada recebe os dados, ela não se preocupa com
o conteúdo que recebeu, apenas adiciona o seu cabeçalho para permitir que o protocolo
execute as regras necessárias à comunicação.

Esse procedimento acontece, repetidamente, até alcançar a camada 1 e a informação ser


transmitida ao destino, onde ocorrerá o processo inverso. A informação subirá,
desencapsulando as informações, da camada 1 até o usuário do serviço.

Importante
Ao realizar o encapsulamento, a unidade de dados do protocolo ou PDU
(Protocol Data Unit, na sigla em inglês) é criada.

A PDU é constituída pela informação que vem da camada superior (PDU da


camada superior) e o cabeçalho da própria camada.

Vamos entender melhor como funciona na prática essa conversa entre as camadas da
rede!

8 / 38
Após analisar o conceito de arquitetura de camadas e ver o processo de encapsulamento,
é possível deduzir que a grande desvantagem é o acréscimo de informações ao dado
original, aumentando o volume de tráfego.

Entretanto, essa desvantagem é mínima comparada às vantagens que temos de


modularização, facilidade de manutenção e atualização dos protocolos, que permitiram
uma enorme evolução na área de redes.

VERIFICANDO O APRENDIZADO

1. A transmissão de dados entre dois dispositivos é uma tarefa complexa e envolve


diversas funções que devem ser executadas a fim de garantir uma comunicação eficiente.
Para reduzir a complexidade e tornar a comunicação uma tarefa realizável, a estrutura de
rede foi:

a) Dividida em protocolos que oferecem serviços aos usuários da rede.

b) Dividida em camadas que são responsáveis por realizar um conjunto de atividades.

c) Dividida em diversos tipos de placas de rede para permitir o uso de vários meios de
transmissão.

d) Dividida em cabeçalhos que permitem a comunicação horizontal.

Comentário

Parabéns! A alternativa B está correta.

A divisão em camadas permitiu a separação das funções necessárias à comunicação de


dados entre os diferentes níveis de camadas, utilizando a ideia de dividir para conquistar,
técnica que divide um problema grande e complexo em pequenos problemas mais
simples, que, ao serem resolvidos, solucionarão o problema como um todo. Cada camada
fica responsável por realizar um conjunto de atividades ou funções necessárias à
transmissão dos dados.

9 / 38
2. Cada camada de uma arquitetura de redes possui três elementos: serviço, protocolo e
interface. Esses elementos básicos permitem que as tarefas necessárias à transmissão
de dados sejam corretamente divididas e executadas, por isso, podemos dizer que:

a) O serviço é a implementação das regras de comunicação, os protocolos.

b) A interface é responsável por garantir a eficiência na transmissão dos dados.

c) O protocolo é a implementação do serviço que a camada deve executar.

d) Em virtude da evolução dos protocolos, os serviços deixaram de ser necessários.

Comentário

Parabéns! A alternativa C está correta.

Cada camada é responsável por uma determinada regra, ou seja, o serviço define o que a
camada deve fazer, mas não como. A responsabilidade de implementar a regra, de definir
o como é do protocolo de rede implementado naquela camada. Portanto, é comum dizer
que o protocolo é a implementação do serviço.

10 / 38
MODELO OSI

Na década de 1970, a International Organization for


Standardization (ISO), um órgão que desenvolve
padrões internacionais, criou um modelo de referência
de camadas denominado OSI (Open System
Interconnection - ISO/IEC 7498-1:1994).

O objetivo foi elaborar um modelo que permitisse a


comunicação entre sistemas diferentes,
independentemente de suas arquiteturas, facilitando a
comunicação, sem a necessidade de realizar
mudanças na lógica do hardware ou software
(FOROUZAN, 2010).

“Observe que o modelo OSI propriamente dito não é uma arquitetura de rede, pois não
especifica os serviços e protocolos exatos que devem ser usados em cada camada. Ele
apenas informa o que cada camada deve fazer. No entanto, a ISO também produziu
padrões para todas as camadas, embora esses padrões não façam parte do próprio
modelo de referência. Cada um foi publicado como um padrão internacional distinto. O
modelo (em parte) é bastante utilizado, embora os protocolos associados há muito tempo
tenham sido deixados de lado.” (TANENBAUM, 2011)

11 / 38
Importante
O que utilizamos hoje do modelo OSI é a referência para as funções das
camadas, então, quando ouvimos falar que determinado protocolo é da camada
X (1, 2, 3, ...). Esse X refere-se ao OSI, tanto que é encontrada, em diversos livros
e artigos, a expressão modelo de referência OSI (RM-OSI em inglês).

O modelo OSI possui sete camadas, de


cima para baixo: aplicação, apresentação,
sessão, transporte, rede, enlace e física.

De acordo com o conceito de camadas


que estudamos, cada uma delas é
responsável por determinada tarefa no
processo de transmissão de dados.
Entretanto, já sabemos que, por mais que
tenham sido especificados protocolos
para cada camada, na prática, eles não
são utilizados.

Os conceitos estudados de comunicação vertical, horizontal e encapsulamento são


válidos nesse modelo. Portanto, um dado transmitido por um dispositivo de origem será
inserido na estrutura de rede a partir da camada de aplicação e irá descer até a
camada física, quando será enviado pelo meio de transmissão. Cada camada irá
adicionar o seu próprio cabeçalho, encapsulando a PDU da camada superior e permitindo
a comunicação horizontal entre camadas de mesmo nível.

12 / 38
É possível dividir as sete camadas em três subgrupos.

Agora vamos ver, de modo mais específico, as tarefas de cada camada do modelo OSI.

13 / 38
APLICAÇÃO

A camada de aplicação é a que está mais próxima de nós, usuários da rede. Podemos
citar algumas das aplicações oferecidas por essa camada:

Serviço Web

Serviço de correio eletrônico

Serviço de transferência de arquivos

Serviço de streaming de áudio e vídeo

Serviço de compartilhamento de arquivos

Os serviços citados acima ou quaisquer outros oferecidos pela camada de aplicação são
executados por processos dos usuários que estão em andamento em determinado
dispositivo.

APRESENTAÇÃO

A camada de apresentação é responsável por garantir a interoperabilidade dos sistemas


heterogêneos, ou seja, permitir que, independentemente do dispositivo que você esteja
utilizando (computador, smartphone, televisão, carro etc.) e do sistema operacional (MS
Windows, Apple IOS, Linux etc.), seja possível acessar qualquer tipo de serviço
disponibilizado pela rede.

Para que haja essa interoperabilidade, a camada de apresentação é responsável por fazer
a transformação dos dados, por isso, podemos chamá-la de tradutor da rede. Ela será
responsável pela conversão entre formatos, compressão de dados e criptografia.

14 / 38
SESSÃO

Essa camada é responsável por organizar a comunicação entre os dispositivos e permitirá


que os usuários, em diferentes máquinas, possam estabelecer sessões de comunicação;
cada sessão terá dois serviços básicos: controle de diálogo e sincronização.

Controle de diálogo Sincronização

Define quem transmitirá em Permite que sejam estabelecidos pontos


determinado momento. Considerando de controle em determinado fluxo de
a existência de dois usuários, A e B, a dados. Esses pontos permitem que, se
camada de sessão determinará se eles houver uma perda de comunicação, a
podem transmitir simultaneamente, transmissão de dados seja restabelecida a
caracterizando a comunicação full partir daquele ponto e não desde o início
duplex, ou de forma intercalada, em da transmissão.
um sentido por vez, a exemplo da
comunicação half duplex.

15 / 38
TRANSPORTE

Essa camada tem por finalidade garantir a entrega de processo a processo de todos os
dados enviados pelo usuário. Podemos dizer que a camada de transporte é responsável
por entregar os dados corretamente para os processos que estão em execução na
camada de aplicação.

Esse papel da camada de transporte a torna uma das mais complexas dentro da estrutura
do modelo OSI. Para garantir que as mensagens da camada de aplicação sejam entregues
corretamente, diversas funções são necessárias:

Segmentação e remontagem

A camada de transporte receberá os dados originados na camada de aplicação (PDU da


camada de aplicação) e irá dividi-los em pedaços, segmentos de dados (PDU da
camada de transporte), que possam ser enviados e, na camada de transporte de
destino, irá remontá-los na ordem correta. Para isso, será necessário estabelecer
números de sequência para garantir que, independentemente da ordem de chegada, os
dados sejam remontados na ordem correta.

Controle de erros fim a fim

A camada de transporte irá verificar se ocorreram erros na comunicação fim a fim, ou


seja, entre os processos da camada de aplicação. Na origem, serão adicionadas
informações que permitam identificar no destino se durante o tráfego pela rede ocorreu
algum erro e, possivelmente, corrigi-lo.

Controle de fluxo

A camada de transporte será encarregada de evitar que o processo na origem


sobrecarregue o processo no destino.

Controle de conexão

A camada de transporte pode ser orientada ou não à conexão. No serviço orientado à


conexão, a camada de transporte será responsável por estabelecer a conexão entre os
processos de origem e destino.

16 / 38
Endereçamento do ponto de acesso ao serviço

Em um dispositivo, normalmente, estão em andamento diversos tipos de serviços


executados por vários processos e não apenas um. A camada de transporte será
responsável por fazer a entrega para o processo correto e, para isso, será utilizado o
chamado endereço de porta. Ele indicará o serviço correto que deverá receber os dados.

Controle de congestionamento

No mundo real, as máquinas não estão diretamente conectadas, ou seja, não há uma
comunicação ponto a ponto direta. Entre a máquina de origem e de destino existem
diversos outros dispositivos cuja finalidade é fazer a informação ir de um ponto a outro.
Como esses equipamentos transmitirão dados de diversas outras origens, poderá haver
uma sobrecarga desses dispositivos. A camada de transporte será responsável por
monitorar esse congestionamento e, possivelmente, tratá-lo.

REDE

A camada de rede é responsável por determinar o caminho da origem até o destino. Ela
receberá os segmentos gerados pela camada de transporte e, no cabeçalho da camada
de rede, irá inserir o endereço da máquina de destino para que seja enviado pela rede por
meio dos diversos dispositivos intermediários. Enquanto a camada de transporte é
responsável pela comunicação processo a processo, a camada de rede é encarregada da
comunicação máquina a máquina.

Veja a representação desse fluxo a seguir:

17 / 38
Figura 3 - Comparação entre camada de transporte e camada de rede. (Fonte: Adaptado de FOUROZAN, 2010)

Para cumprir com nosso objetivo, duas funcionalidades principais devem ser
estabelecidas:

Endereço lógico Roteamento

O endereço da porta, definido pela A função de roteamento permite


camada de transporte, permitirá a estabelecer um caminho entre origem e
entrega no processo de destino. Mas, destino. Os dispositivos intermediários
para que isso aconteça, é necessário irão verificar o endereço lógico de destino
que os segmentos cheguem à e, com base nas informações de caminho
máquina de destino. Por isso, são que eles possuem, farão o processo de
empregados endereços lógicos a fim encaminhamento para outros dispositivos
de permitir que os dispositivos intermediários a fim de alcançar o destino
intermediários encaminhem os dados da informação.
pelas redes e alcancem o destino.

18 / 38
ENLACE

A camada de rede tem a responsabilidade da entrega dos dados para a máquina de


destino. Normalmente, as máquinas não estão diretamente conectadas, ou seja, origem e
destino não estão ligados diretamente por um meio físico, mas por dispositivos
intermediários, como a internet. Então, como visto na camada de rede, os dados serão
roteados por essa internet até chegar ao destino. Após ser definido por qual caminho os
dados devem prosseguir, a camada de enlace surgirá para garantir essa comunicação
ponto a ponto ou hop to hop.

Veja a representação desse fluxo a seguir:

Figura 4 - Entrega desde a origem até o destino (Fonte: Adaptado de Fourozan, 2010)

A camada de enlace é responsável por garantir a comunicação entre dispositivos


adjacentes. Ela corrigirá quaisquer problemas que tenham ocorrido no meio físico de
transmissão e entregará para a camada de rede um serviço de transmissão de dados
aparentemente livre de erros.

É possível fazer uma analogia entre as camadas de enlace e de transporte:

19 / 38
Transporte Enlace

Realiza a entrega confiável Realiza a entrega confiável entre


processo a processo. máquinas adjacentes, nó a nó.

Por esse motivo, muitas das funções existentes na camada de transporte também
estarão presentes na de enlace:

Controle de erros

Os meios de transmissão não são livres de erro, portanto, os dados que trafegam
através deles estão sujeitos a erros. A camada de enlace pode implementar
mecanismos de controle de erro com a finalidade de agregar confiabilidade ao serviço
de transmissão.

Controle de acesso ao meio

Como alguns meios de transmissão são compartilhados, ou seja, mais de um


dispositivo pode transmitir pelo mesmo meio, é necessário um mecanismo para
controlar qual dos dispositivos pode transmitir naquele momento.

Endereçamento físico

Enquanto o endereço de porta indica o processo na máquina de destino e o endereço


lógico indica o dispositivo de destino, o endereço físico indicará qual será o próximo
dispositivo no caminho origem-destino. Ao chegar à rede de destino, o endereço físico
será o do dispositivo final.

Controle de fluxo

Semelhante ao que acontece na camada de transporte, o controle de fluxo evitará que o


nó de origem sobrecarregue o nó de destino.

20 / 38
Enquadramento

A camada de enlace receberá os dados da camada de rede (PDU da camada de rede),


encapsulando-os em quadros (PDU da camada de enlace). Os quadros criados pela
camada de enlace terão uma função importante, que será a adição de delimitadores de
início e fim do quadro na origem, para permitir que, no nó vizinho, a camada de enlace
possa ver o fluxo de bits e definir corretamente onde inicia e termina o quadro.

FÍSICA

Essa camada é responsável por transmitir os dados pelo meio de transmissão. Ela
receberá os quadros da camada de enlace, que serão formados por uma sequência de
bits, e irá codificar corretamente para que sejam enviados pelo meio de transmissão.

A camada física será responsável pela representação dos bits, ou seja, de acordo com o
meio de transmissão, ela irá definir se essa representação ocorrerá por pulsos de luz, no
caso da fibra ótica, ou pulsos elétricos, no caso de empregar cabos de par trançado. Além
disso, a camada física é responsável por:

Taxa de dados

A velocidade em que os bits são inseridos no meio de transmissão é responsabilidade


da camada física. Quando ouvimos a expressão megabits por segundo (Mbps), que
define a velocidade de determinado enlace, é responsabilidade da camada física
estabelecer esse valor. Assim, a velocidade de transmissão definirá a duração de um
bit: quanto maior a velocidade, menor a duração do bit, e vice-versa.

21 / 38
Sincronização dos bits

O nó transmissor e o receptor devem operar na mesma velocidade, ou seja, na mesma


taxa de bits. Entretanto, os relógios (clocks) das camadas físicas têm pequenas
diferenças, portanto, é possível que ocorram falhas de sincronismos. A camada física
deve implementar algum tipo de mecanismo que permita o correto sincronismo dos bits
entre origem e destino.

Topologia física

Define como os nós da rede estão interligados, podendo ser uma configuração de um
enlace ponto a ponto, em que cada nó está diretamente conectado a outro, sem
compartilhamento do meio, ou uma ligação ponto-multiponto, em que o enlace é
compartilhado por diversos nós.

Modo de transmissão

A camada física definirá o modo de transmissão em um determinado meio: simplex,


half duplex ou full duplex. Considerando dois dispositivos, A e B, no modo simplex só
existe envio de dados em um sentido, por exemplo, de A para B; no modo half duplex os
dados podem ser enviados nos dois sentidos, porém, não simultaneamente (de A para B
em um momento e de B para A em outro momento); e no modo full duplex os dados
podem ser enviados simultaneamente por A e B.

22 / 38
ATIVIDADE

Envie agora a mensagem que você transportou ao longo de sua jornada pelas camadas de
rede!

Olá, mundo!

enviar

Hello, World!

Parabéns, você conseguiu transmitir sua mensagem com sucesso!

Tendo percorrido o caminho da origem até o destino, passando por todas as camadas da
rede, você é capaz de entender como as informações são transmitidas pelos dispositivos
computacionais.

Vamos relembrar o seu percurso!

Veja um resumo das camadas e suas funcionalidades:

Fonte: Adaptado de Fourozan, 2011.

23 / 38
VERIFICANDO O APRENDIZADO

3. O modelo de referência OSI organiza a estrutura de rede em sete camadas e define o


que cada camada faz, sem definir como faz. As camadas podem ser agrupadas em três
subgrupos, sendo:

a) As três camadas mais altas responsáveis por dar suporte às operações de redes.

b) As três camadas mais baixas responsáveis por dar suporte às operações dos usuários.

c) A camada de transporte e rede são responsáveis por dar suporte às operações de rede.

d) As três camadas mais baixas responsáveis por dar suporte às operações de rede.

Comentário

Parabéns! A alternativa D está correta.

As camadas de rede, enlace e física permitirão que os dados possam sair do dispositivo
de origem e alcançar o dispositivo de destino. A camada física vai permitir que o fluxo de
bits flua pelo meio de comunicação; a camada de enlace vai garantir que não houve erro
na transmissão do fluxo de bits e, de acordo com o caminho definido pela camada de
rede, irá encaminhar os dados para o próximo nó.

24 / 38
4. O modelo de referência OSI define as funcionalidades de cada camada do modelo e
podemos dizer que:

a) A camada física é responsável por realizar a correção dos bits que porventura tenham
ocorrido no meio de transmissão.

b) A camada de rede atua no domínio do processo, entregando os dados ao processo


correto no destino.

c) A camada de enlace é responsável por oferecer um serviço de transmissão de bits


confiável para a camada de rede.

d) A camada de sessão tem por finalidade garantir a interoperabilidade de sistemas


heterogêneos.

Comentário

Parabéns! A alternativa C está correta.

Os serviços oferecidos pela camada de enlace permitem que os erros que ocorram no
meio de transmissão sejam identificados e tratados, seja descartando o quadro com erro
ou identificando o bit errado e corrigindo-o.

25 / 38
ARQUITETURA TCP/IP

“A arquitetura foi batizada por TCP/IP por causa dos seus dois principais protocolos:
Transmission Control Protocol (TCP) e Internet Protocol (IP). Ela foi apresentada pela
primeira vez em 1974 (CERF, 1974) com o objetivo de criar uma arquitetura que permitisse
a interligação de diversas redes de comunicação, sendo posteriormente adotada como
padrão, de fato, para a comunidade internet.” (CERF; KAHN, 1974)

EVOLUÇÃO DO PROTOCOLO TCP/IP

Vamos conhecer um pouco mais sobre o protocolo TCP/IP e o seu papel na história da
internet.

A arquitetura foi criada utilizando quatro


camadas*: aplicação, transporte, internet e acesso à
rede.

*Quatro camadas: Apesar da arquitetura TCP/IP


possuir quatro camadas, é comum encontrar, também
na literatura, uma arquitetura de cinco camadas.
Nessa arquitetura, a camada de acesso à rede é
dividida em duas: enlace e física. Essa divisão tem
foco em facilitar o estudo e aprendizado das funções
executadas nos níveis mais baixos. Como este tema

26 / 38
tem por finalidade o aprendizado da arquitetura TCP/IP como um todo, e não vamos
entrar em detalhes de operação de cada camada, manteremos a arquitetura original de
quatro camadas.

As duas últimas camadas podem ser encontradas com nomes diferentes na literatura. A
camada de rede pode ser encontrada como rede e inter-rede e a camada de acesso à
rede pode ser encontrada como camada de enlace, host-rede, intrarrede e host-network.

Após identificarmos que a arquitetura TCP/IP tem apenas quatro camadas, é possível
imaginar que algumas das funções executadas pelas camadas de apresentação, sessão,
enlace e rede, ausentes na arquitetura TCP/IP, serão acumuladas por outras camadas.

As funções das camadas de apresentação e sessão serão acumuladas pela camada


de aplicação e a funções das camadas de enlace e física serão executadas pela camada
de acesso à rede. Observe a relação entre os dois modelos a seguir.

Uma grande diferença que temos entre o modelo de referência OSI e a arquitetura TCP/IP
é:

27 / 38
Modelo OSI Arquitetura TCP/IP

É baseado, principalmente, nas Não ficou presa apenas nas


funcionalidades das camadas. funcionalidades, mas, sim, no

X desenvolvimento de protocolos
relativamente independentes e
hierárquicos. A hierarquia baseia-se em
um protocolo de nível superior que é
suportado pelos protocolos de nível
inferior.

É comum ouvirmos falar da pilha de protocolos TCP/IP. Agora que dominamos o conceito
do modelo de camadas, como vimos no modelo OSI, fica fácil de entender que a pilha de
protocolos TCP/IP é o conjunto de todos os protocolos implementados pela arquitetura. E
não são poucos.

Os principais protocolos de padrão aberto da arquitetura Internet foram desenvolvidos


pelo IETF (The Internet Engineering Task Force)*, uma grande comunidade internacional
aberta, composta por designers de rede, operadores, fornecedores e pesquisadores
preocupados com a evolução da arquitetura da internet.

*IETF (The Internet Engineering Task Force): O IETF cria grupos de trabalho com foco em
conceber e atualizar diversos protocolos que utilizamos na rede. Esses protocolos são
desenvolvidos pelas RFCs (Request For Comments), que são conhecidos como padrões
da internet e abrangem muitos aspectos das redes de computadores, incluindo
protocolos, procedimentos, programas e conceitos.

FUNÇÕES DAS CAMADAS E PRINCIPAIS PROTOCOLOS

Depois de estudarmos o modelo OSI, é possível ter uma ideia geral dos serviços de cada
camada, portanto, vamos focar, principalmente, nos protocolos.

28 / 38
APLICAÇÃO

A camada de aplicação da arquitetura


TCP/IP nos permite acessar uma
infinidade de serviços na internet. Desde
os que são utilizados de forma direta
pelos usuários, como o serviço Web,
serviço de correio eletrônico, entre
outros, bem como os que funcionam
dando suporte à operação da rede,
como o serviço de nomes (DNS).

Os serviços são implementados pelos diversos protocolos existentes. Correlacionamos, a


seguir, alguns serviços e protocolos utilizados na camada de aplicação.

SERVIÇO PROTOCOLO

Web HTTP

Correio eletrônico SMTP, POP e IMAP

Nomes DNS

Transferência de arquivos FTP, TFTP

Áudio e vídeo em tempo real RTP

Configuração automática de estações DHCP

29 / 38
Os protocolos apresentados são implementados por meio de softwares, que são
executados nos diversos dispositivos computacionais, e podem estar associados a dois
tipos principais de arquitetura:

Cliente-servidor Par a par (peer- to- peer (P2P))

Na arquitetura cliente-servidor, como A arquitetura P2P foi pensada no emprego


já evidencia o nome, existirá um cliente mínimo de servidores, caso exista algum.
e um servidor. O cliente será A ideia da arquitetura peer-to-peer é que os
executado por um usuário como nós e usuários possam trocar informações de
irá requisitar um serviço do servidor. forma direta. Esse tipo de arquitetura ficou
Por exemplo, para o serviço Web, o muito conhecida com os programas de
cliente é o navegador que acessa compartilhamento de arquivos, mas
determinado servidor, por exemplo, o também pode ser utilizada em outras
servidor que está disponibilizando situações, como em um chat entre duas
esse conteúdo. pessoas.

Independentemente da arquitetura utilizada, dizemos que os processos da camada de


aplicação trocam mensagens, que é o nome da unidade de dados do protocolo (PDU) da
camada de aplicação.

TRANSPORTE

Tem a mesma funcionalidade da camada existente no modelo OSI: garantir a entrega de


processo a processo de todos os dados enviados pelo usuário. Porém, na arquitetura
TCP/IP temos dois protocolos principais:

30 / 38
TCP (Transmission Control UDP (User Datagram Protocol)
Protocol)
O protocolo UDP não confere
O protocolo TCP, efetivamente, confiabilidade.
confere confiabilidade.
O protocolo UDP é o oposto do TCP. Ele
O protocolo TCP é um protocolo não é orientado à conexão e não faz a
orientado à conexão, com controle de maioria das funções da camada de rede.
erros, de congestionamento e de fluxo. Podemos dizer que o UDP existe apenas
Também define os endereços das para permitir que uma mensagem (PDU-A)
portas e divide a mensagem (PDU-A) seja encapsulada em um datagrama (PDU-
da camada de aplicação em T) e entregue para o processo de destino
segmentos (PDU-T), determinando correto, já que ele utiliza o endereço da
números de sequência para cada um, porta para fazer a correta entrega na
para garantir a entrega dos dados na máquina de destino.
ordem correta para a aplicação. O TCP
é adequado para as aplicações de rede
que precisam de confiabilidade na
troca de mensagens entre processos.

Então, por que usamos o UDP?

Ele é importante para as aplicações que demandam tempo de resposta baixo na


comunicação, como em um áudio ou uma videoconferência, e nas aplicações que
podem funcionar tolerando algum tipo de perda.

INTERNET

A camada internet ou, simplesmente, camada de rede tem por objetivo permitir que os
dados injetados na rede pela máquina de origem possam alcançar o destino.

O principal protocolo da camada de rede é o IP (Internet Protocol).

Ele é encontrado em duas versões principais:

31 / 38
Objetivo Diferença Semelhança

Os dois protocolos têm A diferença entre as duas Mas, os dois têm em


por objetivo definir o versões do protocolo está comum o fato de serem
endereço lógico, no tamanho do endereço não orientados à
conhecido como lógico, 32 bits para o IPv4 conexão, sem
endereço IP, e permitir o e 128 bits para o IPv6, no confiabilidade, ou seja,
tratamento dos formato do datagrama e não realizam o
datagramas (PDU-R) para em algumas funções mais tratamento de erros e os
que possam ser roteados específicas que não datagramas são
da origem até o destino. abordaremos neste tema. enviados de forma
independente, portanto,
podem chegar em ordem
diferente da qual foram
enviados.

32 / 38
Dizemos que o serviço da camada internet
é de melhor esforço.

Será feito o maior esforço de entregar as


informações, mas não será garantida a
entrega, nem a ordem, nem a ausência de
erro. Qualquer problema deverá ser
corrigido pelas camadas superiores.

Importante
Além do protocolo IP, a camada internet emprega outros protocolos que dão
suporte ao encaminhamento dos dados. Existem protocolos com o objetivo de
fazer sinalização e avisos de erros, como o ICMP (Internet Control Message
Protocol), tradução do endereço lógico para o físico, como o ARP (Address
Resolution Protocol), e a chamada comunicação multicast, que permite o envio
dos dados para um grupo de estações, como o protocolo IGMP (Internet Group
Management Protocol).

ACESSO À REDE

A camada de acesso à rede não foi bem definida pela arquitetura TCP/IP, nem define um
protocolo específico a ser empregado. O que foi dito inicialmente é que a camada de
acesso à rede seria qualquer coisa que pudesse ligar o dispositivo ao enlace de
transmissão.

Mas, como para chegar até aqui já estudamos vários conceitos, sabemos que, apesar de
não estar definida pela arquitetura TCP/IP, nesta camada encontraremos os serviços que
são oferecidos pelas camadas de enlace e física do modelo OSI.

33 / 38
Apesar de não fazer parte da arquitetura TCP/IP, a arquitetura desenvolvida pelo Instituto
de Engenheiros Eletricistas e Eletrônicos (Institute of Electrical and Electronics Engineers
– IEEE), denominada IEEE 802, é largamente utilizada na camada de acesso à rede.

Ela define diversos padrões utilizados nas redes locais e metropolitanas, como o padrão
Ethernet e o famoso WiFi, que provavelmente você está usando agora para acessar este
conteúdo.

Agora que terminamos a apresentação dos principais protocolos da arquitetura TCP/IP,


podemos fazer uma correlação entre a arquitetura internet e seus protocolos com o
modelo OSI, conforme se vê a seguir:

Modelo OSI e TCP/IP (Fonte: Adaptado de FOROUZAN, 2010)

34 / 38
Saiba mais
A arquitetura Internet ou TCP/IP como uma estrutura de camadas não evoluiu
ao longo dos anos. A grande evolução que tivemos foram nos protocolos
empregados.

Inicialmente, os protocolos da camada de aplicação eram concentrados nas


aplicações textuais, com um pequeno volume de informação a ser trocado,
como o Serviço Web criado por Sir Tim Berners-Lee, com foco em páginas
textuais para troca de informações entre os centros de pesquisa.

Hoje, os protocolos evoluíram significativamente para oferecer maior qualidade


de serviço, suporte ao tráfego de vídeo, segurança, transações financeiras,
entre outros. Falando novamente do Serviço Web, o protocolo HTTP evoluiu de
um protocolo textual para binário, a fim de dar suporte aos diversos usos do
Serviço Web, como assistir a vídeos, CRMs, ERPs, entre muitos outros sistemas
complexos.

VERIFICANDO O APRENDIZADO

5. Diferente do modelo OSI, a arquitetura TCP/IP ou internet foi projetada utilizando quatro
camadas. Algumas funções das camadas do modelo OSI foram absorvidas, e podemos
dizer que a:

a) Camada de aplicação inclui as funções da camada de apresentação e sessão.

b) Camada de transporte inclui a função da camada de sessão.

c) Camada de enlace inclui a função da camada de rede.

d) Camada de aplicação inclui as funções da camada de sessão e transporte.

Comentário

Parabéns! A alternativa A está correta.

Os projetistas da arquitetura TCP/IP não viram necessidade das camadas de


apresentação e sessão, por isso, resolveram não as utilizar. Quando fosse necessário, a
camada de aplicação ficaria incumbida de incluir as funções que fossem necessárias.

35 / 38
6. A arquitetura TCP/IP tem foco principal na definição dos protocolos que devem ser
empregados em cada uma das camadas. O conjunto de protocolos empregados é
conhecido como pilha de protocolos e podemos dizer que:

a) O protocolo IP é empregado na camada de rede e oferece um serviço com


confiabilidade.

b) O protocolo TCP é empregado na camada de transporte e oferece um serviço com


confiabilidade.

c) O protocolo UDP é empregado na camada de rede e oferece o serviço de melhor


esforço.

d) O protocolo IP é empregado na camada de aplicação e oferece um serviço de


configuração automática de estações.

Comentário

Parabéns! A alternativa B está correta.

Os serviços oferecidos pela camada de enlace permitem que os erros ocorridos no meio
de transmissão sejam identificados e tratados, descartando o quadro com erro ou
identificando o bit errado e corrigindo-o.

36 / 38
Agora que terminamos este tema, é possível entender que a transmissão de dados é uma
tarefa complexa! Sem a organização das redes de computadores em camadas, a
evolução das redes teria sido mais restrita e, talvez, a internet não seria o que é hoje.

Com o modelo e a arquitetura estudados, sabemos identificar os elementos envolvidos e


compreender a função de cada camada no contexto geral da transmissão de dados.

CONTEUDISTA

Sérgio dos Santos Cardoso Silva

EXPLORE +

Acesse o site da International Telecommunication Union (ITU) e nas seções About ITU
e Standardization você poderá ver o papel da ITU como uma agência especializada da
ONU para telecomunicações e os grupos de desenvolvimento em novas tecnologias,
como: condução autônoma, inteligência artificial, IPTV e muitos outros.

Explore o modelo OSI X.200: Information technology - Open Systems Interconnection -


Basic Reference Model: The basic model ou procure pelo Publicly Available
Standards na International Organization for Standardization, que disponibiliza
gratuitamente a definição do modelo, apresentando o conceito de sistemas abertos e
como o modelo OSI foi projetado.

Leia sobre a história da internet na seção 1.3 do livro Redes de Computadores: Uma
Abordagem Top-Down, de Behrouz Forouzan e Firouz Mosharraf.

Busque a arquitetura IEEE 802 e conheça os principais padrões utilizados, como o IEEE
802.3 Ethernet Working Group (redes locais com cabo), IEEE 802.11 Wireless LAN Working
Group (WiFi) e IEEE 802.15 Wireless Personal Area Network (WPAN) e Working Group
(Bluetooth, entre outras redes pessoais).

Leia o capítulo 2 do livro Rede de Computadores e Internet, de D.E. Comer, de 2016, que
aborda as tendências da internet.

37 / 38
REFERÊNCIAS BIBLIOGRÁFICAS

CERF, V.; KAHN, R. A Protocol for Packet Network Intercommunication In: IEEE
Transactions on Communications, vol. 22, no. 5, pp. 637-648, May 1974.

FOROUZAN, Behrouz A. Comunicação de Dados e Redes de Computadores. 4. ed. Porto


Alegre: AMGH, 2010.

TANENBAUM, A. S.; WETHERALL, J. Redes de computadores. 5. ed. São Paulo: Pearson,


2011.

38 / 38
DEFINIÇÃO

Estudo das camadas de aplicação e transporte do modelo OSI, além da compreensão dos
serviços oferecidos por cada camada. Identificação da arquitetura utilizada no
desenvolvimento de aplicações, com destaque para as principais disponíveis na camada
da internet. Análise dos elementos de suporte dos serviços de transporte com e sem
conexão nesta camada.

PROPÓSITO

Compreender a influência de uma arquitetura no desenvolvimento de aplicações para


redes de computadores, bem como os impactos dos diferentes serviços oferecidos pela
camada de transporte no funcionamento delas.

OBJETIVOS

Módulo 1 Módulo 2 Módulo 3 Módulo 4

Reconhecer as Identificar os Localizar os Comparar os


arquiteturas de principais serviços elementos da serviços oferecidos
aplicações oferecidos pela camada de pela camada de
camada de transporte transporte
aplicação

1 / 58
CAMADA DE APLICAÇÃO

Atualmente, as redes de computadores estão presentes no cotidiano das pessoas,


permitindo a interação e a realização de diversas tarefas.

Em relação às redes de comunicação, você já ouviu falar no trabalho da camada de


aplicação?

NA PRÁTICA

Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.

Quando realizamos uma compra com cartão de crédito ou débito em um estabelecimento


comercial, é fundamental a existência de uma rede de comunicação, já que ela será o
alicerce para execução da operação.

2 / 58
Ao inseri-lo na máquina de cartão, precisamos colocar uma senha para confirmar a
operação. Tal dado é inserido no sistema por meio de um software executado nesta
máquina.

Em qual camada este software é executado?

Na camada de aplicação.

O software de aplicação, também conhecido como software aplicativo, é nossa interface


com o sistema (e, por consequência, com toda a rede de comunicação que suporta essa
operação). Portanto, sempre que houver um serviço na rede, virá à mente a interface com
ele.

Outros exemplos de softwares de aplicação:

3 / 58
Ressaltamos que a camada de aplicação é aquela de mais alto nível do modelo OSI*,
fazendo a interface com os usuários do sistema e realizando as tarefas que eles desejam.

*Modelo OSI: O modelo OSI (open system interconnection) foi criado pela International
Organization for Standardization (ISO) com o objetivo de ser um padrão para a construção
de redes de computadores. O OSI divide a rede em sete camadas: cada uma realiza
funções específicas implementadas pelo protocolo da camada. Desse modo, elas
prestam serviços para a camada superior.

ARQUITETURAS DE APLICAÇÕES

Façamos a seguinte suposição: nosso objetivo é desenvolver uma aplicação a ser


executada em rede. Para criá-la, deve-se utilizar uma linguagem de programação
que possua comandos e/ou funções para a comunicação em rede.

Na maioria das linguagens, esses


comandos e/ou funções estão em
bibliotecas nativas da linguagem ou
criadas por terceiros.

Mas não basta conhecer uma linguagem de programação e suas bibliotecas. Antes disso,
é preciso definir qual arquitetura terá sua aplicação. Entre as mais conhecidas, destacam-
se as seguintes:

Cliente-servidor Peer-to-peer (ou P2P)

4 / 58
Cliente-servidor

Nesta arquitetura, há pelo menos duas entidades: um cliente e um servidor. O servidor


executa operações continuamente aguardando por requisições daquele(s).

Modelo de arquitetura cliente-servidor

5 / 58
6 / 58
Servidor

 Quando chega uma solicitação, o servidor pode:


 Atender imediatamente caso esteja ocioso;
 Enfileirar a solicitação para ser atendida mais tarde;
 Gerar um processo-filho* para o atendimento da solicitação;
 Criar uma thread* para esse atendimento.

*Processo-filho: Um processo é um programa em execução que inclui sua região de


memória, os valores das variáveis e seu contexto de hardware. Um processo-filho é criado
quando determinado processo se duplica em memória e entrega à sua cópia (seu filho)
uma tarefa a ser executada.

*Thread: Linhas de execução independentes que executam concorrentemente dentro de


um processo. Quando funções são executadas como threads dentro dele, isso é feito de
forma concorrente, compartilhando objetos e variáveis.

Independentemente do momento em que uma solicitação é processada, o servidor, no


final, envia ao cliente uma mensagem contendo o resultado do processamento.

Quem utiliza este tipo de arquitetura é a aplicação web.

Vamos analisar esse processo no exemplo a seguir.

Você deseja fazer uma receita especial, descobrindo, em


um site, aquele prato que gostaria de preparar. Ao clicar
em um link, ela irá aparecer. Para isso acontecer, o
servidor web (software servidor do site de receitas) fica
aguardando as conexões dos clientes.

7 / 58
Quando você clica no link da receita, seu browser envia
uma mensagem ao servidor indicando qual delas você
quer.

Ele faz então o processamento solicitado e devolve ao browser o resultado disso


(sua receita).

É muito importante compreender, de maneira prática, o funcionamento do processamento


de resultados.

Atenção!

O que determina se uma entidade é cliente ou servidor é


a função desempenhada pelo software, e não o tipo de
equipamento.

8 / 58
É fundamental saber que...

Servidores desempenham O tipo de software


uma função muito instalado neste
importante; por isso, há equipamento é o
equipamentos responsável por
apropriados para eles, determinar se ele é
com MTBF* alto e cliente ou servidor.
recursos redundantes.

*MTBF: Do inglês mean time between failures (ou período médio entre falhas), esta sigla
indica o tempo esperado até que ocorra uma falha no dispositivo. Quanto maior o MTBF,
mais confiável um dispositivo é considerado.

Além disso, um processo pode atuar simultaneamente como cliente e servidor.

Voltemos ao exemplo da aplicação web :

Quando seu browser solicita a receita ao servidor web,


aquele está atuando como cliente e este, como servidor.

9 / 58
Mas esse processo nem sempre é simples; afinal, a
aplicação que executa no servidor web e realiza o
processamento solicitado pode precisar de uma
informação armazenada em um banco de dados externo.

Para obtê-la, este servidor deve enviar uma mensagem ao servidor de banco de
dados solicitando aqueles de que necessita para continuar. Neste momento, ele
atua como um cliente do servidor de banco de dados.

Peer- to- peer

Enquanto existe uma distinção bem clara entre os processos que trocam informações na
arquitetura cliente-servidor, na peer- to- peer* – também conhecida como arquitetura P2P
–, todos os processos envolvidos desempenham funções similares.

*Peer- to- peer: O termo peer surge do fato de os processos se comunicarem diretamente
sem a intervenção de servidores, promovendo uma comunicação par a par (peer-to-peer).

Em geral, nesses sistemas,


os processos não são uma
propriedade de
corporações. Quase todos
os participantes (senão
todos) são provenientes de
usuários comuns
executando seus
programas
em desktops e notebooks.

Tanto o processamento quanto o armazenamento das informações são


distribuídos entre os hospedeiros*. Isso lhes confere maior escalabilidade em
comparação à arquitetura cliente-servidor.

10 / 58
*Hospedeiro: Também conhecido como host, o hospedeiro é qualquer equipamento
conectado à rede capaz de trocar informações com outros equipamentos. Exemplos:
computadores, roteadores, impressoras de rede, smartphones etc.

Modelo de arquitetura peer- to- peer :

Na ordem, 1, 2 e 3, o fluxo de informações e como elas se organizam.

11 / 58
NA PRÁTICA

Vamos analisar os conceitos estudados na prática? Responda à questão a seguir.

Você conhece algum tipo de sistema de compartilhamento utilizado na internet? Em qual


tipo de arquitetura ele está fundamentado?

Ver Resposta

Uma aplicação amplamente utilizada na internet é o sistema de compartilhamento de


arquivos BitTorrent.

Baseado na arquitetura peer-to-peer, este sistema permite que seus usuários


compartilhem arquivos sem haver a necessidade de eles estarem armazenados em um
servidor.

12 / 58
VERIFICANDO O APRENDIZADO

1. Uma arquitetura amplamente utilizada no desenvolvimento de aplicações em rede é a


cliente-servidor. Sobre ela, responda:

a) Cabe ao servidor iniciar toda negociação com seus clientes.

b) Existe uma distinção bem clara entre clientes e servidores. Um processo não pode ser
cliente e servidor simultaneamente.

c) É a função desempenhada pelo software que determina se a entidade é cliente ou


servidor

d) Quando chega uma requisição de um cliente, o sistema operacional deve iniciar a


execução do servidor.

Comentário

Parabéns! A alternativa C está correta.

O que determina se a função desempenhada pela entidade é de cliente ou de servidor é


seu comportamento definido pelo algoritmo executado, ou seja, pelo software.

13 / 58
2. Marque a afirmativa verdadeira no que se refere à arquitetura peer-to-peer:

a) Permite uma forma de armazenamento distribuída desde as informações do sistema.

b) Cada processo na arquitetura desempenha uma função bem definida e diferente das
funções dos demais processos.

c) Um dos maiores problemas é sua baixa escalabilidade.

d) A comunicação entre os processos deve ser intermediada por um servidor.

Comentário

Parabéns! A alternativa A está correta.

Na arquitetura peer-to-peer, todas as entidades desempenham a mesma função,


possuindo igual capacidade de armazenamento das informações do sistema. Dessa
forma, uma informação procurada pode estar com qualquer um dos participantes da rede,
estando distribuída por todo o sistema.

14 / 58
PROTOCOLOS DA CAMADA DE APLICAÇÃO

Conforme estudamos, é na camada de aplicação que são executados os processos dos


usuários. Nos processos em que eles interagem, realiza-se o que seus usuários esperam.
Porém, para que uma aplicação possa trocar dados com outra, é necessário definir um
protocolo de aplicação.

Mas o que é um protocolo da camada de aplicação?

Um protocolo de camada de aplicação define como


processos de uma aplicação, que funcionam em
sistemas finais diferentes, passam mensagens entre si.
Em particular, um protocolo de camada de aplicação
define:

• Os tipos de mensagens trocadas, por exemplo, de


requisição e de resposta;
• A sintaxe dos vários tipos de mensagens, tais como
os campos da mensagem e como os campos são
delineados;
• A semântica dos campos, isto é, o significado da
informação nos campos;
• Regras para determinar quando e como um processo
envia e responde mensagens.

(KUROSE; ROSS, 2013)

15 / 58
Enquanto o algoritmo da camada de aplicação determina seu funcionamento no
ambiente local, o protocolo dela estipula tudo que é necessário para que aplicações
em diferentes hospedeiros possam trocar mensagens de maneira estruturada.

Os protocolos públicos da internet são especificados por RFCs*. Desse modo,


qualquer pessoa é capaz de acessar as especificações de tais protocolos e
implementar os próprios softwares.

*RFCs: Sigla originada do inglês request for comments. RFCs são documentos públicos
mantidos pela internet enginnering task force (IETF): um grupo internacional aberto cujo
objetivo é identificar e propor soluções para questões relacionadas à utilização da
internet, além de propor uma padronização das tecnologias e dos protocolos envolvidos.

Para que possamos compreender melhor o funcionamento das camadas de aplicação,


analisaremos aquela aplicada na internet; afinal, trata-se de uma rede de abrangência
mundial presente no dia a dia de milhões de pessoas.

CAMADAS DE APLICAÇÃO NA INTERNET

Descreveremos a seguir o funcionamento de três importantes aplicações das camadas


de aplicação na internet:

16 / 58
HTTP (SERVIÇO WEB)

Definido pelas RFCs 1945 e 2616, o HTTP (hypertext transfer protocol) é o protocolo
padrão para transferência de páginas web na internet.

17 / 58
Em 1991, a web foi idealizada no CERN* como uma forma de fazer com que grupos de
cientistas de diferentes nacionalidades pudessem colaborar por meio da troca de
informações baseadas em hipertextos*. Em dezembro daquele ano, foi realizada uma
demonstração pública na conferência Hypertext 91*.

*CERN: Sigla originada do inglês European Organization for Nuclear Research (em
português, Organização Europeia para a Pesquisa Nuclear). Trata-se de um laboratório de
física de partículas localizado em Meuyrin, que fica na fronteira franco-suíça.

*Hipertextos: Documentos construídos com o objetivo de possuir alguns objetos, como


palavras, imagens etc. Quando acionados – geralmente, com um clique do mouse –, eles
buscam outros documentos que podem (ou não) ser hipertextos.

*Hypertext 91: “A conferência sobre hipertexto e hipermídia reúne acadêmicos,


pesquisadores e profissionais de diversas disciplinas para considerar a forma, o papel e o
impacto do hipertexto e da hipermídia em um fórum de discussão de ideias, design e uso
de hipertexto e hipermídia em vários domínios. A conferência também considera o poder
transformador da hipermídia e sua capacidade de alterar a maneira como lemos,
escrevemos, argumentamos, trabalhamos, trocamos informações e nos divertimos.”

(ACM HYPERTEXT 91 CONFERENCE, 1991, tradução nossa)

Como esse protocolo é constituído?

Etapa 1

Uma página web típica é um documento em formato HTML* que pode conter imagens e
outros tipos de objetos, como vídeos, texto, som etc.

*HTML: Linguagem utilizada na construção de páginas web. Um documento HTML


possui uma série de marcadores utilizados para definir o formato a ser empregado na
apresentação da página web ao usuário.

Para exibir determinada página web, o usuário digita no browser o endereço no qual ela
se encontra (ou clica em um hiperlink para esta página), indicando o local em que deve
ser buscada. Para que uma página seja transferida do servidor até o browser, um
padrão deve ser seguido pelos softwares (cliente e servidor). Ele especifica como o
cliente solicita a página e o servidor a transfere para o cliente.

18 / 58
Etapa 2

Esse padrão é o protocolo HTTP. A mensagem HTTP, por sua vez, é carregada pelo por
outro protocolo: TCP*.

*TCP: Abreviação de transmission control protocol (TCP), trata-se do protocolo de nível


de transporte confiável que garante a entrega dos dados da mensagem livre de erros no
destino.

Uma interação entre cliente e servidor se inicia quando ele envia uma requisição a um
servidor. A solicitação mais comum consiste em:

• Enviar um texto em formato ASCII*;


• Iniciar com a palavra GET;
• Inserir página solicitada, protocolo utilizado na transferência e servidor a ser
contatado.

*ASCII: Do inglês american standard code for information interchange (código padrão
americano para o intercâmbio de informação), esta sigla trata de um código binário que
codifica um conjunto de 128 símbolos, incluindo:

• Sinais gráficos;
• Letras do alfabeto latino;
• Sinais de pontuação;
• Sinais matemáticos;
• Sinais de controle.

NA PRÁTICA

Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.

Para solicitar a página web da Organização das Nações Unidas utilizando o protocolo
HTTP, o browser estabelece uma conexão TCP com o servidor web situado no endereço
www.un.org e lhe envia a seguinte solicitação:

19 / 58
Como esse processo é organizado?

Ao receber a solicitação, o servidor busca a página web solicitada, a transfere para o


cliente e, após confirmada a entrega, encerra a conexão.

Como o HTTP utiliza o TCP, não é necessário se preocupar com questões de


confiabilidade na entrega dos dados. Ele é um protocolo em constante evolução, havendo
atualmente várias versões em uso. Por isso, o cliente deve informar a versão do protocolo
a ser usado quando solicita uma página web.

20 / 58
CORREIO ELETRÔNICO (E-MAIL)

Trouxemos um exemplo para esclarecer essa questão:

Os primeiros sistemas de correio


eletrônico foram concebidos como
um simples sistema voltado para a
troca de arquivos. O destinatário da
mensagem era especificado na
primeira linha do texto.

Bastava então que o sistema


procurasse ali para quem a
mensagem deveria ser entregue.
Porém, com o passar do tempo,
surgiram novas necessidades que
dificilmente eram atendidas por ele.

Em 1982, ainda na era


da ARPANET*, foram publicadas as
RFCs 821 e 822, definindo,
respectivamente, o protocolo de
transmissão a ser utilizado e o
formato da mensagem. Entretanto,
apesar de ambas resolverem o
problema inicial a que se
propunham, elas especificavam que
todo o texto deveria ser composto
pelo código ASCII.

*ARPANET: Precursora da internet, ela foi a primeira rede a implementar o conjunto de


protocolos TCP/IP.

Tal restrição precisava ser resolvida para ser possível o envio de mensagens:

21 / 58
Essa estratégia fez com que tais mensagens pudessem ser enviadas graças à
utilização de protocolos e programas de correio eletrônico existentes, existindo
somente a necessidade de alterar os programas de envio e recebimento.
Atualmente, o protocolo de transmissão simple mail transfer protocol (SMTP) é
definido pela RFC 5321 , enquanto o formato da mensagem o é pela RFC 5322.

Como é construída a arquitetura do correio


eletrônico?

A arquitetura do sistema de correio eletrônico é


construída com base em dois agentes:

1. Do usuário;
2. De transferência de mensagens.

O agente do usuário é o programa que faz a interface do usuário com o sistema de


correio eletrônico.

É por meio dele que o usuário:

22 / 58
Mostraremos a seguir alguns desses programas:

Já os agentes de transferência de mensagens são os responsáveis por fazer com que


elas cheguem até o destino. Eles são mais conhecidos como servidores de correio
eletrônico.

23 / 58
Para entendermos melhor o assunto, analisaremos a seguir a comunicação entre Orlando
e Maria. Esse caso explicita uma arquitetura do sistema de correio eletrônico:

1 2 3 4

Orlando deseja A mensagem é No destino, tal agente Quando Maria


enviar uma enviada do agente armazena as deseja ler suas
mensagem para do usuário de mensagens que mensagens, o
Maria. Após a Orlando até chegam em um local agente do usuário
compor em seu agente de conhecido dela se liga a seu
seu agente do transferência de como caixa de agente de
usuário, ele solicita mensagens, que a mensagens (mailbox), transferência de
seu envio para ela. recebe, a analisa e, cujo cada usuário do mensagens e
em seguida, a sistema possui uma verifica quais estão
encaminha ao caixa própria. armazenadas em
agente de Maria. sua caixa de
mensagens.

24 / 58
Para concluirmos esse estudo, analisaremos importantes características dos protocolos
apresentados:

SMTP

O protocolo responsável pela transferência da mensagem até seu destino é o SMTP.


Definido pela RFC 5321, ele utiliza o protocolo de transporte TCP, obtendo, assim, a
garantia de que ela será entregue no destino sem erros.

O servidor SMTP aguarda por conexões de seus clientes. Quando uma conexão é
estabelecida, o servidor inicia a conversação enviando uma linha de texto na qual se
identifica e informa se está pronto (ou não) para receber mensagens. Se ele não estiver,
o cliente deverá encerrar a conexão e tentar novamente mais tarde.

Caso o servidor esteja acessível, o cliente precisa informar aos usuários a origem e o
destino da mensagem. Se o servidor considerar que se trata de uma transferência
válida, sinalizará para que ele a envie. Após o envio, o servidor confirma sua recepção e
a conexão é encerrada.

Exemplo:
Retomando o caso da comunicação anterior, podemos ver, na sequência apresentada
adiante, a conversação entre cliente e servidor para estabelecer a transferência da
mensagem de orlando@origem.net para maria@destino.net:

220 Protegido* SMTP server


hello rayra.origem.net
250 Hello rayra.origem.net, pleased to meet you
mail from:
250 ... Sender ok
rcpt to: < maria@destino.net >
250 < maria@destino.net >... Recipient ok
data
354 Please start mail input.
subject: Teste de email
Primeira linha da mensagem de teste.
Segunda linha.
Quarta linha.
.
250 Mail queued for delivery.

*Protegido: “Protegido” é a identificação do servidor que recebe a mensagem;


“rayra.origem.net”, o nome do hospedeiro que a envia.

25 / 58
Entrega final

Quando uma mensagem chega ao servidor do destinatário, ela deve ser armazenada em
algum local para que possa ser acessada mais tarde (assim que o destinatário
estiver on-line). Este local é a caixa de mensagens.

Como o SMTP é responsável somente pela entrega da mensagem no servidor destino,


isso requer a utilização de outro protocolo de modo que o cliente possa buscar suas
mensagens no mailbox.

POP3

A RFC 1939 estipula que o POP3 (post office protocol version 3) tem a finalidade de
fazer o download das mensagens que se encontram no mailbox do usuário para o
sistema local. Caso estejam neste sistema, ele pode utilizá-las em qualquer momento,
mesmo sem ter conexão com a internet.

O POP3 é implementado na maioria dos agentes de usuário. Basta configurar os


parâmetros de conta e senha do usuário para que o agente faça o download das
mensagens. Ele permite o download seletivo delas, assim como apagar as selecionadas
no servidor.

IMAP

Assim como o POP3, o IMAP (internet message access protocol) permite que um
usuário tenha acesso às mensagens armazenadas em sua caixa. Porém, enquanto o
POP3 é baseado na transferência delas para o sistema local a fim de serem lidas, o
IMAP consegue permitir sua leitura diretamente no servidor, dispensando, portanto, a
transferência para o sistema local.

Isso será particularmente útil para usuários que não utilizarem sempre o mesmo
computador, pois isso permite que suas mensagens possam ser acessadas a partir de
qualquer sistema. Definido pela RFC 3501, o IMAP também fornece mecanismos para
criar, excluir e manipular várias caixas de correio no servidor.

26 / 58
Atenção!

Um webmail não é um protocolo, mas uma forma


oferecida por alguns sites da web a fim de que os
usuários possam ler suas mensagens de correio
eletrônico.

Para usar o sistema, o usuário abre uma página web, na


qual entra com uma identificação e uma senha. A partir
desse momento, ele tem acesso imediato às suas
mensagens (de forma parecida com a de um cliente
IMAP).

DNS

A comunicação entre hospedeiros na internet ocorre por meio de endereços binários de


rede. Afinal, para se comunicar com um destino, o hospedeiro precisa conhecer seu
endereço.

Entretanto, é bem mais fácil trabalhar com nomes de hospedeiros do que com seus
endereços de rede. Além de ser muito difícil conhecer todos os endereços dos
hospedeiros com os quais precisamos trabalhar, precisaríamos ser notificados toda vez
que algum deles mudasse de endereço.

Para resolver esse problema, foi desenvolvido o domain name system (DNS). Sua
finalidade é a criação de um sistema de nomes de forma hierárquica e baseada em

27 / 58
domínios. Para acessar um hospedeiro, portanto, basta conhecer seu nome de domínio e
fazer uma consulta ao servidor DNS, que é responsável por descobrir seu endereço.

Quais são os serviços oferecidos por ele?

Além do mapeamento de nomes de hospedeiros em


endereços IP, o DNS ainda provê:

• Identificação de servidores de correios eletrônicos;


• Apelidos para hospedeiros;
• Distribuição de carga;
• Descoberta de nomes de hospedeiros (mapeamento
reverso).

Destacaremos a seguir importantes aspectos do DNS.

Espaço de nomes

O espaço de nomes do DNS é dividido em domínios estruturados em níveis. Confira a


organização do primeiro nível:

Os domínios genéricos informam o tipo de organização ao qual o domínio está vinculado.


Alguns exemplos são:

• .com = comercial;
• .edu = instituições educacionais;
• .int = algumas organizações internacionais;
• .org = organizações sem fins lucrativos.

Os domínios de países, por sua vez, possuem uma entrada para cada país. Alguns
exemplos são:

28 / 58
• .br = Brasil;
• .pt = Portugal;
• .jp = Japão;
• .ar = Argentina.

Cada domínio tem seu nome definido pelo caminho entre ele e a raiz, enquanto
seus componentes são separados por pontos.

Cada domínio controla como são criados seus subdomínios. Para a criação de um novo
domínio, é necessária apenas a permissão daquele no qual será incluído.

Não há qualquer restrição sobre a quantidade de subdomínios que podem ser criados
dentro de um domínio. Os nomes de domínio não fazem distinção entre letras maiúsculas
e minúsculas.

EDU e edu, por exemplo, são o mesmo.

Os nomes de componentes podem ter até 63 caracteres, enquanto os de caminhos


completos não podem ultrapassar os 255.

O DNS é implementado sobre o protocolo UDP (user datagram protocol). Trata-se de um


protocolo do nível de transporte que não garante a entrega dos dados no destino. Dessa
forma, cabe ao software DNS garantir uma comunicação confiável.

29 / 58
Resolução de nomes

O espaço de nomes do DNS é dividido em zonas. Independentes, elas possuem um


servidor de nomes principal e pelo menos um de nomes secundário:

• Servidor de nomes principal: Configurado com as informações das zonas sob sua
responsabilidade, ele faz o repasse delas para os servidores de nome secundários;
• Servidor de nomes secundário: Responde pelas zonas caso haja uma falha do
servidor de nomes principal.

As zonas do DNS definem o que um servidor deve resolver. Se ele for o responsável pela
zona pesquisada (servidor autoritativo), deverá fazer a resolução solicitada.

Três principais componentes do DNS:

1. Registros de recursos armazenados em um banco de dados distribuído;

2. Servidores de nomes DNS responsáveis pela manutenção de zonas específicas;

3. Solucionadores DNS em execução nos clientes.

Solucionador X servidor DNS.


Quando um solucionador solicita a resolução de um nome para o servidor DNS, pode
acontecer o seguinte:

1. O servidor DNS é o responsável pela zona: O servidor resolve o nome solicitado e


o devolve ao solucionador;

2. O servidor DNS não é o responsável pela zona, mas possui a resolução em cache:
O servidor envia a resolução ao solucionador;

3. O servidor DNS não é o responsável pela zona nem possui a resolução em cache:
O servidor precisa realizar uma busca para resolver o nome.

Vamos entender como é feita a busca para a resolução do nome www.sus.gov.br:

30 / 58
A: Quando a aplicação do cliente solicita a resolução do nome www.sus.gov.br, o
solucionador envia a requisição para o servidor de nomes local, que é o responsável por tratá-la
até obter a resposta completa. Desse modo, ele não retorna respostas parciais para o
solucionador. A este tipo de consulta damos o nome de consulta recursiva.

B: No entanto, para obter a resposta completa, o servidor de nomes precisa realizar uma série
de iterações com outros servidores. Caso nenhuma informação parcial esteja em seu cache, o
servidor local primeiramente precisa descobrir quem é o servidor responsável por resolver o
domínio br.

C: Para isso, ele consulta um servidor de nomes raiz, que indica onde o servidor DNS de “br”
pode ser encontrado. O servidor local continua realizando consultas para resolver cada domínio
parcial até que haja uma resolução completa. Este tipo de consulta é conhecido como consulta
iterativa.

O excesso de consultas em um servidor DNS pode levar à sobrecarga.

Como evitar esse tipo de problema?


Os servidores devem evitar responder consultas recursivas de clientes não autorizados.
Para isso, os administradores de servidores DNS precisam configurar no servidor
aqueles autorizados a realizar consultas recursivas. Dessa forma, se houver a consulta
de um que não esteja, ela automaticamente será negada.

31 / 58
VERIFICANDO O APRENDIZADO

1. Cabe ao protocolo da camada de aplicação definir como funcionam os processos de


uma aplicação. Nesse sentido, não é função dele definir:

a) Os tipos de mensagens trocadas.

b) O significado de cada campo do protocolo.

c) Quando um processo pode enviar e responder mensagens.

d) O endereço de rede do servidor.

Comentário

Parabéns! A alternativa D está correta.

Servidores de aplicações podem estar espalhados por todo o mundo, cada um deles com
o próprio endereço. Dessa forma, o protocolo da camada de aplicação não pode
determinar em qual endereço de rede o servidor está localizado.

2. Um sistema de correio eletrônico é um exemplo de sistema implementado com base


em uma série de protocolos. Dentre os protocolos a seguir, selecione o único que não é
utilizado pelos sistemas de correio eletrônico:

a) HTTP

b) SMTP

c) POP3

d) IMAP

Comentário

Parabéns! A alternativa A está correta.

O HTTP é o protocolo utilizado para transferência de páginas web. Ele não é usado como
protocolo de correio eletrônico.

32 / 58
CAMADA DE TRANSPORTE

Graças a essa abordagem, podemos compreender os conceitos do protocolo TPC/IP, bem


como os exemplos práticos aplicados na camada de transporte. Além disso, percebemos
a importância da interface para esta camada.

Mas para que serve a camada de transporte?

Executadas na camada de aplicação, as aplicações precisam de um modelo de rede no


qual haja a entrega de uma mensagem (ou um fluxo de dados) tanto em um ponto de rede
quanto em sua aplicação par no hospedeiro destino.

O objetivo da camada de transporte é, independentemente das redes físicas em


uso, promover a confiabilidade na transferência de dados entre os hospedeiros
origem e destino.

Como veremos no decorrer do nosso estudo, esta camada deve oferecer um serviço de
transferência confiável, embora caiba à aplicação decidir sobre o seu uso.

SERVIÇO DE TRANSPORTE

Em uma arquitetura de camadas, podemos afirmar que o objetivo geral de uma camada é
oferecer serviços àquela imediatamente superior. No caso da camada de transporte, sua
pretensão é oferecê-los à de aplicação.

33 / 58
Atenção!

Lembre-se de que, em nosso estudo, estamos


considerando a arquitetura TCP/IP, na qual não existem as
camadas de sessão e de apresentação.

Como um dos principais objetivos da camada de transporte é ofertar um serviço confiável


e eficiente a seus usuários, ela precisa oferecer, no mínimo, um serviço orientado à
conexão e outro sem conexão.

Para atingir esse objetivo, a camada de transporte utiliza os serviços oferecidos pela de
rede. No serviço de transporte orientado à conexão (serviço confiável), existem três
fases:

Por meio de um controle apurado da Já no serviço de transporte sem conexão,


conexão, esse serviço de transporte não existe nenhum controle sobre os
consegue verificar quais pacotes pacotes enviados. Se um deles se perder
chegaram com erro ao destino e até ou chegar ao destino com erro, nada será
mesmo aqueles que não foram enviados, feito para obter a sua recuperação.
sendo capaz de retransmiti-los até que os
dados estejam corretos.

Se a rede oferece um serviço com que garanta uma entrega sem erros, por que uma
aplicação optaria por um serviço sem essa garantia?

A resposta é simples: por questões de desempenho.

34 / 58
Pelo fato de ser preciso cuidar de cada pacote no serviço orientado à conexão,
verificando-os e retransmitindo-os em caso de necessidade, esse controle gera
um overhead*. Como nada disso é feito no serviço sem conexão, os pacotes são
entregues no destino de forma mais simples e rápida.

*Overhead: Termo em inglês utilizado com frequência em computação para indicar uma
sobrecarga no sistema. No caso do serviço orientado à conexão, o overhead ocorre
graças ao processamento extra necessário para a verificação dos dados e uma eventual
retransmissão.

Aplicações como transferência de arquivos e e-mail exigem


que seus dados cheguem ao destino livres de erros. Dessa
forma, elas utilizam um serviço orientado à conexão.

Ainda assim, em certas aplicações, o mais importante é


a chegada a tempo de uma informação, mesmo que ela
contenha erros ou que a mensagem anterior tenha se
perdido.

No serviço de telefonia em rede, por exemplo, o atraso na


transmissão tem um efeito pior que um pequeno ruído
causado pela eventual perda de pacote.

Endereçamento

Quando seu programa solicita algo a um servidor, o sistema envia uma mensagem para
ser entregue à aplicação que executa em um hospedeiro remoto. Mas podem existir
várias aplicações nele.

Como identificamos uma aplicação específica?

Surge neste momento o endereçamento no nível de transporte. Sua função é identificar


em qual aplicação determinada mensagem deve ser entregue. Afinal, toda mensagem do
protocolo de transporte carrega o endereço da aplicação.

Verificaremos agora a importância do endereçamento no nível de transporte. Afinal,


é necessário indicar em qual aplicação os dados devem ser entregues por meio de
seu endereço (de transporte). Assim, o hospedeiro destino consegue saber o
destino deles.

Estudaremos mais adiante TCP e UDP, dois protocolos da camada de transporte da


arquitetura TCP/IP. Neles, o endereço de transporte é conhecido como porta.

35 / 58
1 2

Como a aplicação do hospedeiro 1 sabe Neste modelo, os serviços


em que endereço de transporte se possuem endereços estáveis que podem
encontra o servidor no 2? Uma ser impressos e distribuídos aos novos
possibilidade é que: usuários quando eles se associam à rede.

• Ele esteja associado ao endereço há


anos;
• Aos poucos, todos os usuários da rede
tenham se acostumado com isso.

Servidor de nomes ou de diretórios

Um esquema alternativo é utilizar um processo especial


denominado servidor de nomes (name server) ou, às
vezes, servidor de diretórios (directory server). Para
localizar o endereço de transporte correspondente a
determinado nome de serviço, uma aplicação estabelece
uma conexão com o servidor de nomes. Em seguida, envia
uma mensagem especificando o nome do serviço,
enquanto o servidor de nomes retorna o endereço.

36 / 58
Multiplexação e demultiplexação

A multiplexação e a demultiplexação fornecem um serviço de entrega processo a


processo para aplicações executadas nos hospedeiros.

No hospedeiro destino, a camada de transporte recebe segmentos* de dados da camada


de rede, tendo a responsabilidade de entregá-los ao processo de aplicação correto.

*Segmentos: Cada camada do modelo de rede denomina os dados trocados com o


hospedeiro remoto de uma forma diferente das demais camadas. Segmento é o nome da
mensagem trocada entre duas entidades de transporte tanto no modelo OSI quanto na
arquitetura TCP/IP.

Exemplo: a camada de rede chama suas mensagens de pacotes. Já a de enlace de dados


as nomeia como quadros.

Um processo pode ter um ou mais endereços de transporte (conhecidos como


portas na arquitetura TCP/IP) pelos quais dados passam da rede para o processo –
e vice-versa.

Desse modo, a camada de transporte do hospedeiro destino os entrega


diretamente a uma porta.

Como o hospedeiro destino direciona à porta correta um segmento que


chega?

Para essa finalidade, cada segmento da camada de transporte tem um conjunto de


campos de endereçamento no cabeçalho. No receptor, a camada de transporte examina

37 / 58
esses campos para identificar a porta receptora e direcionar o segmento a ela. A tarefa de
entregar os dados contidos em um segmento para a porta correta é
denominada demultiplexação.

Já a multiplexação consiste no trabalho de, no hospedeiro


origem:

• Reunir porções de dados provenientes de diferentes


portas;
• Encapsular cada porção de dados com as informações
de cabeçalho (as quais, mais tarde, serão usadas na
demultiplexação) para criar segmentos;
• Passar os segmentos para a camada de rede.

Vamos pensar no computador que Eduardo utiliza em suas atividades.

Navegando na web, ele acessa seu e-mail e faz


o download de arquivos usando um programa
específico para isso.

De fato, o objetivo da multiplexação


é possibilitar uma melhor utilização do meio de
comunicação ao permitir que ele seja compartilhado
pelos diversos programas utilizados.

Eduardo utiliza a internet, cujo protocolo de


transporte é o TCP.

Todos os programas operados por ele (browser


web, cliente de e-mail e programa de
transferência de arquivos) utilizam o TCP, que
fará a transferência da informação até o destino.

A multiplexação, portanto, permite que vários


programas possam utilizar o TCP ao mesmo tempo,
fazendo, assim, com que Eduardo possa ter tantos
programas quanto queira ao acessar a rede.

38 / 58
Como o TCP sabe quem é quem?

Para fazer uso dele, um processo deve se registrar em uma porta (endereço de
transporte) do protocolo TCP. Servidores possuem portas conhecidas, mas programas
clientes se registram nas aleatórias.

Vamos supor que os programas de Eduardo se registraram nas seguintes portas:

Browser web = 11278


Cliente de e-mail = 25786
Transferência de arquivos = 3709

Dessa maneira, o TCP pode identificar cada uma. Quando o browser envia uma solicitação
a um servidor web, o TCP coloca na informação enviada o número de porta 11278. O
servidor, portanto, já sabe que deve responder-lhe enviando a resposta para esta porta.

Observemos, por fim, a multiplexação e a demultiplexação na prática:

Multiplexação Demultiplexação

Ao receber mensagens das Quando recebe as mensagens do


aplicações para envio, o protocolo hospedeiro remoto para entregá-las em
de transporte as identifica por cada aplicação, o protocolo de
seus respectivos números de transporte verifica o número da porta
porta, permitindo, assim, que destino que a mensagem carrega e a
várias aplicações possam utilizá- entrega para o processo registrado nela.
los ao mesmo tempo.

39 / 58
VERIFICANDO O APRENDIZADO

1. Para qual das aplicações a seguir é recomendado o uso de um serviço de transporte


sem conexão?

a) Telefonia

b) Correio eletrônico

c) Serviço web

d) Transferência de arquivos

Comentário

Parabéns! A alternativa A está correta.

No serviço de telefonia, uma eventual tentativa de correção de erros provocaria atraso na


chegada da fala de uma pessoa em seu destino. Atrasos são muito prejudiciais neste tipo
de serviço, pois os interlocutores se confundem quando ocorrem defasagens entre a
transmissão e a recepção da mensagem.

40 / 58
2. O endereçamento no nível de transporte é importante para a realização de:

a) Identificação do hospedeiro

b) Correção de erros

c) Encerramento da conexão

d) Demultiplexação

Comentário

Parabéns! A alternativa D está correta.

Como a camada de transporte precisa identificar a qual dos processos da camada de


aplicação ela deve entregar os dados que chegam, são definidos campos de
endereçamento de transporte para a identificação desses processos. Dá-se o nome de
demultiplexação à identificação e ao envio de informações para o processo correto.

41 / 58
PROTOCOLOS DE TRANSPORTE DA INTERNET

Agora que já estudamos os serviços que um protocolo de transporte deve oferecer,


apresentaremos casos reais de protocolos utilizados em redes de computadores. Para
isso, vamos utilizar como exemplo os protocolos de transporte da internet: TCP e UDP.

Iniciaremos nosso estudo pelo UDP. Mesmo sendo um protocolo simples, ele se revela
bastante eficiente, principalmente no quesito agilidade de entrega, quando a aplicação
requer uma entrega rápida.

Em seguida, nos
debruçaremos sobre o TCP.
Protocolo de transporte Por fim, apontaremos
completo, ele é capaz de alguns exemplos de portas,
garantir a entrega de um mecanismo que permite
mensagens livres de erros, que as aplicações serem
não importando a qualidade encontradas pela internet.
da rede em que ele
trabalha.

UDP

O protocolo de transporte mais simples que poderia existir seria aquele que, no envio, se
limitasse a receber mensagens da camada de aplicação e as entregasse diretamente na
de rede. Na recepção, ele, por outro lado, receberia os pacotes da camada de rede e os
entregaria na de aplicação. Este tipo de protocolo, em suma, não efetua nenhum trabalho
para garantir a entrega das mensagens. Felizmente, o UDP não se limita a isso.

42 / 58
Atenção!

O UDP é um protocolo rápido na entrega das mensagens


no destino, realizando a multiplexação e demultiplexação;
além disso, ele oferece um mecanismo de verificação de
erros nessa entrega.

Um processo pode ter um ou mais endereços de transporte (conhecidos como


portas na arquitetura TCP/IP) pelos quais dados passam da rede para o processo –
e vice-versa.

Desse modo, a camada de transporte do hospedeiro destino os entrega diretamente a


uma porta.

A figura a seguir ilustra os campos do cabeçalho de um segmento UDP:

Os campos porta origem e porta destino têm a função de identificar os processos nas
máquinas origem e destino. Quando uma aplicação A deseja enviar dados para uma B, o
UDP coloca o número da porta da aplicação origem (A) no campo “porta origem” e o de
porta da aplicação (B) em “porta destino”.

Quando a mensagem chega ao destino, o UDP pode entregá-la para a aplicação


correta por meio do campo “porta destino”. Já a “porta origem” é importante para a
aplicação que recebe a mensagem, pois ela torna possível saber o número da porta
para a qual a resposta deve ser enviada. É por meio desses campos que o UDP
realiza a multiplexação e a demultiplexação.

O campo tamanho especifica o tamanho do segmento, incluindo o cabeçalho. Como se


trata de um campo de 16 bits, isso significa que o maior segmento UDP será de:

43 / 58
216 = 65.536 bytes (64 KBytes)

O campo soma de verificação tem a função de garantir que a mensagem chegue ao


destino livre de erros. Para tanto, o UDP calcula o CRC* dela e o envia neste campo. No
destino, o CRC é novamente calculado e comparado. Se ambos forem iguais, a mensagem
é considerada livre de erros e entregue na aplicação destino.

*CRC: Sigla que vem do inglês cyclic redundancy check, ela constitui um método de
detecção de erros utilizado por sistemas computacionais. Calcula-se nele o hash de uma
mensagem a ser anexado a seu final. No destino, um novo hash é calculado e comparado
com o recebido. Se eles forem iguais, assume-se que a transmissão ocorreu sem erros.

O hash é uma função matemática muito utilizada na criptografia. Ao fazer o


processamento de dados de tamanho arbitrário, ele sempre gera uma saída de tamanho
fixo para comparação.

Saiba mais

Para saber mais sobre CRC e hash, consulte,


respectivamente, os capítulos 5.2.3 e 8.3.1 da obra de
Kurose e Ross (2013).

Caso haja alguma divergência no valor do CRC, o segmento normalmente é descartado,


porém algumas implementações permitem – acompanhadas de uma mensagem de aviso
– a entrega dele com erro.

O UDP é um protocolo sem estado* e não orientado à conexão. Descrito pela RFC 768, ele
é projetado tanto para pequenas transmissões de dados quanto para aqueles que não
requerem um mecanismo de transporte confiável.

Apesar de o UDP não oferecer uma confiabilidade nas transmissões, isso não significa
que aplicações que o utilizam não possam ter uma garantia de entrega.

*Protocolo sem estado: Protocolo que não leva em consideração o que foi realizado no
passado. Ele, portanto, trata toda requisição como algo isolado, sem qualquer relação
com requisições passadas ou futuras.

44 / 58
Atenção!

Cabe ao programador cuidar dessa garantia no código da


própria aplicação.

Protocolos de aplicações que utilizam o UDP:

DNS

SNMP

TFTP

RPC

TCP

Enquanto o UDP é um protocolo de transporte simples, voltado para aplicações que não
necessitam de confiabilidade na transmissão, o TCP é um orientado à conexão, sendo
indicado para aplicações que precisam trocar uma grande quantidade de dados por meio
de uma rede com múltiplos roteadores.

O TCP oferece um fluxo de bytes fim a fim confiável,


podendo ser utilizado, inclusive, em redes de baixa
confiabilidade. Na transmissão, ele aceita fluxos de dados
da aplicação: dividindo-os em partes de, no máximo,
64 KBytes, ele envia cada uma em um datagrama
IP* distinto. Quando os datagramas IP com dados TCP
chegam ao hospedeiro destino, eles são, em seguida,
enviados à entidade TCP, que restaura o fluxo de dados
original.

45 / 58
*Datagrama IP: Também conhecido como “pacote”, um datagrama é uma porção de
dados trocada por protocolos da camada de rede. Ele contém dados e informações de
cabeçalho suficientes para que eles possam seguir seu caminho até o hospedeiro
destino.

A camada de rede (protocolo IP) não oferece nenhuma garantia de que os datagramas
serão entregues corretamente. Portanto, cabe ao TCP administrar os temporizadores e
retransmitir os datagramas sempre que for necessário.

Os datagramas também podem chegar fora de ordem, cabendo a ele reorganizá-los em


mensagens na sequência correta. O TCP deve fornecer a confiabilidade que o IP não
oferece.

O TCP é definido pelas seguintes RFCs:

793 2018 1122 2581 1323

Para concluirmos nossa última etapa de estudos, precisamos entender três aspectos
fundamentais da TCP:

Modelo de serviço TCP

O serviço TCP é obtido quando tanto o transmissor quanto o receptor criam pontos
terminais; denominados portas, eles são identificados por um número de 16 bits. É
necessário que uma conexão seja explicitamente estabelecida entre um hospedeiro
transmissor e um receptor.

46 / 58
Todas as conexões TCP são:

Full- duplex Ponto a ponto

Dados podem ser enviados e Interliga diretamente dois hospedeiros,


recebidos por ela simultaneamente. não permitindo a participação de um
Uma linha telefônica é um exemplo terceiro na conversação. Exemplo:
de sistema full-duplex, pois permite quando ligamos um smartphone a um
que dois interlocutores falem de computador por meio de seu cabo de
forma simultânea. O walkie-talkie, no dados, ocorre uma ligação ponto a
entanto, é diferente: como tal ponto, pois somente eles podem utilizar
equipamento está no modo de esse meio (cabo de dados) para a troca
transmissão ou no de recepção, ele de informações.
nunca consegue transmitir e receber
ao mesmo tempo.

Do ponto de vista da aplicação, uma conexão consiste em dois fluxos independentes de


direções opostas. Uma conexão TCP é um fluxo de dados, e não de mensagens. Isso
significa que as fronteiras das mensagens não são preservadas de uma extremidade à
outra. Quando uma aplicação passa dados para a entidade TCP, ela pode enviá-los
imediatamente ou armazená-los em um buffer* de acordo com suas necessidades.

*Buffer: Área de memória temporária em que os dados são armazenados, aguardando o


momento de serem transmitidos.

As entidades TCP transmissoras e receptoras trocam dados na forma de segmentos. Um


segmento consiste em um cabeçalho fixo de 20 bytes mais uma parte opcional, seguido
de zero ou mais bytes de dados. O software TCP decide qual deve ser o tamanho dos
segmentos, podendo:

47 / 58
Atenção!

Cada segmento não pode ser superior à quantidade


máxima de dados que um datagrama do protocolo IP é
capaz de carregar.

O protocolo básico utilizado pelas entidades TCP é o de janela deslizante*. Quando envia
um segmento, o transmissor dispara um temporizador. Assim que ele chega ao destino, a
entidade TCP receptora retorna um segmento (com ou sem dados segundo as
circunstâncias) com um número de confirmação igual ao próximo número de sequência
que ela espera receber. Se o temporizador do transmissor expirar antes de a confirmação
ser recebida, o segmento será retransmitido.

*Janela deslizante: Para aumentar a eficiência da transmissão, foram elaborados


protocolos que permitem o envio de vários segmentos de dados mesmo sem a
confirmação daqueles enviados anteriormente. O número máximo de dados que podem
ser enviados sem que tenha chegado uma confirmação define o tamanho da janela de
transmissão.

Conforme eles vão sendo confirmados, o ponto inicial da janela de transmissão desloca-
se no sentido do fluxo de dados; por isso, ela é conhecida como “janela deslizante”.
Protocolos que utilizam a janela de transmissão para o envio de dados são conhecidos
como protocolos de janela deslizante.

Saiba mais

Para saber mais sobre janela deslizante, leia o capítulo


3.4.3 da obra de Kurose e Ross (2013).

Dessa forma, caso um segmento chegue ao destino e apresente erro em sua soma de
verificação, o TCP simplesmente o descarta. Como não haverá confirmação de

48 / 58
recebimento neste caso, a entidade TCP do transmissor entenderá que o segmento não
chegou ao destino e providenciará sua retransmissão.

CABEÇALHO DE SEGMENTO TCP

Cada segmento TCP começa com um cabeçalho de formato fixo – podendo ser
seguido por opções de cabeçalho – de 20 bytes. Depois das opções, é possível
haver 65.515 bytes de dados.

Válidos, os segmentos sem dados, em geral, são utilizados para confirmações e


mensagens de controle. A figura a seguir mostra um exemplo de segmento TCP:

49 / 58
Tabela 32 bits

Porta origem e porta destino: Identificam, respectivamente, os processos origem e


destino nos hospedeiros. Da mesma forma que os campos porta origem e porta destino
do UDP, eles permitem que aplicações compartilhem o uso do protocolo de transporte
(multiplexação e demultiplexação).

Número de sequência: Indica o número de sequência do segmento, ou seja, em que


posição (byte) dos dados ele deve ser colocado.

Número de confirmação: Especifica o próximo byte aguardado no fluxo contrário.


Quando é enviado do processo A para o B, indica o próximo byte que A espera receber
no fluxo de B para A. Quando informa que espera receber o byte N, fica implícito que
todos os bytes até N-1 foram recebidos corretamente.

HLEN: Abreviação de header length (tamanho do cabeçalho), o HLEN informa o


tamanho do cabeçalho em palavras de 32 bits.

Reservado: Campo não utilizado. Qualquer valor preenchido nele será desconsiderado.

Campo de flags de 1 bit cada: Um flag é um campo de 1 bit que pode possuir apenas os
valores 0 e 1. Normalmente, 0 representa “desligado” e 1, “ligado”.

Exemplo: Quando o flag ACK do TCP está com o valor 1 (ligado), isso significa que o
segmento TCP carrega um número de confirmação. Se ele estiver com 0 (desligado), é
a indicação de que TCP não conta com tal número.

URG: O urgent pointer (ou ponteiro urgente) é usado para apontar que o segmento
carrega dados urgentes.

ACK: O acknowledgement serve para indicar que o campo “número de confirmação”


contém uma confirmação. Se estiver com valor 0, este campo deve ser desconsiderado.

PSH: O push se trata de uma solicitação ao receptor para entregar os dados à aplicação
assim que eles chegarem em vez de armazená-los em um buffer.

RST: O reset é utilizado para reinicializar uma conexão que tenha ficado confusa devido
a uma falha. Também serve para rejeitar um segmento inválido ou recusar uma
tentativa de conexão.

SYN: Aplicado para estabelecer conexões.

FIN: Usado para encerrar uma conexão.

50 / 58
Tamanho da janela: O controle de fluxo no TCP é gerenciado por meio de uma janela
deslizante de tamanho variável. O campo “tamanho da janela” indica quantos bytes
podem ser enviados a partir do byte confirmado.

Soma de verificação: Utilizada para verificar se existem erros nos dados recebidos. Ela
confere a validade tanto do cabeçalho quanto dos dados.

Ponteiro urgente: Válido somente se o flag URG estiver ativado, ele indica a porção de
dados do campo de dados que contém os que são urgentes.

Opções: Projetadas como uma forma de oferecer recursos extras, ou seja, aqueles que
não foram previstos pelo cabeçalho comum.

Dados: São os dados enviados pela camada superior. Neste campo, estão os que serão
entregues na camada superior do hospedeiro destino.

Gerenciamento de conexão TCP

As conexões estabelecidas no TCP utilizam um esquema conhecido como three way


handshake. Para estabelecer uma conexão, um lado aguarda passivamente, enquanto o
outro solicita uma especificando o endereço de rede (endereço IP) e a porta com a qual
deseja se conectar.

É enviado então um segmento TCP com o bit SYN


ativado e o bit ACK desativado. Quando ele chega ao
destino, a entidade TCP do destino verifica se existe
um processo aguardando na porta destino. Se não
existir, ela enviará uma resposta com o bit RST
ativado para rejeitar a conexão.

No entanto, se algum processo estiver na escuta


dessa porta, a ele será entregue o segmento TCP
recebido. Em seguida, tal processo poderá aceitar ou
rejeitar a conexão. Se ele aceitar, um segmento de
confirmação será retornado.

51 / 58
Esta figura ilustra a conexão entre dois hospedeiros:

Os segmentos SYN e SYN+ACK não podem transportar dados, porém consomem um


número de segmento.

Apesar de conseguir fazer esse transporte, ACK só consumirá tal número quando
ele surgir.

Atenção!

Para encerrar uma conexão, qualquer lado pode enviar um


segmento com o bit FIN ativado. Isso significa que não há
mais dados a serem transmitidos. Quando o FIN é
confirmado, a direção dessa conexão é desativada,
embora seus dados possam continuar fluindo em outra
direção. Quando as duas direções da conexão são
desativadas, ela, por fim, é encerrada.

52 / 58
Portas conhecidas

Para que uma aplicação possa acessar outra


remota, é necessário conhecer o endereço do
hospedeiro no qual ela se encontra. Ele serve,
portanto, para que se consiga chegar ao
hospedeiro remoto.

Como o protocolo de transporte do destino


consegue saber para qual de suas aplicações deve
entregar a mensagem? A resposta é o conceito de
porta, que é responsável por identificar a aplicação
no destino.

Como podemos identificar a porta utilizada pela aplicação?

Existem duas saídas:

1 2

Empregar um sistema no qual a aplicação Usar sempre o mesmo endereço de forma


é registrada toda vez que inicializa para o que as aplicações a iniciarem a
cliente poder consultar sua porta. conversação saibam de antemão com qual
endereço trocar mensagens.

Uma porta TCP ou UDP é identificada por um número inteiro de 16 bits.

Para que um pacote chegue à aplicação de destino, é necessário que o transmissor saiba,
de alguma forma, em que porta a aplicação está esperando a chegada do pacote. Para
facilitar o trabalho dele, algumas aplicações esperam seus pacotes sempre em uma
mesma porta: a “porta conhecida” da aplicação.

53 / 58
Atenção!

A RFC 3232 define um repositório on-line no qual podem


ser consultadas as portas conhecidas. No momento da
criação deste documento, o repositório on-line estava
definido como service name and transport protocol port
number registry.

Esta tabela mostra as portas reservadas para algumas


aplicações:

PORTA APLICAÇÃO

7 echo

20 ftp-data

21 ftp

22 ssh

23 telnet

25 smtp

53 domain

69 tftp

80 http

110 pop-3

119 nntp

161 snmp

162 snmp-trap

443 https

54 / 58
VERIFICANDO O APRENDIZADO

1. Sobre o protocolo UDP, marque a resposta correta.

a) Verifica se a mensagem contém erros antes de entregá-la à aplicação destino.

b) Garante a entrega da mensagem no destino.

c) Não realiza a multiplexação e a demultiplexação.

d) Não limita a quantidade máxima de dados que um segmento pode transportar.

Comentário

Parabéns! A alternativa A está correta.

A camada de transporte deve oferecer confiabilidade na entrega das mensagens. Apesar


de ser um protocolo que não garante a entrega dos dados, o UDP procura os erros para
garantir, pelo menos, a entrega de uma mensagem sem a presença deles.

55 / 58
2. No protocolo TCP, o campo número de confirmação carrega:

a) O número do último byte recebido com sucesso.

b) O número do próximo byte esperado no sentido contrário.

c) Uma solicitação para o receptor confirmar os dados recebidos.

d) A quantidade de confirmações pendentes.

Comentário

Parabéns! A alternativa B está correta.

O número de confirmação é a forma como o protocolo TCP faz para indicar quantos bytes
foram recebidos com sucesso. Ele carrega o número no próximo byte esperado no
sentido contrário, indicando, dessa maneira, que todos os bytes anteriores já foram
recebidos corretamente.

56 / 58
CONSIDERAÇÕES FINAIS

Vimos que, na camada de aplicação, são executadas as aplicações que os usuários


desejam executar. Além disso, pontuamos que um desenvolvedor precisa se basear em
um estilo de arquitetura para desenvolver seu software de aplicação.

Quando houve a apresentação da camada de transporte, também pudemos observar que


existem dois serviços básicos: sem e com conexão. O desenvolvedor da aplicação precisa
definir que tipo de serviço mais se adéqua a seu projeto.

Dessa forma, consideramos haver um forte relacionamento entre a camada de aplicação


e a de transporte, pois o tipo de serviço de transporte escolhido pelo desenvolvedor gera
um impacto direto no projeto da aplicação.

CONTEUDISTA

Fábio Contarini Carneiro

REFERÊNCIAS

ACM HYPERTEXT 91 CONFERENCE. Proceedings. San Antonio: Interaction Design


Foundation, 1991.

COMER, D. E. Redes de computadores e internet. 6. ed. Porto Alegre: Bookman Editora,


2016.

COULOURIS, G. et al. Sistemas distribuídos – conceitos e projeto. 5. ed. Porto Alegre:


Bookman Editora, 2013.

57 / 58
FOROUZAN, B. A. Comunicação de dados e redes de computadores. 4. ed. Porto Alegre:
AMGH Editora, 2010.

INTERNET ASSIGNED NUMBERS AUTHORITY. Protocols registries. Service name and


transport protocol port number registry. Califórnia: IANA, 2020.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a internet: uma abordagem top-


down. 6. ed. São Paulo: Pearson, 2013.

SILBERSCHATZ, A.; GALVIN, P. B. Sistemas operacionais – conceitos. 5. ed. São Paulo:


Prentice Hall, 2000.

SOARES, L. F. G. et al. Redes de computadores – das LANs, MANs e WANS às redes ATM.
2. ed. Rio de Janeiro: Campus, 1995.

TANENBAUM, A. S.; WETHERALL, D. Redes de computadores. 5. ed. São Paulo: Pearson,


2011.

58 / 58
DESCRIÇÃO
Apresentação da camada de rede do modelo OSI e o seu relacionamento com as camadas
superior e inferior, bem como a sua implementação na Arquitetura TCP/IP (arquitetura utilizada
na Internet).

PROPÓSITO
Reconhecer o funcionamento da camada de rede para o desenvolvimento de aplicações
modernas que tenham como requisito a comunicação em rede; realizar um endereçamento
uniforme permitindo que equipamentos e aplicações possam trocar informações.

OBJETIVOS
MÓDULO 1

Reconhecer os conceitos básicos da camada de rede no Modelo OSI

MÓDULO 2

Aplicar configurações de rede IP

MÓDULO 3

Classificar os protocolos de controle da Internet

MÓDULO 4

Selecionar os algoritmos de roteamento

MÓDULO 1

 Reconhecer os conceitos básicos da camada de rede no Modelo OSI

CAMADA DE REDE
Imagem: Fábio Contarini Carneiro

No Modelo OSI, a camada de rede situa-se logo acima da camada de enlace, utilizando os
serviços oferecidos por esta camada.

A camada de enlace tem como objetivo organizar a comunicação em nível de enlace, ou seja,
ela deve garantir que um hospedeiro consiga se comunicar com o hospedeiro vizinho.

O objetivo da camada de rede é, a partir deste serviço de comunicação lado a lado, promover
uma comunicação de âmbito global, permitindo que a informação que sai de um hospedeiro
chegue a seu destino não importando em qual local da rede esteja este destino. Para isso, ele
deve realizar duas grandes funções: definir um esquema de endereçamento que seja aceito
por toda a grande rede, e realizar o roteamento.

MODELO OSI

O modelo OSI (Open System Interconnection) foi criado pela International Organization
for Standardization (ISO) com o objetivo de ser um padrão para construção de redes de
computadores. Divide a rede em 7 camadas, em que cada camada realiza funções
específicas, implementadas pelo protocolo da camada, prestando serviços para sua
camada superior.
ENLACE

Ligação física entre dois ou mais dispositivos que permite a troca de dados entre os
dispositivos participantes.

HOSPEDEIRO

Também conhecido como host, é qualquer equipamento conectado à rede capaz de


trocar informações com outros equipamentos. Exemplos de hospedeiros são
computadores, roteadores, impressoras de rede, smartphones etc.

ROTEAMENTO

Processo de determinar o caminho a ser seguido por um pacote de dados em uma rede
para que chegue ao destino da melhor forma possível.

CONCEITOS BÁSICOS DA CAMADA DE


REDE
A quantidade máxima de dados que podem ser trocados entre entidades da camada de rede
possui um tamanho limitado. Para que as mensagens maiores que o limite possam ser
trocadas entre aplicações, a camada de transporte deverá segmentar tais mensagens em
partes menores e colocar cada segmento em uma unidade de dados da camada de rede.
ESTA UNIDADE DE DADOS TROCADA ENTRE ENTIDADES DA CAMADA DE REDE
RECEBE A DENOMINAÇÃO DE PACOTE.

PACOTE

Porção de dados trocada por protocolos da camada de rede contendo dados mais
informações de cabeçalho suficientes para que possam seguir seu caminho até o
hospedeiro destino.

A camada de rede cuida da transferência de pacotes desde a origem até seu destino. Em uma
grande rede, isso significa que estes pacotes podem necessitar passar por vários meios de
comunicação e diferentes roteadores até que possam ser entregues.

ROTEADORES

Dispositivos de rede que encaminham pacotes de dados entre redes de computadores.


Possuem algoritmos para troca de informações sobre o estado da rede que lhes permite
selecionar o melhor caminho desde a origem até o destino.

 COMENTÁRIO

É um trabalho diferente daquele realizado pela camada de enlace, que necessita apenas
entregar a informação na outra extremidade do meio de transmissão.

A camada de enlace de dados cuida apenas da comunicação de um hospedeiro com outro que
esteja diretamente conectado a ele por intermédio de um meio de comunicação. Já a camada
de rede é a camada de mais baixo nível que lida com a comunicação fim a fim.

Para conseguir realizar esta comunicação a camada de rede deve:


Conhecer toda a topologia da sub-rede de comunicação.

Escolher rotas que evitem sobrecarregar partes da rede enquanto outras ficam ociosas.

Compatibilizar a comunicação entre os diferentes tipos de sub-redes existentes.

TOPOLOGIA

Layout da rede de computadores.

SUB-REDE

Subdivisão de uma grande rede de computadores. Os roteadores que fazem parte de


uma sub-rede devem utilizar o mesmo software de roteamento para que possam trocar
informações sobre rotas.

Na origem, a camada de rede cria um pacote com dados provenientes da camada superior e
acrescenta a ele um cabeçalho com informações de endereço origem e destino. Em sistemas
com mais de uma interface de rede deve também consultar suas tabelas de repasse para
determinar por qual interface o pacote deve ser encaminhado.

Nos hospedeiros intermediários, a camada de rede deve receber o pacote, consultar suas
tabelas de roteamento e enviar o pacote pela interface de rede apropriada.
2

No destino, a camada de rede deve verificar se o endereço destino do pacote é o mesmo do


hospedeiro e, caso seja, entregar o pacote à camada superior (camada de transporte).

INTERFACE DE REDE

Dispositivo que permite que um hospedeiro possa enviar e receber dados por intermédio
de uma rede de computadores. Exemplos de interface de rede são placas de rede
ethernet, muito comuns em computadores desktop, e placas de comunicação Wi-Fi
comuns em notebooks e smartphones.

TABELAS DE REPASSE

Tabela interna de um roteador montada por seu algoritmo de roteamento que possui
entradas para todos os destinos conhecidos, com indicação de por qual interface de
saída deve ser enviado um pacote com base em seu endereço destino.

COMUTAÇÃO DE PACOTES STORE AND


FORWARD
Neste momento você deve estar se perguntando como o pacote vai da origem até o destino.
Diretamente? Saltando de hospedeiro em hospedeiro?

Lembre-se de que, no modelo OSI, uma camada utiliza os serviços da camada imediatamente
inferior para realizar seus trabalhos e oferecer serviços para a camada superior. Assim, um
hospedeiro com um pacote a enviar, o transmite para o roteador mais próximo. O pacote é
então totalmente recebido pelo roteador e, após ter chegado por completo, é conferido. Em
seguida, ele é encaminhado para o próximo roteador ao longo do caminho até alcançar o
hospedeiro de destino, onde é entregue. Esse mecanismo que tem como base armazenar
totalmente o pacote antes de enviá-lo ao próximo hospedeiro é conhecido como comutação de
pacotes store and forward.

Confira esse passo a passo na imagem abaixo:

Imagem: Shutterstock.com

REPASSE
Um roteador é um equipamento que possui, normalmente, várias interfaces de rede. Quando
um pacote chega por uma de suas interfaces, o roteador deve verificar o destino deste pacote
e decidir por qual de suas linhas o pacote deve ser enviado para que consiga chegar ao
destino. Chamamos de repasse o trabalho (local) de escolher por qual das interfaces deve
seguir o pacote que chega.

ROTEAMENTO
Cabe à camada de rede decidir o caminho a ser seguido por um pacote para que este chegue
ao seu destino, fazendo o melhor caminho possível. Para isso, os roteadores devem trocar
informações entre si sobre o estado da rede, de forma a decidirem o melhor caminho para cada
destino. Chamamos de roteamento o trabalho (global) de escolher os caminhos por uma rede
para que o repasse possa ser realizado.

O algoritmo que realiza esta tarefa é conhecido como algoritmo de roteamento.

O repasse refere-se a uma ação realizada localmente por um roteador sobre um pacote que
chega, enquanto o roteamento a uma ação global envolvendo todos os roteadores de uma sub-
rede para a escolha do melhor caminho.

Para saber mais sobre comutação de pacotes, assista ao vídeo abaixo:

Você já deve ter percebido que existe uma relação bastante próxima entre repasse e
roteamento, mas como é esta relação?
Vamos iniciar pelos algoritmos de roteamento. Para escolher a melhor rota, um conjunto de
roteadores precisa trocar informações sobre a situação da rede em sua vizinhança, de modo
que os roteadores do conjunto possam decidir sobre o caminho a ser seguido em cada
situação. Diferentes algoritmos com diferentes propriedades podem ser utilizados nesta tarefa.

Como funcionam esses algoritmos e de que forma eles se diferenciam, estudaremos adiante.
Por ora, o importante é que existem algoritmos capazes de encontrar o melhor caminho em
uma rede.

O mesmo algoritmo é então executado nos roteadores da sub-rede, trocando informações de


tráfego e calculando a melhor rota. Uma vez calculadas as rotas para cada destino, os
algoritmos de roteamento criam as chamadas tabelas de repasse, as quais são indexadas
pelos possíveis endereços destino de um pacote e indicam a interface pela qual o pacote deve
ser enviado com base em seu endereço destino.

Ao chegar um pacote em um roteador, e sendo necessário fazer seu repasse, o processo


responsável por esta função verifica o endereço de destino do pacote, consulta a tabela de
repasse utilizando o endereço destino como índice e obtém a interface pela qual o pacote deve
seguir. Resumidamente, as tabelas de repasse são montadas pelos algoritmos de roteamento
e consultadas pelo processo de repasse para determinar por qual interface deve seguir um
pacote que chega.

PROCESSO

Um processo é um programa em execução, incluindo sua região de memória, valores de


variáveis e seu contexto de hardware.

CIRCUITOS VIRTUAIS E DATAGRAMAS


Há basicamente duas formas para a organização da camada de rede de uma sub-rede: uma
utilizando conexões e a outra trabalhando sem conexão. Na camada de rede, um serviço
orientado à conexão costuma ser chamado de circuito virtual, enquanto um serviço que realiza
a entrega de pacotes independentes, sem conexão, costuma ser chamado de serviço de
datagramas.

A camada de transporte também oferece serviços com conexão e sem conexão, mas estes se
diferem dos serviços oferecidos pela camada de rede.

 COMENTÁRIO

Pensando na arquitetura TCP/IP, a camada cliente da camada de transporte é a camada de


aplicação, portanto, o serviço de transporte com conexão é um serviço aplicação a aplicação,
ou seja, uma conexão de transporte conecta diretamente duas aplicações. Já a camada de
rede é voltada para a interligação de hospedeiros, logo, uma conexão da camada de rede é
uma conexão hospedeiro a hospedeiro.

CIRCUITOS VIRTUAIS

A ideia dos circuitos virtuais é evitar a necessidade de escolher uma nova rota para cada
pacote que passa, sendo por isso utilizado em sub-redes com serviço de rede orientado à
conexão. Ao se estabelecer uma conexão, é criada uma rota entre o hospedeiro origem e o
hospedeiro destino como parte do estabelecimento da conexão. Essa rota é utilizada por todo o
tráfego que flui pela conexão entre os hospedeiros. Quando a conexão é liberada o circuito
virtual deixa de existir.

Um circuito virtual (CV) consiste em:

Considere a rede da figura a seguir. Os números em cada extremidade dos enlaces


representam o número da interface do comutador naquele enlace.

Um caminho definido entre origem e destino;

Números de identificação de circuitos virtuais, um para cada enlace ao longo do caminho;

Registros em tabelas de comutadores ao longo do caminho.


COMUTADORES

Dispositivos utilizados em redes de computadores para o encaminhamento de dados com


base em seu endereço destino ou circuito virtual. Diferenciam-se dos roteadores por
conta do trabalho realizado e por serem mais rápidos no encaminhamento de dados.

Imagem: Fábio Contarini Carneiro

O hospedeiro H1 solicita à rede que estabeleça um circuito virtual até o hospedeiro H2, e a
rede estabelece o caminho H1-A-B-E-F-H2, atribuindo respectivamente os seguintes circuitos
virtuais: 23, 8, 37, 22, e 16 (numerações aleatórias).

Com base nestas informações são montadas as seguintes tabelas de repasse em cada um dos
comutadores ao longo do caminho:

Imagem: Fábio Contarini Carneiro

Sempre que um novo circuito virtual (CV) é estabelecido através de um comutador, um registro
para este CV é adicionado à tabela do comutador. De forma análoga, sempre que um CV
termina, suas informações são removidas das tabelas do comutador ao longo do percurso.

A utilização de diferentes identificadores para os CVs, ao longo do caminho, simplifica o


trabalho, uma vez que, a utilização de um mesmo CV durante todo o trajeto iria requerer a
concordância de todos os comutadores participantes da rota. O importante para que os
comutadores possam definir o caminho é que o número de saída do CV de um comutador seja
o mesmo número de entrada do CV do comutador seguinte.
No exemplo, o circuito estabelecido entre os comutadores E e F possui CV 22 (o CV 22 sai
pela linha 3 de E e entra como CV 22 pela linha 1 de F). Da mesma forma, o CV entre A e B
possui valor 8 e o CV entre B e E possui valor 37. Reveja as figuras com os circuitos em
destaque.

Imagem: Fábio Contarini Carneiro

Ao estabelecer um caminho desta forma, é como se fosse colocado um circuito físico (como
um cabo de rede) ligando diretamente os hospedeiros, por isso o nome circuito virtual.

Outra característica da rede de circuitos virtuais é que, como os pacotes seguem sempre pelo
mesmo caminho, eles chegam ao destino na mesma ordem em que saíram da origem.

Existem 3 fases que podem ser identificadas em um circuito virtual:

ESTABELECIMENTO DO CV
Nesta fase os comutadores estabelecem os parâmetros da conexão e o caminho pelo qual os
pacotes irão seguir durante a fase de transferência de dados.

TRANSFERÊNCIA DE DADOS
Fase seguinte ao estabelecimento do CV, durante a qual ocorre a transferência de pacotes
desde a origem até o destino. Todos os pacotes seguem pelo caminho definido durante a fase
de estabelecimento do CV.

ENCERRAMENTO DO CV
Fase na qual o circuito virtual é desfeito. Necessária para que os comutadores sejam avisados
do encerramento e possam retirar de suas tabelas as informações sobre o circuito virtual
encerrado.
DATAGRAMAS

Em uma sub-rede de datagramas, nenhuma rota é previamente definida. Ao ser transmitido,


um pacote passa por uma série de roteadores, e cada roteador, ao longo do caminho, utiliza o
endereço destino para determinar por qual interface de saída enviar o pacote (realiza o
repasse).

Como não há estabelecimento de circuitos para as transferências, os roteadores, ao longo do


caminho, deverão manter tabelas de repasse baseadas no endereço destino do pacote,
qualquer que seja o destino. Significa dizer que, se as tabelas de repasse forem alteradas
durante uma transferência, os datagramas de uma mensagem podem fazer caminhos
diferentes até o destino.

Imagem: Shutterstock.com

Suponha que você esteja assistindo a um filme pela rede e que o vídeo seja enviado até seu
equipamento por uma sub-rede de datagramas. Parece real? Sim, é real. Atualmente,
assistimos a filmes pela Internet e ela é uma rede de datagramas.

O filme possui cerca de 90 minutos. Será que as rotas de uma rede mudam durante 90
minutos? Sim, essa é uma possibilidade. Isso significa que, em determinado momento, as
tabelas de repasse mudarão, então, os datagramas passarão a fazer outro caminho até
chegarem em seu equipamento. Assim, vemos que, ao contrário dos circuitos virtuais, os
pacotes em uma rede de datagramas não seguem sempre pelo mesmo caminho.

POR QUE A ROTA É ALTERADA?


Uma possibilidade é que os pacotes estavam passando por uma região que ficou
sobrecarregada, e os roteadores descobriram uma outra região com melhores condições de
tráfego, preferindo enviar os pacotes por essa nova região. Uma consequência disso é que os
primeiros pacotes que estão seguindo pelo novo caminho podem chegar ao destino antes de
alguns dos pacotes que seguiram pelo caminho antigo.

Assim sendo, existe a possibilidade de que alguns pacotes cheguem ao destino fora de ordem.

Os problemas que podem acontecer em uma rede de datagramas são:

A PERDA DE DATAGRAMAS

DATAGRAMAS CHEGAREM COM ERRO

DATAGRAMAS CHEGAREM FORA DE ORDEM

DATAGRAMAS SEREM DUPLICADOS


Para saber mais sobre circuitos virtuais e datagramas, assista ao vídeo abaixo:

ENDEREÇAMENTO
Alguns tipos de rede permitem que sejam criados vários endereços por hospedeiro, enquanto
outros tipos de rede permitem a utilização de apenas um por hospedeiro. Porém, qualquer que
seja o tipo de rede, o endereçamento deve ser completamente independente do
endereçamento dos protocolos de outras camadas. A camada de rede tem a função de unificar
toda a comunicação da rede, portanto ela deve definir uma forma de identificação dos
hospedeiros que seja aceita por toda a rede.

Basicamente dois tipos de endereçamento são possíveis:


ENDEREÇAMENTO HIERÁRQUICO
No endereçamento hierárquico, o endereço de uma entidade é constituído de acordo com os
endereços correspondentes aos vários níveis da hierarquia da qual faz parte. O endereço
hierárquico é o método sugerido pelo ITU-T para interconexão de redes públicas de telefonia.
Nessa recomendação, os endereços são números decimais formados por três campos: um
código do país, um código para a rede, e um campo para o endereçamento dentro da rede.

Observação: Setor da ITU (International Telecommunication Union) responsável pela


elaboração de padrões e normas consensuais sobre tecnologia que garantam o
funcionamento, a interoperabilidade e a integração dos sistemas de comunicação em todo o
mundo, com a finalidade de facilitar o acesso das indústrias aos diferentes mercados de cada
país.

ENDEREÇAMENTO HORIZONTAL
No endereçamento horizontal, os endereços não têm relação alguma com o lugar onde estão
as entidades dentro da rede. Um exemplo comum desse tipo de endereçamento são os
endereços utilizados nas placas de rede ethernet, que são gravados durante seu processo de
fabricação e será sempre o mesmo, não importando em qual lugar do mundo a placa seja
utilizada.

Observação: Placas de rede ethernet é um dispositivo de hardware que permite a ligação de


um computador a uma rede de computadores padrão ethernet.

Considerações sobre o roteamento indicam vantagens na utilização de endereçamento


hierárquico, uma vez que este contém informações explícitas sobre o local onde se localizam
as entidades. Já o endereçamento horizontal permite uma mobilidade das entidades sem
reconfiguração.

Apesar do endereçamento universal ser realizado pela camada de rede, o envio dos pacotes é
realizado por camada inferior que possui seu próprio esquema de endereçamento específico
da tecnologia da rede física em uso. Ocorre, portanto, um mapeamento entre os endereços
físicos e de rede, e esta tarefa deve ser realizada pela camada de rede. Existem duas técnicas
usuais para essa conversão: resolução através de mapeamento direto e resolução através de
vinculação dinâmica.

MAPEAMENTO DIRETO

A estação sabe como computar o endereço de enlace por intermédio de uma função que
mapeia o endereço de rede no endereço de enlace. Por exemplo, o endereçamento hierárquico
onde o campo de endereçamento dentro da rede corresponda exatamente ao endereço físico
da estação. Conversões mais complexas podem ser realizadas através de tabelas de
conversão e técnicas de acesso rápido a estas tabelas.

VINCULAÇÃO DINÂMICA

Para evitar o uso de tabelas de conversão, uma vinculação dinâmica pode ser efetuada entre o
endereço de rede e o físico por intermédio da utilização de algum protocolo de resolução. A
exemplo, temos o protocolo ARP, o qual estudaremos mais adiante.

VERIFICANDO O APRENDIZADO

1. QUANDO UM PACOTE CHEGA PARA SER ENCAMINHADO POR UM


ROTEADOR, O PROCESSO RESPONSÁVEL PELO REPASSE DEVE:

A) Consultar outros roteadores para determinar a interface de saída a ser utilizada.

B) Decidir pela interface de saída com base no endereço origem do pacote.

C) Montar a tabela de repasse com base nos dados obtidos pelo algoritmo de roteamento.

D) Escolher a interface de saída com base em sua tabela de repasse.


2. EM UMA REDE DE CIRCUITOS VIRTUAIS:

A) A identificação do circuito virtual permanece a mesma ao longo de todo o caminho.

B) Os pacotes sempre chegam ao destino na ordem em que foram enviados.

C) A rota é definida pelos comutadores antes mesmo do estabelecimento da conexão.

D) A rota pode ser alterada se o algoritmo de roteamento encontrar um caminho melhor.

GABARITO

1. Quando um pacote chega para ser encaminhado por um roteador, o processo


responsável pelo repasse deve:

A alternativa "D " está correta.

O algoritmo de roteamento de um roteador troca constantemente informações com outros


roteadores sobre o estado da rede e, com base nestas informações, monta a tabela de repasse
que determina por qual interface deve seguir um pacote que chega. Quando o pacote chega,
cabe ao processo de repasse apenas consultar a tabela de repasse que definirá por qual
interface o pacote deve seguir.

2. Em uma rede de circuitos virtuais:

A alternativa "B " está correta.

Em uma rede de circuito virtual, a rota a ser seguida pelos pacotes é definida no momento do
estabelecimento da conexão e nunca muda. Como os pacotes seguem sempre pelo mesmo
caminho, eles mantêm a posição um em relação ao outro, chegando ao destino na mesma
ordem em que foram enviados.

MÓDULO 2

 Aplicar configurações de rede IP


A CAMADA DE REDE NA INTERNET
Na camada de rede, a Internet pode ser vista como um conjunto de sub-redes ou Sistemas
Autônomos (SA) conectados entre si. Não existe uma estrutura real, mas diversos backbones
que interligam redes regionais, que por sua vez estão conectadas às redes locais.

BACKBONES

Linhas de comunicação de dados que formam a espinha dorsal de um sistema de


comunicação, provendo meio de comunicação entre redes de computadores.
Normalmente, possuem tecnologia com elevado desempenho para transmissão de
dados.

Imagem: Fábio Contarini Carneiro

O protocolo que mantém a Internet unida é o protocolo de camada de rede IP (Internet


Protocol). A tarefa do IP é fornecer a melhor forma de transportar datagramas da origem para o
destino, independentemente de esses hospedeiros estarem na mesma rede ou em outras
redes intermediárias.

Imagine que você está solicitando a transferência de dados de seu computador para um
hospedeiro remoto (está fazendo o upload do arquivo). A camada de transporte de seu
computador receberá o fluxo de dados referente à transferência de seu arquivo. Como
provavelmente esse fluxo é muito grande para caber em um único pacote IP, ele será quebrado
em partes menores pela camada de transporte e cada parte desta será entregue para a
camada de rede (cada um será colocado em um datagrama IP).

Imagem: Shutterstock.com

Estes datagramas serão transmitidos pela Internet, podendo ainda serem fragmentados ao
longo do caminho. Quando todos os fragmentos de um datagrama chegam ao destino, o
datagrama original é remontado pela camada de rede do destino sendo entregue à camada de
transporte que recriará o fluxo original para o processo de recepção.

PROTOCOLO IP VERSÃO 4 (IPV4)


Na Internet, a camada de rede trata cada pacote de forma independente, não tendo qualquer
relação com pacotes anteriores ou posteriores. Pacotes com mesma origem e destino podem,
inclusive, passar por diferentes rotas.

O IPv4 é definido pela RFC 791, sendo atualizado pelas RFC 1349, RFC 2474 e RFC 6864.
RFC

Request for Comments são documentos públicos mantidos pela Internet Engineering Task
Force.

Imagem: Shutterstock.com

MTU

Maximum Transmission Unit. Refere-se à quantidade máxima de dados que pode ser
enviada em uma mensagem de um protocolo de rede.

Quando um datagrama é quebrado em fragmentos, cada um destes fragmentos passa a ser


um novo datagrama que está passando pela rede.

Um datagrama IP consiste em duas partes: cabeçalho e dados. O cabeçalho tem uma parte
fixa de 20 bytes e uma parte opcional de tamanho variável.
Imagem: adaptada por Eduardo Trindade

Para saber mais sobre como funciona a fragmentação, assista ao vídeo abaixo:
ENDEREÇAMENTO IPV4
Um hospedeiro normalmente possui apenas uma interface com a rede de computadores.
Quando o protocolo IP de um hospedeiro quer enviar um datagrama, ele o faz por meio dessa
interface.

A INTERFACE DE REDE É A FRONTEIRA ENTRE O HOSPEDEIRO E A REDE FÍSICA.

Considere, neste momento, um roteador e suas interfaces. Como a tarefa de um roteador é


receber um datagrama por uma interface e repassá-lo por outra interface, ele estará ligado a
duas ou mais redes físicas. A fronteira entre o roteador e qualquer uma dessas redes também
é denominada uma interface. Assim, um roteador tem múltiplas interfaces, uma para cada uma
das redes a qual está conectado.

 ATENÇÃO

Independentemente de quantas interfaces tenha um hospedeiro, o IP exige que cada uma


delas tenha seu próprio endereço IP de modo que este, tecnicamente, esteja associado a uma
interface, e não ao hospedeiro que a contém.

Cada endereço IP tem comprimento de 32 bits (4 bytes), havendo um total de 232 endereços
possíveis (aproximadamente 4 bilhões de endereços IP), os quais são escritos em notação
decimal separada por pontos, na qual cada byte do endereço é escrito em sua forma decimal e
separado dos outros bytes por um ponto.
Considere o endereço IP 192.168.23.67. O 192 é o número decimal equivalente aos primeiros
8 bits do endereço; o 168 é o decimal equivalente ao segundo conjunto de 8 bits do endereço,
e assim por diante. Em notação binária, o endereço 192.168.23.67 fica:

11000000 10101000 00010111 01000011

Imagem: Fábio Contarini Carneiro

Cada interface em cada hospedeiro da Internet precisa de um endereço IP globalmente


exclusivo, ou seja, não pode haver duas interfaces com o mesmo endereço IP na Internet
válida.

A figura, a seguir, fornece um exemplo de endereçamento IP e interfaces em que um roteador


com 2 interfaces é usado para interconectar os 6 hospedeiros. Observando os endereços dos
hospedeiros da esquerda e da interface do roteador que os liga, percebe-se que todos
possuem endereço IP na forma 192.168.0.x, enquanto os hospedeiros e a interface do roteador
localizados na parte direita da figura possuem endereço na forma 192.168.1.x. Diz-se que cada
uma destas redes que interconecta 3 hospedeiros mais a interface do roteador formam uma
sub-rede.

Imagem: Fábio Contarini Carneiro

Como pode-se observar, no exemplo, os 3 campos mais à esquerda do endereço (formados


por 24 bits) nunca mudam dentro da sub-rede. Deste modo, temos à esquerda a sub-rede
192.168.0.0/24 e à direita a sub-rede 192.168.1.0/24. O “/24” indica que os 24 bits mais à
esquerda do endereço definem a sub-rede.
A ESTRATÉGIA DE ATRIBUIÇÃO DE
ENDEREÇOS DA INTERNET É CONHECIDA
COMO ROTEAMENTO INTERDOMÍNIO SEM
CLASSES (CLASSLESS INTER-DOMAIN
ROUTING – CIDR).

CIDR
O CIDR generaliza a noção de endereçamento de sub-rede. O endereço IP de 32 bits é
dividido em 2 partes sendo representado por A.B.C.D/X, em que X indica o número de bits
existentes na primeira parte do endereço.

Os X bits mais significativos de um endereço na forma A.B.C.D/X constituem a parcela da rede


do endereço IP e normalmente são denominados prefixo (ou prefixo de rede). Este prefixo
determina qual parte do endereço IP identifica a rede. Uma organização normalmente recebe
um bloco de endereços contíguos, ou seja, uma faixa de endereços com um prefixo comum.
Assim, os endereços IP de hospedeiros dentro da organização compartilharão o prefixo
comum, o que reduz consideravelmente o tamanho da tabela de repasse nos roteadores, visto
que um único registro da forma A.B.C.D/X será suficiente para transmitir pacotes partindo de
fora para qualquer destino dentro da organização.

Os últimos (32-X) bits de um endereço podem ser considerados como os bits que distinguem
os hospedeiros dentro da sub-rede. Esses bits menos significativos podem (ou não) ter uma
estrutura adicional de sub-rede tal como aquela discutida anteriormente. Por exemplo, suponha
que os primeiros 24 bits do endereço A.B.C.D/24 especificam o prefixo da rede da organização
e são comuns aos endereços IP de todos os hospedeiros da organização. Os 8 bits restantes,
então, identificam os hospedeiros específicos da organização.

A estrutura interna da organização poderia ser tal que esses 8 bits mais à direita seriam usados
para criar uma sub-rede dentro da organização, como discutido. Por exemplo, A.B.C.D/28
poderia se referir a uma sub-rede específica dentro da organização.

Anteriormente ao CIDR, os bits reservados para indicar a parte da sub-rede possuíam


exatamente 8, 16 ou 24 bits. Esse esquema é conhecido como endereçamento de classes
cheias, e as sub-redes com endereços de sub-rede de 8, 16 e 24 eram conhecidas,
respectivamente, como redes de classe A, B e C. Tal divisão em classes cheias se mostrou
problemática para suportar o rápido crescimento da quantidade de organizações com sub-
redes de pequeno e médio portes.

Uma sub-rede de classe C (/24) poderia acomodar apenas 28 - 2 = 254 hospedeiros (dois dos

28 = 256 endereços são reservados para uso especial). Esta sub-rede é muito pequena para

muitas organizações, por outro lado, uma sub-rede de classe B (/16), que suporta até 216 - 2 =
65.534 hospedeiros, seria demasiadamente grande. Com o endereçamento de classes cheias,
uma organização com 2.000 hospedeiros recebia um endereço de sub-rede de classe B (/16),
o que resultava no rápido esgotamento do espaço de endereços de classe B e na má utilização
do espaço de endereço alocado.

Os 2 endereços especiais de uma sub-rede que não podem ser utilizados são o primeiro e o
último endereço da faixa de endereços da organização. O primeiro é reservado para o
endereço de rede, que identifica a rede como um todo. Nele, todos os bits que não fazem parte
do prefixo de rede recebem o valor 0.

Já o último endereço é utilizado como endereço de difusão (broadcast). Roteadores não


repassam mensagens de difusão, portando, em uma rede IP a difusão fica limitada ao
segmento de rede limitado pelo roteador. No endereço de difusão, todos os bits que não fazem
parte do prefixo de rede recebem o valor 1.

O 255.255.255.255 é um endereço especial de difusão em que a mensagem é entregue a


todos os demais hospedeiros que estão na mesma sub-rede do hospedeiro que enviou a
mensagem.

DIFUSÃO

Endereço lógico utilizado em redes de computadores que deve ser colocado no campo
destino de uma mensagem quando se deseja que os dados sejam entregues a todos os
hospedeiros da sub-rede.

No endereçamento de classes cheias, o número total de redes e hospedeiros para cada classe
é:

CLASSE A
126 redes com aproximadamente 16 milhões de hospedeiros cada.

CLASSE
16.384 redes com até 64K hospedeiros cada.

CLASSE C
Cerca de 2 milhões de redes com até 254 hospedeiros cada.

CLASSE D
Cerca de 268 milhões de grupos multicast.

Imagem: Fábio Contarini Carneiro

A distribuição de endereços IP é controlada pela ICANN (Internet Corporation for Assigned


Names and Numbers).

SUB-REDES

O mundo exterior a uma organização enxerga sua rede como sendo única, e nenhuma
informação sobre sua estrutura interna é necessária. Porém, sem a utilização de sub-redes, o
espaço de endereçamento pode se tornar muito ineficiente.

A fim de tornar mais eficiente a utilização da rede, é comum sua divisão em várias sub-redes.
O mecanismo que permite tal divisão é conhecido como máscara de rede.

Assim como um endereço IP, uma máscara de rede possui 32 bits divididos em 4 campos com
8 bits cada, seguindo o padrão:

bits da rede – bit 1


bits da sub-rede – bit 1

bits do hospedeiro – bit 0

Os bits da sub-rede são utilizados para especificar quais bits no campo do hospedeiro são
usados para especificar as sub-redes de uma rede.

A máscara padrão (default) para cada classe é dada por:

Classe Decimal Notação IDR Hexadecimal

A 255.0.0.0 /8 FF:00:00:00

B 255.255.0.0 /16 FF:FF:00:00

C 255.255.255.0 /24 FF:FF:FF:00

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

EXEMPLO:

Imagem: Fábio Contarini Carneiro

Ao se dividir uma rede em sub-redes, deve-se alocar os bits para a sub-rede a partir dos bits de
mais alta ordem (bits mais à esquerda) do campo do hospedeiro. A tabela a seguir mostra os
valores usados no campo do hospedeiro quando se divide uma rede em sub-redes.

128 64 32 16 8 4 2 1

1 0 0 0 0 0 0 0 128
1 1 0 0 0 0 0 0 192

1 1 1 0 0 0 0 0 224

1 1 1 1 0 0 0 0 240

1 1 1 1 1 0 0 0 248

1 1 1 1 1 1 0 0 252

1 1 1 1 1 1 1 0 254

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Uma rede pode ser dividida em diversas partes para uso interno, continuando a ser vista como
uma única rede externamente. Essas partes são as sub-redes.

Existem diversas razões para se dividir uma rede em sub-redes. Algumas destas razões são:

Isolar o tráfego de uma sub-rede, reduzindo assim o tráfego total da rede.

Proteger ou limitar o acesso a uma sub-rede.

Permitir a associação de uma sub-rede com um departamento ou espaço geográfico


específico.
Para saber mais sobre como calcular máscaras de rede, assista ao vídeo abaixo:

NAT
Atualmente, endereços IP são escassos e este esgotamento não é um problema teórico que
pode ocorrer em algum momento no futuro distante, ele já está acontecendo, e a solução atual
para este problema é o NAT (Network Address Translation – Tradução de Endereço de Rede),
descrito na RFC 3022.

Com essa técnica, uma organização pode utilizar internamente uma faixa de endereços que
não é válida na Internet, e quando é necessário fazer acesso externo, o dispositivo responsável
pelo NAT faz a tradução do endereço da rede interna para o endereço válido da organização.
Dessa forma, a organização poderá obter internamente uma quantidade maior de hospedeiros
do que endereços disponíveis para utilização da Internet.

Imagem: Fábio Contarini Carneiro

 COMENTÁRIO

A ideia básica do NAT é atribuir a cada organização uma pequena quantidade de endereços IP
para tráfego na Internet. Dentro da organização, todo computador obtém um endereço IP
exclusivo (também conhecido como endereço IP privado) usado para roteamento do tráfego
interno e, quando um pacote sai da organização e vai para a Internet, ocorre uma conversão do
endereço.

Para tornar esse esquema possível, três intervalos de endereços IP foram declarados como
endereços privativos (reservados) e as organizações podem utilizá-los internamente da
maneira que quiserem, a única regra é que nenhum pacote contendo esses endereços pode
aparecer na própria Internet. Os três intervalos reservados são:

Faixa Máscara Classe

10.0.0.0 a 10.255.255.255 255.0.0.0 A


172.16.0.0 a 172.31.255.255 255.255.0.0 B

192.168.0.0 a 192.168.255.255 255.255.255.0 C

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Dentro da organização, toda máquina tem um endereço exclusivo que não é válido na Internet.
Quando um pacote deixa a organização, ele passa por uma caixa NAT (normalmente um
roteador), que converte o endereço de origem no endereço IP válido da organização. Desse
modo, o pacote poderá transitar sem problemas pela Internet, porém, a resposta do pacote
voltará para o endereço IP válido da organização e não para a máquina que fez tal requisição.
Por causa disso, a caixa NAT deverá manter uma tabela na qual poderá mapear a máquina
que enviou a requisição para Internet, de forma que, quando a resposta voltar, ela possa ser
mapeada para a máquina correta.

Na técnica de NAT, os endereços utilizados pelos hospedeiros de uma organização não são
válidos na Internet, não há como tais equipamentos receberem acesso direto da rede externa,
conferindo um certo grau de proteção aos hospedeiros da rede interna.

Para saber mais sobre o funcionamento do NAT, assista ao vídeo abaixo:


VERIFICANDO O APRENDIZADO

1. NO CIDR (CLASSLESS INTER-DOMAIN ROUTING – ROTEAMENTO


INTERDOMÍNIO SEM CLASSES) O PREFIXO DE REDE É UTILIZADO
PARA:

A) Identificar a interface de rede do hospedeiro.

B) Informar a quantidade de bytes do endereço IP.

C) Identificar o hospedeiro que deve receber o datagrama.

D) Determinar qual parte do endereço IP identifica a rede.

2. A TÉCNICA DE NAT FOI DESENVOLVIDA PARA:

A) Realizar a fragmentação de datagramas IP.

B) Calcular a máscara de rede.

C) Associar uma sub-rede a um espaço geográfico específico.

D) Resolver o problema da escassez de endereços IP.

GABARITO
1. No CIDR (Classless Inter-domain Routing – Roteamento Interdomínio sem Classes) o
prefixo de rede é utilizado para:

A alternativa "D " está correta.

Um endereço IP possui 32 bits. Quando se utiliza o CIDR, é definido um prefixo, sendo este
utilizado para dividir o endereço IP em 2 partes: rede e hospedeiro. O prefixo CIDR determina a
quantidade de bits a ser alocada na identificação da rede, ou seja, determina a parte do
endereço IP que identifica a rede.

2. A técnica de NAT foi desenvolvida para:

A alternativa "D " está correta.

A quantidade de endereços IP disponíveis para utilização na Internet já é escassa, e a cada dia


mais organizações e pessoas desejam se conectar à internet, Dessa forma, foi criada a técnica
de NAT (Network Address Translation), que permite que uma organização possua um conjunto
de endereços internos que não são válidos na Internet mas que, quando um hospedeiro deseja
acessá-la, seu endereço é traduzido em um endereço válido, permitindo, assim, a possibilidade
de conectar mais hospedeiros à Internet do que a quantidade de endereços disponíveis para
isso.

MÓDULO 3

 Classificar os protocolos de controle da Internet

PROTOCOLO DE CONTROLE DA INTERNET


O protocolo IP é o responsável por manter a unidade de toda a Internet, porém, ele não
consegue realizar sozinho todo o trabalho necessário. Para auxiliá-lo nesta tarefa, foram
desenvolvidos protocolos auxiliares na camada de rede, conhecidos como protocolos de
controle.
Neste módulo, estudaremos os principais protocolos de controle que trabalham em conjunto
com o protocolo IP.

ARP (ADDRESS RESOLUTION PROTOCOL)


Embora na Internet cada hospedeiro possua um ou mais endereços IP, na verdade eles não
podem ser usados diretamente para o envio de informações pela rede, pois o hardware da
camada de enlace de dados não entende os endereços Internet.

Suponha que você esteja utilizando um notebook e que ele enviará dados para um servidor na
mesma rede. O software IP do notebook receberá os dados a serem enviados e construirá um
pacote com o endereço IP do servidor no campo ENDEREÇO DESTINO do datagrama para
transmissão. O software IP descobrirá que o servidor está em sua própria rede e que, portanto,
deverá transmitir os dados diretamente a ele.

Neste ponto existe um problema. A placa de rede trabalha com endereços físicos da camada
de enlace, ela não reconhece endereços IP. Logo, é necessário encontrar uma forma de
mapear os endereços de rede nos endereços de enlace.

Imagem: Shutterstock.com

A solução adotada é fazer com que o hospedeiro que precise descobrir o endereço de enlace
do destinatário envie um pacote por difusão perguntando: “A quem pertence o endereço IP
A.B.C.D?”. Então, o hospedeiro destinatário responderá com seu endereço de enlace. O
protocolo que faz essa pergunta e obtém a resposta é o ARP (Address Resolution Protocol,
que é definido na RFC 826.

No exemplo da imagem, a seguir, a requisição ARP é enviada para o endereço de enlace ff-ff-
ff-ff-ff-ff, o que permite que a camada de enlace promova uma difusão (entregue a requisição a
todos os hospedeiros ligados ao meio de transmissão).

Imagem: Fábio Contarini Carneiro

Continuando em nosso exemplo, o software IP do notebook constrói um quadro de enlace


endereçado ao servidor, coloca o pacote IP no campo de carga útil e o envia. A placa de rede
do destinatário detecta esse quadro, reconhece-o como um quadro destinado a ela e o recolhe.
O software de enlace extrai o pacote IP da carga útil e o repassa para o software IP, que
verifica se ele está corretamente endereçado e o processa.

SÃO POSSÍVEIS VÁRIAS OTIMIZAÇÕES PARA TORNAR O ARP MAIS EFICAZ. EM


PRIMEIRO LUGAR, DEPOIS QUE UMA MÁQUINA EXECUTA O ARP, ELA ARMAZENA O
RESULTADO EM UM CACHE.

Em muitos casos, o destinatário precisará enviar uma resposta, o que forçará também a
execução do ARP para determinar o endereço de enlace do transmissor. Essa difusão do ARP
pode ser evitada fazendo-se com que o destinatário inclua em sua tabela o mapeamento entre
os endereços de rede e de enlace do transmissor.

Se um hospedeiro precisar enviar dados para outro hospedeiro que se encontra em uma sub-
rede diferente da sua, este sistema de entrega direta não funcionará. Neste caso, o hospedeiro
transmissor precisará enviar seus dados para um roteador, que deverá providenciar o
encaminhamento do datagrama para a sub-rede do destinatário. Poderá ser necessário que o
protocolo ARP seja utilizado mais de uma vez ao longo do caminho.
Para saber mais sobre o funcionamento do ARP quando existe um roteador no meio do
caminho, assista ao vídeo abaixo:

Para saber mais sobre Circuitos virtuais e Datagramas, assista ao vídeo abaixo:

DHCP (DYNAMIC HOST CONFIGURATION


PROTOCOL)
Para ter acesso à Internet, um hospedeiro precisa ser configurado com alguns parâmetros.

Os parâmetros mínimos a serem configurados são:

1 - ENDEREÇO IP
Para permitir que o hospedeiro possa ser endereçado e receber dados de outro hospedeiro.

2 - MÁSCARA DE SUB-REDE
Para que o hospedeiro possa determinar qual a sua sub-rede.

3 - ENDEREÇO DO GATEWAY (ROTEADOR)


Para que o hospedeiro possa enviar informações para fora de sua sub-rede.

4 - ENDEREÇO DO SERVIDOR DNS


Para que o hospedeiro possa acessar outros hospedeiros por seus nomes em vez de precisar
conhecer seus endereços IP.

Esses parâmetros devem ser configurados em todos os hospedeiros da organização, o que


pode ser feito manualmente pelos administradores da rede. Isso funcionaria muito bem em um
ambiente relativamente estático onde os hospedeiros raramente fossem mudados de lugar ou
trocados.

E NO CASO DE AMBIENTES ONDE EXISTE UMA


GRANDE VARIAÇÃO NOS HOSPEDEIROS
PRESENTES NA REDE?

Imagine, por exemplo, como seria na praça de alimentação de um shopping que oferece
acesso à Internet. Seria viável solicitar que todo o dispositivo móvel que chegasse nesse
shopping e quisesse acessar a Internet fizesse um pré-cadastro para poder ter esse acesso?
Como cada dispositivo precisa de um endereço único no momento do acesso, como seria
administrar esta distribuição por todos os possíveis clientes?
Imagem: Shutterstock.com

 COMENTÁRIO

Para facilitar a distribuição de endereços IP e demais parâmetros de rede entre os vários


hospedeiros que podem estar presentes em uma rede, e administrar a atribuição destes
parâmetros de forma automatizada, a IETF desenvolveu o DHCP, cuja especificação encontra-
se na RFC 2131.

Para utilizar o mecanismo dinâmico de alocação de endereços do DHCP, o administrador do


sistema deve configurar um servidor fornecendo um grupo de endereços IP. Sempre que um
novo computador se conecta à rede, entra em contato com o servidor e solicita um endereço. O
servidor opta por um dos endereços especificados pelo administrador e aloca tal endereço para
o computador.

IETF

Internet Engineering Task Force (IETF) é um grupo internacional aberto que tem como
objetivo identificar e propor soluções a questões relacionadas à utilização da Internet,
além de propor padronização das tecnologias e dos protocolos envolvidos.

De modo geral, o DHCP permite três tipos de atribuição de endereços:

1 - CONFIGURAÇÃO MANUAL
O administrador especifica o endereço que cada hospedeiro receberá quando se conectar à
rede.

2 - CONFIGURAÇÃO AUTOMÁTICA
O administrador permite que um servidor DHCP atribua um endereço quando um hospedeiro
se conectar pela primeira vez à rede. A partir deste momento, este endereço estará reservado
para este hospedeiro para sempre.

3 - CONFIGURAÇÃO DINÂMICA
O servidor “empresta” um endereço a um hospedeiro, por um tempo limitado. Quando o
hospedeiro não estiver mais utilizando este endereço, ele poderá ser alocado a outro
hospedeiro.

Um servidor DHCP empresta um endereço para o hospedeiro por um período de tempo


determinado que ele especifica ao alocar o endereço. Durante esse período, o servidor não
alocará o mesmo endereço a outro cliente, entretanto, quando a alocação terminar, o cliente
deverá renová-la ou cancelar o uso do endereço.

O período ideal de alocação depende da rede e das necessidades de um hospedeiro em


particular. O DHCP não especifica uma quantidade de tempo para o período de alocação. O
protocolo permite que um cliente solicite um tempo de alocação específico e que um servidor
informe ao cliente quanto tempo de alocação lhe será concedido. Fica a cargo do administrador
determinar este tempo.

A figura mostra os seis estados em que um cliente DHCP pode estar:


Imagem: Fábio Contarini Carneiro

1 - INICIALIZA
Quando um cliente faz a primeira inicialização, ele entra no estado INICIALIZA. Para dar início
à aquisição de um endereço IP o cliente primeiro entra em contato com todos os servidores
DHCP da rede local difundindo uma mensagem DHCPDISCOVER, utilizando para isto a porta
67 do protocolo UDP, que é o protocolo de transporte da internet sem conexões.

2 - SELECIONA
Após, ele passa para o estado SELECIONA. Os servidores da rede local recebem a mensagem
e enviam, cada um, uma mensagem DHCPOFFER. As mensagens DHCPOFFER contêm
informações de configuração e o endereço IP oferecido pelo servidor.

O cliente, assim, seleciona um dos servidores e lhe envia uma mensagem DHCPREQUEST,
solicitando uma alocação.

3 - SOLICITA
Em seguida, vai para o estado SOLICITA. O servidor responde com a mensagem DHCPACK,
dando início à alocação. O cliente segue então para o estado LIMITE, que é o estado normal
de operação.

4 - LIMITE
Uma vez no estado LIMITE, o cliente configura três temporizadores que controlam a
renovação, a revinculação e o fim da alocação. Um servidor DHCP pode especificar os valores
explícitos para os temporizadores, caso contrário o cliente utiliza o padrão. O valor padrão para
o primeiro temporizador é a metade do valor do tempo total da alocação.

5 - RENOVA
Quando o temporizador ultrapassar o tempo determinado pela primeira vez, o cliente deverá
tentar renovar a alocação. Para solicitar uma renovação, o cliente transmite uma mensagem
DHCPREQUEST ao servidor que lhe fez a alocação. Em seguida, muda para o estado
RENOVA para aguardar uma resposta.

O servidor pode responder de dois modos: instruindo o cliente a não utilizar mais o endereço
ou autorizando-o a prolongar o uso.

6 - LIMITE
Caso aprove a renovação, o servidor transmite um DHCPACK, o que faz o cliente retornar ao
estado LIMITE e continuar com o uso do endereço.

7 - INICIALIZA
Se um servidor não aprovar a renovação do endereço, ele envia um DHCPNACK, que faz com
que o cliente interrompa imediatamente o uso do endereço e retorne ao estado INICIALIZA.

8 - VINCULA NOVAMENTE
Caso o cliente esteja no estado RENOVA e não chegue nenhuma resposta, provavelmente o
servidor que concedeu a alocação estartá fora de alcance. Para contornar essa situação, o
DHCP conta com um segundo temporizador, que expira após 87,5% do período da alocação e
faz com que o cliente mude o estado VINCULA NOVAMENTE.

9 - LIMITE
Ao fazer essa transição, o cliente passa a difundir a mensagem DHCPREQUEST para
qualquer servidor da rede local. Caso receba uma resposta positiva, o cliente retorna ao estado
LIMITE e reconfigura os temporizadores.

10 - INICIALIZA
Se a resposta for negativa, o cliente deve mudar para o estado INICIALIZA e interromper
imediatamente o uso do endereço IP.

Quando um cliente não precisa mais da alocação, o DHCP permite que ele a encerre sem
precisar esperar que o prazo da validade termine. Para isto, o cliente envia uma mensagem
DHCPRELEASE ao servidor. Depois de enviar a mensagem, o cliente deixa o estado LIMITE e
volta ao estado INICIALIZA.
ICMP (INTERNET CONTROL MESSAGE
PROTOCOL)

Imagem: Shutterstock.com

Uma mensagem ICMP é carregada dentro de um datagrama IP, ou seja, as mensagens ICMP
são transportadas pelo protocolo IP. Existem diversas mensagens ICMP. As mais importantes
são:

DESTINATION UNREACHABLE (DESTINO


INALCANÇÁVEL)
Datagrama não pode ser entregue. Usada quando a sub-rede ou um roteador não pode
localizar o destino, ou um datagrama com o bit DF não pode ser entregue porque há uma rede
de pacotes pequenos no caminho.

TIME EXCEEDED (TEMPO EXCEDIDO)


Campo tempo de vida do IP chegou a zero. Enviada quando um pacote é descartado porque
seu contador chegou a zero. Esse evento é um sintoma de que os datagramas estão entrando
em loop, de que há congestionamento ou de que estão sendo definidos valores muito baixos
para o temporizador.

PARAMETER PROBLEM (PROBLEMA DE PARÂMETRO)


Campo de cabeçalho inválido. Essa mensagem indica existência de um problema no software
IP do hospedeiro transmissor ou no software de um roteador pelo qual o pacote transitou.
SOURCE QUENCH (REDUÇÃO DE ORIGEM)
Conhecida como pacote regulador. Usada para ajustar os hospedeiros que estejam enviando
pacotes demais a fim de controlar o congestionamento na rede.

REDIRECT (REDIRECIONAR)
Usada quando um roteador percebe que o pacote pode ter sido incorretamente roteado. É
usada pelo roteador para informar ao hospedeiro transmissor a respeito do provável erro.

ECHO REQUEST (SOLICITAÇÃO DE ECO)


Perguntar a um hospedeiro se ele está ativo. Ao receber a mensagem echo request, o destino
deve enviar de volta uma mensagem echo reply.

ECHO REPLY (RESPOSTA DE ECO)


Confirmação de que o hospedeiro está ativo.

TIMESTAMP REQUEST (SOLICITAÇÃO DE CARIMBO


DE DATA E HORA)
Mesmo que echo request, mas solicita que a hora da chegada da mensagem e da partida da
resposta sejam registradas na mensagem de resposta.

TIMESTAMP REPLY (RESPOSTA DE CARIMBO DE


DATA E HORA)
Resposta à mensagem timestamp request.

VERIFICANDO O APRENDIZADO

1. O DHCP É UM PROTOCOLO QUE FOI DESENVOLVIDO PARA:

A) Fazer o mapeamento entre o endereço de rede e o endereço de enlace.

B) Traduzir o endereço interno de um hospedeiro em um endereço externo válido.

C) Facilitar a configuração de rede dos hospedeiros de uma sub-rede.

D) Permitir a configuração manual dos parâmetros de rede.


2. QUANDO UM DATAGRAMA NÃO PODE SER ENTREGUE PORQUE O
ROTEADOR NÃO CONSEGUE LOCALIZAR O DESTINO, O PROTOCOLO
RESPONSÁVEL POR INFORMAR ESTE PROBLEMA É O:

A) ICMP.

B) DHCP.

C) NAT.

D) ARP.

GABARITO

1. O DHCP é um protocolo que foi desenvolvido para:

A alternativa "C " está correta.

A tarefa de configurar os parâmetros de rede em todos os hospedeiros de uma rede pode ser
uma tarefa demorada, principalmente para grandes redes. Desta forma, o DHCP foi
desenvolvido para facilitar o trabalho do administrador, o qual configura os parâmetros em um
servidor, sendo estes parâmetros recebidos pelos hospedeiros de forma automática durante
sua inicialização.

2. Quando um datagrama não pode ser entregue porque o roteador não consegue
localizar o destino, o protocolo responsável por informar este problema é o:

A alternativa "A " está correta.

O ICMP foi desenvolvido como o protocolo responsável pelo envio das mensagens de controle
e de erro de uma rede. Assim, quando o roteador não consegue localizar o destino, o software
ICMP do equipamento envia de volta à origem do datagrama uma mensagem ICMP contendo
esta informação.

MÓDULO 4
 Selecionar os algoritmos de roteamento

ROTEAMENTO
A principal função da camada de rede é rotear pacotes do hospedeiro origem para o
hospedeiro destino da melhor forma possível. Na maioria dos casos, os pacotes necessitarão
passar por vários roteadores para chegar ao destino.

O algoritmo de roteamento é a parte do software da camada de rede responsável pela decisão


sobre a linha de saída a ser usada na transmissão do pacote que entra. Caso a sub-rede utilize
datagramas, esta decisão deverá ser tomada para todos os pacotes de dados recebidos e se
utilizar circuitos virtuais internamente, as decisões de roteamento serão tomadas somente
quando o circuito virtual estiver sendo estabelecido.

Imagem: Fábio Contarini Carneiro

PRINCÍPIO DA OTIMIZAÇÃO
O princípio da otimização de Bellman (1957) estabelece que se o roteador B estiver no
caminho ótimo entre o roteador A e o roteador C, o caminho ótimo de B a C também estará na
mesma rota.

Esse princípio nos diz que o conjunto de rotas ótimas de todas as origens para um determinado
destino é uma árvore conhecida como árvore de escoamento (sink tree, em inglês), cuja raiz
é o hospedeiro destino. Os algoritmos de roteamento precisam descobrir a árvore de
escoamento a partir da topologia da rede.

Imagem: Fábio Contarini Carneiro

ROTEAMENTO PELO CAMINHO MAIS


CURTO
O protocolo de roteamento pelo caminho mais curto é um protocolo estático cuja ideia é criar
um grafo da sub-rede, com cada nó do grafo representando um roteador e cada arco indicando
um enlace. Para escolher uma rota entre um determinado par de roteadores, o algoritmo
simplesmente encontra o caminho mais curto entre eles no grafo.

Imagem: Fábio Contarini Carneiro


Uma forma de medir o comprimento do caminho é em número de saltos (quantidade de
enlaces que devem ser utilizados). Utilizando essa unidade métrica na figura anterior, os
caminhos ABC e ABE são igualmente longos. Outra unidade métrica é a distância geográfica,
caso em que ABC é mais longo que ABE.

Há também a unidade métrica baseada no tráfego entre os enlaces. Nesse grafo, o caminho
mais curto é o caminho mais rápido, e não o caminho com menos arcos ou com menor
distância.

Os valores dos arcos podem ser calculados como uma função da distância, da largura de
banda, do tráfego médio, do custo de comunicação, do comprimento médio de fila, do retardo
detectado ou de outros fatores. Alterando a função de atribuição de pesos, o algoritmo
calcularia o caminho mais curto medido de acordo com determinados critérios que podem ser
ou não combinados.

Existem diversos algoritmos para o cálculo do caminho mais curto. O mais conhecido deles foi
desenvolvido por Dijkstra em 1959. Nele, cada roteador armazena sua menor distância até a
origem e o caminho a ser seguido. Na inicialização do algoritmo não existe caminho conhecido,
assim, a distância é marcada como infinito. Conforme o algoritmo progride, os caminhos e seus
custos são encontrados.

DIJKSTRA

Edsger Wybe Dijkstra (Roterdã, 11 de maio de 1930 — Nuenen, 6 de agosto de 2002) foi
um holandês, cientista da computação, conhecido por suas contribuições nas áreas de
desenvolvimento de algoritmos e programas, de linguagens de programação (pelo qual
recebeu o Prêmio Turing de 1972 por suas contribuições fundamentais), sistemas
operacionais e processamento distribuído.
Imagem: Fábio Contarini Carneiro

Para encontrar a árvore de escoamento de A, na figura, marca-se o nó A como permanente, o


que é indicado por um círculo preenchido (a). Depois é examinado, um a um, cada nó
adjacente a A alterando o rótulo de cada um deles para a distância até A.

Sempre que um nó é rotulado novamente, ele também é rotulado com o nó a partir do qual o
teste foi feito, assim, pode-se reconstruir o caminho final posteriormente. Após examinar cada
nó adjacente a A, verifica-se todos os nós provisoriamente rotulados no grafo tornando
permanente o de menor rótulo, que passa a ser o novo nó ativo.

Imagem: Fábio Contarini Carneiro

No segundo passo (b) verifica-se que o nó B é o que possui o menor valor entre os nós
rotulados não permanentes. Logo, ele é marcado como permanente e os nós adjacentes são
rotulados. Como B tem custo 2 e o enlace entre B e D possui custo 6, o custo de D passando
por B será 6 + 2 = 8. Da mesma forma, o custo de E passando por B será rotulado como 4. E
assim o algoritmo prossegue, até que todos os nós sejam marcados como permanentes.
Imagem: Fábio Contarini Carneiro

Uma situação interessante acontece no quarto passo (d). Quando o nó C é marcado como
permanente, verifica-se que D anteriormente foi rotulado com valor 8 passando por B, porém
como vizinho de C seu custo será 7. Então, o nó D é rotulado novamente com o valor 7.

Imagem: Fábio Contarini Carneiro

Ao final, para obter a árvore de escoamento até A, basta seguir o caminho marcado por cada
roteador até seu vizinho de menor custo.

ALGORITMOS DE ROTEAMENTO
Conforme estudamos anteriormente, os algoritmos de roteamento são executados pelos
roteadores de uma sub-rede para que sejam criadas as tabelas de repasse dos roteadores.
Para isso, eles precisam trocar informações sobre o estado da rede e concordarem com a
árvore de escoamento a ser montada para cada destino.

Os algoritmos de roteamento podem ser agrupados em:

NÃO ADAPTATIVOS
Não baseiam suas decisões de roteamento em medidas ou estimativas do tráfego e da
topologia atuais. A escolha da rota a ser utilizada é previamente calculada e transferida para os
roteadores quando a rede é inicializada. Tal procedimento também é conhecido como
roteamento estático.

ADAPTATIVOS
Mudam suas decisões de roteamento para refletir mudanças na topologia e/ou no tráfego. Tal
procedimento também é conhecido como roteamento dinâmico.

Ainda, os algoritmos de roteamento podem ser classificados como algoritmos de roteamento


globais ou descentralizados.

GLOBAL
Calcula o melhor caminho com base no conhecimento completo da rede. Para este fim, o
roteador deve obter informações sobre o estado de todos os roteadores e enlaces que
compõem a sub-rede. Um exemplo deste tipo de roteamento é o roteamento de estado de
enlace.

DESCENTRALIZADO
Neste algoritmo, nenhum roteador possui informação completa sobre o estado da rede. As
rotas são calculadas com base em informações obtidas com roteadores vizinhos. Um exemplo
deste tipo de roteamento é o roteamento de vetor de distância.
Para saber mais sobre a diferença entre roteamento interno e externo, assista ao vídeo abaixo:

ROTEAMENTO DE VETOR DE DISTÂNCIAS

O roteamento de vetor de distância é um algoritmo dinâmico que opera fazendo com que cada
roteador mantenha uma tabela que fornece a melhor distância conhecida a cada destino e
determina qual linha deve ser utilizada para se chegar lá. Essas tabelas são atualizadas
através da troca de informações com os vizinhos.

TRATA-SE DO ALGORITMO DE ROTEAMENTO ORIGINAL DA ARPANET QUE TAMBÉM FOI


UTILIZADO NA INTERNET COM O NOME RIP. ALGUNS ROTEADORES UTILIZAM
PROTOCOLOS DE VETOR DE DISTÂNCIA MAIS APERFEIÇOADOS.
ARPANET

Precursora da Internet: primeira rede a implementar o conjunto de protocolos TCP/IP.

 COMENTÁRIO

Cada roteador mantém uma tabela de roteamento indexada por cada roteador da sub-rede.
Cada entrada contém duas partes: a linha de saída preferencial a ser utilizada para esse
destino e uma estimativa do tempo ou distância até o destino. A unidade métrica utilizada pode
ser o número de hops, o retardo de tempo, o número total de pacotes enfileirados no caminho
ou algo semelhante.

Presume-se que o roteador conheça a distância até cada um de seus vizinhos. Se a unidade
métrica for contagem de saltos, a distância será de apenas um salto. Se a unidade métrica for
o comprimento da fila, o roteador examinará cada uma das filas. Se a unidade métrica for o
retardo, o roteador poderá medi-lo com pacotes “ICMP ECHO”.

E COMO SABER QUAL O CAMINHO QUE POSSUI


MELHOR DISTÂNCIA APENAS OBTENDO
INFORMAÇÕES DOS VIZINHOS?

Seja dv(y) o custo do caminho de menor custo do roteador v para o roteador y, e seja c(x,v) o
custo da ligação entre os roteadores x e v. Seja ainda v um vizinho do roteador x.

Então, o custo do caminho para ir de x a y passando pelo vizinho v será {c(x,v) + dv(y)}.

Logo, pelo princípio da otimização, o menor custo para ir de x a y será:

dx(y) = minv{c(x,v) + dv(y)},

onde minv retornará o menor valor calculado para todos os vizinhos.


Conforme os vizinhos vão trocando informações sobre o estado da rede, o algoritmo converge
para um estado de equilíbrio onde são obtidas as árvores de escoamento para cada destino.

Sempre que houver alguma modificação na rede, o roteador comunicará esta mudança a seus
vizinhos, que atualizarão suas tabelas e repassarão estas alterações a seus próprios vizinhos.
Assim, a alteração se propagará entre todos os roteadores e rapidamente a rede convergirá
para um novo estado de equilíbrio.

Na Internet o roteamento de vetor de distância é implementado pelo RIP (Routing Information


Protocol). A versão 1 do RIP é definida pela RFC 1058, enquanto sua versão 2 é definida pela
RFC 2453.

ROTEAMENTO DE ESTADO DE ENLACE

O roteamento de vetor de distância era utilizado na ARPANET até 1979, quando então foi
substituído pelo roteamento de estado de enlace. Essa substituição foi basicamente motivada
por dois problemas:

A unidade métrica de retardo era o comprimento de fila, não levando em conta a largura
de banda.

O algoritmo geralmente levava muito tempo para convergir.

A ideia do roteamento de estado de enlace é simples. Cada roteador deve:

DESCOBRIR SEUS VIZINHOS E APRENDER SEUS


ENDEREÇOS DE REDE
Determinação dos Vizinhos: Quando um roteador é inicializado, ele envia um pacote HELLO
em cada linha. O roteador da outra extremidade envia de volta uma resposta identificando-se.

MEDIR O RETARDO OU O CUSTO PARA CADA UM DE


SEUS VIZINHOS
Medição do Custo da Linha: A forma mais simples de determinar o retardo é enviar um
pacote ECHO pela linha. Medindo o tempo de ida e volta o roteador pode obter uma estimativa
razoável do retardo. Para obter resultados melhores pode-se fazer o teste mais de uma vez e
usar a média.
CRIAR UM PACOTE QUE DIGA TUDO O QUE ACABA
DE SER APRENDIDO
Criação de Pacotes por Estado de Enlace: O pacote começa com a identidade do
transmissor, seguida do número de sequência, da idade, e de uma lista de vizinhos. É
fornecido o custo referente a cada vizinho. Um exemplo de sub-rede é ilustrado na figura
abaixo, sendo os custos mostrados por linhas. Os pacotes de estado de enlace
correspondentes a todos os seis roteadores são mostrados na figura abaixo.

ENVIAR ESSE PACOTE A TODOS OS OUTROS


ROTEADORES
Distribuição dos Pacotes de Estado de Enlace: Se estamos querendo criar as rotas para
que os datagramas possam ser enviados pela rede, como distribuir as informações? A ideia é
usar a inundação de pacotes, onde os pacotes que são recebidos por uma interface são
replicados para as outras interfaces, fazendo, assim, com que a informação se espalhe por
toda a rede.

Para controlar a inundação cada pacote contém um número de sequência que é incrementado
para cada pacote enviado. Quando é recebido, o novo pacote de estado de enlace é conferido
na lista de pacotes já verificados. Se for novo, o pacote será encaminhado a todas as linhas,
menos para aquela em que chegou. Se for uma cópia, o pacote será descartado. Se for
recebido um pacote com número de sequência inferior ao mais alto detectado até o momento,
ele será rejeitado.

Mas se um roteador apresentar falha, ele perderá o controle de seu número de sequência. A
solução é incluir a idade de cada pacote após o número de sequência e decrementá-la uma
vez por segundo. Quando a idade atingir zero, as informações desse roteador serão
descartadas. O campo de idade é também decrementado por cada roteador durante o
processo inicial de inundação para garantir que nenhum pacote viverá por um período
indefinido.

CALCULAR O MELHOR CAMINHO PARA CADA UM


DOS OUTROS ROTEADORES
Cálculo das Novas Rotas: Uma vez que um roteador tenha acumulado um conjunto completo
de pacotes de estado de enlace poderá criar o grafo completo da sub-rede. Neste momento o
algoritmo de Dijkstra pode ser executado localmente para calcular o melhor caminho.

Na Internet o roteamento de estado de enlace é implementado pelo protocolo OSPF (Open


Shortest Path First), definido pela RFC 2328.
Imagem: Fábio Contarini Carneiro

Assim, a topologia completa e todos os retardos são medidos e distribuídos para cada roteador.
Em seguida, o algoritmo de Dijkstra pode ser usado para encontrar o caminho mais curto.

ROTEAMENTO HIERÁRQUICO

Conforme as redes aumentam, as tabelas de roteamento crescem proporcionalmente até que


chega um momento em que não é mais possível que os roteadores conheçam todos os
caminhos da rede. Assim, é necessário pensar em uma nova forma de realizar o roteamento.
Foi pensando nesta situação que foi criado o roteamento hierárquico.

Quando o roteamento hierárquico é utilizado, os roteadores são divididos em regiões, com


cada roteador conhecendo todos os detalhes sobre como rotear pacotes para destinos dentro
de sua própria região, mas sem conhecer a estrutura interna de outras. No caso de redes muito
grandes, uma hierarquia de dois níveis pode ser insuficiente, sendo necessário agrupar as
regiões em clusters, os clusters em zonas, as zonas em grupos etc.

A figura abaixo mostra um exemplo quantitativo do roteamento em uma hierarquia de dois


níveis com quatro regiões. A tabela de roteamento completa do roteador A1 tem 16 entradas,
mas quando o roteamento é feito hierarquicamente são necessárias apenas 7 entradas.
Porém, este tipo de roteamento pode implicar um provável aumento do caminho para alguns
hospedeiros.
Imagem: Fábio Contarini Carneiro

Tabela Completa

Destino Linha Saltos

A1 -- --

A2 A2 1

A3 A2 2

A4 A4 1

B1 B4 2

B2 B4 3

B3 B4 2
B4 B4 1

C1 C1 1

C2 C1 2

C3 C1 2

D1 C1 3

D2 B4 3

D3 B4 4

D4 C1 3

D5 C1 2

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Tabela hierárquica

Destino Linha Saltos

A1 -- --

A2 A2 1

A3 A2 2
A4 A4 1

B B4 1

C C1 1

D C1 2

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Na Internet, o roteamento hierárquico é implementado por intermédio do protocolo BGB (Border


Gateway Protocol), definido pela RFC 4271.

VERIFICANDO O APRENDIZADO

1. UM ALGORITMO DE ROTEAMENTO ADAPTATIVO POSSUI COMO


CARACTERÍSTICA:

A) Adaptar suas interfaces de acordo com a vazão dos enlaces.

B) Calcular as rotas a serem utilizadas com base no conhecimento completo da rede.

C) Basear suas decisões de roteamento de acordo com o tráfego e a topologia recentes.

D) Distribuir as informações de roteamento por intermédio de inundação de pacotes.

2. QUANDO A REDE CRESCE A PONTO DE SER NECESSÁRIO ALTERAR


O ESQUEMA DE ROTEAMENTO PARA DIMINUIR O TAMANHO DAS
TABELAS, DEVE-SE UTILIZAR O ROTEAMENTO:

A) de vetor de distância.

B) hierárquico.
C) não adaptativo.

D) de estado de enlace

GABARITO

1. Um algoritmo de roteamento adaptativo possui como característica:

A alternativa "C " está correta.

Um algoritmo de roteamento adaptativo, conforme seu nome indica, adapta as rotas ao estado
atual de enlaces e topologia, promovendo alterações na rota sempre que houver alguma
mudança significativa no estado da rede.

2. Quando a rede cresce a ponto de ser necessário alterar o esquema de roteamento


para diminuir o tamanho das tabelas, deve-se utilizar o roteamento:

A alternativa "B " está correta.

O roteamento hierárquico foi criado para resolver os problemas de armazenamento das tabelas
de roteamento quando as redes crescem muito. Com sua utilização não é necessário que os
roteadores conheçam a topologia de toda a rede para tomar suas decisões de roteamento,
bastando saber como rotear dentro de sua região e como chegar às outras regiões.

CONCLUSÃO

CONSIDERAÇÕES FINAIS
Acabamos de estudar a camada de rede do modelo OSI e sua implementação mais importante,
a camada de rede da arquitetura TCP/IP.

Vimos que o protocolo IP é o responsável por manter a Internet unida, promovendo um


endereçamento universal aceito por todos os equipamentos que possuem acesso à Internet.
Vimos ainda que é na camada de rede que é executado o algoritmo de roteamento,
responsável pela montagem das tabelas de repasse dos roteadores, permitindo que estes
equipamentos possam encaminhar os datagramas até seu destino, não importando o quanto
distante esteja.

Podemos então concluir que esta camada é uma das mais importantes, responsável por toda a
conectividade da Grande Rede, a Internet.

REFERÊNCIAS
BELLMAN, R.E. Dynamic Programming. Princeton, NJ: Princeton University Press, 1957.

COMER, D. E. Redes de computadores e Internet. 6. ed. Porto Alegre: Bookman, 2016.

COULOURIS, G. et al. Sistemas distribuídos – conceitos e projeto. 5. ed. Porto Alegre:


Bookman, 2013.

FOROUZAN, B. A. Comunicação de dados e redes de computadores. 4. ed. Porto Alegre:


AMGH, 2010.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a Internet: uma abordagem top-


down. 6. ed. São Paulo: Pearson, 2013.

SILBERSCHATZ, A.; GALVIN, P. B. Sistemas operacionais – conceitos. 5. ed. São Paulo:


Prentice Hall, 2000.

SOARES, L. F. G. et al. Redes de computadores – das LANs, MANs e WANS às redes ATM.
2. ed. Rio de Janeiro: Campus, 1995.

STANEK, W. R., Windows Server 2008: guia completo. Porto Alegre: Bookman, 2009.
TANENBAUM, A. S.; WETHERALL, D. Redes de computadores. 5. ed. São Paulo: Pearson,
2011.

EXPLORE+
Para saber mais sobre os assuntos explorados neste tema, leia:

IP versão 6, a nova implementação do protocolo IP, KUROSE, J. F.; ROSS, K. W. Redes


de computadores e a internet: uma abordagem top-down. 6. ed. São Paulo: Pearson,
2013. cap. 4.4.4.

Implementação do OSPF, o algoritmo de roteamento interno oficial da internet, KUROSE, J. F.;


ROSS, K. W. Redes de computadores e a internet: uma abordagem top-down. 6. ed. São
Paulo: Pearson, 2013. cap. 4.6.2.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a Internet: uma abordagem


top-down. 6. ed. São Paulo: Editora Pearson, 2013. Capítulo 4.6.2.

CONTEUDISTA
Fábio Contarini Carneiro

 CURRÍCULO LATTES
DESCRIÇÃO
Importância do estudo das camadas física e de enlace relacionadas à infraestrutura física das
redes, no contexto da arquitetura de redes de computadores. Principais problemas e soluções
desenvolvidas.

PROPÓSITO
As camadas física e de enlace constituem partes fundamentais da infraestrutura física das
redes. Estudar este tema permite compreender como os sistemas se conectam fisicamente e
como a informação é propagada pelos enlaces da rede. Tais conhecimentos têm aplicação
direta no projeto e na expansão e modernização das redes, como também na solução dos mais
diversos problemas que afetam essas estruturas.

OBJETIVOS

MÓDULO 1

Descrever a camada física da arquitetura de redes de computadores

MÓDULO 2

Descrever a camada de enlace da arquitetura de redes de computadores


MÓDULO 3

Descrever a subcamada de acesso ao meio

MÓDULO 1

 Descrever a camada física da arquitetura de redes de computadores

INTRODUÇÃO
Antes de iniciar nosso estudo, vamos conhecer o modelo de referência Open System
Interconnection.

OPEN SYSTEM INTERCONNECTION


O Modelo OSI, lançado em 1984, é referência da Open System Interconnection que tem
como principal objetivo ser um modelo standard, para protocolos de comunicação entre os
mais diversos sistemas.

O OSI foi proposto utilizando-se níveis hierárquicos (ou camadas) em um esforço de padronizar
as soluções de rede para que os equipamentos de diversos fabricantes diferentes pudessem
se comunicar.

Agora que você entendeu que o Modelo de referência OSI divide as funções das redes de
computadores em sete camadas, vamos estudar as duas primeiras camadas.

CAMADA FÍSICA
A camada física é responsável pela geração e transmissão do sinal propriamente dito, que é
levado de um transmissor ao receptor correspondente. Eles estão conectados por um
enlace físico de transmissão.
ENLACE FÍSICO DE TRANSMISSÃO

Exemplos de enlaces físicos: par trançado, cabo coaxial, fibra ótica, rádio frequência etc.

Figura 1 - Geração e transmissão de sinal de um transmissor para um receptor

Para ativar, manter e desativar o link físico entre sistemas finais, a camada física define
especificações:

Elétricas;

Mecânicas;

Funcionais;

De procedimentos.

A partir disso, são determinadas características como:

Níveis de voltagem;

Temporização de alterações de voltagem;

Taxas de dados físicos;

Distâncias máximas de transmissão;

Conectores físicos;
Outros atributos similares.

Essa camada está completamente associada ao hardware dos equipamentos e enlaces.

Na camada física, a unidade de dados é o bit de informação. O bit é codificado em um


sinal elétrico ou óptico, de forma a ser transmitido pelo transmissor do enlace até o
receptor através do meio físico de transmissão.

O sinal sofre diversos efeitos causados pelo meio de transmissão (como interferências, ruídos,
atenuação) e chega ao receptor após ter experimentado todas essas alterações.

Assim, em razão desses efeitos, o receptor precisa decodificar o sinal para receber o bit de
informação. Dependendo da situação, o receptor pode ou não decodificar corretamente o bit
enviado.

A figura 2 ilustra um diagrama em blocos simplificado do procedimento descrito anteriormente,


em que o ruído e outros fatores podem dificultar a recepção do sinal e causar erros na
interpretação dos bits.

Figura 2 - Diagrama em blocos simplificado da transmissão do sinal em um canal de


comunicação.

A seguir, abordaremos esses componentes e os conceitos principais com mais detalhes.


TRANSMISSÃO DE SINAIS
Em redes de comunicação, a informação deve ser codificada em um sinal transmitido pelo
canal do transmissor até o receptor.

Os sinais podem ser analógicos ou digitais.

Você sabe qual é a diferença?

Figura 3 - Sinal analógico e sinal digital (STALLINGS, 2005)

Sinais analógicos
Apresentam a intensidade (amplitude), variando suavemente com o tempo.

Figura 3 - Sinal analógico e sinal digital (STALLINGS, 2005)

Sinais digitais

Mantêm um nível constante de intensidade e, depois, mudam abruptamente para outro nível
constante
de intensidade.

SINAL PERIÓDICO

Sinal periódico é qualquer sinal (analógico ou digital) que se repete em um período de tempo T
(figura 4).
Figura 4 – Sinal periódico (STALLINGS, 2005)

A frequência do sinal é dada pelo valor inverso do


período de repetição:

F=1/T

Atenção! Para visualização completa da equação utilize a rolagem horizontal

O Período (T) é expresso em segundos (s), e a frequência (f), em hertz (Hz).

 QUANTO MAIS RÁPIDA FOR A VARIAÇÃO DO


SINAL (MENOR PERÍODO), MAIOR SERÁ A
FREQUÊNCIA.

É importante guardar essa relação quando formos estudar outros conceitos mais avançados,
como banda passante e taxa de transmissão de dados.

Além da frequência, o sinal apresenta ainda como propriedades:

AMPLITUDE A
Ponto máximo de intensidade

FASE Φ

Posição relativa do sinal dentro de um período de repetição

É possível codificar a informação variando as grandezas do sinal (f, A, Φ); assim, o sinal pode
transportar o dado de um ponto ao outro do enlace.

A figura 5 mostra o sinal variando em amplitude, frequência e fase.

Figura 5 - Variação do sinal em amplitude, frequência e fase (STALLINGS, 2005)

Nas figuras 3, 4 e 5, apresentamos os sinais em função de suas variações ao longo do tempo,


mas os sinais podem também ser representados no domínio da frequência.

 EXEMPLO

A senoide, que vimos na figura 4, apresenta uma única componente no domínio da


frequência, que é o próprio valor de f.
Pela análise de Fourier, é possível demonstrar que qualquer sinal pode ser decomposto em
componentes (senoides) de frequência e intensidades diferentes.

Na figura 6, o sinal de baixo pode ser obtido pela soma do primeiro sinal de frequência f e
amplitude A com o segundo sinal de frequência 3f e amplitude 0,4A.

FOURIER

Jean-Baptiste Joseph Fourier (1768 — 1830) foi um matemático e físico francês, famoso por
começar a investigar a decomposição de funções periódicas em séries trigonométricas
convergentes chamadas “séries de Fourier”.

Figura 6 - Decomposição de sinais em componentes de frequência (STALLINGS, 2005)

BANDA PASSANTE
Agora, podemos entender o conceito de banda passante do canal de comunicações.

Trata-se do conjunto contíguo de frequências de sinal que, ao passarem pelo canal de


comunicação, são praticamente inalteradas.

As componentes de frequência do sinal que estão além da banda passante sofrem forte
atenuação e são eliminadas.

Podemos imaginar o canal de comunicação como um filtro que deixa passar as componentes
dentro da faixa de frequências especificadas pela banda passante e bloqueia as demais
componentes fora da banda passante.

Vamos ver um exemplo?

Digamos que o sinal da parte inferior da figura 6 será transmitido por um canal de largura de
banda 2f Hz, que deixa passar sem atenuação componentes de frequência entre valores 0,5f e
2,5f.

Ao transmitir esse sinal pelo canal, a componente de frequência 3f será completamente


eliminada, e o sinal que aparecerá do outro lado será simplesmente a senoide de frequência f
(vide figura 7).

Figura 7 - Exemplo teórico de um canal ideal filtrando a componente 3f do sinal TX.

Um sinal digital apresenta variações abruptas na sua intensidade, o que pode ser
representado no domínio da frequência por componentes de frequência muito elevados.
Assim, ao passar por um canal de comunicação, o sinal sofre distorções causadas pela banda
passante do canal.

Quanto maior for a banda passante, menor será o efeito de filtragem do canal. Com isso, o
receptor terá mais facilidade para interpretar a informação contida no sinal.

A figura 8 ilustra a codificação de um caractere de informação (101111011) em uma possível


representação por um sinal digital. Os desenhos que se seguem ilustram os efeitos de
diferentes larguras de banda sobre a composição do sinal.

Figura 8 – Efeitos da largura de banda sobre o sinal digital (STALLINGS, 2005).

TAXA DE TRANSMISSÃO

Outro conceito importante é a taxa de transmissão (bit rate) de um canal ou meio físico, que é
dada pela quantidade de bits que esse meio consegue transmitir por segundo.

Essa taxa pode ser expressa em bits por segundo (bps), kilobits por segundo (Kbps),
megabits por segundo (Mbps),
gigabits por segundo (Gbps).

Pelos conceitos estudados, sabemos que:


O sinal recebido pelo receptor é diferente do sinal que foi transmitido, pois sofreu todos os
efeitos introduzidos pelo canal de comunicação.

Esses efeitos degradam o sinal e podem gerar erros de bits, ou seja, erros de interpretação na
decodificação do sinal pelo receptor, em razão das alterações sofridas.

 VOCÊ SABIA

Além das distorções causadas pela banda passante limitada dos meios físicos, o sinal pode
sofrer também uma série de outras degradações, como:

ATENUAÇÃO
A atenuação é a perda de potência do sinal devido à passagem pelo meio de transmissão
(canal), fazendo com que a potência do sinal recebido pelo receptor seja menor do que a
potência do sinal no momento em que foi transmitido. Caso a potência seja muito baixa na
recepção (abaixo de determinado limiar), o sinal estará muito fraco e mais sujeito aos ruídos,
podendo gerar erros no receptor.

O sinal transmitido em espaço livre (meio físico) sem obstáculos, onde o transmissor e o
receptor são separados por uma distância d, sofre uma atenuação proporcional ao inverso do

quadrado da distância 1/d2.

Em outras palavras, a razão entre a potência do sinal recebido (Pr) e a potência do sinal

transmitido (Pt) é proporcional ao inverso do quadrado da distância: Pr/Pt ~ 1/d2 (RAPPAPORT,

2001). Para outros meios físicos e contextos de transmissão, as relações seguem outra
formulação.

RUÍDO
Pode ser entendido de forma ampla como sinais indesejados que são inseridos pelo meio físico
de transmissão, comprometendo a integridade do sinal.

Os ruídos são classificados em diversos tipos e podem ser provenientes de fontes distintas.
O tipo de ruído mais comum é o ruído térmico (ou ruído branco), que afeta todos os
sistemas, pois ocorre em função da agitação dos elétrons no meio físico em virtude da
temperatura.

O ruído térmico não pode ser eliminado completamente, limitando a capacidade máxima de um
sistema de comunicação. A figura 9 ilustra o efeito do ruído do canal sobre o sinal digital e os
erros de interpretação de bits por parte do receptor.

Figura 9 - Efeito do ruído sobre o sinal e a decodificação dos bits (STALLINGS, 2005)

MEIOS FÍSICOS DE TRANSMISSÃO


Os meios físicos de transmissão que compõem o canal de comunicação são classificados em:

GUIADOS

Sinal é confinado

NÃO GUIADOS

Transmissão em espaço aberto

Vamos conhecer melhor cada um?

MEIOS DE TRANSMISSÃO GUIADOS

São geralmente empregados como meios físicos guiados o cabo de par trançado, o cabo
coaxial ou o cabo de fibra óptica:

PAR TRANÇADO

A figura a seguir apresenta um diagrama esquemático do par trançado. Esse meio físico é
composto por dois fios de cobre em espiral. O trançado facilita o manejo e reduz interferências.
Cada par trançado pode representar um canal de comunicação isolado.

Assim como na figura acima, mais de um par é normalmente agrupado em um cabo com capa
protetora, sendo geralmente comercializado dessa forma.

É um dos meios físicos mais comuns para telefonia e redes locais prediais. As categorias mais
encontradas são: categoria 5, com banda passante de 100Mhz, e a categoria 7, com banda
passante de 1Ghz.
Figura 10 - Diagrama do par trançado (STALLINGS, 2005)

COAXIAL
O diagrama esquemático do cabo coaxial está representado na figura 11. O cabo é composto
de quatro elementos, de dentro para fora, no condutor interno (núcleo de cobre, isolador
dielétrico interno, malha de cobre e revestimento plástico). Devido à sua própria confecção, ele
é mais imune às interferências do que o par trançado, porém é menos flexível e usualmente
mais caro. Alcança bandas passantes da ordem de 500Mhz, sendo muito empregado até os
dias de hoje em redes de televisão a cabo.

Figura 11 - Diagrama do cabo coaxial

FIBRA ÓPTICA
A fibra ótica é o outro tipo de meio físico guiado bastante utilizado.

De forma diferente do par trançado e do cabo coaxial, na fibra óptica, os sinais são constituídos
de pulsos de luz; sendo assim, a fibra óptica não sofre interferências eletromagnéticas.

A fibra óptica é constituída de um filamento flexível e transparente fabricado a partir de vidro ou


plástico. Ela é composta de um material com maior índice de refração (núcleo) envolto por um
material com menor índice de refração (casca). Na Figura 12, o núcleo e o revestimento são
caracterizados por diferentes índices de refração da luz n1 > n2.

Figura 12 - Diagrama da fibra óptica.

Pela Lei de Snell, também conhecida como lei da refração da luz, existe uma relação direta
entre os índices e ângulos de incidência da luz, de forma que ela possa ser refletida e seguir se
propagando pelo interior da fibra, vide feixe de luz “a” da Figura 13. Esse é o princípio de
propagação dos sinais luminosos em uma fibra óptica.

Figura 13 - Reflexão total do raio de luz "a" e refração do raio de luz "b”.

LEI DE SNELL

Willebrord Snellius (1580 — 1626) foi um astrônomo e matemático holandês, mais conhecido
pela lei da refração (Lei de Snell-Descartes).

O par trançado e o cabo coaxial transportam o sinal eletromagnético. Na fibra óptica, o sinal é
propagado na forma de luz.

E quais as vantagens e desvantagens?

PAR TRANÇADO

Vantagens

Mais flexível e barato

Desvantagens

Enfrenta em maior escala o problema de interferências eletromagnéticas.

CABO COAXIAL
Vantagens

O sinal fica mais protegido de interferências quando comparado ao par trançado. Não precisa
de nenhum componente eletro-óptico (caso da fibra óptica).

Desvantagens

Menos flexível e mais pesado que o par trançado. Menos capacidade de transmissão de
informação que a fibra óptica.

FIBRA ÓPTICA

Vantagens

Possibilita altas taxas de transmissão de dados (elevada banda passante), apresenta baixa
atenuação com a distância, é imune a interferências eletromagnéticas e possui baixo peso.

Desvantagens

Pouca flexibilidade, custos mais elevados e conectorização mais difícil.

 VOCÊ SABIA

A fibra óptica é o meio fisico principal que garante a interconexão global das redes de dados.

A figura 14 ilustra as conexões por cabos submarinos que empregram as fibras ópticas como
meio de transmissão. Essa tecnlogia de meio funcionamento da Internet.

Embora as fibras oticas sejam amplamente utilizadas em enlaces de longas distâncias,


atualmente observa-se o emprego crescente desse material nas residências dos assinantes de
serviços de Internet.
Figura 14 - Conexões de cabos submarinos empregando fibra óptica como meio de
transmissão.

MEIOS DE TRANSMISSÃO NÃO GUIADOS


(ESPAÇO ABERTO)

A transmissão de sinais em meios não guiados se refere à transmissão em espaço aberto.

Nesse ambiente, uma série de sinais e ondas eletromagnéticas estão presentes e


compartilham o espaço em diferentes frequências.

É possível classificar as transmissões em meio não guiado (sem fio) de acordo com as
frequências das ondas utilizadas. A figura 15 ilustra o espectro eletromagnético e a
correspondente classificação.
Figura 15 - Espectro eletromagnético

De acordo com a figura 15, é possível separar as transmissões em espaço aberto em três
grandes grupos que apresentam características distintas: ondas de rádio (radiofrequência –
RF), micro-ondas e infravermelho. Cada grupo pode ainda ser dividido em subgrupos.

Os sinais de radiofrequência se espalham desde as centenas de Khz até, no máximo, poucas


unidades de Ghz. Estão incluídas nessa faixa as ondas de rádio AM e FM, a TV e a telefonia
celular. As redes Wi-Fi operam na faixa conhecida como ISM, nas frequências de 900Mhz,
2.4Ghz e 5Ghz.

Nessas faixas de frequência, o sinal transmitido é irradiado em diversas direções, o que


permite um bom suporte à mobilidade para as estações receptoras.

Na faixa das micro-ondas, os comprimentos de onda dos sinais são pequenos, e existe a
necessidade de haver um alinhamento entre as antenas dos transmissores e receptores dos
sinais (linha de visada). As frequências mais altas garantem elevadas bandas passantes para
os canais de micro-ondas, porém esses canais são mais suscetíveis às interferências
causadas pelas condições climáticas.

A figura 16 ilustra a comunicação via satélite que opera na faixa de micro-ondas tanto em
enlaces ponto a ponto quanto em enlaces do tipo broadcast.
Figura 16 - Enlaces de micro-ondas via satélite (STALLINGS, 2005)

O terceiro grupo emprega transmissões em frequências ainda mais elevadas na faixa do


infravermelho e dos lasers. Nessa faixa, também é necessário o alinhamento entre transmissor
e receptor. Geralmente, são empregados em enlaces de curto alcance, pois apresentam
dificuldade para transpor obstáculos.

VERIFICANDO O APRENDIZADO

MÓDULO 2

 Descrever a camada de enlace da arquitetura de redes de computadores

INTRODUÇÃO
A camada de enlace está situada imediatamente acima da camada física. Elas atuam juntas de
forma direta.

Conforme estudado no módulo 1, apresentamos diversos fatores que podem afetar a


transmissão do sinal no meio físico. Alguns desses fatores representam características do
meio, não sendo possível eliminá-los (como o ruído).

Os erros na recepção dos sinais são previstos e a camada física por si só não pode recuperá-
los, cabendo à camada de enlace controlá-los.

A camada de enlace é subdividida em duas subcamadas: LLC (Controle de Enlace Lógico) e


MAC (Controle de Acesso ao Meio). Suas funções são:

DELIMITAÇÃO DE QUADROS

CONTROLE DE ERROS

CONTROLE DE FLUXO

CONTROLE DE ACESSO AO MEIO

Figura 17 – Funções das subcamadas LLC e MAC

Estudaremos neste módulo a subcamada LLC responsável pelas três primeiras funções e, no
módulo 3, a subcamada MAC e sua função de controle de acesso ao meio. Vamos lá?

DELIMITAÇÃO DE QUADROS
(ENQUADRAMENTO)
Para o melhor desempenho de suas funções, a camada de enlace utiliza o quadro como
unidade de dados.

O quadro é um conjunto de bytes de informação que pode variar de tamanho conforme o


protocolo a ser utilizado.

Suponhamos que determinado transmissor tenha uma quantidade muito grande de dados para
transmitir ao receptor. Ao final dessa transmissão, percebe-se que, em algum momento, houve
um erro no sinal recebido por conta dos problemas do canal.

Dessa forma, o transmissor precisaria repetir toda a transmissão para garantir a informação
correta ao receptor. No entanto, se dividíssemos essa grande quantidade de dados em
conjuntos menores (quadros) e transmitíssemos quadro após quadro, havendo um erro na
transmissão, seria possível identificar qual quadro foi afetado.

Com isso, só repetiríamos a transmissão desse quadro, tornando o controle de erros muito
mais eficiente.

Entendendo a importância da utilização de quadros no nível de enlace, verificaremos como


criar os quadros, ou seja, como particionar os dados delimitando o início e o fim de cada
quadro.

Existem basicamente quatro técnicas para realizar o enquadramento dos dados e, em alguns
casos, as técnicas são combinadas:

Contagem de caractere;

Enquadramento por caractere;

Enquadramento por bit;

Violação de códigos do nível físico.

Vamos ver cada um deles a seguir:

CONTAGEM DE CARACTERE

Na técnica de contagem de caractere, a ideia é adicionar um campo no início do quadro,


informando o número total de caracteres presentes.

Ao receber o quadro, o receptor (RX) lê o campo de contagem e, a partir de então, consegue


determinar onde está o final do quadro.

O problema dessa técnica simples é que, se houver um erro justamente nesse campo de
contagem, o transmissor (TX) e o receptor (RX) terão interpretações diferentes sobre os
quadros e perderão completamente o sincronismo.

Veja o exemplo a seguir:


Figura 18 - Problema de sincronização entre o TX e o RX quando há um erro no campo de
contagem (TANENBAUM, 2011)

Devido ao problema, ilustrado na figura 18, a técnica de contagem de caractere só é utilizada


em conjunto com outras técnicas.

ENQUADRAMENTO POR CARACTERE

Na técnica de enquadramento por caractere, a ideia é utilizar caracteres especiais para


indicar o início (STX) e o fim do quadro (ETX). O transmissor insere essas marcas. Com
isso, o receptor fica sabendo exatamente onde começa e termina cada quadro.

Figura 19 - Enquadramento por caractere

Além disso, outros campos são incluídos no quadro, como os campos de sincronização (SYN),
cabeçalho (HEADER) e códigos para verificação de erros (CRC). A figura 20 ilustra o quadro
com todos esses campos.
Figura 20 - Técnica de enquadramento por caractere

Uma dificuldade que pode ocorrer com essa técnica é que o campo de dados representa as
informações do usuário, e a camada de enlace não tem controle sobre elas. Assim, pode estar
presente no campo de dados o padrão idêntico ao do caractere ETX. Ao receber o quadro e
percorrê-lo, o receptor interpretaria esse ETX como fim do quadro, o que seria um erro de
interpretação.

Qual é a solução para esse problema?

Software é, em primeiro lugar, a utilização de outro caractere especial (DLE) para indicar que,
imediatamente após esse caractere, aparecerá o caractere delimitador (STX ou ETX). Dessa
forma, um início de quadro seria marcado como DLE STX e um fim de quadro por DLE ETX.
Isso ainda não resolve o problema, pois o DLE também pode estar presente no campo de
DADOS do usuário.

A solução completa é implementada da seguinte forma: ao gerar o quadro, o transmissor


percorre o campo de DADOS do usuário em busca do padrão DLE. Encontrando esse padrão,
ele insere no campo de dados outro DLE (operação conhecida como caracter stuffing), e segue
normalmente com a construção do quadro.

Ao receber o quadro, o receptor analisa os caracteres do quadro e, ao se deparar com um


DLE, ele verifica qual é o próximo caractere. Caso seja outro DLE, ele sabe que este foi
inserido pelo transmissor. Assim, ele exclui esse DLE e continua varrendo o quadro. Caso o
caractere seguinte não seja outro DLE, mas um marcador (por exemplo, ETX), ele sabe que a
marcação está correta. A figura 21 exemplifica esse processo de caracter stuffing.
Figura 21 - Enquadramento por caractere, técnica conhecida como caracter stuffing
(TANENBAUM, 2011)

Uma desvantagem da técnica de enquadramento por caractere é ser orientada completamente


pela existência e pelo reconhecimento de caracteres. Uma alternativa similar a essa é o
enquadramento por bit, onde não há a necessidade de se trabalhar com caracteres, mas, sim,
com bits de dados.

ENQUADRAMENTO POR BIT

Nesta técnica, o delimitador de quadros é o flag – sequência padrão de bits, geralmente


01111110. Cada quadro começa e termina com uma marca flag. Havendo falta de sincronismo
por algum motivo, tudo o que o receptor tem a fazer é procurar por um flag para ficar
sincronizado com o transmissor novamente.

De forma análoga à técnica anterior, aqui também ocorre o stuffing. O transmissor percorre o
campo de DADOS todo e, ao perceber uma sequência de 5 bits “1”, ele insere um bit “0”, para
quebrar o padrão de flag. Ao percorrer o quadro e identificar 5 bits “1” seguidos, o receptor fica
alerta; se o próximo bit for “0”, ele sabe que esse bit foi inserido pelo transmissor, caso
contrário (o próximo bit for “1”) ele sabe que se trata de um delimitador de quadro, flag.
Figura 22 - Ilustração da técnica bit stuffing

VIOLAÇÃO DE CÓDIGOS DO NÍVEL FÍSICO

A última técnica de enquadramento estudada é conhecida como violação de códigos do nível


físico. A ideia é bastante simples: na transmissão do sinal no meio físico, o bit “1” é
representado por alguma característica ou variação do sinal, e o bit “0”, por outra.

Se o sinal puder apresentar ainda outras variações que não sejam utilizadas para codificar os
bits, essas variações podem ser utilizadas para marcar o início e o fim do quadro, tendo em
vista que não serão confundidas com os bits propriamente ditos.

Um exemplo é a codificação Manchester padronizada pelo IEEE para redes locais. Nesta
codificação, o bit “1” é representado por uma transição do sinal de alto para baixo, e o bit “0”,
pela transição contrária do sinal de baixo para alto. Assim, as outras duas transições (ou
ausência de transições), de baixo para baixo e de alto para alto, estão livres para serem
usadas como marcadores de quadro.
Figura 23 - Codificação Manchester. Transições alto-alto e baixo-baixo não são usadas.

Agora que você estudou as técnicas de delimitação de quadros, vamos ver o controle de erros
no nível de enlace.

CONTROLE DE ERROS (CODIFICAÇÃO)


Existem duas estratégicas básicas para o controle de erro no nível de enlace: open loop (malha
aberta, sem canal de retorno) e feedback (malha fechada, com canal de retorno).

OPEN LOOP

Na estratégia de open loop, a detecção e correção de erros são feitas completamente pelo
receptor. São empregados códigos especiais (FEC: Forward Error Correction) para inserir
informação redundante no quadro. Tudo isso para que, ao receber um quadro, o receptor:

Possa usar a codificação para verificar a integridade do quadro;

Havendo algum problema, possa, por si só, alterar o quadro para a forma correta.

A desvantagem dessa técnica é a necessidade de se inserir grande quantidade de informação


redundante no quadro, de forma que o receptor possa executar as duas tarefas listadas acima
sozinho. No entanto, pode ser a única solução, caso a transmissão não tenha canal de retorno.

 EXEMPLO
Um exemplo mais simples de código de correção de erros é o código hamming.

FEEDBACK

A estratégia feedback emprega apenas códigos de detecção de erros, isto é, insere


informação redundante que seja suficiente apenas para o receptor testar a integridade do
quadro. Havendo um problema, o receptor solicita ao transmissor que retransmita aquele
quadro. Assim, é necessário haver um canal de retorno do receptor ao transmissor, situação
comum em redes de dados, pois as estações geralmente precisam transmitir e receber dados.

 EXEMPLO

Um exemplo simples de código de detecção de erros é o bit de paridade, que é inserido ao final
do quadro. Assumindo a escolha da paridade par, o transmissor, ao transmitir o quadro, verifica
a quantidade de bits “1” presentes nele. Se houver um número par de números 1, a paridade
estará correta, e o bit de paridade receberá o valor “0”. Caso haja um número ímpar de bits “1”
a ser transmitido no quadro, o transmissor fechará a paridade par inserindo o bit “1” no campo
do bit de paridade. Ao receber o quadro, o receptor deve checar a paridade; se não for par,
certamente houve algum problema com a recepção do quadro, e ele deve solicitar uma nova
transmissão deste mesmo quadro.

O bit de paridade, apesar de ser simples e de fácil implementação, não é eficaz em muitos
casos, como, por exemplo, na situação em que houve um problema no sinal, fazendo com que
o receptor interprete erradamente dois bits do quadro. Assim, quando o receptor fizer o teste, a
paridade estará correta, e o receptor não perceberá o erro na recepção do quadro. Dessa
forma, outros códigos de detecção mais poderosos foram desenvolvidos e padronizados para
uso em redes de computadores, como, por exemplo, o CRC (Verificação Cíclica de
Redundância), conforme ilustrado no quadro da figura 20 (STALLINGS, 2004).

FIGURA 20

Figura 20 - Técnica de enquadramento por caractere

Depois de termos estudado as técnicas de enquadramento e codificação, entendemos como os


quadros podem ser formados e como o receptor é capaz de verificar se houve ou não erro na
recepção do quadro. Falta agora estudarmos como as retransmissões são realizadas
automaticamente por meio de protocolos de enlace.
VÍDEO
Assista ao vídeo a seguir e veja a construção de um desses protocolos gradativamente,
acrescentando apenas a cada passo a função estritamente necessária para o seu
funcionamento.

CONTROLE DE FLUXO
Outra operação que pode ser implementada aproveitando-se dos protocolos ARQ é o controle
de fluxo.

O objetivo desse controle é evitar que um transmissor mais rápido acabe sobrecarregando um
receptor mais lento com o envio de quadros a uma velocidade mais rápida que o receptor é
capaz de suportar, causando um “afogamento” no receptor.

Esse descompasso não é desejável, pois o receptor vai acabar descartando os quadros novos
e o transmissor teria que retransmiti-los em um outro momento.

Uma forma do receptor dosar a velocidade de transmissão de quadros quando estiver


empregando os protocolos da família ARQ é simplesmente retardando o envio dos ACKs.

Desta forma, o receptor consegue reduzir a velocidade com que novos quadros são inseridos
no canal por parte do transmissor. O receptor pode inclusive reter todos os ACKs em um
determinado momento o que causaria timeouts no transmissor e a pausa na transmissão de
novos quadros.

Assim que o receptor estivesse pronto, bastaria enviar os ACKs para que a comunicação fosse
reestabelecida e seguisse com os novos quadros.
VERIFICANDO O APRENDIZADO

MÓDULO 3

 Descrever a subcamada de acesso a meio

INTRODUÇÃO
Como vimos, a camada de enlace é subdividida em duas subcamadas: LLC (Controle de
Enlace Lógico), conforme abordado no módulo 2, e MAC (Controle de Acesso ao Meio), para
lidar com o problema de acesso em enlaces multiponto, tema deste módulo.

Vamos ver a seguir?

A figura 24 ilustra uma rede de computadores composta de quatro redes locais (LANs)
conectadas por uma sub-rede. Na sub-rede os roteadores são conectados por enlaces ponto a
ponto, enquanto nas LANs as estações estão ligadas a enlaces multiponto.

Os enlaces ponto a ponto são dedicados e o fluxo de informação segue sempre de um único
transmissor a um único receptor. Já os enlaces multiponto são de uso compartilhado entre
transmissores e receptores diferentes.

Figura 24 - Rede de computadores com quatro redes locais (LANs) conectadas por uma sub-
rede e empregam enlaces multiponto (broadcast)
(TANENBAUM, 2011)

Nas ligações multiponto, o enlace é compartilhado por diversas estações, porém, para que uma
transmissão seja recebida com sucesso pela estação receptora, é necessário que cada
estação transmissora envie seus dados em momentos diferentes.

Havendo mais de uma transmissão ao mesmo tempo no enlace multiponto, a estação


receptora não terá condições de decodificar o sinal – fenômeno conhecido como colisão.

Desta forma, em enlaces multiponto, é necessário haver uma regra de acesso a fim de
organizar as transmissões, evitando (ou minimizando), com isso, as colisões.

O uso do recurso compartilhado, no caso o enlace multiponto, requer o emprego de


protocolos de controle de acesso ao meio, o que constitui a principal função da
subcamada MAC.

Em suma, o controle de acesso ao meio se faz necessário sempre que houver contenção
(disputa) de múltiplas estações pelo acesso ao meio de transmissão.

Vamos ver outro exemplo?

Redes móveis celulares nas quais o uplink (canal de subida dos terminais celulares para a
estação-base) é compartilhado pelos usuários móveis.

COMO SOLUCIONAR OS PROBLEMAS


As soluções para o problema de compartilhamento de enlaces entre múltiplas estações podem
ser divididas em três grandes grupos:

Alocação estática;

Contenção;

Acesso ordenado.

VÍDEO
O Professor Ronaldo Salles explica essas três estratégias no vídeo.

Vamos ver os protocolos que aplicam essas soluções a seguir.


PROTOCOLOS BASEADOS EM ALOCAÇÃO
ESTÁTICA

A figura 25 apresenta uma ilustração de duas técnicas de alocação estática bastante comuns:

Figura 25 – Técnicas de alocação estática do canal (FDMA e TDMA).

FDMA
(Acesso Múltiplo por Divisão em Frequência)

A largura de banda W do enlace compartilhado é dividida em N, formando, assim, N canais


individuais. Cada estação transmissora, ao ingressar no sistema, recebe a alocação estática de
um desses subcanais e pode utilizá-la de forma exclusiva com o seu par até o momento de
desconexão.

TDMA
(Acesso Múltiplo por Divisão no Tempo)

A divisão ocorre em função do tempo, onde o tempo de uso do canal é dividido em N fatias (ou
slots). Cada estação recebe um slot designado a ela para as suas transmissões com a estação
receptora.

Apesar de resolver o problema de compartilhamento do enlace, as técnicas de alocação


estática, como as ilustradas anteriormente, apresentam algumas desvantagens:

1
Existe um número máximo de estações que podem ser atendidas pelo sistema. No exemplo,
esse número é representado por N. Com a chegada de mais uma estação ao sistema (N+1),
ela será bloqueada por falta de recursos.

2
Nessas técnicas, é comum haver desperdício de recursos. Imagine que determinada estação é
alocada para utilizar determinado canal. Se essa estação, em algum momento, não tiver nada
a transmitir, o canal ficará ocioso e não poderá ser utilizado por outra estação. Como o tráfego
de dados ocorre em rajadas (períodos de muita atividade seguidos por períodos de silêncio),
essas técnicas podem causar desperdícios significativos de recursos.

Tradicionalmente, elas são mais empregadas para o tráfego telefônico (voz), daí o seu uso ter
sido mais difundido em redes de telefonia fixa e em redes de telefonia celular.

PROTOCOLOS QUE EMPREGAM CONTENÇÃO

Um dos primeiros protocolos a empregar a contenção como técnica de compartilhamento do


enlace foi o protocolo ALOHA, no início da década de 1970, na Universidade do Havaí
(ABRAMSON, 2009).

A figura 26 ilustra o cenário de aplicação do protocolo ALOHA na época. Existia uma unidade
central de processamento (um computador mainframe) que deveria ser acessada por terminais
remotos espalhados pela universidade.

Observe que, nesse caso, ambos compartilhavam os recursos da CPU e do canal sem fio para
as transmissões e acesso à CPU.
Figura 26 – Cenário de aplicação do protocolo ALOHA.

A solução empregada para o acesso ao meio físico foi bastante direta. Se determinado terminal
tivesse algo a transmitir, ele simplesmente faria isso usando a sua interface rádio sem qualquer
tipo de regra ou restrição. Caso houvesse também outro terminal na mesma situação, a colisão
seria certa. Nesse caso, o que precisaria ser feito era o tratamento da colisão.

O terminal a transmitir não sabia se a transmissão seria bem-sucedida ou não (colisão); tudo o
que ele tinha a fazer era aguardar a confirmação (ACK) enviada no sentido contrário pela
estação central (na figura, CPU). Quando a confirmação era recebida, o terminal entendia que
a transmissão foi um sucesso. Caso contrário, o terminal ficava ciente de que houve uma
colisão com a transmissão de outro terminal.

O protocolo ALOHA determinava, então, que, em uma situação de colisão, o terminal


precisaria sortear um número aleatório de espera e só poderia tentar novamente a transmissão
após esse tempo. Como os intervalos de tempo de espera para cada terminal eram sorteados
aleatoriamente, os terminais acabariam transmitindo em momentos diferentes, evitando novas
colisões.

A solução empregada pelo protocolo ALOHA era bastante simples, e isso ocasionava baixo
desempenho para a rede como um todo. O melhor desempenho teórico do protocolo ALOHA
pode ser calculado como 18%, ou seja, na melhor hipótese, apenas 18% dos casos seriam
caracterizados como transmissões bem-sucedidas (TANENBAUM, 2011).
O baixo desempenho do protocolo ALOHA motivou o desenvolvimento de protocolos mais
elaborados:

S-ALOHA
A ideia imediata era reduzir os eventos em que as colisões pudessem ocorrer. Levando isso
em consideração, foi desenvolvido o S-ALOHA (ALOHA com slots de tempo). Assim, o
terminal só poderia transmitir algo sempre no início de cada slot, fazendo com que o número de
eventos de colisão ocorresse apenas nesses momentos. O desempenho do S-ALOHA era
duas vezes maior do que o desempenho do ALOHA, mas, ainda assim, isso era considerado
muito baixo.

CSMA
Na tentativa de reduzir as colisões, foi desenvolvido o protocolo CSMA (Acesso múltiplo com
Detecção de Portadora). Para reduzir os eventos de colisão, os terminais que empregam o
CSMA “escutam” o meio físico antes de transmitir e só realizam a transmissão ao perceberem
que o meio está livre, ou seja, não existe outro terminal transmitindo naquele momento (não foi
possível detectar a presença de algum sinal no meio).

As colisões ainda podem ocorrer no CSMA se o meio estiver livre e mais de um terminal estiver
“escutando” o meio antes de transmitir. Com o meio livre, esses terminais transmitem ao
mesmo tempo, gerando a colisão. A detecção de um evento de colisão acontece tal como no
ALOHA, ao aguardar a confirmação ACK do terminal receptor. Havendo colisão, os terminais
aguardam um intervalo de tempo sorteado aleatoriamente. Depois disso, tentam iniciar
novamente a transmissão.

Na verdade, o CSMA é uma família de protocolos que podem ter variações quanto ao
momento de iniciar uma transmissão no canal. A figura 27 relaciona em um gráfico o
desempenho dos protocolos ALOHA, S-ALOHA e as variações do CSMA em um sistema
teórico com cem terminais (TANENBAUM, 2011).
Figura 27 - Desempenho dos protocolos para um sistema com cem terminais (TANENBAUM,
2011)

No eixo das ordenadas, o parâmetro S indica a proporção de eventos de transmissão com


sucesso (de 0 a 1 ou, analogamente, de 0% a 100%), e, no eixo das abcissas G, a intensidade
de tráfego que os terminais impõem ao canal (quantidade de pacotes de dados enviados pelos
terminais a cada tempo).

Pode-se observar que a curva do ALOHA (na figura, ele é chamado de Pure ALOHA) é a curva
mais baixa e apresenta o seu pico (melhor resultado) em torno dos 18%, conforme já
mencionado. É interessante observar também que, à medida que o G (intensidade de tráfego)
aumenta, o desempenho do ALOHA diminui até entrar em pleno colapso – desempenho
praticamente nulo. O mesmo ocorre para outras curvas, mas tal ponto de colapso é atingido
para valores de intensidade de tráfego cada vez maiores, indicando melhores desempenhos
em situações de mais alta carga. O destaque fica mesmo para o 0.01 persistent CSMA, que
apresenta, no cenário teórico de estudo, um desempenho de quase 100% (TANENBAUM,
2011).

Outro protocolo da família do CSMA que vale a pena destacar é o CSMA/CD (Acesso múltiplo
com detecção de portadora e detecção de colisão), que foi padronizado pelo IEEE por meio da
série IEEE802.3 (ETHERNET), para ser utilizado em redes locais cabeadas.

O CSMA/CD emprega uma função de detecção antecipada de colisão. Em vez de aguardar


pela mensagem de reconhecimento (ACK), o CSMA/CD é capaz de perceber a ocorrência de
uma colisão no momento em que o terminal estiver transmitindo o seu próprio pacote de dados.
Assim, é possível interromper antecipadamente uma transmissão que não teria sucesso. Essa
detecção antecipada reduz os tempos de colisão, que ficariam ocupando desnecessariamente
o canal.

PROTOCOLOS DE ACESSO ORDENADO

Na última categoria de protocolos, encontramos aqueles que garantem o acesso ordenado ao


meio físico, e, portanto, são livres de colisões.

São várias as possibilidades dentro dessa categoria, mas nos concentraremos nos protocolos
que utilizam passagem de permissão.

Permissão nada mais é do que um quadro especial que circula pela rede. Com isso, a estação
que capturar a permissão terá o direito de realizar a transmissão.

Todas as outras estações que não possuem a permissão ficam impedidas de realizar uma
transmissão no enlace compartilhado. Após a sua transmissão, a estação devolve a permissão
para a rede, a fim de que outra estação consiga transmitir.

Dois protocolos de passagem de permissão foram padronizados pelo IEEE:

TOKEN RING (PASSAGEM DE PERMISSÃO EM ANEL)


Observe a figura 28 a seguir:

Figura 28 - (a) Rede de passagem de permissão em anel, (b) diagrama do funcionamento da


interface de cada estação (TANENBAUM, 2011)

a) Topologia de rede de passagem de permissão em anel:


As estações são conectadas em uma estrutura topológica em anel para que a permissão
(token) possa circular pelo anel. Quando a estação deseja transmitir, ela captura a permissão e
realiza a sua transmissão. Após esse momento, ela libera novamente a permissão para circular
pelo anel e permitir que outra estação possa também receber a permissão e realizar a sua
transmissão.

b) Formas de operação das interfaces de cada estação com o anel:

A figura superior mostra o comportamento padrão da interface durante o modo de escuta do


barramento em anel, enquanto a figura inferior ilustra a interface da estação quando no modo
de transmissão. Durante a transmissão, a estação abre a interface com o anel para capturar o
token e também para inserir o seu quadro de informação no barramento.

O padrão IEEE 802.5 token ring especifica ainda uma série de modos de operação para o anel
e as funções de gerência necessárias para o controle do token, contribuindo, assim, para o
bom funcionamento da rede.

TOKEN BUS (PASSAGEM DE PERMISSÃO EM BARRA)


As redes de passagem em permissão em barra, padrão IEEE 802.4, são semelhantes às redes
em anel, porém as estações são conectadas em um barramento. Elas caracterizam um bom
exemplo de topologia física (conexão física das estações) em barra e topologia lógica (dada
pelo funcionamento do protocolo) em anel, conforme ilustra a figura 29.

Figura 29 – Funcionamento do Token Bus (TANEMBAUM, 2011)

A motivação para a padronização de tais redes veio do setor industrial e fabril, que opera com
as suas máquinas em linhas de produção, o que exige como pré-requisito uma rede com
topologia em barra.
Nas redes token bus, as estações possuem um número de identificação (endereço físico) e
cada estação conhece os endereços das estações vizinhas. Assim como no token ring, existe
um quadro especial de controle (token) que regula o acesso ao meio de transmissão. A
estação que possui o token (uma por vez – não há colisões) tem garantia de transmissão por
determinado espaço de tempo. O token “circula” pelas estações no sentido decrescente dos
endereços, formando um anel lógico.

Embora as tecnologias token ring e token bus não sejam mais utilizadas em redes locais, as
soluções são elegantes e foram cuidadosamente especificadas e padronizadas.

O estudo das soluções se justifica, pois as técnicas de passagem de permissão têm emprego
amplo na área de redes, principalmente em problemas de compartilhamento e alocação de
recursos entre múltiplos usuários.

IEEE

É a maior organização profissional do mundo, responsável por diversos padrões nos campos
de engenharia elétrica, eletrônica e telecomunicações e pelo desenvolvimento tecnológico e da
pesquisa nessas áreas.

ETHERNET

Lançado inicialmente em 1983 pelo IEEE, o padrão ETHERNET (IEEE 802.3) foi um padrão
desenvolvido para as redes locais de computadores. Esse padrão utiliza o protocolo CSMA/CD
com técnica de controle de acesso ao meio.

VERIFICANDO O APRENDIZADO

CONCLUSÃO
CONSIDERAÇÕES FINAIS
Este tema cobriu os assuntos referentes à camada física e à camada de enlace da arquitetura
de redes de computadores. Foram explorados diversos conceitos, problemas e soluções
desenvolvidos para o correto funcionamento dos protocolos nas redes de computadores. O
conteúdo apresentado é fundamental para o entendimento da área e para possibilitar ao aluno
uma visão ampla e crítica sobre o funcionamento das redes de computadores.

 PODCAST

AVALIAÇÃO DO TEMA:

REFERÊNCIAS
ABRAMSON, N. The ALOHAnet – Surfing for Wireless Data, IEEE Communications Magazine.
47(12): 21–25. Consultado em meio eletrônico em: 23 jan. 2020.

BERTSEKAS, D.; GALLAGER, R. Data Networks. 2. ed. São Paulo: Prentice Hall, 1992.

KLEINROCK, L. History of the Internet and its flexible future. IEEE Wireless
Communication. Vol. 15. Consultado em meio eletrônico em: 23 jan. 2020.

KUROSE, F.; ROSS, K. Redes de Computadores e a Internet. 5. ed. São Paulo: Pearson,
2010.
MOON, TODD. Error Correction Coding: Mathematical Methods and Algorithms, John Wiley
& Sons, 2005.

RAPPAPORT. T. Wireless Communications: Principles and Practice. 2. ed. São Paulo:


Prentice Hall, 2001.

STALLINGS, W. Data and Computer Communications. 7. ed. São Paulo: Pearson, 2004.

STALLINGS, W. Redes e Sistemas de Comunicação de Dados. 1. ed. São Paulo: Altabooks,


2018.

TANENBAUM, A. Redes de Computadores. 5. ed. São Paulo: Pearson, 2011.

EXPLORE+
Para saber mais sobre o código hamming, consulte o livro Error Correction Coding:
Mathematical Methods and Algorithms, dos autores Moon e Todd.

CONTEUDISTA
Ronaldo Moreira Salles

 CURRÍCULO LATTES
DEFINIÇÃO
Princípios teóricos de segurança e administração de redes de computadores. Ferramentas para o alcance de um nível
adequado de segurança e gerência de redes.

PROPÓSITO
Conhecer os riscos da operação e da utilização de redes de computadores, bem como os protocolos de segurança e
os tipos de ferramentas adequadas para a administração e o gerenciamento de tais processos.

OBJETIVOS

MÓDULO 1
Identificar os riscos de segurança nas redes de computadores

MÓDULO 2

Selecionar softwares e tipos de equipamentos adequados para a diminuição dos riscos de segurança nas redes

MÓDULO 3
Reconhecer a arquitetura de gerenciamento de redes

 Identificar os riscos de segurança nas redes de computadores

INTRODUÇÃO
A internet é uma rede comercial que pode ser utilizada por
qualquer pessoa ou empresa em todos os cantos do
mundo. Com isso, possíveis problemas de segurança
afloram.

Pessoas mal-intencionadas utilizam essa rede para realizar


atividades maliciosas, como roubo de informações e de
identidade, paralisação de serviços etc.

Por isso, o tópico segurança destaca-se atualmente como


uma das grandes preocupações dos administradores de
Fonte: Shutterstock
redes. Garantir a segurança na comunicação de dados
passou a ser uma das questões cruciais na utilização da
internet.

É fundamental que tanto usuários quanto profissionais de


tecnologia da informação (TI) tenham conhecimento dos
riscos no uso da rede e saibam identificar ferramentas
capazes de minimizá-los.

DEFINIÇÕES
Para identificar os riscos relacionados ao uso de uma rede de computadores, é importante conhecer algumas
definições. Por conta disso, iremos nos basear na norma ABNT NBR ISO IEC 27001:2013, reconhecida mundialmente
como uma referência na área de segurança. Essa norma apresenta as seguintes definições:

AMEAÇA
Causa potencial de um incidente indesejado que pode resultar em danos a um sistema ou organização.

ATAQUE
Tudo aquilo que tenta destruir, expor, alterar, desativar, roubar, obter acesso não autorizado ou fazer uso não
autorizado de um ativo.

ATIVO
Qualquer coisa que tenha valor para uma pessoa ou organização. Exemplo: os dados do cartão de crédito, um projeto
de uma empresa, um equipamento e até mesmo os colaboradores de uma empresa podem ser definidos como ativos
humanos.

Como é possível perceber nessas definições, a ameaça está relacionada a algo que pode comprometer a segurança,
enquanto o ataque é a ação efetiva contra determinado ativo.

 IMPORTANTE

Um incidente de segurança ocorre quando uma ameaça se concretiza e causa um dano a um ativo.

Se uma ameaça se concretizou e causou um dano, isso significa que alguma propriedade da segurança foi
comprometida.

TRÊS PROPRIEDADES SÃO TRATADAS COMO OS PILARES DA


SEGURANÇA: CONFIDENCIALIDADE, INTEGRIDADE E
DISPONIBILIDADE (CID).

Além delas, outras propriedades também são importantes no contexto de segurança. A norma ABNT NBR ISO IEC
27001:2013 destaca as seguintes:


CONFIDENCIALIDADE

Propriedade cuja informação não está disponível para pessoas, entidades ou processos não autorizados. Em outras
palavras, a confidencialidade está relacionada ao sigilo dos dados. Somente entes autorizados podem acessá-los.


INTEGRIDADE

Propriedade que protege a exatidão e a completeza de ativos. Trata-se da indicação de que o dado não foi adulterado.
Exemplo: um ativo permanece intacto após ser armazenado ou transportado.


DISPONIBILIDADE
Propriedade de tornar o dado acessível e utilizável sob demanda por fontes autorizadas. Se uma pessoa ou um
processo autorizado quiser acessar um dado ou equipamento, ele estará em funcionamento.


AUTENTICIDADE

Propriedade que assegura a veracidade do emissor e do receptor de informações trocadas. A autenticidade assevera
que quem está usando ou enviando a informação é realmente uma determinada pessoa ou processo. Em outras
palavras, garante a identidade.


NÃO REPÚDIO OU IRRETRATABILIDADE

Propriedade muito importante para fins jurídicos. Trata-se da garantia de que o autor de uma informação não pode
negar falsamente a autoria dela. Desse modo, se uma pessoa praticou determinada ação ou atividade, ela não terá
como negá-la. O não repúdio é alcançado quando a integridade e a autenticidade são garantidas.


CONFIABILIDADE

Propriedade da garantia de que um sistema vai se comportar segundo o esperado e projetado. Exemplo: se
determinado equipamento foi projetado para realizar uma operação matemática, esse cálculo será realizado
corretamente.


LEGALIDADE

Propriedade relacionada com o embasamento legal, ou seja, ela afere se as ações tomadas têm o suporte de alguma
legislação ou norma. No caso do Brasil, podemos citar o Marco Civil da Internet , a Lei Geral de Proteção de Dados
(LGPD) e o conjunto de normas 27.000 da ABNT.

Os mecanismos de proteção se relacionam a práticas,


procedimentos ou mecanismos capazes de proteger os
ativos contra as ameaças, reduzindo ou eliminando
vulnerabilidades. Além disso, eles evitam que uma dessas
propriedades sejam comprometidas.

Fonte: Shutterstock

TIPOS DE ATAQUES
Para haver a identificação dos riscos, será necessário entender e classificar os tipos de ataques que podem ser
realizados contra uma rede de computadores.

Interligadas, as tabelas a seguir apresentam os critérios de classificação desses tipos e as suas descrições:

ATAQUES DESCRIÇÃO TIPOS

Ataques de interrupção

Ataques de modificação

Tentam alterar os recursos do sistema ou afetar a sua


ATIVOS
operação. Ataques de fabricação ou
personificação

Ataques de repetição

Tentam descobrir ou utilizar as informações do sistema sem o


PASSIVOS Ataques de interceptação
objetivo de afetar seus recursos.

Tabela 1: Classificação primária dos tipos de ataques.

CRITÉRIOS TIPOS DESCRIÇÃO ATAQUES


Ataques Realizados dentro da própria rede. O atacante
internos e a vítima estão na mesma rede (doméstica ou
(inside attack) corporativa).

PONTO DE
INICIAÇÃO Ataques
externos Feitos a partir de um ponto externo à rede da
(outside vítima.
attack)

Ataques O atacante, sem a ajuda de terceiros, realiza


diretos uma ação diretamente contra a vítima.
MÉTODO
DE
O atacante emprega terceiros, ou seja, outros
ENTREGA Ataques
usuários da rede, para que o ataque seja
indiretos
realizado.

Ataques de Buscam obter informações que trafegam na Ataques passivos


interceptação rede, atacando a confidencialidade. (predominantemente)

Seu objetivo é indisponibilizar um ou mais


Ataques de serviços de rede por meio do excesso de
interceptação informação ou simplesmente desligando o
equipamento.

Ocorrem quando um atacante tem acesso não


Ataques de autorizado a um sistema ou a uma rede e
modificação modifica o conteúdo das informações ou as
OBJETIVO
configurações de um sistema.

Ataques ativos

Ataques de
Pretendem a quebra, principalmente, da
fabricação ou
autenticidade de um serviço ou de uma rede.
personificação

Uma entidade maliciosa intercepta e repete


uma transmissão de dados válida que trafega
Ataques de
através de uma rede para produzir um efeito
repetição
não autorizado, como a redundância de
pedidos de um item.

Tabela 2: Classificação secundária dos tipos de ataques.


ATAQUES ATIVOS E PASSIVOS

TERCEIROS

O uso de terceiros pode amplificar o poder de ataque ao, por exemplo, aumentar o volume de tráfego contra a
vítima em um ataque contra a disponibilidade.

Neste vídeo, apresentaremos as principais características dos ataques passivos e ativos. Para saber mais sobre
Ataques Ativos e Passivos, clique aqui.

ETAPAS DE UM ATAQUE
Precisamos dividir um ataque em sete etapas para poder
analisá-lo de forma mais criteriosa:
Reconhecimento;

Armamento (weaponization);

Entrega (delivery);

Exploração;

Installation;

Comando e controle;

Conquista.

Fonte: Shutterstock

Os atacantes passam a ter mais privilégios no alvo à medida que avançam nas etapas. Portanto, pelo lado da defesa,
o objetivo é pará-los o mais cedo possível para diminuir o dano causado.

Analisaremos a seguir cada uma dessas etapas.

1. RECONHECIMENTO:
Na primeira etapa, o ator da ameaça realiza uma pesquisa para coletar informações sobre o local a ser atacado. Trata-
se de uma fase preparatória na qual o atacante procura reunir o máximo de informações sobre o alvo antes
de lançar um ataque ou analisar se vale a pena executá-lo.

As informações podem ser obtidas por meio de diversas fontes:

Sites;

Dispositivos de rede voltados para o público;

Artigos de notícias;

Anais de conferências;

Meios de comunicação social.

Qualquer local público é capaz de ajudar a determinar o que, onde e como o ataque pode ser realizado. O atacante
escolhe alvos negligenciados ou desprotegidos, pois eles possuem a maior probabilidade de serem penetrados e
comprometidos.

2. ARMAMENTO (WEAPONIZATION):

Após a coleta de informações, o atacante seleciona uma arma a fim de explorar as vulnerabilidades dos sistemas. É
comum utilizar a expressão exploits para essas armas, que podem estar disponíveis em sites na internet ou ser
desenvolvidas especificamente para determinado ataque.

O desenvolvimento de uma arma própria dificulta a detecção pelos mecanismos de defesa. Essas armas próprias são
chamadas de zero-day attack.

Após o emprego da ferramenta de ataque, espera-se que o atacante tenha conseguido alcançar seu objetivo: obter
acesso à rede ou ao sistema que será atacado.

3. ENTREGA (DELIVERY)

Nesta fase, o atacante entrega a arma desenvolvida para o alvo. Para essa entrega, podem ser utilizados diversos
mecanismos. Eis alguns exemplos:
Mensagens de correio eletrônico (e-mail);

Mídias USB;

Websites falsos ou infectados;

Interação nas redes sociais.

O atacante pode usar um método ou uma combinação de métodos para aumentar a chance de entrega do exploit. Seu
objetivo é fazer com que a arma pareça algo inocente e válido, pois ludibriar o usuário permite que ela seja entregue.

Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails com algum assunto
aparentemente de interesse da vítima. Nesta mensagem, existe um link ou um anexo malicioso que serve de meio de
entrega da arma na máquina alvo.

4. EXPLORAÇÃO

A etapa de exploração ocorre quando o atacante, após entregar a arma, explora alguma vulnerabilidade (conhecida ou
não) na máquina infectada em busca de outros alvos dentro da rede de destino. As vulnerabilidades que não são
publicamente conhecidas são chamadas de zero-day.

No caso do emprego de phishing, a exploração ocorre quando o e-mail recebido é aberto e o usuário clica no link ou
abre o anexo, instalando um software malicioso que infecta a sua máquina. Isso permite o controle dela por parte do
autor do ataque.

A partir desse momento, o atacante obtém acesso ao alvo, podendo obter as informações e os sistemas disponíveis
dentro da rede atacada.

Os alvos de exploração mais comuns são aplicativos, vulnerabilidades do sistema operacional e pessoas.

5. INSTALLATION

A partir da exploração da máquina realizada na fase anterior, o atacante busca instalar algum tipo de software que
permita a manutenção do acesso à máquina ou à rede em um momento posterior.

Para essa finalidade, é instalado no sistema alvo um Remote Access Trojan (RAT). Conhecido também como
backdoor, o RAT permite ao atacante obter o controle sobre o sistema infectado.

Pelo lado do atacante, é importante que o acesso remoto não alerte nenhum sistema de proteção e permaneça ativo
mesmo após varreduras por sistemas de segurança da rede de destino.

O atacante pode usar um método ou uma combinação de métodos para aumentar a chance de entrega do exploit. Seu
objetivo é fazer com que a arma pareça algo inocente e válido, pois ludibriar o usuário permite que ela seja entregue.

Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails com algum assunto
aparentemente de interesse da vítima. Nesta mensagem, existe um link ou um anexo malicioso que serve de meio de
entrega da arma na máquina alvo.

6. COMANDO E CONTROLE
A partir do momento em que um RAT (backdoor) é instalado no sistema alvo, o atacante passa a ter um canal de
comunicação com o software instalado no alvo.

Denominado comando e controle, tal canal possibilita o envio de comandos para realizar ataques na própria rede
local ou para atacar a rede de terceiros, caracterizando, assim, um ataque indireto.


7. CONQUISTA

Quando o atacante chega à última etapa, isso é um indício de que o objetivo original foi alcançado. A partir de agora,
ele pode roubar informações, utilizar o alvo para realizar ataques de negação de serviço, envio de spam, manipulação
de pesquisas ou jogos online, entre outras atividades.

Nesse ponto, o agente de ameaças já está profundamente enraizado nos sistemas da organização, escondendo seus
movimentos e cobrindo seus rastros.

É extremamente difícil remover o agente de ameaças da rede quando ele já chegou a esta fase.

 SAIBA MAIS

Vamos analisar a seguinte noticia:

“Brasil sofreu 15 bilhões de ataques cibernéticos em apenas três meses. A questão não é mais ‘o que podemos
fazer se sofrermos um ataque cibernético?’, mas, sim, ‘o que podemos fazer quando sofremos um ataque
cibernético?’”

(Fonte: TECMUNDO, 2019)

Ao analisarmos o caso, percebemos a importância da análise dos riscos relacionados ao uso de uma rede de
computadores sem a devida proteção.

Pesquise outras situações similares e procure perceber a intervenção dos mecanismos de proteção nesses casos.

VERIFICANDO O APRENDIZADO

1. OS ATAQUES PODEM SER CLASSIFICADOS DE DIVERSAS FORMAS: ATIVO OU


PASSIVO, INTERNO OU EXTERNO, DIRETO OU INDIRETO. OS PASSIVOS SÃO OS DE
INTERCEPTAÇÃO; OS ATIVOS, OS DE MODIFICAÇÃO, INTERRUPÇÃO, PERSONIFICAÇÃO
OU REPETIÇÃO.

CONSIDERE QUE VOCÊ ESTEJA REALIZANDO A COMPRA ONLINE DE UMA CANETA. AO


VERIFICAR O EXTRATO DE SUA CONTA, PERCEBE QUE HAVIA DUAS COBRANÇAS DO
MESMO VALOR. ESSE TIPO DE EVENTO PODE SER ASSOCIADO AO ATAQUE DE:

A) Modificação, porque o atacante modificou a transação, permitindo que a operação fosse executada duas vezes.

B) Repetição, pois o atacante capturou os pacotes com as informações de pagamento e os enviou novamente para a
cobrança no banco.
C) Interceptação, uma vez que o atacante monitorou a transação e, percebendo a troca de informações financeiras,
repetiu a operação.

D) Personificação, já que o atacante assumiu a identidade da loja online, repetindo a operação financeira.

2. UMA DAS GRANDES AMEAÇAS EXISTENTES NA INTERNET É A CHAMADA APT. SIGLA


PARA ADVANCED PERSISTEN THREAT, ELA SE REFERE A ATAQUES DIRECIONADOS DE
ORGANIZAÇÕES A DETERMINADAS ORGANIZAÇÕES E EMPRESAS.

IMAGINE QUE VOCÊ, APÓS SER CONVOCADO PARA ANALISAR AS AÇÕES DE UMA APT,
TENHA PERCEBIDO QUE ELA ESTAVA ENVIANDO E-MAILS A DETERMINADA EMPRESA
COM UM ANEXO POSSIVELMENTE MALICIOSO.

A ETAPA DE ATAQUE IDENTIFICADA ESTÁ RELACIONADA COM:

A) Conquista, porque a APT obteve acesso a um endereço de e-mail válido da empresa.

B) Installation, pois a APT enviou a arma para obter acesso ao alvo.

C) Exploração, uma vez que a APT se aproveitou de uma vulnerabilidade no sistema de e-mail.

D) Entrega, já que a APT utilizou um meio de entregar a arma a seu alvo.

GABARITO

1. Os ataques podem ser classificados de diversas formas: ativo ou passivo, interno ou externo, direto ou
indireto. Os passivos são os de interceptação; os ativos, os de modificação, interrupção, personificação ou
repetição.

Considere que você esteja realizando a compra online de uma caneta. Ao verificar o extrato de sua conta,
percebe que havia duas cobranças do mesmo valor. Esse tipo de evento pode ser associado ao ataque de:

A alternativa "B " está correta.

O ataque de repetição permitiu que fosse debitado duas vezes o mesmo valor de sua conta. Como o atacante capturou
os pacotes que realizam a transação financeira, ele pôde modificar a conta de destino e – considerando que os dados
da transação estivessem presentes no pacote – receber o valor cobrado. Esse mesmo ataque pode ser utilizado
quando um atacante captura pacotes de autenticação, permitindo o acesso a determinada rede ou sistema.

2. Uma das grandes ameaças existentes na internet é a chamada APT. Sigla para Advanced Persisten Threat,
ela se refere a ataques direcionados de organizações a determinadas organizações e empresas.

Imagine que você, após ser convocado para analisar as ações de uma APT, tenha percebido que ela estava
enviando e-mails a determinada empresa com um anexo possivelmente malicioso.

A etapa de ataque identificada está relacionada com:


A alternativa "D " está correta.

O entendimento das fases dos ataques é de suma importância na segurança da rede. Quanto mais cedo o ataque for
detectado e interrompido, menos danos ele causará, porque o atacante (no caso ilustrado, uma APT) terá tido uma
menor penetração na rede e comprometido menos o ambiente.

 Selecionar softwares e tipos de equipamentos adequados para a diminuição dos riscos de segurança nas redes

INTRODUÇÃO
Estar conectado à internet nos expõe a diversos riscos, como roubo de informações e de identidade, adulteração de
informações etc. De acordo com a norma ABNT 27001:2013, para minimizar os riscos dessa conexão, é necessário
implementar mecanismos de controle a fim de garantir a segurança dela.

Esses mecanismos podem ser divididos em dois tipos:


MECANISMOS DE CONTROLE FÍSICOS

Evitam ou dificultam as falhas nos equipamentos e instalações.


MECANISMOS DE CONTROLE LÓGICOS

Evitam ou dificultam as falhas relacionadas aos softwares utilizados.

VERIFICAREMOS A SEGUIR A APLICAÇÃO DE AMBOS NA


MANUTENÇÃO DA SEGURANÇA DE UMA CONEXÃO.

SEGURANÇA FÍSICA
Fonte: Shutterstock

Abrange todo ambiente em que os sistemas de informação estão instalados. Seu objetivo principal é garantir que
nenhum dano físico ocorra nos equipamentos.

 EXEMPLO

Roubo de equipamentos, incêndio, inundação e qualquer ameaça às instalações físicas.

A norma ABNT NBR ISO/IEC 27002:2013 divide a segurança física em dois itens principais:


ÁREAS SEGURAS

Previnem o acesso físico não autorizado, os danos e as interferências em instalações e informações da organização.


EQUIPAMENTOS

Impedem perdas, danos, furto ou comprometimento de ativos e interrupção das atividades da organização.

A SEGURANÇA FÍSICA ENVOLVE OUTRAS ÁREAS DA


ENGENHARIA, COMO A CIVIL E A ELÉTRICA, AO PERMITIR A
PROJEÇÃO DE PRÉDIOS COM PAREDES ADEQUADAS À
PROTEÇÃO DOS EQUIPAMENTOS, SISTEMAS DE PARA-RAIOS,
ATERRAMENTO, LIMPEZA DA ÁREA PARA EVITAR INCÊNDIOS ETC.
Alguns exemplos de mecanismos de controle físicos podem ser encontrados no emprego de:

SISTEMAS DE REFRIGERAÇÃO E DE COMBATE A INCÊNDIO

Projetados para os equipamentos poderem operar em condições adequadas de temperatura e umidade. Ainda
garantem que os casos de incêndio possam ser combatidos o mais rápido possível.

SALA-COFRE

Espaço construído com paredes corta-fogo, sistemas de refrigeração e de forma hermética para proteger
equipamentos críticos de TI.

SISTEMAS DE ENERGIA REDUNDANTES

Funcionam como no-breaks (Uninterruptable Power Supply - UPS) e geradores. Ambos são necessários ao permitirem
que, em caso de queda de energia, os equipamentos permaneçam em operação. Isso garante tanto o fornecimento
constante de energia quanto a manutenção dela dentro da tensão recomendada.

PREPARAÇÃO DO AMBIENTE CONTRA ALAGAMENTO

No caso de chuvas fortes.

LIMPEZA DA ÁREA EXTERNA


Para evitar incêndios.

SEGURANÇA LÓGICA
A segurança lógica envolve o emprego de soluções baseadas em softwares para garantir a CID. Entre os diversos
mecanismos existentes, destacaremos os oito listados a seguir:

Autenticação;

Sistemas de controle de acesso;

Criptografia;

Funções de hash;

Assinatura digital;

Certificado digital;

Redes Virtuais Privadas (VPN);

Fonte: Shutterstock
Firewall, sistemas de detecção de intrusão e
antivírus.

VAMOS ENTENDER AGORA O FUNCIONAMENTO DE CADA UM


DESSES MECANISMOS.

1. AUTENTICAÇÃO

Está relacionada à garantia da propriedade da autenticidade, evitando que terceiros possam fingir ser uma das partes
legítimas a fim de acessar sistemas ou informações não autorizadas.

A autenticação diminui o risco de um ataque de


personificação ou fabricação. Para realizá-la, podem ser
utilizados os seguintes mecanismos:

Senhas;
Controles biométricos;

Tokens;

Certificados digitais.

O mecanismo escolhido deve se adequar ao objetivo de


segurança a ser alcançado. Atualmente, os controles
biométricos são considerados os mais eficientes.

Exemplo: Digitais, reconhecimento de íris, palma da mão e


certificados digitais.

Fonte: Shutterstock

2. SISTEMAS DE CONTROLE DE ACESSO

Gerenciam os usuários que podem acessar sistemas e


redes, autorizando apenas o acesso às informações que
lhes couberem. Desse modo, a confidencialidade dos
dados está garantida.

Exemplo: o uso de senhas nas redes wi-fi garante que


somente as pessoas autorizadas possam utilizá-las.

PARA QUE O CONTROLE DE


ACESSO SEJA EFETIVO, DEVE-
SE EMPREGAR UM MECANISMO
DE AUTENTICAÇÃO A FIM DE
Fonte: Shutterstock VALIDAR A IDENTIDADE E –
CASO O ACESSO ESTEJA
AUTORIZADO – RESTRINGIR OS
DIREITOS DE ACESSO PARA
CADA INDIVÍDUO DE ACORDO
COM O SEU PERFIL DE USO.
3. CRIPTOGRAFIA

Esta é uma vasta área que, assim como a criptoanálise – cujas técnicas não abordaremos aqui –, compõe a
criptologia.

A criptografia é uma área que estuda técnicas para esconder não a mensagem real, mas, na verdade, o seu
significado. Ela pode inclusive ser utilizada para garantir a CID. A propriedade a ser garantida depende do mecanismo
utilizado e de que maneira ele foi empregado.

FUNÇÕES

Para entendermos o processo criptográfico, iremos, inicialmente, identificar duas funções principais:

CRIPTOANÁLISE

Sua finalidade é testar e validar os métodos criptográficos, ou seja, verificar se é possível obter o texto original
sem haver o conhecimento de todo o processo.

CRIPTOLOGIA

Ciência que, de forma segura, cuida da comunicação e do armazenamento de dados.

CIFRAMENTO
Transforma um escrito simples, cujo alfabeto comum é utilizado para compor a mensagem original, em um texto
cifrado. Nesse texto, as letras originais são substituídas pelas do alfabeto cifrado, escondendo, dessa forma, o
conteúdo da mensagem. A função do ciframento é responsável pela criptografia da mensagem original. Já a
substituição das letras da original na mensagem cifrada é feita pelas cifras.

Fonte: Shutterstock
DECIFRAMENTO
Realiza o processo oposto. Como o texto cifrado é transformado no original, o conteúdo de sua mensagem pode ser
entendido. A função de deciframento é a responsável pela decriptografia da mensagem cifrada.

Fonte: Shutterstock

CIFRAS

Qualquer forma de substituição criptográfica aplicada ao texto original da mensagem.

AS TÉCNICAS MODERNAS DE CRIPTOGRAFIA ENVOLVEM O USO


DE UM ALGORITMO DE CRIPTOGRAFIA ASSOCIADO A UMA CHAVE.
O SEGREDO DO PROCESSO NÃO ESTÁ NO ALGORITMO EM SI, E
SIM NA CHAVE UTILIZADA PARA A REALIZAÇÃO DO CIFRAMENTO.

CLASSIFICAÇÃO

Quanto ao tipo de chave empregada, os algoritmos criptográficos podem ser classificados como:

ALGORITMOS DE CHAVE SIMÉTRICA

Criptografia de chave privada. Empregam uma única chave. Dessa forma, a mesma chave que realiza a cifragem faz
a decifragem. Alguns exemplos de algoritmos simétricos: DES, 3DES, Blowfish, RC4, RC5, IDEA, Rinjdael e
Advanced Encrytion Standard (AES).

ALGORITMOS DE CHAVE ASSIMÉTRICA

Criptografia de chave pública. Utilizam duas chaves (pública e privada): uma para cifrar e outra para decifrar.
Dependendo da ordem em que ambas são empregadas, o algoritmo pode garantir a confidencialidade ou a
autenticidade.

ADVANCED ENCRYTION STANDARD (AES)

Algoritmo padrão adotado por diversos governos e várias empresas para garantir a confidencialidade.

QUANDO A CHAVE PÚBLICA É UTILIZADA NA FUNÇÃO DE


CIFRAGEM, APENAS A PRIVADA PODE DECIFRAR.

Como o nome sugere, a chave privada fica restrita à entidade.

Exemplo: pessoa, empresa ou equipamento.

Portanto, neste caso, está garantida a confidencialidade, porque só quem possui a chave privada pode decifrar o
conteúdo.

Fonte: Shutterstock
QUANDO OCORRE O INVERSO, A CHAVE PRIVADA É EMPREGADA
NO PROCESSO DE CIFRAGEM E APENAS A PÚBLICA PODE
DECIFRAR.

Entretanto, como a chave usada é a pública, qualquer pessoa pode possui-la e, portanto, decifrar a mensagem.

Não há como garantir a confidencialidade dessa forma: o que está garantido, na verdade, é a autenticidade. A
aplicação das chaves nesta ordem permite o emprego da assinatura digital.

O algoritmo Rivest-Shamir-Adleman (RSA) é o padrão utilizado para transações comerciais, financeiras etc.

4. FUNÇÕES DE HASH

O objetivo das funções de resumo de mensagem ou de hash é a garantia da integridade das informações. Para
calcular o resumo, pode ser utilizado qualquer algoritmo que pegue uma mensagem de qualquer tamanho e a mapeie
em uma sequência de caracteres de tamanho fixo.

 EXEMPLO

Você tem um arquivo chamado aula.doc e quer calcular o resumo dessa mensagem. Uma das funções de hash
bastante utilizadas é o Message-Digest Algorithm 5 (MD5). Então, caso você tenha instalado em seu computador o
MD5, pode utilizar o seguinte comando:

MD5SUM AULA.DOC

A saída desse comando é uma sequência de caracteres:

595F44FEC1E92A71D3E9E77456BA80D1

Essa saída será permanente enquanto não ocorrer nenhuma alteração no arquivo. Portanto, toda vez que quiser
verificar se ele foi modificado, basta executar novamente a função de hash e compará-la à sequência original. Se ela
permanecer a mesma, isso demonstra que o arquivo é íntegro; caso contrário, é uma evidência de que ele foi
modificado.

Uma propriedade desejável na função de resumo é que, diante de qualquer modificação mínima na informação, o
resumo gerado deve ser totalmente diferente. As funções de resumo também são utilizadas como auxiliares no
processo de autenticação.
Alguns sistemas usam o hash para armazenar a senha de
um usuário. Portanto, quando ele cadastra uma senha, o
sistema calcula o hash e armazena esse valor. Quando o
usuário for digitar sua senha para entrar no mesmo
sistema, o sistema calculará o hash, enviará essa
informação e comparará com o que está armazenado. Se
for igual, o seu acesso será autorizado.

A vantagem dessa solução é que a senha do usuário não


fica armazenada no sistema nem trafega pela rede. Quem
o faz é o hash.

Fonte: Shutterstock

Outra propriedade desejável das funções de resumo é que ela não é inversível, ou seja, se temos o hash da
mensagem, não conseguimos descobrir a mensagem original. Dessa forma, podemos afirmar que ele configura uma
função criptográfica, pois esconde o conteúdo de uma mensagem. Então, quando ocorre o envio do hash da senha,
não há como um atacante descobrir a senha original.

Entretanto, o uso isolado dele na autenticação pode gerar uma facilidade para o ataque de reprodução. Um atacante
que conseguir obter o hash das assinaturas poderá repetir o seu processo, enviando o resumo e obtendo a autorização
de acesso.

Além do MD5, outras funções de resumo muito utilizadas são as seguintes:

SECURE HASH ALGORITHM VERSION 1 (SHA-1);

SECURE HASH ALGORITHM VERSION 2 (SHA-2);

SECURE HASH ALGORITHM VERSION 3 (SHA-3).

5. ASSINATURA DIGITAL
O objetivo do emprego da assinatura digital é assegurar a
autenticidade e a integridade das informações.
Automaticamente, está garantido o não repúdio. A
assinatura ainda garante tanto a validade jurídica dos
documentos, pois existe a certeza de que eles não
sofreram qualquer adulteração, estando íntegros e
completos, quanto a sua autoria, asseverando que eles
realmente foram assinados por determinada pessoa.

O PROCESSO UTILIZADO PARA


REALIZAR A ASSINATURA
DIGITAL COMBINA O EMPREGO
Fonte: Shutterstock
DA CRIPTOGRAFIA ASSIMÉTRICA
COM AS FUNÇÕES DE RESUMO
DA MENSAGEM. PARA QUE UM
DOCUMENTO SEJA ASSINADO
DIGITALMENTE, O USUÁRIO
DEVE SEGUIR ESTES PASSOS:

CALCULAR O RESUMO DA MENSAGEM.

CIFRAR ESSE RESUMO COM A CHAVE PRIVADA DO EMISSOR DO


DOCUMENTO.

ENVIAR A MENSAGEM COM O RESUMO CRIPTOGRAFADO, QUE É A


ASSINATURA DIGITAL.
O esquema a seguir ilustra esse processo:

Fonte: Shutterstock

Assinatura digital de um documento. Fonte: (FOROUZAN; MOSHARRAF, 2013).

Ao receber o documento, o receptor precisa realizar o seguinte processo para o validar:

O usuário deve calcular o hash da mensagem e decifrar o outro recebido com a utilização da chave pública do emissor.
Em seguida, ele vai comparar os dois hashes. Se forem iguais, há a garantira de que o documento não foi modificado e
o emissor é autêntico. Caso sejam diferentes, algum problema ocorreu. Mas não é possível garantir o que aconteceu,
já que não se sabe se o problema reside na modificação dele ou na autenticidade do emissor. Estabelece-se apenas
que o documento não é válido.

6. CERTIFICADO DIGITAL

Ele é utilizado para vincular a chave pública a uma entidade, como pessoa, empresa, equipamento etc. O certificado
contém a chave pública da entidade, que é assinada digitalmente por uma terceira parte confiável chamada de
Autoridade Certificadora (AC).

O EMPREGO DO CERTIFICADO DIGITAL É IMPORTANTE PARA


GARANTIR UM ATAQUE CONHECIDO COMO “HOMEM NO MEIO” OU,
EM INGLÊS, MAN IN THE MIDDLE (MITM). O MITM OCORRE QUANDO
UM ATACANTE PODE INTERCEPTAR O ENVIO DA CHAVE PÚBLICA E
TER ACESSO ÀS INFORMAÇÕES.

Vejamos a descrição deste problema:

AUTORIDADE CERTIFICADORA (AC)

Cartório eletrônico que garante a segurança de todo o processo na troca das chaves públicas.
Alice quer enviar um documento para Bob. Desse modo, ela solicita a chave pública dele para poder cifrar a
mensagem.

Darth, enquanto isso, realiza um ataque de interceptação para monitorar a comunicação entre ambos. Quando percebe
que houve uma solicitação da chave pública de Bob, Darth envia para Alice a sua chave. Ao mesmo tempo, se fazendo
passar por ela, solicita a Bob a chave pública dele, o que caracteriza um ataque de personificação.

Alice, dessa forma, cifra a mensagem com a chave privada de Darth. Obviamente, ele consegue ler as informações
enviadas. Para que o processo continue, Darth agora cifra a mensagem com a chave pública de Bob e a envia. Bob,
em seguida, recebe a mensagem e a decifra com sua chave privada.

Ao monitorar a troca de mensagens entre Alice e Bob, Darth conseguiu obter as informações, quebrando a
confidencialidade desse processo de comunicação.

Para resolver esse problema, é necessária uma terceira parte confiável: a AC. Ela é a responsável por armazenar as
chaves públicas das entidades envolvidas no processo de comunicação. Dessa maneira, a chave fica assinada
digitalmente pela autoridade certificadora, como ilustra o esquema a seguir:
Fonte: Shutterstock

Uso do certificado de chave pública. Fonte: (STALLINGS, 2008).

Voltemos ao exemplo da comunicação entre Alice e Bob. Agora ela já pode solicitar o certificado digital dele para a AC.
Ao receber esse certificado, Alice irá verificar a assinatura digital da AC. Se ela estiver correta, é um indício de que
Alice possui o certificado correto de Bob, podendo, dessa forma, realizar a transmissão das mensagens.

O PROCESSO PARA OBTER A CHAVE PRIVADA DA AC, CONTUDO,


PODE ESBARRAR NO MESMO PROBLEMA. PARA O PROCESSO
FUNCIONAR CORRETAMENTE, O USUÁRIO DEVE IR AO SITE DA AC
E REALIZAR O DOWNLOAD DOS CERTIFICADOS – CHAMADOS DE
CERTIFICADOS RAIZ –, GARANTINDO, ASSIM, A OBTENÇÃO DA
CHAVE PÚBLICA CORRETA.

 SAIBA MAIS

No Brasil, as ACs estão organizadas na Infraestrutura de Chaves Públicas Brasileira (ICP-Brasil). Trata-se de uma
cadeia hierárquica de confiança que viabiliza a emissão de certificados digitais para a identificação virtual do cidadão.

6. REDES VIRTUAIS PRIVADAS (VPN)

Sigla de Virtual Private Network, a VPN permite a utilização de um meio inseguro de forma segura. Afinal, quando
estamos conectados à internet e desejamos acessar algum serviço ou rede, ficamos vulneráveis a diversos tipos de
ataques.

Para minimizar o risco inerente a esse acesso, podemos empregar uma VPN, que utilizará um túnel de comunicação
entre dois dispositivos. Considere a topologia desta imagem na qual as redes da matriz e da filial desejam trocar
informações por meio da internet:

Fonte: Shutterstock

Ao trafegar pela internet, as informações trocadas entre as redes da matriz e da filial estão sujeitas a diversos tipos de
ataque. Na utilização de uma VPN, é criado, como ilustra a imagem a seguir, um túnel virtual entre essas duas redes:

Fonte: Shutterstock

NA UTILIZAÇÃO DO TÚNEL, AS INFORMAÇÕES TRAFEGADAS


FICAM PROTEGIDAS, JÁ QUE OS DADOS SÃO CRIPTOGRAFADOS.
ALÉM DISSO, PODEM SER UTILIZADOS MECANISMOS DE
AUTENTICAÇÃO E INTEGRIDADE PARA GARANTIR TANTO A
ENTRADA EM CADA UMA DAS REDES SÓ DE PACOTES
AUTORIZADOS QUANTO A MANUTENÇÃO DE SUA ESTRUTURA, OU
SEJA, QUE ELES NÃO SEJAM MODIFICADOS.

7. FIREWALL, SISTEMAS DE DETECÇÃO DE INTRUSÃO E


ANTIVÍRUS

No vídeo a seguir, falaremos sobre os seguintes mecanismos de segurança lógica: firewall, sistemas de detecção de
intrusão e antivírus.
Firewall, sistemas de detecção de intrusão e antivírus. Para saber mais sobre outros Mecanismos de Segurança
Lógica, clique aqui.

 SAIBA MAIS

Veja o trecho da seguinte notícia:

“PF identifica invasão nos celulares de presidentes de STJ, Câmara e Senado; PGR também foi alvo”.

(Fonte: G1, 2019)

Analisando esse ocorrido, percebemos a importância dos softwares, cuja função é a de garantir a CID nas instituições.

Pesquise outras situações similares e procure perceber como foi a intervenção da segurança lógica nesses casos.

VERIFICANDO O APRENDIZADO

1. VOCÊ FOI CONTRATADO POR UMA EMPRESA PARA REALIZAR UMA CONSULTORIA NA
ÁREA DE SEGURANÇA. DURANTE O TRABALHO REALIZADO, IDENTIFICOU QUE ELA
ESTAVA SUJEITA A ATAQUES CONTRA A DISPONIBILIDADE POR FALTA DE MECANISMOS
DE CONTROLE FÍSICOS OU LÓGICOS.

NO RELATÓRIO ESCRITO PARA A EMPRESA, UMA DE SUAS SUGESTÕES FOI A


IMPLANTAÇÃO DE UM MECANISMO DE CONTROLE:

A) Físico, com o emprego de no-breaks para garantir o fornecimento de energia.

B) Físico, com o uso de assinaturas digitais para garantir a identidade do emissor.

C) Lógico, com o emprego de no-breaks para garantir o suprimento de energia.

D) Lógico, com a aplicação de firewalls para garantir o controle de acesso físico.

2. LEIA O FRAGMENTO DE TEXTO A SEGUIR:

“DURANTE UM GRANDE SURTO EM MAIO DE 2017, RÚSSIA, CHINA, UCRÂNIA, TAIWAN,


ÍNDIA E BRASIL FORAM OS PAÍSES MAIS AFETADOS. O WANNACRY AFETOU TANTO
PESSOAS QUANTO ORGANIZAÇÕES GOVERNAMENTAIS, HOSPITAIS, UNIVERSIDADES,
EMPRESAS FERROVIÁRIAS, FIRMAS DE TECNOLOGIA E OPERADORAS DE
TELECOMUNICAÇÕES EM MAIS DE 150 PAÍSES. O NATIONAL HEALTH SERVICE DO REINO
UNIDO, DEUTSCHE BAHN, A EMPRESA ESPANHOLA TELEFÓNICA, FEDEX, HITACHI E
RENAULT ESTAVAM ENTRE AS VÍTIMAS.”

FONTE: (AVAST, S.D.)

COMO FOI DESCRITO ANTERIORMENTE, O WANNACRY CAUSOU, EM 2017, UMA GRANDE


INFECÇÃO EM DIVERSAS EMPRESAS NO BRASIL E NO MUNDO. ESSE TIPO DE ATAQUE
SEQUESTRAVA OS DADOS DOS USUÁRIOS E EXIGIA UMA RECOMPENSA PARA QUE ELES
FOSSEM DISPONIBILIZADOS NOVAMENTE.

PARA MINIMIZAR OS RISCOS DE UM USUÁRIO OU UMA EMPRESA SOFRER O MESMO


TIPO DE ATAQUE, É NECESSÁRIO O EMPREGO DE:

A) Um firewall, já que este tipo de controle impede a invasão à rede, não sendo possível o sequestro dos dados.

B) Um sistema de detecção de intrusão, pois pode monitorar o tráfego da rede, identificando o sequestro dos dados.

C) Um antivírus, porque este tipo de ataque é realizado por um malware conhecido como ransonware.

D) Um sistema de criptografia dos dados, uma vez que o atacante não consegue sequestrar os dados criptografados.

GABARITO

1. Você foi contratado por uma empresa para realizar uma consultoria na área de segurança. Durante o
trabalho realizado, identificou que ela estava sujeita a ataques contra a disponibilidade por falta de
mecanismos de controle físicos ou lógicos.
No relatório escrito para a empresa, uma de suas sugestões foi a implantação de um mecanismo de controle:

A alternativa "A " está correta.

O objetivo dos mecanismos de controle físico é proteger as instalações físicas, ou seja, a destruição, o roubo ou a
paralisação de serviços. Os mecanismos físicos podem incluir desde o uso de portões, grades e cadeados até a
manutenção do ambiente dentro de condições climáticas adequadas, como a utilização de equipamentos de
refrigeração e o fornecimento de energia ininterruptos graças ao emprego de fontes de energia redundantes (geradores
e no-breaks).

2. Leia o fragmento de texto a seguir:

“Durante um grande surto em maio de 2017, Rússia, China, Ucrânia, Taiwan, Índia e Brasil foram os países
mais afetados. O WannaCry afetou tanto pessoas quanto organizações governamentais, hospitais,
universidades, empresas ferroviárias, firmas de tecnologia e operadoras de telecomunicações em mais de 150
países. O National Health Service do Reino Unido, Deutsche Bahn, a empresa espanhola Telefónica, FedEx,
Hitachi e Renault estavam entre as vítimas.”

Fonte: (AVAST, s.d.)

Como foi descrito anteriormente, o WannaCry causou, em 2017, uma grande infecção em diversas empresas
no Brasil e no mundo. Esse tipo de ataque sequestrava os dados dos usuários e exigia uma recompensa para
que eles fossem disponibilizados novamente.

Para minimizar os riscos de um usuário ou uma empresa sofrer o mesmo tipo de ataque, é necessário o
emprego de:

A alternativa "C " está correta.

A segurança de um ambiente pode ser considerada completa quando ela emprega um conjunto de mecanismos de
controle físico e lógico com o objetivo de garantir a CID. Afinal, os mecanismos de controle lógicos, firewalls, IDS,
criptografia, controle de acesso e antivírus são soluções que devem atuar em conjunto. Os antivírus, por exemplo, são
os responsáveis pela detecção dos malwares como o WannaCry.

 Reconhecer a arquitetura de gerenciamento de redes

INTRODUÇÃO
Com o crescimento das redes, a administração e o gerenciamento delas passaram a ser atividades de suma
importância. Afinal, seus ambientes são complexos e heterogêneos, tendo diversos tipos de equipamentos, fabricantes
e protocolos em operação.

O esquema a seguir apresenta um cenário típico de uma rede local (LAN):


Fonte: Shutterstock

Podemos observar na imagem diversos servidores e várias estações de trabalho com sistemas operacionais Windows
e Linux, firewalls, roteadores, switches e equipamentos para redes sem fio.

IMAGINEMOS AGORA A SEGUINTE SITUAÇÃO CORRIQUEIRA: UMA


PARALISAÇÃO DE ALGUM SERVIÇO OU PARTE DA REDE. NESSES
CASOS, MUITOS SE PERGUNTAM: ONDE OCORREU A FALHA? NO
SERVIDOR? NO SWITCH? NA ESTAÇÃO?

SWITCHES

Switches ou comutadores são ferramentas de camada de enlace que conseguem identificar os equipamentos
conectados em cada porta e direcionar os quadros para os destinos corretos, segmentando a rede.

A gerência de redes auxilia no processo de identificação


das falhas e na correção de problemas, permitindo que a
rede possa operar corretamente e oferecer níveis de
serviços adequados à necessidade dos usuários.

O objetivo dessa gerência é monitorar e controlar os


elementos físicos ou lógicos da rede, assegurando,
segundo Stallings (1998), certo nível de qualidade de
serviços.
Fonte: Shutterstock

QUALIDADE DE SERVIÇOS

Trata-se do ato de oferecer serviços que atendam à necessidade dos usuários com um funcionamento adequado,
bom desempenho e disponibilidade.

DESCOBRIREMOS A SEGUIR COMO É POSSÍVEL ATINGIR ESSE


NÍVEL DE QUALIDADE.

ARQUITETURA DE GERENCIAMENTO OSI


Fonte: Shutterstock

Para oferecer uma organização das tarefas de gerenciamento de redes, a International Organization for
Standardization (ISO) criou a M.3400, um modelo de gerência derivado de recomendação publicada pela International
Telecommunications Union (ITU).

ESSE MODELO SE BASEIA EM CINCO ÁREAS CONHECIDAS PELA


SIGLA FCAPS (ABREVIAÇÃO, EM INGLÊS, DE FAULT,
CONFIGURATION, ACCOUNTING PERFORMANCE E SECURITY).
VAMOS CONHECÊ-LAS AGORA!

GERÊNCIA DE DETECÇÃO E CORREÇÃO DE FALHAS (F =


FAULT)

A área de gerenciamento de falhas é importante para garantir que os serviços e as redes permaneçam em operação.
De acordo com a norma ISO, esta área permite registrar, detectar e reagir às condições de falha da rede.

 ATENÇÃO

Tal gerenciamento depende do bom funcionamento de cada componente da rede tanto de forma isolada quanto pela
interoperação com outros equipamentos dela.

As possíveis falhas nas redes podem ser causadas por problemas de:
1

Software: Falha no sistema operacional de um servidor ou em um serviço.

Enlace: Paralisação de operação de uma ligação entre uma matriz e uma filial por um rompimento de cabo.

Equipamentos: Interrupção no fornecimento de energia.

Quando uma falha ocorre, o gerente da rede deve analisar as informações de gerência para identificar a causa raiz do
problema, descobrindo, em uma diversidade de equipamentos, softwares e protocolos, o que realmente causou o
problema.

O gerenciamento de falhas pode ser dividido em dois subsistemas:

1. Reativo: Trata as falhas no curto prazo (detecção, isolamento, correção e registro de falhas).

Fonte: Shutterstock

2. Proativo: Monitora a rede para tentar impedir que ocorram falhas.

GERÊNCIA DE CONFIGURAÇÃO E OPERAÇÃO (C =


CONFIGURATION)
As redes são compostas por diversos equipamentos
interligados entre si que possuem uma configuração.

ESSAS CONFIGURAÇÕES DEVEM


SER CONSISTENTES EM TODOS
ELES, PERMITINDO QUE, NO
CASO DE UMA REINICIALIZAÇÃO,
O DISPOSITIVO VOLTE A OPERAR
COM A CONFIGURAÇÃO
CORRETA.

Fonte: Shutterstock
Desse modo, é necessário realizar o gerenciamento das
configurações dos equipamentos para:

Garantir seu funcionamento com os ajustes corretos;

Identificar quais dispositivos estão presentes na rede;

Verificar se eles estão com as configurações corretas.

De acordo com Forouzan (2010), um sistema de gerenciamento de configuração precisa saber o estado de cada
entidade e sua relação com outras entidades a todo instante.

Fonte: Shutterstock

GERÊNCIA DE CONTABILIDADE E FATURAMENTO (A =


ACCOUNTING)
De acordo com a ISO, a gerência de contabilidade e faturamento permite especificar, registrar e controlar o acesso de
usuários e dispositivos aos recursos da rede. Por meio desta área de gerenciamento, é possível contabilizar o
consumo de determinado recurso da rede.

 EXEMPLO

A franquia de consumo de internet de uma linha telefônica, o que possibilita a tarifação para o usuário.

Este tipo de gerenciamento impede que usuários possam monopolizar os recursos da rede e libera a elaboração de
planos de evolução de acordo com a demanda de uso dela.

GERÊNCIA DE DESEMPENHO E OTIMIZAÇÃO (P =


PERFORMANCE)

O objetivo do gerenciamento de desempenho e otimização é garantir que uma rede esteja em operação da forma mais
eficiente possível. De acordo com a ISO, sua função é quantificar, medir, informar, analisar e controlar o desempenho
de diferentes componentes dela.

Dentro desta área de gerenciamento, é possível realizar dois tipos de avaliação de desempenho:

AVALIAÇÃO DE DIAGNÓSTICO
Detecta problemas e ineficiências na operação da rede.

Exemplo: Se o gerente da rede percebe um equipamento ou enlace com baixa utilização, ele pode alterar a
configuração para permitir que haja uma melhor distribuição de carga.

Esse tipo de avaliação auxilia no gerenciamento de falhas, porque é capaz de antever situações que poderiam causar
uma falha na rede.

AVALIAÇÃO DE TENDÊNCIAS
Auxilia no planejamento da evolução da rede, observando seu comportamento e estimando a necessidade de aumento
de determinado recurso.

Exemplo: O monitoramento de um enlace entre matriz e filial poderá indicar a necessidade de um aumento na
capacidade dele quando a utilização média ultrapassar determinado valor.

Para avaliar a operação da rede, devem ser utilizadas, aponta Forouzan (2010), medidas mensuráveis, como
capacidade, tráfego, vazão (throughput) e tempo de resposta.

CIFRAS
Qualquer forma de substituição criptográfica aplicada ao texto original da mensagem.

GERÊNCIA DE SEGURANÇA E PROTEÇÃO (S = SECURITY)

A gerência de segurança e proteção permite controlar o


acesso aos recursos da rede e verificar se ela está de
acordo com a Política de Segurança da Informação (PSI)
da empresa.

QUE PAPEL DESEMPENHA A


SEGURANÇA NESSE CONTEXTO?

Ela envolve todas as camadas da pilha de protocolos


TCP/IP, o que engloba cada dispositivo e informação

Fonte: Shutterstock trafegando pela rede. Por isso, é possível afirmar que esta
é a área mais difícil de ser gerenciada.

ARQUITETURA DE GERENCIAMENTO EM REDE


No vídeo a seguir, falaremos sobre a arquitetura de gerenciamento de rede.
Entenda o processo da arquitetura de gerenciamento em rede. Para saber mais sobre Arquitetura de Segurança de
Rede, clique aqui.

VERIFICANDO O APRENDIZADO

1. O DIRETOR DA EMPRESA EM QUE VOCÊ TRABALHA INFORMOU A OCORRÊNCIA DE


DIVERSAS PARALISAÇÕES NA REDE, O QUE PREJUDICA A REALIZAÇÃO DAS
ATIVIDADES DOS FUNCIONÁRIOS. ALEGANDO QUE ELA ESTÁ SUBDIMENSIONADA, ELE
DEFENDE QUE A REDE NÃO CONSEGUE ATENDER À DEMANDA DE TRABALHO
EXISTENTE.

VOCÊ ARGUMENTA QUE A REDE, APESAR DE CONSTANTEMENTE MONITORADA, POSSUI


UMA UTILIZAÇÃO CONSIDERADA ALTA (70%), PRECISANDO, PORTANTO, SER AMPLIADA
PARA O ATENDIMENTO DESSA DEMANDA.

ESSA SITUAÇÃO SE REFERE À ÁREA DE GERENCIAMENTO DE:

A) Desempenho, que realiza a avaliação de tendências e auxilia no planejamento da evolução da rede.

B) Contabilização, que monitora o consumo de recursos da rede, permitindo o uso racional dos dispositivos.

C) Falhas, que é responsável por realizar um monitoramento proativo da rede, evitando que haja uma sobrecarga dela.

D) Configuração, que realiza o monitoramento da configuração dos dispositivos, apresentando o consumo da rede.

2. UMA ARQUITETURA DE GERENCIAMENTO DE REDE É COMPOSTA POR QUATRO


COMPONENTES BÁSICOS: ESTAÇÃO DE GERENCIAMENTO, DISPOSITIVO GERENCIADO,
BASE DE INFORMAÇÕES GERENCIAIS E PROTOCOLO DE GERENCIAMENTO.

TAIS COMPONENTES TRABALHAM EM CONJUNTO PARA PERMITIR QUE A REDE POSSA


SER MONITORADA E CONTROLADA. PARA ISSO:

A) O agente envia mensagens para o gerente solicitando informações dos objetos.


B) A gerência da rede é realizada pelo protocolo de gerenciamento, permitindo que os comandos sejam executados
pelo gerente.

C) A base de informações gerenciais mantém informações do estado dos diversos objetos existentes em um
dispositivo.

D) O gerente emite comandos para a base de informações gerenciais, informando os valores de cada objeto.

GABARITO

1. O diretor da empresa em que você trabalha informou a ocorrência de diversas paralisações na rede, o que
prejudica a realização das atividades dos funcionários. Alegando que ela está subdimensionada, ele defende
que a rede não consegue atender à demanda de trabalho existente.

Você argumenta que a rede, apesar de constantemente monitorada, possui uma utilização considerada alta
(70%), precisando, portanto, ser ampliada para o atendimento dessa demanda.

Essa situação se refere à área de gerenciamento de:

A alternativa "A " está correta.

A situação apresentada é típica em diversas redes. Por meio dos sistemas de gerenciamento, é possível monitorar o
seu uso e planejar os investimentos necessários para que as demandas da rede sejam atendidas, garantindo um nível
de satisfação elevado para os seus usuários.

2. Uma arquitetura de gerenciamento de rede é composta por quatro componentes básicos: estação de
gerenciamento, dispositivo gerenciado, base de informações gerenciais e protocolo de gerenciamento.

Tais componentes trabalham em conjunto para permitir que a rede possa ser monitorada e controlada. Para
isso:

A alternativa "C " está correta.

A arquitetura de gerenciamento de redes é genérica, mas os sistemas de gerenciamento existentes são baseados nos
componentes apresentados. A entidade gerenciadora ou de gerenciamento monitora e controla os dispositivos da rede
por intermédio do software gerente. No dispositivo gerenciado, o software agente recebe os comandos do gerente por
meio do protocolo de comunicação. Já o conjunto de objetos existentes compõe a base de informações gerenciais.

CONCLUSÃO

CONSIDERAÇÕES FINAIS
Garantir a operação de uma rede é uma tarefa árdua. Afinal, ela deve estar preparada para suportar diversos tipos de
ataques mediante o emprego de mecanismos de controle adequados.

Além disso, os sistemas de gerenciamento podem permitir o controle de uma diversidade enorme de dispositivos,
protocolos e aplicações. Os mecanismos de controle e gerenciamento adequado das redes, portanto, são
fundamentais na manutenção da qualidade e da operacionalidade de seu serviço.

REFERÊNCIAS
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR ISO/IEC 27001:2013 – tecnologia da informação –
técnicas de segurança – sistemas de gestão da segurança da informação – requisitos. Rio de Janeiro: ABNT, 2013a.

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR ISO/IEC 27002:2013 – tecnologia da informação –


técnicas de segurança – código de prática para controles de segurança da informação. Rio de Janeiro: ABNT, 2013b.

AVAST. WannaCry. Avast. s.d.

CENTRO DE ESTUDOS, RESPOSTA E TRATAMENTO DE INCIDENTES DE SEGURANÇA NO BRASIL. Estatísticas


dos incidentes reportados ao CERT.br. In: CERT.br. Consultado em meio eletrônico em: 28 maio 2020.

FOROUZAN, B. A. Comunicação de dados e redes de computadores. 4. ed. Porto Alegre: AMGH, 2010.

FOROUZAN, B. A.; MOSHARRAF, F. Redes de computadores: uma abordagem top-down. Porto Alegre: AMGH,
2013.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a internet: uma abordagem top-down. 6. ed. São Paulo:
Pearson, 2013.

LUKASIK, S. J. Why the Arpanet was built. IEEE annals of the history of computing. n. 33. 2011. p. 4-21.

MCCLURE, S.; SCAMBRAY, J.; KURTZ, G. Hackers expostos: segredos e soluções para a segurança de redes. 7. ed.
Porto Alegre: Bookman, 2014.

STALLINGS, W. Criptografia e segurança de redes – princípios e práticas. 4. ed. São Paulo: Pearson Prentice Hall,
2008.

STALLINGS, W. SNMP, SNMPv2, SNMPv3 and RMON1 and 2. 3. ed. Boston: Addison-Wesley, 1998.

EXPLORE+
Pesquise na internet para:

Visitar a página do Centro de Estudos, Resposta e Tratamento de Incidentes de Segurança no Brasil


(CERT): CERT.br. Em Publicações, navegue pelos diversos artigos produzidos pelo CERT com recomendações
sobre prevenções de ataques;

Acessar a Cartilha de Segurança para Internet. Desenvolvida pelo CERT, ela descreve os riscos na utilização
da internet e as soluções existentes para isso;

Ler o documento intitulado Sistema de gerenciamento de rede: White Paper de práticas recomendadas (2018).
Desenvolvido pela Cisco, ele apresenta uma estrutura mais detalhada sobre o processo de gerenciamento de
redes;

Saber mais sobre a Information Technology Infrastructure Library (ITIL). Trata-se de um conjunto de
recomendações de boas práticas para o gerenciamento dos serviços de TI.

CONTEUDISTA
Sérgio dos Santos Cardoso Silva

 CURRÍCULO LATTES
DEFINIÇÃO

Conceitos básicos e introdutórios às redes de computadores: histórico, evolução e


classificação das redes, seus componentes fundamentais, aplicações, representação e
características gerais.

PROPÓSITO

Compreender, de forma técnica, como funcionam as estruturas das redes de


computadores e suas aplicações. Tal assunto tem emprego direto nas áreas de
Computação, Engenharia e em diversas outras áreas do conhecimento, dado o
protagonismo dessas redes em escala global.

OBJETIVOS

✓ Descrever o histórico e a evolução das redes de computadores e da Internet

✓ Classificar as redes quanto à topologia, aos meios de transmissão e à área de cobertura

✓ Identificar as características e as peculiaridades das redes sem fio

1 / 28
INTRODUÇÃO

A área de redes de computadores continua a evoluir com rapidez, atendendo às


crescentes demandas da sociedade. O imenso volume de dados e a necessidade de
disponibilidade instantânea das informações representam desafios para as redes de
computadores, que evoluem para cada vez mais aumentar a velocidade de suas conexões
e tratar os dados transmitidos com mais segurança (KLEINROCK, 2008).

2 / 28
CONCEITOS

Um dos conceitos fundamentais e inerentes às redes de computadores, que


causou uma mudança de paradigma nas comunicações e foi um dos responsáveis
pelo grande sucesso da Internet, é o paradigma da comutação de pacotes.

Antes do surgimento da Internet, as redes de comunicação, como as redes de telefonia


fixa convencional, eram baseadas no conceito da comutação de circuitos.

Na época, a grande inovação foi a mudança de paradigma para a comutação de pacotes,


que facilitou a conectividade e a rápida expansão das redes de computadores para uma
escala global.

Comutação de circuitos

Na comutação de circuitos, é necessário o estabelecimento prévio de um circuito físico


entre a origem e o destino antes da transmissão da informação propriamente dita.
Tomemos como exemplo a ilustração de uma conversa telefônica que utilize as redes
tradicionais de telefonia fixa.

3 / 28
Comutação de circuitos – rede tradicional de telefonia fixa

O usuário A deseja estabelecer uma ligação telefônica com o usuário B, localizado


em outra cidade.

Ao digitar o número do telefone do usuário B com o respectivo DDD, a central


telefônica local conectada ao aparelho do usuário A inicia um processo de
sinalização pela rede telefônica até que um caminho físico (circuito) seja
estabelecido da rede do terminal A ao terminal telefônico do usuário B.

Ao atender o telefone, o usuário B confirma a utilização desse circuito. A partir daí, a


conversa (troca de informação entre os usuários A e B) pode ser efetuada.

Comutação de pacotes

Atenção !

Na comutação de pacotes, não existem as fases 1 e 3 descritas anteriormente, que


compreendem o estabelecimento prévio de um circuito antes da transmissão dos dados
e a desconexão ou o encerramento do circuito estabelecido ao final da comunicação.

Neste tipo de comutação, a informação é dividida em conjuntos de dados


chamados pacotes, que também carregam a informação de identificação da origem e do
destino dentro da rede.

4 / 28
Assim, os pacotes são encaminhados individualmente e de forma independente; cada
ponto intermediário do percurso analisa as informações do pacote e decide por onde
encaminhá-lo dentro da rede, até que ele alcance o destinatário final.

Na imagem a seguir, temos um exemplo de um diagrama esquemático da transmissão de


dados entre origem “A” e destino “B” conectados pelos nós intermediários (S1, S2, S3, S4,
S5 e S6).

A informação foi particionada em quatro pacotes (1, 2, 3 e 4) que são encaminhados de


forma independente dentro da rede até alcançarem o destino “B”.

5 / 28
Atenção !

Observe que cada pacote pode seguir um caminho diferente, de forma que a ordem de
chegada ao destino não é preservada. Cabe assim ao nó destino “B” rearrumar os
pacotes na sequência correta para recuperar completamente a informação original
transmitida por “A”.

TENDÊNCIAS

As redes de computadores apresentaram uma evolução impressionante ao longo das


últimas décadas, e as projeções apontam para um desenvolvimento ainda mais rápido
nos próximos anos. Cada vez mais, as pessoas dependerão das redes de computadores
para o uso dos mais diversos serviços, com impactos cada vez maiores em todas as
áreas de atuação da sociedade.

Redes Definidas por Software

Dada a grande evolução e o crescimento das redes


de computadores, essas estruturas passaram a
integrar grande quantidade e diversidade de
sistemas, equipamentos, dispositivos, enlaces* e
serviços, tornando as tarefas de gerência bastante
complicadas e dispendiosas.

As Redes Definidas por Software (SDN: Software


Defined Networks) permitem programar o
comportamento da rede de forma centralizada e
controlada por meio de interfaces de programação
abertas.

*Enlaces: Como estudaremos no segundo módulo, enlaces representam as ligações


físicas entre os nós da rede, usando vários meios de transmissão (fibra ótica, par
trançado, cabo coaxial etc.)

6 / 28
A figura central em uma rede SDN é o controlador de rede*, por onde o gerente consegue
estabelecer políticas e comportamentos, e passar essas informações diretamente para os
equipamentos que compõe a rede. Assim, o plano de controle da rede fica independente
das características físicas e do hardware de cada equipamento, sendo implementado
agora no controlador de rede.

*Controlador de rede: O controlador da rede é um sistema que roda em um servidor


central desenvolvido para controlar todo o fluxo de informações na rede de forma a
facilitar o trabalho de gerência e melhorar o desempenho das aplicações de rede. O
controlador utiliza protocolos para se comunicar com os demais elementos da rede e
informar para onde encaminhar os pacotes.

Vimos, na imagem anterior, uma representação de rede onde o controlador possui a visão
global da topologia e atua diretamente nos equipamentos para estabelecer as políticas
definidas pelo gerente da rede.

7 / 28
Internet das coisas

A conectividade é a palavra-chave da
Internet; sendo assim, a evolução, no
sentido de aumentar ainda mais o grau de
conectividade, trouxe a tecnologia da
Internet das Coisas (IoT: Internet of Things).

A ideia por trás dessa iniciativa é conectar


não apenas os
computadores, smartphones e tablets, mas
também qualquer dispositivo, objeto e até
mesmo animais na rede. Isso permitiria que
todos os objetos do nosso cotidiano (ex.
geladeira, porta da casa, lata de lixo, par de
sapatos etc.) pudessem trocar dados e ser
utilizados remotamente.

VERIFICANDO O APRENDIZADO

1. Estudamos sobre a história e evolução das redes de computadores. Com base nos
fatos relatados no corrente módulo, assinale a alternativa correta:

a) A ARPANET, sendo uma rede financiada pelo governo dos Estados Unidos, ficou restrita
ao território americano.

b) As tecnologias desenvolvidas para a Internet foram essenciais para a criação da


ARPANET.

c) A comutação de pacotes trouxe uma mudança de paradigma na comunicação de


dados.

d) O surgimento das LANs e WLANs permitiu o estabelecimento de conexões de grande


alcance entre os nós da rede.

Comentário

Parabéns! A alternativa C está correta.

A introdução da tecnologia de comutação de pacotes favoreceu o desenvolvimento das


redes de computadores e causou uma mudança de paradigma em relação à comutação
de circuitos -- tecnologia anterior, empregada principalmente pelas redes tradicionais de
telefonia fixa.

8 / 28
2. Em relação à comutação de circuitos e comutação de pacotes, selecione a
opção incorreta:

a) Na comutação de circuitos, o processo de transmissão da informação ocorre em três


fases.

b) Na comutação de pacotes, cada pacote é encaminhado de forma independente dos


demais.

c) A comutação de circuitos é uma tecnologia anterior à comutação de pacotes.

d) Na comutação de pacotes, a ordem de recepção dos pacotes no destino é preservada.

Comentário

Parabéns! A alternativa D está correta.

Na comutação de pacotes, os pacotes são encaminhados de maneira independente pelos


nós da rede, de forma que cada pacote pode seguir um caminho diferente dos demais.
Assim, não é possível garantir que os pacotes cheguem ao destino na mesma ordem em
que foram transmitidos pela origem.

9 / 28
INTRODUÇÃO

As redes de computadores são constituídas de três componentes


fundamentais: nós, enlaces e protocolos.

Nós Enlaces Protocolos

Os nós representam Os enlaces representam as Os protocolos implementam


os sistemas finais ou sistemas ligações físicas entre os nós as regras de comunicação nas
intermediários que são da rede, podendo empregar os redes que organizam e
interconectados em rede. mais diferentes meios de controlam o fluxo de
transmissão: fibra ótica, par informação. Os protocolos
trançado, cabo coaxial, automatizam a comunicação
transmissão em RF, micro- entre os nós e resolvem os
ondas, enlace satelital, etc. problemas de transmissão,
erros, controles, gerência,
serviços e políticas de uso.

10 / 28
CLASSIFICAÇÃO QUANTO À TOPOLOGIA

A topologia de uma rede é representada pelo arranjo de ligação dos nós através dos
enlaces. Essas ligações podem ocorrer das mais diversas formas, o que resulta em
diferentes tipos de topologia.

Vejamos alguns tipos de arranjos e os respectivos nomes dados às topologias.

11 / 28
12 / 28
A topologia de uma rede tem influência direta no seu desempenho e na sua
robustez.

Classificação quanto à área de


cobertura (alcance)

As redes de computadores podem


também ser classificadas quanto à região
ou área física em que são dispostas para
prestarem serviços aos usuários. São
classificadas sob diversas siglas, que
detalharemos no vídeo a seguir: LAN,
MAN, WAN, WLAN, WMAN, SAN e PAN.

CLASSIFICAÇÃO SEGUNDO O MEIO DE TRANSMISSÃO

Podemos também classificar as redes em dois grandes grupos de acordo com o tipo de
meio físico usado para interconectar os dispositivos: redes cabeadas ou redes sem fio.

Redes cabeadas

Nas redes cabeadas (ou redes por cabo), as conexões entre os dispositivos empregam
meios físicos por onde o sinal é transmitido de forma confinada. São geralmente

13 / 28
empregados como meios físicos o cabo coaxial, o cabo de par trançado ou o cabo de
fibra óptica.

Par Trançado Fibra ótica Cabo coaxial

14 / 28
Algumas características da rede cabeada são:

TRANSPORTE DE SINAL

Tanto o par trançado quanto o cabo coaxial transportam o sinal eletromagnético,


enquanto na fibra óptica o sinal é propagado na forma de luz.

VANTAGENS E DESVANTAGENS

Cada um dos meios oferece vantagens e desvantagens em relação aos demais. Embora
o par trançado seja mais flexível e barato, enfrenta o problema de interferências
eletromagnéticas em maior escala. Já a fibra óptica, que é mais cara, está imune às
interferências e possui a capacidade de atingir altas taxas de transmissão.

Redes sem fio

Nas redes sem fio* o sinal é transmitido em espaço aberto, não guiado.

*Redes sem fio: São tecnologias de redes sem fio: a rede por infravermelhos, a rede por
micro-ondas e a rede por rádio. Cada qual com alcances, faixa operacional do espectro
eletromagnético, taxas de transmissão e imunidade a interferências diferentes.

15 / 28
Exemplo

Esses tipos de rede apresentam diversas facilidades em relação às redes cabeadas. Ex.:
rapidez na instalação, capacidade de mobilidade, pouco ou nenhum impacto sobre a
infraestrutura predial. Em alguns prédios históricos e locais críticos, acabam sendo a
única possibilidade viável para uma rede ser instalada.

VERIFICANDO O APRENDIZADO

1. Em relação aos diferentes arranjos topológicos que uma rede de computadores pode
assumir, assinale a alternativa correta:

a) A topologia centralizada não apresenta vantagens em relação a uma topologia


distribuída.

b) As topologias em estrela e anel são resistentes à queda de um enlace, mas a queda de


dois enlaces sempre desconecta os demais nós da rede.

c) A topologia distribuída apresenta uma maior tolerância a falhas do que as topologias


descentralizadas e centralizadas.

d) O arranjo topológico não interfere no desempenho global da rede.

Comentário

Parabéns! A alternativa C está correta.

A topologia distribuída é a mais tolerante a falhas por não apresentar nós ou enlaces
críticos que afetem o funcionamento global da rede. Nos outros dois tipos de arranjos
existem nós que caso apresentem falhas são capazes de comprometer toda a estrutura
da rede.

16 / 28
2. Neste módulo estudamos algumas formas de classificação das redes de
computadores. Está incorreta a afirmativa:

a) As redes de computadores podem ser classificadas quanto ao seu tamanho ou área de


cobertura.

b) Uma MAN pode ser caracterizada pela ligação de diversas LANs.

c) Os meios físicos empregados em redes cabeadas apresentam diferentes


características quanto à imunidade ao ruído.

d) As WLANs substituíram as LANs para poderem atingir maiores distâncias de ligação


entre os terminais.

Comentário

Parabéns! A alternativa D está correta.

Tanto as WLANs quanto as LANs são classificadas como redes locais e, portanto, não
visam ligações de longo alcance, as WLANs permitem, no entanto, que os terminais sejam
ligados em rede por meio de enlaces sem fio.

17 / 28
INTRODUÇÃO

Embora as redes sem fio para transmissão de dados tenham se popularizado


bastante nas últimas décadas, o seu desenvolvimento data do início dos anos 1970.
Pode-se afirmar que a primeira demonstração pública das redes sem fio em
pacotes (dados) ocorreu em junho de 1971, na Universidade do Havaí, conhecida
como ALOHAnet.

(ABRAMSON, 2009)

O objetivo da ALOHAnet era empregar equipamentos de rádio de baixo custo para as


transmissões que possibilitassem a conexão dos terminais dos usuários espalhados pela
universidade até um grande computador central de uso compartilhado.

18 / 28
Comentário

A contribuição que o sistema trouxe foi tão importante que, mais tarde, diversos
protocolos de comunicação empregados em redes celulares e até mesmo em redes
cabeadas foram inspirados na ALOHAnet.

Ilustração da rede ALOHA, onde os terminais remotos acessam a estação central através de transmissões UHF (Ultra
High Frequency) em meio aberto

A partir de então, o desenvolvimento das redes sem fio seguiu um ritmo constante, até
chegarmos à explosão de seu uso nos dias de hoje. Pode-se dizer que as tecnologias de
redes sem fio foram responsáveis pela imensa conectividade de usuários que
observamos em todo o mundo, como também são um veículo de participação e inclusão
social.

Porém, antes de abordarmos algumas de suas principais tecnologias, é importante


entender alguns conceitos e algumas peculiaridades das redes sem fio que as diferem
das redes cabeadas tradicionais.

CONCEITOS
Peculiaridades e características das redes sem fio

A simples possibilidade de se utilizar enlaces sem fio em vez de enlaces por cabo
em redes de computadores introduz diversas vantagens.

19 / 28
O lançamento de cabos em áreas urbanas ou rurais, ou mesmo a instalação predial de
cabos, pode, por vezes, ser bastante complicado, custoso ou até mesmo proibido. No
exemplo citado anteriormente da ALOHAnet, o terreno acidentado e a dispersão dos
terminais na universidade se tornaram claramente fatores motivadores para a utilização
de enlaces sem fio.

Existem também outras situações onde a adoção dos enlaces sem fio acaba se tornando
a única opção disponível.

Ex.: a instalação de uma rede em um prédio histórico tombado onde não é permitida
qualquer alteração, obra ou reforma; dentro de um centro cirúrgico de um hospital;
instalação de redes temporárias etc.

A mobilidade dos terminais também aparece como uma das grandes vantagens da
utilização de redes sem fio; assim, uma infinidade de diferentes cenários para a utilização
das redes de computadores se tornou possível, tais como: campos de batalha, regiões

20 / 28
afetadas por calamidades, operações de resgate, atividades esportivas, eventos, shows,
veículos autônomos não tripulados, redes de sensores.

A facilidade de expansão da rede com a inclusão de novos dispositivos e a rapidez com


que esses dispositivos podem ser instalados e ganhar acesso à rede sem fio também
configuram grandes vantagens em relação às redes com cabos. Podemos adicionar a
isso a flexibilidade de o terminal poder alcançar locais onde o cabo não chega.

No entanto, é importante também conhecer as desvantagens ou dificuldades encontradas


pelas redes sem fio. Em primeiro lugar, a transmissão em espaço aberto traz
preocupações imediatas com a segurança, visto que os sinais podem ser mais facilmente
capturados por algum terminal não autorizado que esteja escutando o meio.

A transmissão do sinal em espaço aberto também está sujeita a maior atenuação do sinal
e interferência de outras fontes, tendo em vista que não há a proteção e o isolamento do
meio guiado. Isso afeta diretamente as taxas de transmissão, o alcance e a potência
necessária nos transmissores.

A propagação do sinal também sofre o que se chama de propagação multivias; como o


meio não é guiado, o sinal pode sofrer reflexões em obstáculos pelo caminho, o que
dificulta a detecção da informação por parte dos receptores. Até mesmo as condições
climáticas (temperatura, pressão, umidade do ar) impõem dificuldades nas transmissões.
Em suma, a transmissão de sinais em meio aberto está sujeita a diferentes intemperes e
dificuldades que geralmente não afetam ou são mitigadas pelos meios guiados.

Sinal sendo refletido por múltiplos caminhos no espaço aberto (propagação multivias), dificultando a recepção da
informação no receptor.

21 / 28
Condições climáticas (chuva) causando a atenuação do sinal para o receptor.

Redes Locais Sem Fio – WiFi

As redes locais sem fio se tornaram


atualmente uma das mais importantes
tecnologias de acesso à Internet,
estando presente nos mais diversos
locais de atividade das pessoas: em
casa, no trabalho, nos hotéis, nas
universidades, escolas, nos
restaurantes, cafés, aeroportos,
estádios etc.

A tecnologia dominante empregada em redes locais sem fio é a tecnologia WiFi,


identificada pelo padrão IEEE 802.11.

Redes Móveis Celulares

Outra tecnologia de redes de comunicação sem fio amplamente utilizada nos dias atuais
é a tecnologia de redes móveis celulares. A cobertura que essas redes oferecem nas
grandes cidades, estradas e até mesmo em zonas rurais é bastante ampla, o que motivou
a explosão do consumo e a utilização de aparelhos celulares como plataformas de
acesso à Internet.

22 / 28
Um levantamento realizado pela empresa GSMA Intelligence estimou que, até janeiro de
2020, cerca de 5,18 billhões de pessoas aparecem como usuários de serviço de telefonia
celular, ou seja, 66.77% da população mundial. Esse dado confirma o grande sucesso e a
evolução tecnológica dessas redes ao longo dos anos e também reflete a necessidade da
população mundial por serviços de redes móveis sem fio.

Veja, a seguir, uma ilustração da estrutura básica de uma rede móvel celular. As células
representadas pelos hexágonos cobrem determinada região geográfica na qual o acesso
à rede é oferecido. O conjunto de células, então, garante a cobertura em uma área maior:
uma cidade, por exemplo. Cada célula possui uma estação-base – BS (Base Station), que
desempenha um papel semelhante ao dos APs nas redes IEEE 802.11.

Características das redes móveis celulares

23 / 28
HANDOFF

Um dos objetivos das redes móveis celulares é oferecer mobilidade total aos usuários.
Ao se movimentarem, os usuários podem trocar de célula de cobertura e, assim, trocar
também de acesso a outra BS. Esse processo é conhecido como handoff. O handoff é
totalmente despercebido pelos usuários e realizado automaticamente pela rede e pelos
dispositivos móveis.

UPLINK E DOWNLINK

A comunicação dos terminais até a BS é realizada pelo canal chamado uplink (canal de
subida que é compartilhado entre os terminais), e a comunicação da BS até os terminais
é realizada pelo downlink (canal de decida controlado unicamente pela BS).

Assim, no canal compartilhado uplink, são necessários também os protocolos de


múltiplo acesso para organizar a comunicação dos diversos terminais. Porém, diferente
das redes WiFi, aqui não se utiliza o protocolo CSMA/CA, e sim soluções de
compartilhamento estáticas baseadas, por exemplo, na técnica de múltiplo acesso por
divisão no tempo – TDMA (Time Division Multiple Access) ou divisão de frequência –
FDMA (Frequency Division Multiple Access). Essas soluções foram herdadas das redes
de telefonia anteriores, e não das redes de dados.

24 / 28
VERIFICANDO O APRENDIZADO

1. Em relação às características das redes sem fio e de todo o seu desenvolvimento,


pode-se afirmar que:

a) O desenvolvimento da ALOHAnet foi motivado pelo surgimento das WLANs.

b) A propagação multivias e a sensibilidade às condições climáticas afetam tanto as


redes cabeadas quanto as redes sem fio.

c) Soluções de múltiplo acesso ao meio físico são empregadas tanto nas WLANs quanto
nos uplinks de redes móveis celulares.

d) O protocolo CSMA/CA padronizado para as redes móveis celulares verifica se o meio


está livre antes de iniciar uma transmissão.

Comentário

Parabéns! A alternativa C está correta.

Ambos os canais são compartilhados pelos terminais dos usuários e portanto são
empregadas técnicas de múltiplo acesso para organizar as transmissões.

25 / 28
2. Assinale a alternativa incorreta:

a) Um dos objetivos do protocolo CSMA/CA é evitar a colisão entre os terminais durante


as transmissões.

b) Em uma BSS só pode existir um AP.

c) O handoff garante o suporte à mobilidade em redes celulares.

d) No protocolo CSMA/CA o terminal interrompe a transmissão tão logo detecta que


ocorreu uma colisão.

Comentário

Parabéns! A alternativa D está correta.

O protocolo CSMA/CA não emprega dispositivo para detecção de colisão durante a


transmissão. Uma colisão é detectada quando o terminal fonte não recebe a confirmação
do terminal destino, vide Figura 14.

26 / 28
CONSIDERAÇÕES FINAIS

As redes de computadores apresentam uma história relativamente recente; no entanto, os


avanços experimentados pela tecnologia de rede fizeram com que as redes de
computadores se tornassem presentes nas mais diversas atividades da sociedade, sendo
praticamente indispensáveis atualmente.

REFERÊNCIAS BIBLIOGRÁFICAS

ABRAMSON, N. The ALOHAnet – Surfing for Wireless Data, IEEE Communications


Magazine.47(12): 21–25.

BARAN, P. On Distributed Communication Networks: I. Introduction to Distributed


Communications Networks. Santa Monica, CA: RAND Corporation, 1964.

KLEINROCK, L. History of the Internet and its flexible future. IEEE Wireless
Communications Volume: 15.

KUROSE, F., ROSS, K. Redes de Computadores e a Internet. 5. ed. São Paulo, PEARSON,
2010.

LEINER, B. et. al. The Past and Future History of the Internet, Communications of the ACM
40(2):102-108.

STALLINGS, W. Redes e Sistemas de Comunicação de Dados. 1. ed. Altabooks, 2018.

TANENBAUM, A. Redes de Computadores. 5. ed. São Paulo: PEARSON, 2011.

27 / 28
EXPLORE+

Vídeo

Pesquise e assista ao vídeo História da internet no Brasil e a importância da RNP.

Texto

Busque e analise também o material IEEE 802.11TM WIRELESS LOCAL AREA


NETWORKS.

CONTEUDISTA

Ronaldo Moreira Salles

28 / 28
Histórico da Internet

Redes sem fio


• 1950 – 1960 : primeiros computadores
• 1960 : primeira rede de dados
• 1969 : ARPANET
• 1973 : primeira conexão do NORSAR à
ARPANET
• 1981: havia mais de 200 computadores
conectados à rede
• 1983 – protocolo TCP: nascimento da Peculiaridades
Internet
• Final de 1980 e início de 1990: provedores
de Internet
• Atualidade: rede de escala global com
números crescentes de usuários
Vantagens

• Enlaces sem fio


• Mobilidade dos terminais
• Facilidade de expansão da rede
Redes de computadores

Conceitos fundamentais Desvantagens

• Comutação de circuitos • Falta de segurança no espeço aberto


• Comutação de pacotes • Atenuação do sinal e interferências
• Propagação multiviais

Redes definidas por


softwares

Tecnologia WiFi
Componentes padrão IEEE 802.11.
fundamentais

• Nós
• Enlaces
• Protocolos

Topologia

• Centralizada
• Descentralizada
• Distribuída

Área de cobertura
(alcance)

• LAN
• MAM
• WAN
• WLAN
• WMAN
• WWAN
• SAN
• PAN

Meio de transmissãp

• Redes cabeadas
• Redes sem fio
DEFINIÇÃO

Organização das redes de comunicação de dados utilizadas pelos dispositivos


computacionais e os modelos e arquitetura de redes empregados.

PROPÓSITO

Reconhecer como as redes de computadores estão organizadas e estruturadas para


definir as ferramentas adequadas ao processo de troca de dados entre todos os
dispositivos.

OBJETIVOS

MÓDULO 1 MÓDULO 2 MÓDULO 3

Identificar o objetivo da Identificar as camadas do Identificar as camadas da


divisão da estrutura das Modelo OSI e suas Arquitetura TCP/IP e suas
redes em camadas funcionalidades funcionalidades.

1 / 38
INTRODUÇÃO

Uma infinidade de serviços é oferecida por meio da


internet, como, por exemplo, os governamentais,
financeiros, educacionais, entre muitos outros que
mudaram o comportamento humano. Ao ficarmos sem
acesso à internet nos sentimos como se estivéssemos
em uma ilha deserta. Experimente colocar seu
smartphone em modo avião durante um dia e perceba
como se sentirá isolado.

Mas, para que todos esses serviços possam funcionar,


um conjunto de funcionalidades complexas e difíceis de
implementar deve ser disponibilizada pelos dispositivos
que compõem uma rede. Portanto, desde o início das
redes de comunicação de dados foram pensadas formas
de otimizar o processo da transmissão de dados.

MODELO EM CAMADAS

A internet é um conjunto de redes de computadores que permite a troca de informações


entre dispositivos computacionais.

2 / 38
Para que essa troca seja realizada de forma eficiente, devem ser estabelecidas
regras de comunicação.

Essas regras são os protocolos de rede, que devem garantir que a comunicação
ocorra de forma confiável, segura, eficaz, no momento certo e para a pessoa certa.

De maneira intuitiva, percebemos que satisfazer a todos esses requisitos não é uma
tarefa fácil. São muitas regras que devem ser implementadas para garantir a efetividade
da comunicação, tornando o processo de troca de dados entre computadores uma tarefa
extremamente complexa.

Por causa dessa complexidade, os engenheiros e projetistas de redes do passado


pensaram em formas de facilitar o desenvolvimento das regras nos dispositivos
computacionais. Eles utilizaram um princípio básico de resolução de diversos outros
problemas:

A técnica de dividir para conquistar*.

*Dividir para conquistar: Nesta técnica, os projetistas dividem o problema em problemas


menores e resolvem cada um de forma isolada. Se cada pequeno problema for resolvido,
o grande problema será resolvido.

Para que essa divisão ocorresse de forma simplificada, os projetistas dividiram a


organização das redes de computadores em camadas, em que cada camada é
responsável por cuidar de determinada regra ou protocolo necessário ao processo
de comunicação.

3 / 38
A quantidade de camadas utilizadas depende de como as funcionalidades são divididas.
Quanto maior a divisão, maior o número de camadas que serão empilhadas, numerando
da mais baixa, camada 1, para a mais alta, camada n.

As camadas se inter- De forma contrária,


relacionam da podemos dizer que a
seguinte maneira: a camada inferior
camada superior oferece serviços
utiliza os serviços para outra
oferecidos por outra imediatamente
imediatamente superior, logo,
inferior, portanto, a camada 2 oferece
a camada 3 utiliza serviços para a
os serviços camada 3.
oferecidos pela
camada 2.

ELEMENTOS DA CAMADA

As camadas são formadas por três elementos principais:

4 / 38
Vamos entender melhor os elementos da camada!

Onde, exatamente, tudo isso é implementado no computador?

O que está implementado são os protocolos e interfaces, que podem estar desenvolvidos
em um hardware, como uma placa de rede, ou em um software, como no sistema
operacional da máquina.

Agora que os elementos da camada foram apresentados, é possível entender dois


conceitos importantes da arquitetura de redes:

Comunicação Vertical Comunicação Horizontal

COMUNICAÇÃO HORIZONTAL E VERTICAL

Já vimos que uma camada utiliza os serviços de outra imediatamente inferior,


sucessivamente, até chegar à camada mais baixa. Como estão empilhadas, podemos
fazer analogia à comunicação vertical, uma vez que o dado original, no topo do conjunto
de camadas, desce até a camada 1, caracterizando a verticalidade desse processo.

5 / 38
No destino, o processo ocorrerá de modo
contrário, pois o dado sobe pelas camadas
até o nível mais alto da arquitetura.
Na origem, o dado a ser transmitido desce Podemos, assim, associar a comunicação
pelas camadas até o nível mais baixo, a vertical aos serviços das camadas.
camada 1. Essa camada está conectada
ao meio de transmissão, como, por
exemplo, uma fibra ótica, um cabo de rede
metálico ou o ar, possíveis caminhos para
o dado fluir até o destino.

Conforme o dado passa por determinada camada, o hardware ou o software, responsável


por implementar o protocolo, irá preparar esse dado para que a regra (para a qual ele foi
projetado) possa ser executada.

Por exemplo, se a camada 2 é


responsável pela verificação
de erro, o dado será
preparado na origem por essa
camada para que, ao passar
pela camada 2 do destino,
seja verificado se houve erro
ou não.

No exemplo anterior, vimos que a camada 2 de origem preparou o dado para que a
camada 2 de destino verificasse se a informação está correta, caracterizando a existência
de uma conversa entre as duas camadas de mesmo nível em computadores distintos.
Essa conversa é a comunicação horizontal, realizada pelos protocolos que implementarão
a regra.

6 / 38
Figura 1 - Relação entre camadas, protocolos e interfaces. (Fonte: Adaptado de Tanembaum, 2011)

ENCAPSULAMENTO

Ainda pode estar um pouco abstrato como realmente a comunicação vertical e,


principalmente, horizontal funcionam.

Como a camada 2 da máquina de origem consegue conversar com a mesma camada na


máquina de destino?

A comunicação horizontal ocorre de forma virtual. A camada 2 da máquina de origem, ao


preparar o dado para ser enviado, adiciona informações que serão lidas e tratadas única e
exclusivamente pela mesma camada do dispositivo de destino. Essas informações são
denominadas cabeçalhos.

7 / 38
Cada camada adicionará um novo cabeçalho ao dado que será enviado, e esse processo é
chamado de encapsulamento.

Cada camada receberá o dado da camada superior, através da interface, e adicionará seu
próprio cabeçalho, encapsulando o dado recebido.

Nesse processo, quando determinada camada recebe os dados, ela não se preocupa com
o conteúdo que recebeu, apenas adiciona o seu cabeçalho para permitir que o protocolo
execute as regras necessárias à comunicação.

Esse procedimento acontece, repetidamente, até alcançar a camada 1 e a informação ser


transmitida ao destino, onde ocorrerá o processo inverso. A informação subirá,
desencapsulando as informações, da camada 1 até o usuário do serviço.

Importante
Ao realizar o encapsulamento, a unidade de dados do protocolo ou PDU
(Protocol Data Unit, na sigla em inglês) é criada.

A PDU é constituída pela informação que vem da camada superior (PDU da


camada superior) e o cabeçalho da própria camada.

Vamos entender melhor como funciona na prática essa conversa entre as camadas da
rede!

8 / 38
Após analisar o conceito de arquitetura de camadas e ver o processo de encapsulamento,
é possível deduzir que a grande desvantagem é o acréscimo de informações ao dado
original, aumentando o volume de tráfego.

Entretanto, essa desvantagem é mínima comparada às vantagens que temos de


modularização, facilidade de manutenção e atualização dos protocolos, que permitiram
uma enorme evolução na área de redes.

VERIFICANDO O APRENDIZADO

1. A transmissão de dados entre dois dispositivos é uma tarefa complexa e envolve


diversas funções que devem ser executadas a fim de garantir uma comunicação eficiente.
Para reduzir a complexidade e tornar a comunicação uma tarefa realizável, a estrutura de
rede foi:

a) Dividida em protocolos que oferecem serviços aos usuários da rede.

b) Dividida em camadas que são responsáveis por realizar um conjunto de atividades.

c) Dividida em diversos tipos de placas de rede para permitir o uso de vários meios de
transmissão.

d) Dividida em cabeçalhos que permitem a comunicação horizontal.

Comentário

Parabéns! A alternativa B está correta.

A divisão em camadas permitiu a separação das funções necessárias à comunicação de


dados entre os diferentes níveis de camadas, utilizando a ideia de dividir para conquistar,
técnica que divide um problema grande e complexo em pequenos problemas mais
simples, que, ao serem resolvidos, solucionarão o problema como um todo. Cada camada
fica responsável por realizar um conjunto de atividades ou funções necessárias à
transmissão dos dados.

9 / 38
2. Cada camada de uma arquitetura de redes possui três elementos: serviço, protocolo e
interface. Esses elementos básicos permitem que as tarefas necessárias à transmissão
de dados sejam corretamente divididas e executadas, por isso, podemos dizer que:

a) O serviço é a implementação das regras de comunicação, os protocolos.

b) A interface é responsável por garantir a eficiência na transmissão dos dados.

c) O protocolo é a implementação do serviço que a camada deve executar.

d) Em virtude da evolução dos protocolos, os serviços deixaram de ser necessários.

Comentário

Parabéns! A alternativa C está correta.

Cada camada é responsável por uma determinada regra, ou seja, o serviço define o que a
camada deve fazer, mas não como. A responsabilidade de implementar a regra, de definir
o como é do protocolo de rede implementado naquela camada. Portanto, é comum dizer
que o protocolo é a implementação do serviço.

10 / 38
MODELO OSI

Na década de 1970, a International Organization for


Standardization (ISO), um órgão que desenvolve
padrões internacionais, criou um modelo de referência
de camadas denominado OSI (Open System
Interconnection - ISO/IEC 7498-1:1994).

O objetivo foi elaborar um modelo que permitisse a


comunicação entre sistemas diferentes,
independentemente de suas arquiteturas, facilitando a
comunicação, sem a necessidade de realizar
mudanças na lógica do hardware ou software
(FOROUZAN, 2010).

“Observe que o modelo OSI propriamente dito não é uma arquitetura de rede, pois não
especifica os serviços e protocolos exatos que devem ser usados em cada camada. Ele
apenas informa o que cada camada deve fazer. No entanto, a ISO também produziu
padrões para todas as camadas, embora esses padrões não façam parte do próprio
modelo de referência. Cada um foi publicado como um padrão internacional distinto. O
modelo (em parte) é bastante utilizado, embora os protocolos associados há muito tempo
tenham sido deixados de lado.” (TANENBAUM, 2011)

11 / 38
Importante
O que utilizamos hoje do modelo OSI é a referência para as funções das
camadas, então, quando ouvimos falar que determinado protocolo é da camada
X (1, 2, 3, ...). Esse X refere-se ao OSI, tanto que é encontrada, em diversos livros
e artigos, a expressão modelo de referência OSI (RM-OSI em inglês).

O modelo OSI possui sete camadas, de


cima para baixo: aplicação, apresentação,
sessão, transporte, rede, enlace e física.

De acordo com o conceito de camadas


que estudamos, cada uma delas é
responsável por determinada tarefa no
processo de transmissão de dados.
Entretanto, já sabemos que, por mais que
tenham sido especificados protocolos
para cada camada, na prática, eles não
são utilizados.

Os conceitos estudados de comunicação vertical, horizontal e encapsulamento são


válidos nesse modelo. Portanto, um dado transmitido por um dispositivo de origem será
inserido na estrutura de rede a partir da camada de aplicação e irá descer até a
camada física, quando será enviado pelo meio de transmissão. Cada camada irá
adicionar o seu próprio cabeçalho, encapsulando a PDU da camada superior e permitindo
a comunicação horizontal entre camadas de mesmo nível.

12 / 38
É possível dividir as sete camadas em três subgrupos.

Agora vamos ver, de modo mais específico, as tarefas de cada camada do modelo OSI.

13 / 38
APLICAÇÃO

A camada de aplicação é a que está mais próxima de nós, usuários da rede. Podemos
citar algumas das aplicações oferecidas por essa camada:

Serviço Web

Serviço de correio eletrônico

Serviço de transferência de arquivos

Serviço de streaming de áudio e vídeo

Serviço de compartilhamento de arquivos

Os serviços citados acima ou quaisquer outros oferecidos pela camada de aplicação são
executados por processos dos usuários que estão em andamento em determinado
dispositivo.

APRESENTAÇÃO

A camada de apresentação é responsável por garantir a interoperabilidade dos sistemas


heterogêneos, ou seja, permitir que, independentemente do dispositivo que você esteja
utilizando (computador, smartphone, televisão, carro etc.) e do sistema operacional (MS
Windows, Apple IOS, Linux etc.), seja possível acessar qualquer tipo de serviço
disponibilizado pela rede.

Para que haja essa interoperabilidade, a camada de apresentação é responsável por fazer
a transformação dos dados, por isso, podemos chamá-la de tradutor da rede. Ela será
responsável pela conversão entre formatos, compressão de dados e criptografia.

14 / 38
SESSÃO

Essa camada é responsável por organizar a comunicação entre os dispositivos e permitirá


que os usuários, em diferentes máquinas, possam estabelecer sessões de comunicação;
cada sessão terá dois serviços básicos: controle de diálogo e sincronização.

Controle de diálogo Sincronização

Define quem transmitirá em Permite que sejam estabelecidos pontos


determinado momento. Considerando de controle em determinado fluxo de
a existência de dois usuários, A e B, a dados. Esses pontos permitem que, se
camada de sessão determinará se eles houver uma perda de comunicação, a
podem transmitir simultaneamente, transmissão de dados seja restabelecida a
caracterizando a comunicação full partir daquele ponto e não desde o início
duplex, ou de forma intercalada, em da transmissão.
um sentido por vez, a exemplo da
comunicação half duplex.

15 / 38
TRANSPORTE

Essa camada tem por finalidade garantir a entrega de processo a processo de todos os
dados enviados pelo usuário. Podemos dizer que a camada de transporte é responsável
por entregar os dados corretamente para os processos que estão em execução na
camada de aplicação.

Esse papel da camada de transporte a torna uma das mais complexas dentro da estrutura
do modelo OSI. Para garantir que as mensagens da camada de aplicação sejam entregues
corretamente, diversas funções são necessárias:

Segmentação e remontagem

A camada de transporte receberá os dados originados na camada de aplicação (PDU da


camada de aplicação) e irá dividi-los em pedaços, segmentos de dados (PDU da
camada de transporte), que possam ser enviados e, na camada de transporte de
destino, irá remontá-los na ordem correta. Para isso, será necessário estabelecer
números de sequência para garantir que, independentemente da ordem de chegada, os
dados sejam remontados na ordem correta.

Controle de erros fim a fim

A camada de transporte irá verificar se ocorreram erros na comunicação fim a fim, ou


seja, entre os processos da camada de aplicação. Na origem, serão adicionadas
informações que permitam identificar no destino se durante o tráfego pela rede ocorreu
algum erro e, possivelmente, corrigi-lo.

Controle de fluxo

A camada de transporte será encarregada de evitar que o processo na origem


sobrecarregue o processo no destino.

Controle de conexão

A camada de transporte pode ser orientada ou não à conexão. No serviço orientado à


conexão, a camada de transporte será responsável por estabelecer a conexão entre os
processos de origem e destino.

16 / 38
Endereçamento do ponto de acesso ao serviço

Em um dispositivo, normalmente, estão em andamento diversos tipos de serviços


executados por vários processos e não apenas um. A camada de transporte será
responsável por fazer a entrega para o processo correto e, para isso, será utilizado o
chamado endereço de porta. Ele indicará o serviço correto que deverá receber os dados.

Controle de congestionamento

No mundo real, as máquinas não estão diretamente conectadas, ou seja, não há uma
comunicação ponto a ponto direta. Entre a máquina de origem e de destino existem
diversos outros dispositivos cuja finalidade é fazer a informação ir de um ponto a outro.
Como esses equipamentos transmitirão dados de diversas outras origens, poderá haver
uma sobrecarga desses dispositivos. A camada de transporte será responsável por
monitorar esse congestionamento e, possivelmente, tratá-lo.

REDE

A camada de rede é responsável por determinar o caminho da origem até o destino. Ela
receberá os segmentos gerados pela camada de transporte e, no cabeçalho da camada
de rede, irá inserir o endereço da máquina de destino para que seja enviado pela rede por
meio dos diversos dispositivos intermediários. Enquanto a camada de transporte é
responsável pela comunicação processo a processo, a camada de rede é encarregada da
comunicação máquina a máquina.

Veja a representação desse fluxo a seguir:

17 / 38
Figura 3 - Comparação entre camada de transporte e camada de rede. (Fonte: Adaptado de FOUROZAN, 2010)

Para cumprir com nosso objetivo, duas funcionalidades principais devem ser
estabelecidas:

Endereço lógico Roteamento

O endereço da porta, definido pela A função de roteamento permite


camada de transporte, permitirá a estabelecer um caminho entre origem e
entrega no processo de destino. Mas, destino. Os dispositivos intermediários
para que isso aconteça, é necessário irão verificar o endereço lógico de destino
que os segmentos cheguem à e, com base nas informações de caminho
máquina de destino. Por isso, são que eles possuem, farão o processo de
empregados endereços lógicos a fim encaminhamento para outros dispositivos
de permitir que os dispositivos intermediários a fim de alcançar o destino
intermediários encaminhem os dados da informação.
pelas redes e alcancem o destino.

18 / 38
ENLACE

A camada de rede tem a responsabilidade da entrega dos dados para a máquina de


destino. Normalmente, as máquinas não estão diretamente conectadas, ou seja, origem e
destino não estão ligados diretamente por um meio físico, mas por dispositivos
intermediários, como a internet. Então, como visto na camada de rede, os dados serão
roteados por essa internet até chegar ao destino. Após ser definido por qual caminho os
dados devem prosseguir, a camada de enlace surgirá para garantir essa comunicação
ponto a ponto ou hop to hop.

Veja a representação desse fluxo a seguir:

Figura 4 - Entrega desde a origem até o destino (Fonte: Adaptado de Fourozan, 2010)

A camada de enlace é responsável por garantir a comunicação entre dispositivos


adjacentes. Ela corrigirá quaisquer problemas que tenham ocorrido no meio físico de
transmissão e entregará para a camada de rede um serviço de transmissão de dados
aparentemente livre de erros.

É possível fazer uma analogia entre as camadas de enlace e de transporte:

19 / 38
Transporte Enlace

Realiza a entrega confiável Realiza a entrega confiável entre


processo a processo. máquinas adjacentes, nó a nó.

Por esse motivo, muitas das funções existentes na camada de transporte também
estarão presentes na de enlace:

Controle de erros

Os meios de transmissão não são livres de erro, portanto, os dados que trafegam
através deles estão sujeitos a erros. A camada de enlace pode implementar
mecanismos de controle de erro com a finalidade de agregar confiabilidade ao serviço
de transmissão.

Controle de acesso ao meio

Como alguns meios de transmissão são compartilhados, ou seja, mais de um


dispositivo pode transmitir pelo mesmo meio, é necessário um mecanismo para
controlar qual dos dispositivos pode transmitir naquele momento.

Endereçamento físico

Enquanto o endereço de porta indica o processo na máquina de destino e o endereço


lógico indica o dispositivo de destino, o endereço físico indicará qual será o próximo
dispositivo no caminho origem-destino. Ao chegar à rede de destino, o endereço físico
será o do dispositivo final.

Controle de fluxo

Semelhante ao que acontece na camada de transporte, o controle de fluxo evitará que o


nó de origem sobrecarregue o nó de destino.

20 / 38
Enquadramento

A camada de enlace receberá os dados da camada de rede (PDU da camada de rede),


encapsulando-os em quadros (PDU da camada de enlace). Os quadros criados pela
camada de enlace terão uma função importante, que será a adição de delimitadores de
início e fim do quadro na origem, para permitir que, no nó vizinho, a camada de enlace
possa ver o fluxo de bits e definir corretamente onde inicia e termina o quadro.

FÍSICA

Essa camada é responsável por transmitir os dados pelo meio de transmissão. Ela
receberá os quadros da camada de enlace, que serão formados por uma sequência de
bits, e irá codificar corretamente para que sejam enviados pelo meio de transmissão.

A camada física será responsável pela representação dos bits, ou seja, de acordo com o
meio de transmissão, ela irá definir se essa representação ocorrerá por pulsos de luz, no
caso da fibra ótica, ou pulsos elétricos, no caso de empregar cabos de par trançado. Além
disso, a camada física é responsável por:

Taxa de dados

A velocidade em que os bits são inseridos no meio de transmissão é responsabilidade


da camada física. Quando ouvimos a expressão megabits por segundo (Mbps), que
define a velocidade de determinado enlace, é responsabilidade da camada física
estabelecer esse valor. Assim, a velocidade de transmissão definirá a duração de um
bit: quanto maior a velocidade, menor a duração do bit, e vice-versa.

21 / 38
Sincronização dos bits

O nó transmissor e o receptor devem operar na mesma velocidade, ou seja, na mesma


taxa de bits. Entretanto, os relógios (clocks) das camadas físicas têm pequenas
diferenças, portanto, é possível que ocorram falhas de sincronismos. A camada física
deve implementar algum tipo de mecanismo que permita o correto sincronismo dos bits
entre origem e destino.

Topologia física

Define como os nós da rede estão interligados, podendo ser uma configuração de um
enlace ponto a ponto, em que cada nó está diretamente conectado a outro, sem
compartilhamento do meio, ou uma ligação ponto-multiponto, em que o enlace é
compartilhado por diversos nós.

Modo de transmissão

A camada física definirá o modo de transmissão em um determinado meio: simplex,


half duplex ou full duplex. Considerando dois dispositivos, A e B, no modo simplex só
existe envio de dados em um sentido, por exemplo, de A para B; no modo half duplex os
dados podem ser enviados nos dois sentidos, porém, não simultaneamente (de A para B
em um momento e de B para A em outro momento); e no modo full duplex os dados
podem ser enviados simultaneamente por A e B.

22 / 38
ATIVIDADE

Envie agora a mensagem que você transportou ao longo de sua jornada pelas camadas de
rede!

Olá, mundo!

enviar

Hello, World!

Parabéns, você conseguiu transmitir sua mensagem com sucesso!

Tendo percorrido o caminho da origem até o destino, passando por todas as camadas da
rede, você é capaz de entender como as informações são transmitidas pelos dispositivos
computacionais.

Vamos relembrar o seu percurso!

Veja um resumo das camadas e suas funcionalidades:

Fonte: Adaptado de Fourozan, 2011.

23 / 38
VERIFICANDO O APRENDIZADO

3. O modelo de referência OSI organiza a estrutura de rede em sete camadas e define o


que cada camada faz, sem definir como faz. As camadas podem ser agrupadas em três
subgrupos, sendo:

a) As três camadas mais altas responsáveis por dar suporte às operações de redes.

b) As três camadas mais baixas responsáveis por dar suporte às operações dos usuários.

c) A camada de transporte e rede são responsáveis por dar suporte às operações de rede.

d) As três camadas mais baixas responsáveis por dar suporte às operações de rede.

Comentário

Parabéns! A alternativa D está correta.

As camadas de rede, enlace e física permitirão que os dados possam sair do dispositivo
de origem e alcançar o dispositivo de destino. A camada física vai permitir que o fluxo de
bits flua pelo meio de comunicação; a camada de enlace vai garantir que não houve erro
na transmissão do fluxo de bits e, de acordo com o caminho definido pela camada de
rede, irá encaminhar os dados para o próximo nó.

24 / 38
4. O modelo de referência OSI define as funcionalidades de cada camada do modelo e
podemos dizer que:

a) A camada física é responsável por realizar a correção dos bits que porventura tenham
ocorrido no meio de transmissão.

b) A camada de rede atua no domínio do processo, entregando os dados ao processo


correto no destino.

c) A camada de enlace é responsável por oferecer um serviço de transmissão de bits


confiável para a camada de rede.

d) A camada de sessão tem por finalidade garantir a interoperabilidade de sistemas


heterogêneos.

Comentário

Parabéns! A alternativa C está correta.

Os serviços oferecidos pela camada de enlace permitem que os erros que ocorram no
meio de transmissão sejam identificados e tratados, seja descartando o quadro com erro
ou identificando o bit errado e corrigindo-o.

25 / 38
ARQUITETURA TCP/IP

“A arquitetura foi batizada por TCP/IP por causa dos seus dois principais protocolos:
Transmission Control Protocol (TCP) e Internet Protocol (IP). Ela foi apresentada pela
primeira vez em 1974 (CERF, 1974) com o objetivo de criar uma arquitetura que permitisse
a interligação de diversas redes de comunicação, sendo posteriormente adotada como
padrão, de fato, para a comunidade internet.” (CERF; KAHN, 1974)

EVOLUÇÃO DO PROTOCOLO TCP/IP

Vamos conhecer um pouco mais sobre o protocolo TCP/IP e o seu papel na história da
internet.

A arquitetura foi criada utilizando quatro


camadas*: aplicação, transporte, internet e acesso à
rede.

*Quatro camadas: Apesar da arquitetura TCP/IP


possuir quatro camadas, é comum encontrar, também
na literatura, uma arquitetura de cinco camadas.
Nessa arquitetura, a camada de acesso à rede é
dividida em duas: enlace e física. Essa divisão tem
foco em facilitar o estudo e aprendizado das funções
executadas nos níveis mais baixos. Como este tema

26 / 38
tem por finalidade o aprendizado da arquitetura TCP/IP como um todo, e não vamos
entrar em detalhes de operação de cada camada, manteremos a arquitetura original de
quatro camadas.

As duas últimas camadas podem ser encontradas com nomes diferentes na literatura. A
camada de rede pode ser encontrada como rede e inter-rede e a camada de acesso à
rede pode ser encontrada como camada de enlace, host-rede, intrarrede e host-network.

Após identificarmos que a arquitetura TCP/IP tem apenas quatro camadas, é possível
imaginar que algumas das funções executadas pelas camadas de apresentação, sessão,
enlace e rede, ausentes na arquitetura TCP/IP, serão acumuladas por outras camadas.

As funções das camadas de apresentação e sessão serão acumuladas pela camada


de aplicação e a funções das camadas de enlace e física serão executadas pela camada
de acesso à rede. Observe a relação entre os dois modelos a seguir.

Uma grande diferença que temos entre o modelo de referência OSI e a arquitetura TCP/IP
é:

27 / 38
Modelo OSI Arquitetura TCP/IP

É baseado, principalmente, nas Não ficou presa apenas nas


funcionalidades das camadas. funcionalidades, mas, sim, no

X desenvolvimento de protocolos
relativamente independentes e
hierárquicos. A hierarquia baseia-se em
um protocolo de nível superior que é
suportado pelos protocolos de nível
inferior.

É comum ouvirmos falar da pilha de protocolos TCP/IP. Agora que dominamos o conceito
do modelo de camadas, como vimos no modelo OSI, fica fácil de entender que a pilha de
protocolos TCP/IP é o conjunto de todos os protocolos implementados pela arquitetura. E
não são poucos.

Os principais protocolos de padrão aberto da arquitetura Internet foram desenvolvidos


pelo IETF (The Internet Engineering Task Force)*, uma grande comunidade internacional
aberta, composta por designers de rede, operadores, fornecedores e pesquisadores
preocupados com a evolução da arquitetura da internet.

*IETF (The Internet Engineering Task Force): O IETF cria grupos de trabalho com foco em
conceber e atualizar diversos protocolos que utilizamos na rede. Esses protocolos são
desenvolvidos pelas RFCs (Request For Comments), que são conhecidos como padrões
da internet e abrangem muitos aspectos das redes de computadores, incluindo
protocolos, procedimentos, programas e conceitos.

FUNÇÕES DAS CAMADAS E PRINCIPAIS PROTOCOLOS

Depois de estudarmos o modelo OSI, é possível ter uma ideia geral dos serviços de cada
camada, portanto, vamos focar, principalmente, nos protocolos.

28 / 38
APLICAÇÃO

A camada de aplicação da arquitetura


TCP/IP nos permite acessar uma
infinidade de serviços na internet. Desde
os que são utilizados de forma direta
pelos usuários, como o serviço Web,
serviço de correio eletrônico, entre
outros, bem como os que funcionam
dando suporte à operação da rede,
como o serviço de nomes (DNS).

Os serviços são implementados pelos diversos protocolos existentes. Correlacionamos, a


seguir, alguns serviços e protocolos utilizados na camada de aplicação.

SERVIÇO PROTOCOLO

Web HTTP

Correio eletrônico SMTP, POP e IMAP

Nomes DNS

Transferência de arquivos FTP, TFTP

Áudio e vídeo em tempo real RTP

Configuração automática de estações DHCP

29 / 38
Os protocolos apresentados são implementados por meio de softwares, que são
executados nos diversos dispositivos computacionais, e podem estar associados a dois
tipos principais de arquitetura:

Cliente-servidor Par a par (peer- to- peer (P2P))

Na arquitetura cliente-servidor, como A arquitetura P2P foi pensada no emprego


já evidencia o nome, existirá um cliente mínimo de servidores, caso exista algum.
e um servidor. O cliente será A ideia da arquitetura peer-to-peer é que os
executado por um usuário como nós e usuários possam trocar informações de
irá requisitar um serviço do servidor. forma direta. Esse tipo de arquitetura ficou
Por exemplo, para o serviço Web, o muito conhecida com os programas de
cliente é o navegador que acessa compartilhamento de arquivos, mas
determinado servidor, por exemplo, o também pode ser utilizada em outras
servidor que está disponibilizando situações, como em um chat entre duas
esse conteúdo. pessoas.

Independentemente da arquitetura utilizada, dizemos que os processos da camada de


aplicação trocam mensagens, que é o nome da unidade de dados do protocolo (PDU) da
camada de aplicação.

TRANSPORTE

Tem a mesma funcionalidade da camada existente no modelo OSI: garantir a entrega de


processo a processo de todos os dados enviados pelo usuário. Porém, na arquitetura
TCP/IP temos dois protocolos principais:

30 / 38
TCP (Transmission Control UDP (User Datagram Protocol)
Protocol)
O protocolo UDP não confere
O protocolo TCP, efetivamente, confiabilidade.
confere confiabilidade.
O protocolo UDP é o oposto do TCP. Ele
O protocolo TCP é um protocolo não é orientado à conexão e não faz a
orientado à conexão, com controle de maioria das funções da camada de rede.
erros, de congestionamento e de fluxo. Podemos dizer que o UDP existe apenas
Também define os endereços das para permitir que uma mensagem (PDU-A)
portas e divide a mensagem (PDU-A) seja encapsulada em um datagrama (PDU-
da camada de aplicação em T) e entregue para o processo de destino
segmentos (PDU-T), determinando correto, já que ele utiliza o endereço da
números de sequência para cada um, porta para fazer a correta entrega na
para garantir a entrega dos dados na máquina de destino.
ordem correta para a aplicação. O TCP
é adequado para as aplicações de rede
que precisam de confiabilidade na
troca de mensagens entre processos.

Então, por que usamos o UDP?

Ele é importante para as aplicações que demandam tempo de resposta baixo na


comunicação, como em um áudio ou uma videoconferência, e nas aplicações que
podem funcionar tolerando algum tipo de perda.

INTERNET

A camada internet ou, simplesmente, camada de rede tem por objetivo permitir que os
dados injetados na rede pela máquina de origem possam alcançar o destino.

O principal protocolo da camada de rede é o IP (Internet Protocol).

Ele é encontrado em duas versões principais:

31 / 38
Objetivo Diferença Semelhança

Os dois protocolos têm A diferença entre as duas Mas, os dois têm em


por objetivo definir o versões do protocolo está comum o fato de serem
endereço lógico, no tamanho do endereço não orientados à
conhecido como lógico, 32 bits para o IPv4 conexão, sem
endereço IP, e permitir o e 128 bits para o IPv6, no confiabilidade, ou seja,
tratamento dos formato do datagrama e não realizam o
datagramas (PDU-R) para em algumas funções mais tratamento de erros e os
que possam ser roteados específicas que não datagramas são
da origem até o destino. abordaremos neste tema. enviados de forma
independente, portanto,
podem chegar em ordem
diferente da qual foram
enviados.

32 / 38
Dizemos que o serviço da camada internet
é de melhor esforço.

Será feito o maior esforço de entregar as


informações, mas não será garantida a
entrega, nem a ordem, nem a ausência de
erro. Qualquer problema deverá ser
corrigido pelas camadas superiores.

Importante
Além do protocolo IP, a camada internet emprega outros protocolos que dão
suporte ao encaminhamento dos dados. Existem protocolos com o objetivo de
fazer sinalização e avisos de erros, como o ICMP (Internet Control Message
Protocol), tradução do endereço lógico para o físico, como o ARP (Address
Resolution Protocol), e a chamada comunicação multicast, que permite o envio
dos dados para um grupo de estações, como o protocolo IGMP (Internet Group
Management Protocol).

ACESSO À REDE

A camada de acesso à rede não foi bem definida pela arquitetura TCP/IP, nem define um
protocolo específico a ser empregado. O que foi dito inicialmente é que a camada de
acesso à rede seria qualquer coisa que pudesse ligar o dispositivo ao enlace de
transmissão.

Mas, como para chegar até aqui já estudamos vários conceitos, sabemos que, apesar de
não estar definida pela arquitetura TCP/IP, nesta camada encontraremos os serviços que
são oferecidos pelas camadas de enlace e física do modelo OSI.

33 / 38
Apesar de não fazer parte da arquitetura TCP/IP, a arquitetura desenvolvida pelo Instituto
de Engenheiros Eletricistas e Eletrônicos (Institute of Electrical and Electronics Engineers
– IEEE), denominada IEEE 802, é largamente utilizada na camada de acesso à rede.

Ela define diversos padrões utilizados nas redes locais e metropolitanas, como o padrão
Ethernet e o famoso WiFi, que provavelmente você está usando agora para acessar este
conteúdo.

Agora que terminamos a apresentação dos principais protocolos da arquitetura TCP/IP,


podemos fazer uma correlação entre a arquitetura internet e seus protocolos com o
modelo OSI, conforme se vê a seguir:

Modelo OSI e TCP/IP (Fonte: Adaptado de FOROUZAN, 2010)

34 / 38
Saiba mais
A arquitetura Internet ou TCP/IP como uma estrutura de camadas não evoluiu
ao longo dos anos. A grande evolução que tivemos foram nos protocolos
empregados.

Inicialmente, os protocolos da camada de aplicação eram concentrados nas


aplicações textuais, com um pequeno volume de informação a ser trocado,
como o Serviço Web criado por Sir Tim Berners-Lee, com foco em páginas
textuais para troca de informações entre os centros de pesquisa.

Hoje, os protocolos evoluíram significativamente para oferecer maior qualidade


de serviço, suporte ao tráfego de vídeo, segurança, transações financeiras,
entre outros. Falando novamente do Serviço Web, o protocolo HTTP evoluiu de
um protocolo textual para binário, a fim de dar suporte aos diversos usos do
Serviço Web, como assistir a vídeos, CRMs, ERPs, entre muitos outros sistemas
complexos.

VERIFICANDO O APRENDIZADO

5. Diferente do modelo OSI, a arquitetura TCP/IP ou internet foi projetada utilizando quatro
camadas. Algumas funções das camadas do modelo OSI foram absorvidas, e podemos
dizer que a:

a) Camada de aplicação inclui as funções da camada de apresentação e sessão.

b) Camada de transporte inclui a função da camada de sessão.

c) Camada de enlace inclui a função da camada de rede.

d) Camada de aplicação inclui as funções da camada de sessão e transporte.

Comentário

Parabéns! A alternativa A está correta.

Os projetistas da arquitetura TCP/IP não viram necessidade das camadas de


apresentação e sessão, por isso, resolveram não as utilizar. Quando fosse necessário, a
camada de aplicação ficaria incumbida de incluir as funções que fossem necessárias.

35 / 38
6. A arquitetura TCP/IP tem foco principal na definição dos protocolos que devem ser
empregados em cada uma das camadas. O conjunto de protocolos empregados é
conhecido como pilha de protocolos e podemos dizer que:

a) O protocolo IP é empregado na camada de rede e oferece um serviço com


confiabilidade.

b) O protocolo TCP é empregado na camada de transporte e oferece um serviço com


confiabilidade.

c) O protocolo UDP é empregado na camada de rede e oferece o serviço de melhor


esforço.

d) O protocolo IP é empregado na camada de aplicação e oferece um serviço de


configuração automática de estações.

Comentário

Parabéns! A alternativa B está correta.

Os serviços oferecidos pela camada de enlace permitem que os erros ocorridos no meio
de transmissão sejam identificados e tratados, descartando o quadro com erro ou
identificando o bit errado e corrigindo-o.

36 / 38
Agora que terminamos este tema, é possível entender que a transmissão de dados é uma
tarefa complexa! Sem a organização das redes de computadores em camadas, a
evolução das redes teria sido mais restrita e, talvez, a internet não seria o que é hoje.

Com o modelo e a arquitetura estudados, sabemos identificar os elementos envolvidos e


compreender a função de cada camada no contexto geral da transmissão de dados.

CONTEUDISTA

Sérgio dos Santos Cardoso Silva

EXPLORE +

Acesse o site da International Telecommunication Union (ITU) e nas seções About ITU
e Standardization você poderá ver o papel da ITU como uma agência especializada da
ONU para telecomunicações e os grupos de desenvolvimento em novas tecnologias,
como: condução autônoma, inteligência artificial, IPTV e muitos outros.

Explore o modelo OSI X.200: Information technology - Open Systems Interconnection -


Basic Reference Model: The basic model ou procure pelo Publicly Available
Standards na International Organization for Standardization, que disponibiliza
gratuitamente a definição do modelo, apresentando o conceito de sistemas abertos e
como o modelo OSI foi projetado.

Leia sobre a história da internet na seção 1.3 do livro Redes de Computadores: Uma
Abordagem Top-Down, de Behrouz Forouzan e Firouz Mosharraf.

Busque a arquitetura IEEE 802 e conheça os principais padrões utilizados, como o IEEE
802.3 Ethernet Working Group (redes locais com cabo), IEEE 802.11 Wireless LAN Working
Group (WiFi) e IEEE 802.15 Wireless Personal Area Network (WPAN) e Working Group
(Bluetooth, entre outras redes pessoais).

Leia o capítulo 2 do livro Rede de Computadores e Internet, de D.E. Comer, de 2016, que
aborda as tendências da internet.

37 / 38
REFERÊNCIAS BIBLIOGRÁFICAS

CERF, V.; KAHN, R. A Protocol for Packet Network Intercommunication In: IEEE
Transactions on Communications, vol. 22, no. 5, pp. 637-648, May 1974.

FOROUZAN, Behrouz A. Comunicação de Dados e Redes de Computadores. 4. ed. Porto


Alegre: AMGH, 2010.

TANENBAUM, A. S.; WETHERALL, J. Redes de computadores. 5. ed. São Paulo: Pearson,


2011.

38 / 38
DEFINIÇÃO

Estudo das camadas de aplicação e transporte do modelo OSI, além da compreensão dos
serviços oferecidos por cada camada. Identificação da arquitetura utilizada no
desenvolvimento de aplicações, com destaque para as principais disponíveis na camada
da internet. Análise dos elementos de suporte dos serviços de transporte com e sem
conexão nesta camada.

PROPÓSITO

Compreender a influência de uma arquitetura no desenvolvimento de aplicações para


redes de computadores, bem como os impactos dos diferentes serviços oferecidos pela
camada de transporte no funcionamento delas.

OBJETIVOS

Módulo 1 Módulo 2 Módulo 3 Módulo 4

Reconhecer as Identificar os Localizar os Comparar os


arquiteturas de principais serviços elementos da serviços oferecidos
aplicações oferecidos pela camada de pela camada de
camada de transporte transporte
aplicação

1 / 58
CAMADA DE APLICAÇÃO

Atualmente, as redes de computadores estão presentes no cotidiano das pessoas,


permitindo a interação e a realização de diversas tarefas.

Em relação às redes de comunicação, você já ouviu falar no trabalho da camada de


aplicação?

NA PRÁTICA

Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.

Quando realizamos uma compra com cartão de crédito ou débito em um estabelecimento


comercial, é fundamental a existência de uma rede de comunicação, já que ela será o
alicerce para execução da operação.

2 / 58
Ao inseri-lo na máquina de cartão, precisamos colocar uma senha para confirmar a
operação. Tal dado é inserido no sistema por meio de um software executado nesta
máquina.

Em qual camada este software é executado?

Na camada de aplicação.

O software de aplicação, também conhecido como software aplicativo, é nossa interface


com o sistema (e, por consequência, com toda a rede de comunicação que suporta essa
operação). Portanto, sempre que houver um serviço na rede, virá à mente a interface com
ele.

Outros exemplos de softwares de aplicação:

3 / 58
Ressaltamos que a camada de aplicação é aquela de mais alto nível do modelo OSI*,
fazendo a interface com os usuários do sistema e realizando as tarefas que eles desejam.

*Modelo OSI: O modelo OSI (open system interconnection) foi criado pela International
Organization for Standardization (ISO) com o objetivo de ser um padrão para a construção
de redes de computadores. O OSI divide a rede em sete camadas: cada uma realiza
funções específicas implementadas pelo protocolo da camada. Desse modo, elas
prestam serviços para a camada superior.

ARQUITETURAS DE APLICAÇÕES

Façamos a seguinte suposição: nosso objetivo é desenvolver uma aplicação a ser


executada em rede. Para criá-la, deve-se utilizar uma linguagem de programação
que possua comandos e/ou funções para a comunicação em rede.

Na maioria das linguagens, esses


comandos e/ou funções estão em
bibliotecas nativas da linguagem ou
criadas por terceiros.

Mas não basta conhecer uma linguagem de programação e suas bibliotecas. Antes disso,
é preciso definir qual arquitetura terá sua aplicação. Entre as mais conhecidas, destacam-
se as seguintes:

Cliente-servidor Peer-to-peer (ou P2P)

4 / 58
Cliente-servidor

Nesta arquitetura, há pelo menos duas entidades: um cliente e um servidor. O servidor


executa operações continuamente aguardando por requisições daquele(s).

Modelo de arquitetura cliente-servidor

5 / 58
6 / 58
Servidor

 Quando chega uma solicitação, o servidor pode:


 Atender imediatamente caso esteja ocioso;
 Enfileirar a solicitação para ser atendida mais tarde;
 Gerar um processo-filho* para o atendimento da solicitação;
 Criar uma thread* para esse atendimento.

*Processo-filho: Um processo é um programa em execução que inclui sua região de


memória, os valores das variáveis e seu contexto de hardware. Um processo-filho é criado
quando determinado processo se duplica em memória e entrega à sua cópia (seu filho)
uma tarefa a ser executada.

*Thread: Linhas de execução independentes que executam concorrentemente dentro de


um processo. Quando funções são executadas como threads dentro dele, isso é feito de
forma concorrente, compartilhando objetos e variáveis.

Independentemente do momento em que uma solicitação é processada, o servidor, no


final, envia ao cliente uma mensagem contendo o resultado do processamento.

Quem utiliza este tipo de arquitetura é a aplicação web.

Vamos analisar esse processo no exemplo a seguir.

Você deseja fazer uma receita especial, descobrindo, em


um site, aquele prato que gostaria de preparar. Ao clicar
em um link, ela irá aparecer. Para isso acontecer, o
servidor web (software servidor do site de receitas) fica
aguardando as conexões dos clientes.

7 / 58
Quando você clica no link da receita, seu browser envia
uma mensagem ao servidor indicando qual delas você
quer.

Ele faz então o processamento solicitado e devolve ao browser o resultado disso


(sua receita).

É muito importante compreender, de maneira prática, o funcionamento do processamento


de resultados.

Atenção!

O que determina se uma entidade é cliente ou servidor é


a função desempenhada pelo software, e não o tipo de
equipamento.

8 / 58
É fundamental saber que...

Servidores desempenham O tipo de software


uma função muito instalado neste
importante; por isso, há equipamento é o
equipamentos responsável por
apropriados para eles, determinar se ele é
com MTBF* alto e cliente ou servidor.
recursos redundantes.

*MTBF: Do inglês mean time between failures (ou período médio entre falhas), esta sigla
indica o tempo esperado até que ocorra uma falha no dispositivo. Quanto maior o MTBF,
mais confiável um dispositivo é considerado.

Além disso, um processo pode atuar simultaneamente como cliente e servidor.

Voltemos ao exemplo da aplicação web :

Quando seu browser solicita a receita ao servidor web,


aquele está atuando como cliente e este, como servidor.

9 / 58
Mas esse processo nem sempre é simples; afinal, a
aplicação que executa no servidor web e realiza o
processamento solicitado pode precisar de uma
informação armazenada em um banco de dados externo.

Para obtê-la, este servidor deve enviar uma mensagem ao servidor de banco de
dados solicitando aqueles de que necessita para continuar. Neste momento, ele
atua como um cliente do servidor de banco de dados.

Peer- to- peer

Enquanto existe uma distinção bem clara entre os processos que trocam informações na
arquitetura cliente-servidor, na peer- to- peer* – também conhecida como arquitetura P2P
–, todos os processos envolvidos desempenham funções similares.

*Peer- to- peer: O termo peer surge do fato de os processos se comunicarem diretamente
sem a intervenção de servidores, promovendo uma comunicação par a par (peer-to-peer).

Em geral, nesses sistemas,


os processos não são uma
propriedade de
corporações. Quase todos
os participantes (senão
todos) são provenientes de
usuários comuns
executando seus
programas
em desktops e notebooks.

Tanto o processamento quanto o armazenamento das informações são


distribuídos entre os hospedeiros*. Isso lhes confere maior escalabilidade em
comparação à arquitetura cliente-servidor.

10 / 58
*Hospedeiro: Também conhecido como host, o hospedeiro é qualquer equipamento
conectado à rede capaz de trocar informações com outros equipamentos. Exemplos:
computadores, roteadores, impressoras de rede, smartphones etc.

Modelo de arquitetura peer- to- peer :

Na ordem, 1, 2 e 3, o fluxo de informações e como elas se organizam.

11 / 58
NA PRÁTICA

Vamos analisar os conceitos estudados na prática? Responda à questão a seguir.

Você conhece algum tipo de sistema de compartilhamento utilizado na internet? Em qual


tipo de arquitetura ele está fundamentado?

Ver Resposta

Uma aplicação amplamente utilizada na internet é o sistema de compartilhamento de


arquivos BitTorrent.

Baseado na arquitetura peer-to-peer, este sistema permite que seus usuários


compartilhem arquivos sem haver a necessidade de eles estarem armazenados em um
servidor.

12 / 58
VERIFICANDO O APRENDIZADO

1. Uma arquitetura amplamente utilizada no desenvolvimento de aplicações em rede é a


cliente-servidor. Sobre ela, responda:

a) Cabe ao servidor iniciar toda negociação com seus clientes.

b) Existe uma distinção bem clara entre clientes e servidores. Um processo não pode ser
cliente e servidor simultaneamente.

c) É a função desempenhada pelo software que determina se a entidade é cliente ou


servidor

d) Quando chega uma requisição de um cliente, o sistema operacional deve iniciar a


execução do servidor.

Comentário

Parabéns! A alternativa C está correta.

O que determina se a função desempenhada pela entidade é de cliente ou de servidor é


seu comportamento definido pelo algoritmo executado, ou seja, pelo software.

13 / 58
2. Marque a afirmativa verdadeira no que se refere à arquitetura peer-to-peer:

a) Permite uma forma de armazenamento distribuída desde as informações do sistema.

b) Cada processo na arquitetura desempenha uma função bem definida e diferente das
funções dos demais processos.

c) Um dos maiores problemas é sua baixa escalabilidade.

d) A comunicação entre os processos deve ser intermediada por um servidor.

Comentário

Parabéns! A alternativa A está correta.

Na arquitetura peer-to-peer, todas as entidades desempenham a mesma função,


possuindo igual capacidade de armazenamento das informações do sistema. Dessa
forma, uma informação procurada pode estar com qualquer um dos participantes da rede,
estando distribuída por todo o sistema.

14 / 58
PROTOCOLOS DA CAMADA DE APLICAÇÃO

Conforme estudamos, é na camada de aplicação que são executados os processos dos


usuários. Nos processos em que eles interagem, realiza-se o que seus usuários esperam.
Porém, para que uma aplicação possa trocar dados com outra, é necessário definir um
protocolo de aplicação.

Mas o que é um protocolo da camada de aplicação?

Um protocolo de camada de aplicação define como


processos de uma aplicação, que funcionam em
sistemas finais diferentes, passam mensagens entre si.
Em particular, um protocolo de camada de aplicação
define:

• Os tipos de mensagens trocadas, por exemplo, de


requisição e de resposta;
• A sintaxe dos vários tipos de mensagens, tais como
os campos da mensagem e como os campos são
delineados;
• A semântica dos campos, isto é, o significado da
informação nos campos;
• Regras para determinar quando e como um processo
envia e responde mensagens.

(KUROSE; ROSS, 2013)

15 / 58
Enquanto o algoritmo da camada de aplicação determina seu funcionamento no
ambiente local, o protocolo dela estipula tudo que é necessário para que aplicações
em diferentes hospedeiros possam trocar mensagens de maneira estruturada.

Os protocolos públicos da internet são especificados por RFCs*. Desse modo,


qualquer pessoa é capaz de acessar as especificações de tais protocolos e
implementar os próprios softwares.

*RFCs: Sigla originada do inglês request for comments. RFCs são documentos públicos
mantidos pela internet enginnering task force (IETF): um grupo internacional aberto cujo
objetivo é identificar e propor soluções para questões relacionadas à utilização da
internet, além de propor uma padronização das tecnologias e dos protocolos envolvidos.

Para que possamos compreender melhor o funcionamento das camadas de aplicação,


analisaremos aquela aplicada na internet; afinal, trata-se de uma rede de abrangência
mundial presente no dia a dia de milhões de pessoas.

CAMADAS DE APLICAÇÃO NA INTERNET

Descreveremos a seguir o funcionamento de três importantes aplicações das camadas


de aplicação na internet:

16 / 58
HTTP (SERVIÇO WEB)

Definido pelas RFCs 1945 e 2616, o HTTP (hypertext transfer protocol) é o protocolo
padrão para transferência de páginas web na internet.

17 / 58
Em 1991, a web foi idealizada no CERN* como uma forma de fazer com que grupos de
cientistas de diferentes nacionalidades pudessem colaborar por meio da troca de
informações baseadas em hipertextos*. Em dezembro daquele ano, foi realizada uma
demonstração pública na conferência Hypertext 91*.

*CERN: Sigla originada do inglês European Organization for Nuclear Research (em
português, Organização Europeia para a Pesquisa Nuclear). Trata-se de um laboratório de
física de partículas localizado em Meuyrin, que fica na fronteira franco-suíça.

*Hipertextos: Documentos construídos com o objetivo de possuir alguns objetos, como


palavras, imagens etc. Quando acionados – geralmente, com um clique do mouse –, eles
buscam outros documentos que podem (ou não) ser hipertextos.

*Hypertext 91: “A conferência sobre hipertexto e hipermídia reúne acadêmicos,


pesquisadores e profissionais de diversas disciplinas para considerar a forma, o papel e o
impacto do hipertexto e da hipermídia em um fórum de discussão de ideias, design e uso
de hipertexto e hipermídia em vários domínios. A conferência também considera o poder
transformador da hipermídia e sua capacidade de alterar a maneira como lemos,
escrevemos, argumentamos, trabalhamos, trocamos informações e nos divertimos.”

(ACM HYPERTEXT 91 CONFERENCE, 1991, tradução nossa)

Como esse protocolo é constituído?

Etapa 1

Uma página web típica é um documento em formato HTML* que pode conter imagens e
outros tipos de objetos, como vídeos, texto, som etc.

*HTML: Linguagem utilizada na construção de páginas web. Um documento HTML


possui uma série de marcadores utilizados para definir o formato a ser empregado na
apresentação da página web ao usuário.

Para exibir determinada página web, o usuário digita no browser o endereço no qual ela
se encontra (ou clica em um hiperlink para esta página), indicando o local em que deve
ser buscada. Para que uma página seja transferida do servidor até o browser, um
padrão deve ser seguido pelos softwares (cliente e servidor). Ele especifica como o
cliente solicita a página e o servidor a transfere para o cliente.

18 / 58
Etapa 2

Esse padrão é o protocolo HTTP. A mensagem HTTP, por sua vez, é carregada pelo por
outro protocolo: TCP*.

*TCP: Abreviação de transmission control protocol (TCP), trata-se do protocolo de nível


de transporte confiável que garante a entrega dos dados da mensagem livre de erros no
destino.

Uma interação entre cliente e servidor se inicia quando ele envia uma requisição a um
servidor. A solicitação mais comum consiste em:

• Enviar um texto em formato ASCII*;


• Iniciar com a palavra GET;
• Inserir página solicitada, protocolo utilizado na transferência e servidor a ser
contatado.

*ASCII: Do inglês american standard code for information interchange (código padrão
americano para o intercâmbio de informação), esta sigla trata de um código binário que
codifica um conjunto de 128 símbolos, incluindo:

• Sinais gráficos;
• Letras do alfabeto latino;
• Sinais de pontuação;
• Sinais matemáticos;
• Sinais de controle.

NA PRÁTICA

Vamos analisar os conceitos estudados na prática? Veja o caso a seguir.

Para solicitar a página web da Organização das Nações Unidas utilizando o protocolo
HTTP, o browser estabelece uma conexão TCP com o servidor web situado no endereço
www.un.org e lhe envia a seguinte solicitação:

19 / 58
Como esse processo é organizado?

Ao receber a solicitação, o servidor busca a página web solicitada, a transfere para o


cliente e, após confirmada a entrega, encerra a conexão.

Como o HTTP utiliza o TCP, não é necessário se preocupar com questões de


confiabilidade na entrega dos dados. Ele é um protocolo em constante evolução, havendo
atualmente várias versões em uso. Por isso, o cliente deve informar a versão do protocolo
a ser usado quando solicita uma página web.

20 / 58
CORREIO ELETRÔNICO (E-MAIL)

Trouxemos um exemplo para esclarecer essa questão:

Os primeiros sistemas de correio


eletrônico foram concebidos como
um simples sistema voltado para a
troca de arquivos. O destinatário da
mensagem era especificado na
primeira linha do texto.

Bastava então que o sistema


procurasse ali para quem a
mensagem deveria ser entregue.
Porém, com o passar do tempo,
surgiram novas necessidades que
dificilmente eram atendidas por ele.

Em 1982, ainda na era


da ARPANET*, foram publicadas as
RFCs 821 e 822, definindo,
respectivamente, o protocolo de
transmissão a ser utilizado e o
formato da mensagem. Entretanto,
apesar de ambas resolverem o
problema inicial a que se
propunham, elas especificavam que
todo o texto deveria ser composto
pelo código ASCII.

*ARPANET: Precursora da internet, ela foi a primeira rede a implementar o conjunto de


protocolos TCP/IP.

Tal restrição precisava ser resolvida para ser possível o envio de mensagens:

21 / 58
Essa estratégia fez com que tais mensagens pudessem ser enviadas graças à
utilização de protocolos e programas de correio eletrônico existentes, existindo
somente a necessidade de alterar os programas de envio e recebimento.
Atualmente, o protocolo de transmissão simple mail transfer protocol (SMTP) é
definido pela RFC 5321 , enquanto o formato da mensagem o é pela RFC 5322.

Como é construída a arquitetura do correio


eletrônico?

A arquitetura do sistema de correio eletrônico é


construída com base em dois agentes:

1. Do usuário;
2. De transferência de mensagens.

O agente do usuário é o programa que faz a interface do usuário com o sistema de


correio eletrônico.

É por meio dele que o usuário:

22 / 58
Mostraremos a seguir alguns desses programas:

Já os agentes de transferência de mensagens são os responsáveis por fazer com que


elas cheguem até o destino. Eles são mais conhecidos como servidores de correio
eletrônico.

23 / 58
Para entendermos melhor o assunto, analisaremos a seguir a comunicação entre Orlando
e Maria. Esse caso explicita uma arquitetura do sistema de correio eletrônico:

1 2 3 4

Orlando deseja A mensagem é No destino, tal agente Quando Maria


enviar uma enviada do agente armazena as deseja ler suas
mensagem para do usuário de mensagens que mensagens, o
Maria. Após a Orlando até chegam em um local agente do usuário
compor em seu agente de conhecido dela se liga a seu
seu agente do transferência de como caixa de agente de
usuário, ele solicita mensagens, que a mensagens (mailbox), transferência de
seu envio para ela. recebe, a analisa e, cujo cada usuário do mensagens e
em seguida, a sistema possui uma verifica quais estão
encaminha ao caixa própria. armazenadas em
agente de Maria. sua caixa de
mensagens.

24 / 58
Para concluirmos esse estudo, analisaremos importantes características dos protocolos
apresentados:

SMTP

O protocolo responsável pela transferência da mensagem até seu destino é o SMTP.


Definido pela RFC 5321, ele utiliza o protocolo de transporte TCP, obtendo, assim, a
garantia de que ela será entregue no destino sem erros.

O servidor SMTP aguarda por conexões de seus clientes. Quando uma conexão é
estabelecida, o servidor inicia a conversação enviando uma linha de texto na qual se
identifica e informa se está pronto (ou não) para receber mensagens. Se ele não estiver,
o cliente deverá encerrar a conexão e tentar novamente mais tarde.

Caso o servidor esteja acessível, o cliente precisa informar aos usuários a origem e o
destino da mensagem. Se o servidor considerar que se trata de uma transferência
válida, sinalizará para que ele a envie. Após o envio, o servidor confirma sua recepção e
a conexão é encerrada.

Exemplo:
Retomando o caso da comunicação anterior, podemos ver, na sequência apresentada
adiante, a conversação entre cliente e servidor para estabelecer a transferência da
mensagem de orlando@origem.net para maria@destino.net:

220 Protegido* SMTP server


hello rayra.origem.net
250 Hello rayra.origem.net, pleased to meet you
mail from:
250 ... Sender ok
rcpt to: < maria@destino.net >
250 < maria@destino.net >... Recipient ok
data
354 Please start mail input.
subject: Teste de email
Primeira linha da mensagem de teste.
Segunda linha.
Quarta linha.
.
250 Mail queued for delivery.

*Protegido: “Protegido” é a identificação do servidor que recebe a mensagem;


“rayra.origem.net”, o nome do hospedeiro que a envia.

25 / 58
Entrega final

Quando uma mensagem chega ao servidor do destinatário, ela deve ser armazenada em
algum local para que possa ser acessada mais tarde (assim que o destinatário
estiver on-line). Este local é a caixa de mensagens.

Como o SMTP é responsável somente pela entrega da mensagem no servidor destino,


isso requer a utilização de outro protocolo de modo que o cliente possa buscar suas
mensagens no mailbox.

POP3

A RFC 1939 estipula que o POP3 (post office protocol version 3) tem a finalidade de
fazer o download das mensagens que se encontram no mailbox do usuário para o
sistema local. Caso estejam neste sistema, ele pode utilizá-las em qualquer momento,
mesmo sem ter conexão com a internet.

O POP3 é implementado na maioria dos agentes de usuário. Basta configurar os


parâmetros de conta e senha do usuário para que o agente faça o download das
mensagens. Ele permite o download seletivo delas, assim como apagar as selecionadas
no servidor.

IMAP

Assim como o POP3, o IMAP (internet message access protocol) permite que um
usuário tenha acesso às mensagens armazenadas em sua caixa. Porém, enquanto o
POP3 é baseado na transferência delas para o sistema local a fim de serem lidas, o
IMAP consegue permitir sua leitura diretamente no servidor, dispensando, portanto, a
transferência para o sistema local.

Isso será particularmente útil para usuários que não utilizarem sempre o mesmo
computador, pois isso permite que suas mensagens possam ser acessadas a partir de
qualquer sistema. Definido pela RFC 3501, o IMAP também fornece mecanismos para
criar, excluir e manipular várias caixas de correio no servidor.

26 / 58
Atenção!

Um webmail não é um protocolo, mas uma forma


oferecida por alguns sites da web a fim de que os
usuários possam ler suas mensagens de correio
eletrônico.

Para usar o sistema, o usuário abre uma página web, na


qual entra com uma identificação e uma senha. A partir
desse momento, ele tem acesso imediato às suas
mensagens (de forma parecida com a de um cliente
IMAP).

DNS

A comunicação entre hospedeiros na internet ocorre por meio de endereços binários de


rede. Afinal, para se comunicar com um destino, o hospedeiro precisa conhecer seu
endereço.

Entretanto, é bem mais fácil trabalhar com nomes de hospedeiros do que com seus
endereços de rede. Além de ser muito difícil conhecer todos os endereços dos
hospedeiros com os quais precisamos trabalhar, precisaríamos ser notificados toda vez
que algum deles mudasse de endereço.

Para resolver esse problema, foi desenvolvido o domain name system (DNS). Sua
finalidade é a criação de um sistema de nomes de forma hierárquica e baseada em

27 / 58
domínios. Para acessar um hospedeiro, portanto, basta conhecer seu nome de domínio e
fazer uma consulta ao servidor DNS, que é responsável por descobrir seu endereço.

Quais são os serviços oferecidos por ele?

Além do mapeamento de nomes de hospedeiros em


endereços IP, o DNS ainda provê:

• Identificação de servidores de correios eletrônicos;


• Apelidos para hospedeiros;
• Distribuição de carga;
• Descoberta de nomes de hospedeiros (mapeamento
reverso).

Destacaremos a seguir importantes aspectos do DNS.

Espaço de nomes

O espaço de nomes do DNS é dividido em domínios estruturados em níveis. Confira a


organização do primeiro nível:

Os domínios genéricos informam o tipo de organização ao qual o domínio está vinculado.


Alguns exemplos são:

• .com = comercial;
• .edu = instituições educacionais;
• .int = algumas organizações internacionais;
• .org = organizações sem fins lucrativos.

Os domínios de países, por sua vez, possuem uma entrada para cada país. Alguns
exemplos são:

28 / 58
• .br = Brasil;
• .pt = Portugal;
• .jp = Japão;
• .ar = Argentina.

Cada domínio tem seu nome definido pelo caminho entre ele e a raiz, enquanto
seus componentes são separados por pontos.

Cada domínio controla como são criados seus subdomínios. Para a criação de um novo
domínio, é necessária apenas a permissão daquele no qual será incluído.

Não há qualquer restrição sobre a quantidade de subdomínios que podem ser criados
dentro de um domínio. Os nomes de domínio não fazem distinção entre letras maiúsculas
e minúsculas.

EDU e edu, por exemplo, são o mesmo.

Os nomes de componentes podem ter até 63 caracteres, enquanto os de caminhos


completos não podem ultrapassar os 255.

O DNS é implementado sobre o protocolo UDP (user datagram protocol). Trata-se de um


protocolo do nível de transporte que não garante a entrega dos dados no destino. Dessa
forma, cabe ao software DNS garantir uma comunicação confiável.

29 / 58
Resolução de nomes

O espaço de nomes do DNS é dividido em zonas. Independentes, elas possuem um


servidor de nomes principal e pelo menos um de nomes secundário:

• Servidor de nomes principal: Configurado com as informações das zonas sob sua
responsabilidade, ele faz o repasse delas para os servidores de nome secundários;
• Servidor de nomes secundário: Responde pelas zonas caso haja uma falha do
servidor de nomes principal.

As zonas do DNS definem o que um servidor deve resolver. Se ele for o responsável pela
zona pesquisada (servidor autoritativo), deverá fazer a resolução solicitada.

Três principais componentes do DNS:

1. Registros de recursos armazenados em um banco de dados distribuído;

2. Servidores de nomes DNS responsáveis pela manutenção de zonas específicas;

3. Solucionadores DNS em execução nos clientes.

Solucionador X servidor DNS.


Quando um solucionador solicita a resolução de um nome para o servidor DNS, pode
acontecer o seguinte:

1. O servidor DNS é o responsável pela zona: O servidor resolve o nome solicitado e


o devolve ao solucionador;

2. O servidor DNS não é o responsável pela zona, mas possui a resolução em cache:
O servidor envia a resolução ao solucionador;

3. O servidor DNS não é o responsável pela zona nem possui a resolução em cache:
O servidor precisa realizar uma busca para resolver o nome.

Vamos entender como é feita a busca para a resolução do nome www.sus.gov.br:

30 / 58
A: Quando a aplicação do cliente solicita a resolução do nome www.sus.gov.br, o
solucionador envia a requisição para o servidor de nomes local, que é o responsável por tratá-la
até obter a resposta completa. Desse modo, ele não retorna respostas parciais para o
solucionador. A este tipo de consulta damos o nome de consulta recursiva.

B: No entanto, para obter a resposta completa, o servidor de nomes precisa realizar uma série
de iterações com outros servidores. Caso nenhuma informação parcial esteja em seu cache, o
servidor local primeiramente precisa descobrir quem é o servidor responsável por resolver o
domínio br.

C: Para isso, ele consulta um servidor de nomes raiz, que indica onde o servidor DNS de “br”
pode ser encontrado. O servidor local continua realizando consultas para resolver cada domínio
parcial até que haja uma resolução completa. Este tipo de consulta é conhecido como consulta
iterativa.

O excesso de consultas em um servidor DNS pode levar à sobrecarga.

Como evitar esse tipo de problema?


Os servidores devem evitar responder consultas recursivas de clientes não autorizados.
Para isso, os administradores de servidores DNS precisam configurar no servidor
aqueles autorizados a realizar consultas recursivas. Dessa forma, se houver a consulta
de um que não esteja, ela automaticamente será negada.

31 / 58
VERIFICANDO O APRENDIZADO

1. Cabe ao protocolo da camada de aplicação definir como funcionam os processos de


uma aplicação. Nesse sentido, não é função dele definir:

a) Os tipos de mensagens trocadas.

b) O significado de cada campo do protocolo.

c) Quando um processo pode enviar e responder mensagens.

d) O endereço de rede do servidor.

Comentário

Parabéns! A alternativa D está correta.

Servidores de aplicações podem estar espalhados por todo o mundo, cada um deles com
o próprio endereço. Dessa forma, o protocolo da camada de aplicação não pode
determinar em qual endereço de rede o servidor está localizado.

2. Um sistema de correio eletrônico é um exemplo de sistema implementado com base


em uma série de protocolos. Dentre os protocolos a seguir, selecione o único que não é
utilizado pelos sistemas de correio eletrônico:

a) HTTP

b) SMTP

c) POP3

d) IMAP

Comentário

Parabéns! A alternativa A está correta.

O HTTP é o protocolo utilizado para transferência de páginas web. Ele não é usado como
protocolo de correio eletrônico.

32 / 58
CAMADA DE TRANSPORTE

Graças a essa abordagem, podemos compreender os conceitos do protocolo TPC/IP, bem


como os exemplos práticos aplicados na camada de transporte. Além disso, percebemos
a importância da interface para esta camada.

Mas para que serve a camada de transporte?

Executadas na camada de aplicação, as aplicações precisam de um modelo de rede no


qual haja a entrega de uma mensagem (ou um fluxo de dados) tanto em um ponto de rede
quanto em sua aplicação par no hospedeiro destino.

O objetivo da camada de transporte é, independentemente das redes físicas em


uso, promover a confiabilidade na transferência de dados entre os hospedeiros
origem e destino.

Como veremos no decorrer do nosso estudo, esta camada deve oferecer um serviço de
transferência confiável, embora caiba à aplicação decidir sobre o seu uso.

SERVIÇO DE TRANSPORTE

Em uma arquitetura de camadas, podemos afirmar que o objetivo geral de uma camada é
oferecer serviços àquela imediatamente superior. No caso da camada de transporte, sua
pretensão é oferecê-los à de aplicação.

33 / 58
Atenção!

Lembre-se de que, em nosso estudo, estamos


considerando a arquitetura TCP/IP, na qual não existem as
camadas de sessão e de apresentação.

Como um dos principais objetivos da camada de transporte é ofertar um serviço confiável


e eficiente a seus usuários, ela precisa oferecer, no mínimo, um serviço orientado à
conexão e outro sem conexão.

Para atingir esse objetivo, a camada de transporte utiliza os serviços oferecidos pela de
rede. No serviço de transporte orientado à conexão (serviço confiável), existem três
fases:

Por meio de um controle apurado da Já no serviço de transporte sem conexão,


conexão, esse serviço de transporte não existe nenhum controle sobre os
consegue verificar quais pacotes pacotes enviados. Se um deles se perder
chegaram com erro ao destino e até ou chegar ao destino com erro, nada será
mesmo aqueles que não foram enviados, feito para obter a sua recuperação.
sendo capaz de retransmiti-los até que os
dados estejam corretos.

Se a rede oferece um serviço com que garanta uma entrega sem erros, por que uma
aplicação optaria por um serviço sem essa garantia?

A resposta é simples: por questões de desempenho.

34 / 58
Pelo fato de ser preciso cuidar de cada pacote no serviço orientado à conexão,
verificando-os e retransmitindo-os em caso de necessidade, esse controle gera
um overhead*. Como nada disso é feito no serviço sem conexão, os pacotes são
entregues no destino de forma mais simples e rápida.

*Overhead: Termo em inglês utilizado com frequência em computação para indicar uma
sobrecarga no sistema. No caso do serviço orientado à conexão, o overhead ocorre
graças ao processamento extra necessário para a verificação dos dados e uma eventual
retransmissão.

Aplicações como transferência de arquivos e e-mail exigem


que seus dados cheguem ao destino livres de erros. Dessa
forma, elas utilizam um serviço orientado à conexão.

Ainda assim, em certas aplicações, o mais importante é


a chegada a tempo de uma informação, mesmo que ela
contenha erros ou que a mensagem anterior tenha se
perdido.

No serviço de telefonia em rede, por exemplo, o atraso na


transmissão tem um efeito pior que um pequeno ruído
causado pela eventual perda de pacote.

Endereçamento

Quando seu programa solicita algo a um servidor, o sistema envia uma mensagem para
ser entregue à aplicação que executa em um hospedeiro remoto. Mas podem existir
várias aplicações nele.

Como identificamos uma aplicação específica?

Surge neste momento o endereçamento no nível de transporte. Sua função é identificar


em qual aplicação determinada mensagem deve ser entregue. Afinal, toda mensagem do
protocolo de transporte carrega o endereço da aplicação.

Verificaremos agora a importância do endereçamento no nível de transporte. Afinal,


é necessário indicar em qual aplicação os dados devem ser entregues por meio de
seu endereço (de transporte). Assim, o hospedeiro destino consegue saber o
destino deles.

Estudaremos mais adiante TCP e UDP, dois protocolos da camada de transporte da


arquitetura TCP/IP. Neles, o endereço de transporte é conhecido como porta.

35 / 58
1 2

Como a aplicação do hospedeiro 1 sabe Neste modelo, os serviços


em que endereço de transporte se possuem endereços estáveis que podem
encontra o servidor no 2? Uma ser impressos e distribuídos aos novos
possibilidade é que: usuários quando eles se associam à rede.

• Ele esteja associado ao endereço há


anos;
• Aos poucos, todos os usuários da rede
tenham se acostumado com isso.

Servidor de nomes ou de diretórios

Um esquema alternativo é utilizar um processo especial


denominado servidor de nomes (name server) ou, às
vezes, servidor de diretórios (directory server). Para
localizar o endereço de transporte correspondente a
determinado nome de serviço, uma aplicação estabelece
uma conexão com o servidor de nomes. Em seguida, envia
uma mensagem especificando o nome do serviço,
enquanto o servidor de nomes retorna o endereço.

36 / 58
Multiplexação e demultiplexação

A multiplexação e a demultiplexação fornecem um serviço de entrega processo a


processo para aplicações executadas nos hospedeiros.

No hospedeiro destino, a camada de transporte recebe segmentos* de dados da camada


de rede, tendo a responsabilidade de entregá-los ao processo de aplicação correto.

*Segmentos: Cada camada do modelo de rede denomina os dados trocados com o


hospedeiro remoto de uma forma diferente das demais camadas. Segmento é o nome da
mensagem trocada entre duas entidades de transporte tanto no modelo OSI quanto na
arquitetura TCP/IP.

Exemplo: a camada de rede chama suas mensagens de pacotes. Já a de enlace de dados


as nomeia como quadros.

Um processo pode ter um ou mais endereços de transporte (conhecidos como


portas na arquitetura TCP/IP) pelos quais dados passam da rede para o processo –
e vice-versa.

Desse modo, a camada de transporte do hospedeiro destino os entrega


diretamente a uma porta.

Como o hospedeiro destino direciona à porta correta um segmento que


chega?

Para essa finalidade, cada segmento da camada de transporte tem um conjunto de


campos de endereçamento no cabeçalho. No receptor, a camada de transporte examina

37 / 58
esses campos para identificar a porta receptora e direcionar o segmento a ela. A tarefa de
entregar os dados contidos em um segmento para a porta correta é
denominada demultiplexação.

Já a multiplexação consiste no trabalho de, no hospedeiro


origem:

• Reunir porções de dados provenientes de diferentes


portas;
• Encapsular cada porção de dados com as informações
de cabeçalho (as quais, mais tarde, serão usadas na
demultiplexação) para criar segmentos;
• Passar os segmentos para a camada de rede.

Vamos pensar no computador que Eduardo utiliza em suas atividades.

Navegando na web, ele acessa seu e-mail e faz


o download de arquivos usando um programa
específico para isso.

De fato, o objetivo da multiplexação


é possibilitar uma melhor utilização do meio de
comunicação ao permitir que ele seja compartilhado
pelos diversos programas utilizados.

Eduardo utiliza a internet, cujo protocolo de


transporte é o TCP.

Todos os programas operados por ele (browser


web, cliente de e-mail e programa de
transferência de arquivos) utilizam o TCP, que
fará a transferência da informação até o destino.

A multiplexação, portanto, permite que vários


programas possam utilizar o TCP ao mesmo tempo,
fazendo, assim, com que Eduardo possa ter tantos
programas quanto queira ao acessar a rede.

38 / 58
Como o TCP sabe quem é quem?

Para fazer uso dele, um processo deve se registrar em uma porta (endereço de
transporte) do protocolo TCP. Servidores possuem portas conhecidas, mas programas
clientes se registram nas aleatórias.

Vamos supor que os programas de Eduardo se registraram nas seguintes portas:

Browser web = 11278


Cliente de e-mail = 25786
Transferência de arquivos = 3709

Dessa maneira, o TCP pode identificar cada uma. Quando o browser envia uma solicitação
a um servidor web, o TCP coloca na informação enviada o número de porta 11278. O
servidor, portanto, já sabe que deve responder-lhe enviando a resposta para esta porta.

Observemos, por fim, a multiplexação e a demultiplexação na prática:

Multiplexação Demultiplexação

Ao receber mensagens das Quando recebe as mensagens do


aplicações para envio, o protocolo hospedeiro remoto para entregá-las em
de transporte as identifica por cada aplicação, o protocolo de
seus respectivos números de transporte verifica o número da porta
porta, permitindo, assim, que destino que a mensagem carrega e a
várias aplicações possam utilizá- entrega para o processo registrado nela.
los ao mesmo tempo.

39 / 58
VERIFICANDO O APRENDIZADO

1. Para qual das aplicações a seguir é recomendado o uso de um serviço de transporte


sem conexão?

a) Telefonia

b) Correio eletrônico

c) Serviço web

d) Transferência de arquivos

Comentário

Parabéns! A alternativa A está correta.

No serviço de telefonia, uma eventual tentativa de correção de erros provocaria atraso na


chegada da fala de uma pessoa em seu destino. Atrasos são muito prejudiciais neste tipo
de serviço, pois os interlocutores se confundem quando ocorrem defasagens entre a
transmissão e a recepção da mensagem.

40 / 58
2. O endereçamento no nível de transporte é importante para a realização de:

a) Identificação do hospedeiro

b) Correção de erros

c) Encerramento da conexão

d) Demultiplexação

Comentário

Parabéns! A alternativa D está correta.

Como a camada de transporte precisa identificar a qual dos processos da camada de


aplicação ela deve entregar os dados que chegam, são definidos campos de
endereçamento de transporte para a identificação desses processos. Dá-se o nome de
demultiplexação à identificação e ao envio de informações para o processo correto.

41 / 58
PROTOCOLOS DE TRANSPORTE DA INTERNET

Agora que já estudamos os serviços que um protocolo de transporte deve oferecer,


apresentaremos casos reais de protocolos utilizados em redes de computadores. Para
isso, vamos utilizar como exemplo os protocolos de transporte da internet: TCP e UDP.

Iniciaremos nosso estudo pelo UDP. Mesmo sendo um protocolo simples, ele se revela
bastante eficiente, principalmente no quesito agilidade de entrega, quando a aplicação
requer uma entrega rápida.

Em seguida, nos
debruçaremos sobre o TCP.
Protocolo de transporte Por fim, apontaremos
completo, ele é capaz de alguns exemplos de portas,
garantir a entrega de um mecanismo que permite
mensagens livres de erros, que as aplicações serem
não importando a qualidade encontradas pela internet.
da rede em que ele
trabalha.

UDP

O protocolo de transporte mais simples que poderia existir seria aquele que, no envio, se
limitasse a receber mensagens da camada de aplicação e as entregasse diretamente na
de rede. Na recepção, ele, por outro lado, receberia os pacotes da camada de rede e os
entregaria na de aplicação. Este tipo de protocolo, em suma, não efetua nenhum trabalho
para garantir a entrega das mensagens. Felizmente, o UDP não se limita a isso.

42 / 58
Atenção!

O UDP é um protocolo rápido na entrega das mensagens


no destino, realizando a multiplexação e demultiplexação;
além disso, ele oferece um mecanismo de verificação de
erros nessa entrega.

Um processo pode ter um ou mais endereços de transporte (conhecidos como


portas na arquitetura TCP/IP) pelos quais dados passam da rede para o processo –
e vice-versa.

Desse modo, a camada de transporte do hospedeiro destino os entrega diretamente a


uma porta.

A figura a seguir ilustra os campos do cabeçalho de um segmento UDP:

Os campos porta origem e porta destino têm a função de identificar os processos nas
máquinas origem e destino. Quando uma aplicação A deseja enviar dados para uma B, o
UDP coloca o número da porta da aplicação origem (A) no campo “porta origem” e o de
porta da aplicação (B) em “porta destino”.

Quando a mensagem chega ao destino, o UDP pode entregá-la para a aplicação


correta por meio do campo “porta destino”. Já a “porta origem” é importante para a
aplicação que recebe a mensagem, pois ela torna possível saber o número da porta
para a qual a resposta deve ser enviada. É por meio desses campos que o UDP
realiza a multiplexação e a demultiplexação.

O campo tamanho especifica o tamanho do segmento, incluindo o cabeçalho. Como se


trata de um campo de 16 bits, isso significa que o maior segmento UDP será de:

43 / 58
216 = 65.536 bytes (64 KBytes)

O campo soma de verificação tem a função de garantir que a mensagem chegue ao


destino livre de erros. Para tanto, o UDP calcula o CRC* dela e o envia neste campo. No
destino, o CRC é novamente calculado e comparado. Se ambos forem iguais, a mensagem
é considerada livre de erros e entregue na aplicação destino.

*CRC: Sigla que vem do inglês cyclic redundancy check, ela constitui um método de
detecção de erros utilizado por sistemas computacionais. Calcula-se nele o hash de uma
mensagem a ser anexado a seu final. No destino, um novo hash é calculado e comparado
com o recebido. Se eles forem iguais, assume-se que a transmissão ocorreu sem erros.

O hash é uma função matemática muito utilizada na criptografia. Ao fazer o


processamento de dados de tamanho arbitrário, ele sempre gera uma saída de tamanho
fixo para comparação.

Saiba mais

Para saber mais sobre CRC e hash, consulte,


respectivamente, os capítulos 5.2.3 e 8.3.1 da obra de
Kurose e Ross (2013).

Caso haja alguma divergência no valor do CRC, o segmento normalmente é descartado,


porém algumas implementações permitem – acompanhadas de uma mensagem de aviso
– a entrega dele com erro.

O UDP é um protocolo sem estado* e não orientado à conexão. Descrito pela RFC 768, ele
é projetado tanto para pequenas transmissões de dados quanto para aqueles que não
requerem um mecanismo de transporte confiável.

Apesar de o UDP não oferecer uma confiabilidade nas transmissões, isso não significa
que aplicações que o utilizam não possam ter uma garantia de entrega.

*Protocolo sem estado: Protocolo que não leva em consideração o que foi realizado no
passado. Ele, portanto, trata toda requisição como algo isolado, sem qualquer relação
com requisições passadas ou futuras.

44 / 58
Atenção!

Cabe ao programador cuidar dessa garantia no código da


própria aplicação.

Protocolos de aplicações que utilizam o UDP:

DNS

SNMP

TFTP

RPC

TCP

Enquanto o UDP é um protocolo de transporte simples, voltado para aplicações que não
necessitam de confiabilidade na transmissão, o TCP é um orientado à conexão, sendo
indicado para aplicações que precisam trocar uma grande quantidade de dados por meio
de uma rede com múltiplos roteadores.

O TCP oferece um fluxo de bytes fim a fim confiável,


podendo ser utilizado, inclusive, em redes de baixa
confiabilidade. Na transmissão, ele aceita fluxos de dados
da aplicação: dividindo-os em partes de, no máximo,
64 KBytes, ele envia cada uma em um datagrama
IP* distinto. Quando os datagramas IP com dados TCP
chegam ao hospedeiro destino, eles são, em seguida,
enviados à entidade TCP, que restaura o fluxo de dados
original.

45 / 58
*Datagrama IP: Também conhecido como “pacote”, um datagrama é uma porção de
dados trocada por protocolos da camada de rede. Ele contém dados e informações de
cabeçalho suficientes para que eles possam seguir seu caminho até o hospedeiro
destino.

A camada de rede (protocolo IP) não oferece nenhuma garantia de que os datagramas
serão entregues corretamente. Portanto, cabe ao TCP administrar os temporizadores e
retransmitir os datagramas sempre que for necessário.

Os datagramas também podem chegar fora de ordem, cabendo a ele reorganizá-los em


mensagens na sequência correta. O TCP deve fornecer a confiabilidade que o IP não
oferece.

O TCP é definido pelas seguintes RFCs:

793 2018 1122 2581 1323

Para concluirmos nossa última etapa de estudos, precisamos entender três aspectos
fundamentais da TCP:

Modelo de serviço TCP

O serviço TCP é obtido quando tanto o transmissor quanto o receptor criam pontos
terminais; denominados portas, eles são identificados por um número de 16 bits. É
necessário que uma conexão seja explicitamente estabelecida entre um hospedeiro
transmissor e um receptor.

46 / 58
Todas as conexões TCP são:

Full- duplex Ponto a ponto

Dados podem ser enviados e Interliga diretamente dois hospedeiros,


recebidos por ela simultaneamente. não permitindo a participação de um
Uma linha telefônica é um exemplo terceiro na conversação. Exemplo:
de sistema full-duplex, pois permite quando ligamos um smartphone a um
que dois interlocutores falem de computador por meio de seu cabo de
forma simultânea. O walkie-talkie, no dados, ocorre uma ligação ponto a
entanto, é diferente: como tal ponto, pois somente eles podem utilizar
equipamento está no modo de esse meio (cabo de dados) para a troca
transmissão ou no de recepção, ele de informações.
nunca consegue transmitir e receber
ao mesmo tempo.

Do ponto de vista da aplicação, uma conexão consiste em dois fluxos independentes de


direções opostas. Uma conexão TCP é um fluxo de dados, e não de mensagens. Isso
significa que as fronteiras das mensagens não são preservadas de uma extremidade à
outra. Quando uma aplicação passa dados para a entidade TCP, ela pode enviá-los
imediatamente ou armazená-los em um buffer* de acordo com suas necessidades.

*Buffer: Área de memória temporária em que os dados são armazenados, aguardando o


momento de serem transmitidos.

As entidades TCP transmissoras e receptoras trocam dados na forma de segmentos. Um


segmento consiste em um cabeçalho fixo de 20 bytes mais uma parte opcional, seguido
de zero ou mais bytes de dados. O software TCP decide qual deve ser o tamanho dos
segmentos, podendo:

47 / 58
Atenção!

Cada segmento não pode ser superior à quantidade


máxima de dados que um datagrama do protocolo IP é
capaz de carregar.

O protocolo básico utilizado pelas entidades TCP é o de janela deslizante*. Quando envia
um segmento, o transmissor dispara um temporizador. Assim que ele chega ao destino, a
entidade TCP receptora retorna um segmento (com ou sem dados segundo as
circunstâncias) com um número de confirmação igual ao próximo número de sequência
que ela espera receber. Se o temporizador do transmissor expirar antes de a confirmação
ser recebida, o segmento será retransmitido.

*Janela deslizante: Para aumentar a eficiência da transmissão, foram elaborados


protocolos que permitem o envio de vários segmentos de dados mesmo sem a
confirmação daqueles enviados anteriormente. O número máximo de dados que podem
ser enviados sem que tenha chegado uma confirmação define o tamanho da janela de
transmissão.

Conforme eles vão sendo confirmados, o ponto inicial da janela de transmissão desloca-
se no sentido do fluxo de dados; por isso, ela é conhecida como “janela deslizante”.
Protocolos que utilizam a janela de transmissão para o envio de dados são conhecidos
como protocolos de janela deslizante.

Saiba mais

Para saber mais sobre janela deslizante, leia o capítulo


3.4.3 da obra de Kurose e Ross (2013).

Dessa forma, caso um segmento chegue ao destino e apresente erro em sua soma de
verificação, o TCP simplesmente o descarta. Como não haverá confirmação de

48 / 58
recebimento neste caso, a entidade TCP do transmissor entenderá que o segmento não
chegou ao destino e providenciará sua retransmissão.

CABEÇALHO DE SEGMENTO TCP

Cada segmento TCP começa com um cabeçalho de formato fixo – podendo ser
seguido por opções de cabeçalho – de 20 bytes. Depois das opções, é possível
haver 65.515 bytes de dados.

Válidos, os segmentos sem dados, em geral, são utilizados para confirmações e


mensagens de controle. A figura a seguir mostra um exemplo de segmento TCP:

49 / 58
Tabela 32 bits

Porta origem e porta destino: Identificam, respectivamente, os processos origem e


destino nos hospedeiros. Da mesma forma que os campos porta origem e porta destino
do UDP, eles permitem que aplicações compartilhem o uso do protocolo de transporte
(multiplexação e demultiplexação).

Número de sequência: Indica o número de sequência do segmento, ou seja, em que


posição (byte) dos dados ele deve ser colocado.

Número de confirmação: Especifica o próximo byte aguardado no fluxo contrário.


Quando é enviado do processo A para o B, indica o próximo byte que A espera receber
no fluxo de B para A. Quando informa que espera receber o byte N, fica implícito que
todos os bytes até N-1 foram recebidos corretamente.

HLEN: Abreviação de header length (tamanho do cabeçalho), o HLEN informa o


tamanho do cabeçalho em palavras de 32 bits.

Reservado: Campo não utilizado. Qualquer valor preenchido nele será desconsiderado.

Campo de flags de 1 bit cada: Um flag é um campo de 1 bit que pode possuir apenas os
valores 0 e 1. Normalmente, 0 representa “desligado” e 1, “ligado”.

Exemplo: Quando o flag ACK do TCP está com o valor 1 (ligado), isso significa que o
segmento TCP carrega um número de confirmação. Se ele estiver com 0 (desligado), é
a indicação de que TCP não conta com tal número.

URG: O urgent pointer (ou ponteiro urgente) é usado para apontar que o segmento
carrega dados urgentes.

ACK: O acknowledgement serve para indicar que o campo “número de confirmação”


contém uma confirmação. Se estiver com valor 0, este campo deve ser desconsiderado.

PSH: O push se trata de uma solicitação ao receptor para entregar os dados à aplicação
assim que eles chegarem em vez de armazená-los em um buffer.

RST: O reset é utilizado para reinicializar uma conexão que tenha ficado confusa devido
a uma falha. Também serve para rejeitar um segmento inválido ou recusar uma
tentativa de conexão.

SYN: Aplicado para estabelecer conexões.

FIN: Usado para encerrar uma conexão.

50 / 58
Tamanho da janela: O controle de fluxo no TCP é gerenciado por meio de uma janela
deslizante de tamanho variável. O campo “tamanho da janela” indica quantos bytes
podem ser enviados a partir do byte confirmado.

Soma de verificação: Utilizada para verificar se existem erros nos dados recebidos. Ela
confere a validade tanto do cabeçalho quanto dos dados.

Ponteiro urgente: Válido somente se o flag URG estiver ativado, ele indica a porção de
dados do campo de dados que contém os que são urgentes.

Opções: Projetadas como uma forma de oferecer recursos extras, ou seja, aqueles que
não foram previstos pelo cabeçalho comum.

Dados: São os dados enviados pela camada superior. Neste campo, estão os que serão
entregues na camada superior do hospedeiro destino.

Gerenciamento de conexão TCP

As conexões estabelecidas no TCP utilizam um esquema conhecido como three way


handshake. Para estabelecer uma conexão, um lado aguarda passivamente, enquanto o
outro solicita uma especificando o endereço de rede (endereço IP) e a porta com a qual
deseja se conectar.

É enviado então um segmento TCP com o bit SYN


ativado e o bit ACK desativado. Quando ele chega ao
destino, a entidade TCP do destino verifica se existe
um processo aguardando na porta destino. Se não
existir, ela enviará uma resposta com o bit RST
ativado para rejeitar a conexão.

No entanto, se algum processo estiver na escuta


dessa porta, a ele será entregue o segmento TCP
recebido. Em seguida, tal processo poderá aceitar ou
rejeitar a conexão. Se ele aceitar, um segmento de
confirmação será retornado.

51 / 58
Esta figura ilustra a conexão entre dois hospedeiros:

Os segmentos SYN e SYN+ACK não podem transportar dados, porém consomem um


número de segmento.

Apesar de conseguir fazer esse transporte, ACK só consumirá tal número quando
ele surgir.

Atenção!

Para encerrar uma conexão, qualquer lado pode enviar um


segmento com o bit FIN ativado. Isso significa que não há
mais dados a serem transmitidos. Quando o FIN é
confirmado, a direção dessa conexão é desativada,
embora seus dados possam continuar fluindo em outra
direção. Quando as duas direções da conexão são
desativadas, ela, por fim, é encerrada.

52 / 58
Portas conhecidas

Para que uma aplicação possa acessar outra


remota, é necessário conhecer o endereço do
hospedeiro no qual ela se encontra. Ele serve,
portanto, para que se consiga chegar ao
hospedeiro remoto.

Como o protocolo de transporte do destino


consegue saber para qual de suas aplicações deve
entregar a mensagem? A resposta é o conceito de
porta, que é responsável por identificar a aplicação
no destino.

Como podemos identificar a porta utilizada pela aplicação?

Existem duas saídas:

1 2

Empregar um sistema no qual a aplicação Usar sempre o mesmo endereço de forma


é registrada toda vez que inicializa para o que as aplicações a iniciarem a
cliente poder consultar sua porta. conversação saibam de antemão com qual
endereço trocar mensagens.

Uma porta TCP ou UDP é identificada por um número inteiro de 16 bits.

Para que um pacote chegue à aplicação de destino, é necessário que o transmissor saiba,
de alguma forma, em que porta a aplicação está esperando a chegada do pacote. Para
facilitar o trabalho dele, algumas aplicações esperam seus pacotes sempre em uma
mesma porta: a “porta conhecida” da aplicação.

53 / 58
Atenção!

A RFC 3232 define um repositório on-line no qual podem


ser consultadas as portas conhecidas. No momento da
criação deste documento, o repositório on-line estava
definido como service name and transport protocol port
number registry.

Esta tabela mostra as portas reservadas para algumas


aplicações:

PORTA APLICAÇÃO

7 echo

20 ftp-data

21 ftp

22 ssh

23 telnet

25 smtp

53 domain

69 tftp

80 http

110 pop-3

119 nntp

161 snmp

162 snmp-trap

443 https

54 / 58
VERIFICANDO O APRENDIZADO

1. Sobre o protocolo UDP, marque a resposta correta.

a) Verifica se a mensagem contém erros antes de entregá-la à aplicação destino.

b) Garante a entrega da mensagem no destino.

c) Não realiza a multiplexação e a demultiplexação.

d) Não limita a quantidade máxima de dados que um segmento pode transportar.

Comentário

Parabéns! A alternativa A está correta.

A camada de transporte deve oferecer confiabilidade na entrega das mensagens. Apesar


de ser um protocolo que não garante a entrega dos dados, o UDP procura os erros para
garantir, pelo menos, a entrega de uma mensagem sem a presença deles.

55 / 58
2. No protocolo TCP, o campo número de confirmação carrega:

a) O número do último byte recebido com sucesso.

b) O número do próximo byte esperado no sentido contrário.

c) Uma solicitação para o receptor confirmar os dados recebidos.

d) A quantidade de confirmações pendentes.

Comentário

Parabéns! A alternativa B está correta.

O número de confirmação é a forma como o protocolo TCP faz para indicar quantos bytes
foram recebidos com sucesso. Ele carrega o número no próximo byte esperado no
sentido contrário, indicando, dessa maneira, que todos os bytes anteriores já foram
recebidos corretamente.

56 / 58
CONSIDERAÇÕES FINAIS

Vimos que, na camada de aplicação, são executadas as aplicações que os usuários


desejam executar. Além disso, pontuamos que um desenvolvedor precisa se basear em
um estilo de arquitetura para desenvolver seu software de aplicação.

Quando houve a apresentação da camada de transporte, também pudemos observar que


existem dois serviços básicos: sem e com conexão. O desenvolvedor da aplicação precisa
definir que tipo de serviço mais se adéqua a seu projeto.

Dessa forma, consideramos haver um forte relacionamento entre a camada de aplicação


e a de transporte, pois o tipo de serviço de transporte escolhido pelo desenvolvedor gera
um impacto direto no projeto da aplicação.

CONTEUDISTA

Fábio Contarini Carneiro

REFERÊNCIAS

ACM HYPERTEXT 91 CONFERENCE. Proceedings. San Antonio: Interaction Design


Foundation, 1991.

COMER, D. E. Redes de computadores e internet. 6. ed. Porto Alegre: Bookman Editora,


2016.

COULOURIS, G. et al. Sistemas distribuídos – conceitos e projeto. 5. ed. Porto Alegre:


Bookman Editora, 2013.

57 / 58
FOROUZAN, B. A. Comunicação de dados e redes de computadores. 4. ed. Porto Alegre:
AMGH Editora, 2010.

INTERNET ASSIGNED NUMBERS AUTHORITY. Protocols registries. Service name and


transport protocol port number registry. Califórnia: IANA, 2020.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a internet: uma abordagem top-


down. 6. ed. São Paulo: Pearson, 2013.

SILBERSCHATZ, A.; GALVIN, P. B. Sistemas operacionais – conceitos. 5. ed. São Paulo:


Prentice Hall, 2000.

SOARES, L. F. G. et al. Redes de computadores – das LANs, MANs e WANS às redes ATM.
2. ed. Rio de Janeiro: Campus, 1995.

TANENBAUM, A. S.; WETHERALL, D. Redes de computadores. 5. ed. São Paulo: Pearson,


2011.

58 / 58
DESCRIÇÃO
Apresentação da camada de rede do modelo OSI e o seu relacionamento com as camadas
superior e inferior, bem como a sua implementação na Arquitetura TCP/IP (arquitetura utilizada
na Internet).

PROPÓSITO
Reconhecer o funcionamento da camada de rede para o desenvolvimento de aplicações
modernas que tenham como requisito a comunicação em rede; realizar um endereçamento
uniforme permitindo que equipamentos e aplicações possam trocar informações.

OBJETIVOS
MÓDULO 1

Reconhecer os conceitos básicos da camada de rede no Modelo OSI

MÓDULO 2

Aplicar configurações de rede IP

MÓDULO 3

Classificar os protocolos de controle da Internet

MÓDULO 4

Selecionar os algoritmos de roteamento

MÓDULO 1

 Reconhecer os conceitos básicos da camada de rede no Modelo OSI

CAMADA DE REDE
Imagem: Fábio Contarini Carneiro

No Modelo OSI, a camada de rede situa-se logo acima da camada de enlace, utilizando os
serviços oferecidos por esta camada.

A camada de enlace tem como objetivo organizar a comunicação em nível de enlace, ou seja,
ela deve garantir que um hospedeiro consiga se comunicar com o hospedeiro vizinho.

O objetivo da camada de rede é, a partir deste serviço de comunicação lado a lado, promover
uma comunicação de âmbito global, permitindo que a informação que sai de um hospedeiro
chegue a seu destino não importando em qual local da rede esteja este destino. Para isso, ele
deve realizar duas grandes funções: definir um esquema de endereçamento que seja aceito
por toda a grande rede, e realizar o roteamento.

MODELO OSI

O modelo OSI (Open System Interconnection) foi criado pela International Organization
for Standardization (ISO) com o objetivo de ser um padrão para construção de redes de
computadores. Divide a rede em 7 camadas, em que cada camada realiza funções
específicas, implementadas pelo protocolo da camada, prestando serviços para sua
camada superior.
ENLACE

Ligação física entre dois ou mais dispositivos que permite a troca de dados entre os
dispositivos participantes.

HOSPEDEIRO

Também conhecido como host, é qualquer equipamento conectado à rede capaz de


trocar informações com outros equipamentos. Exemplos de hospedeiros são
computadores, roteadores, impressoras de rede, smartphones etc.

ROTEAMENTO

Processo de determinar o caminho a ser seguido por um pacote de dados em uma rede
para que chegue ao destino da melhor forma possível.

CONCEITOS BÁSICOS DA CAMADA DE


REDE
A quantidade máxima de dados que podem ser trocados entre entidades da camada de rede
possui um tamanho limitado. Para que as mensagens maiores que o limite possam ser
trocadas entre aplicações, a camada de transporte deverá segmentar tais mensagens em
partes menores e colocar cada segmento em uma unidade de dados da camada de rede.
ESTA UNIDADE DE DADOS TROCADA ENTRE ENTIDADES DA CAMADA DE REDE
RECEBE A DENOMINAÇÃO DE PACOTE.

PACOTE

Porção de dados trocada por protocolos da camada de rede contendo dados mais
informações de cabeçalho suficientes para que possam seguir seu caminho até o
hospedeiro destino.

A camada de rede cuida da transferência de pacotes desde a origem até seu destino. Em uma
grande rede, isso significa que estes pacotes podem necessitar passar por vários meios de
comunicação e diferentes roteadores até que possam ser entregues.

ROTEADORES

Dispositivos de rede que encaminham pacotes de dados entre redes de computadores.


Possuem algoritmos para troca de informações sobre o estado da rede que lhes permite
selecionar o melhor caminho desde a origem até o destino.

 COMENTÁRIO

É um trabalho diferente daquele realizado pela camada de enlace, que necessita apenas
entregar a informação na outra extremidade do meio de transmissão.

A camada de enlace de dados cuida apenas da comunicação de um hospedeiro com outro que
esteja diretamente conectado a ele por intermédio de um meio de comunicação. Já a camada
de rede é a camada de mais baixo nível que lida com a comunicação fim a fim.

Para conseguir realizar esta comunicação a camada de rede deve:


Conhecer toda a topologia da sub-rede de comunicação.

Escolher rotas que evitem sobrecarregar partes da rede enquanto outras ficam ociosas.

Compatibilizar a comunicação entre os diferentes tipos de sub-redes existentes.

TOPOLOGIA

Layout da rede de computadores.

SUB-REDE

Subdivisão de uma grande rede de computadores. Os roteadores que fazem parte de


uma sub-rede devem utilizar o mesmo software de roteamento para que possam trocar
informações sobre rotas.

Na origem, a camada de rede cria um pacote com dados provenientes da camada superior e
acrescenta a ele um cabeçalho com informações de endereço origem e destino. Em sistemas
com mais de uma interface de rede deve também consultar suas tabelas de repasse para
determinar por qual interface o pacote deve ser encaminhado.

Nos hospedeiros intermediários, a camada de rede deve receber o pacote, consultar suas
tabelas de roteamento e enviar o pacote pela interface de rede apropriada.
2

No destino, a camada de rede deve verificar se o endereço destino do pacote é o mesmo do


hospedeiro e, caso seja, entregar o pacote à camada superior (camada de transporte).

INTERFACE DE REDE

Dispositivo que permite que um hospedeiro possa enviar e receber dados por intermédio
de uma rede de computadores. Exemplos de interface de rede são placas de rede
ethernet, muito comuns em computadores desktop, e placas de comunicação Wi-Fi
comuns em notebooks e smartphones.

TABELAS DE REPASSE

Tabela interna de um roteador montada por seu algoritmo de roteamento que possui
entradas para todos os destinos conhecidos, com indicação de por qual interface de
saída deve ser enviado um pacote com base em seu endereço destino.

COMUTAÇÃO DE PACOTES STORE AND


FORWARD
Neste momento você deve estar se perguntando como o pacote vai da origem até o destino.
Diretamente? Saltando de hospedeiro em hospedeiro?

Lembre-se de que, no modelo OSI, uma camada utiliza os serviços da camada imediatamente
inferior para realizar seus trabalhos e oferecer serviços para a camada superior. Assim, um
hospedeiro com um pacote a enviar, o transmite para o roteador mais próximo. O pacote é
então totalmente recebido pelo roteador e, após ter chegado por completo, é conferido. Em
seguida, ele é encaminhado para o próximo roteador ao longo do caminho até alcançar o
hospedeiro de destino, onde é entregue. Esse mecanismo que tem como base armazenar
totalmente o pacote antes de enviá-lo ao próximo hospedeiro é conhecido como comutação de
pacotes store and forward.

Confira esse passo a passo na imagem abaixo:

Imagem: Shutterstock.com

REPASSE
Um roteador é um equipamento que possui, normalmente, várias interfaces de rede. Quando
um pacote chega por uma de suas interfaces, o roteador deve verificar o destino deste pacote
e decidir por qual de suas linhas o pacote deve ser enviado para que consiga chegar ao
destino. Chamamos de repasse o trabalho (local) de escolher por qual das interfaces deve
seguir o pacote que chega.

ROTEAMENTO
Cabe à camada de rede decidir o caminho a ser seguido por um pacote para que este chegue
ao seu destino, fazendo o melhor caminho possível. Para isso, os roteadores devem trocar
informações entre si sobre o estado da rede, de forma a decidirem o melhor caminho para cada
destino. Chamamos de roteamento o trabalho (global) de escolher os caminhos por uma rede
para que o repasse possa ser realizado.

O algoritmo que realiza esta tarefa é conhecido como algoritmo de roteamento.

O repasse refere-se a uma ação realizada localmente por um roteador sobre um pacote que
chega, enquanto o roteamento a uma ação global envolvendo todos os roteadores de uma sub-
rede para a escolha do melhor caminho.

Para saber mais sobre comutação de pacotes, assista ao vídeo abaixo:

Você já deve ter percebido que existe uma relação bastante próxima entre repasse e
roteamento, mas como é esta relação?
Vamos iniciar pelos algoritmos de roteamento. Para escolher a melhor rota, um conjunto de
roteadores precisa trocar informações sobre a situação da rede em sua vizinhança, de modo
que os roteadores do conjunto possam decidir sobre o caminho a ser seguido em cada
situação. Diferentes algoritmos com diferentes propriedades podem ser utilizados nesta tarefa.

Como funcionam esses algoritmos e de que forma eles se diferenciam, estudaremos adiante.
Por ora, o importante é que existem algoritmos capazes de encontrar o melhor caminho em
uma rede.

O mesmo algoritmo é então executado nos roteadores da sub-rede, trocando informações de


tráfego e calculando a melhor rota. Uma vez calculadas as rotas para cada destino, os
algoritmos de roteamento criam as chamadas tabelas de repasse, as quais são indexadas
pelos possíveis endereços destino de um pacote e indicam a interface pela qual o pacote deve
ser enviado com base em seu endereço destino.

Ao chegar um pacote em um roteador, e sendo necessário fazer seu repasse, o processo


responsável por esta função verifica o endereço de destino do pacote, consulta a tabela de
repasse utilizando o endereço destino como índice e obtém a interface pela qual o pacote deve
seguir. Resumidamente, as tabelas de repasse são montadas pelos algoritmos de roteamento
e consultadas pelo processo de repasse para determinar por qual interface deve seguir um
pacote que chega.

PROCESSO

Um processo é um programa em execução, incluindo sua região de memória, valores de


variáveis e seu contexto de hardware.

CIRCUITOS VIRTUAIS E DATAGRAMAS


Há basicamente duas formas para a organização da camada de rede de uma sub-rede: uma
utilizando conexões e a outra trabalhando sem conexão. Na camada de rede, um serviço
orientado à conexão costuma ser chamado de circuito virtual, enquanto um serviço que realiza
a entrega de pacotes independentes, sem conexão, costuma ser chamado de serviço de
datagramas.

A camada de transporte também oferece serviços com conexão e sem conexão, mas estes se
diferem dos serviços oferecidos pela camada de rede.

 COMENTÁRIO

Pensando na arquitetura TCP/IP, a camada cliente da camada de transporte é a camada de


aplicação, portanto, o serviço de transporte com conexão é um serviço aplicação a aplicação,
ou seja, uma conexão de transporte conecta diretamente duas aplicações. Já a camada de
rede é voltada para a interligação de hospedeiros, logo, uma conexão da camada de rede é
uma conexão hospedeiro a hospedeiro.

CIRCUITOS VIRTUAIS

A ideia dos circuitos virtuais é evitar a necessidade de escolher uma nova rota para cada
pacote que passa, sendo por isso utilizado em sub-redes com serviço de rede orientado à
conexão. Ao se estabelecer uma conexão, é criada uma rota entre o hospedeiro origem e o
hospedeiro destino como parte do estabelecimento da conexão. Essa rota é utilizada por todo o
tráfego que flui pela conexão entre os hospedeiros. Quando a conexão é liberada o circuito
virtual deixa de existir.

Um circuito virtual (CV) consiste em:

Considere a rede da figura a seguir. Os números em cada extremidade dos enlaces


representam o número da interface do comutador naquele enlace.

Um caminho definido entre origem e destino;

Números de identificação de circuitos virtuais, um para cada enlace ao longo do caminho;

Registros em tabelas de comutadores ao longo do caminho.


COMUTADORES

Dispositivos utilizados em redes de computadores para o encaminhamento de dados com


base em seu endereço destino ou circuito virtual. Diferenciam-se dos roteadores por
conta do trabalho realizado e por serem mais rápidos no encaminhamento de dados.

Imagem: Fábio Contarini Carneiro

O hospedeiro H1 solicita à rede que estabeleça um circuito virtual até o hospedeiro H2, e a
rede estabelece o caminho H1-A-B-E-F-H2, atribuindo respectivamente os seguintes circuitos
virtuais: 23, 8, 37, 22, e 16 (numerações aleatórias).

Com base nestas informações são montadas as seguintes tabelas de repasse em cada um dos
comutadores ao longo do caminho:

Imagem: Fábio Contarini Carneiro

Sempre que um novo circuito virtual (CV) é estabelecido através de um comutador, um registro
para este CV é adicionado à tabela do comutador. De forma análoga, sempre que um CV
termina, suas informações são removidas das tabelas do comutador ao longo do percurso.

A utilização de diferentes identificadores para os CVs, ao longo do caminho, simplifica o


trabalho, uma vez que, a utilização de um mesmo CV durante todo o trajeto iria requerer a
concordância de todos os comutadores participantes da rota. O importante para que os
comutadores possam definir o caminho é que o número de saída do CV de um comutador seja
o mesmo número de entrada do CV do comutador seguinte.
No exemplo, o circuito estabelecido entre os comutadores E e F possui CV 22 (o CV 22 sai
pela linha 3 de E e entra como CV 22 pela linha 1 de F). Da mesma forma, o CV entre A e B
possui valor 8 e o CV entre B e E possui valor 37. Reveja as figuras com os circuitos em
destaque.

Imagem: Fábio Contarini Carneiro

Ao estabelecer um caminho desta forma, é como se fosse colocado um circuito físico (como
um cabo de rede) ligando diretamente os hospedeiros, por isso o nome circuito virtual.

Outra característica da rede de circuitos virtuais é que, como os pacotes seguem sempre pelo
mesmo caminho, eles chegam ao destino na mesma ordem em que saíram da origem.

Existem 3 fases que podem ser identificadas em um circuito virtual:

ESTABELECIMENTO DO CV
Nesta fase os comutadores estabelecem os parâmetros da conexão e o caminho pelo qual os
pacotes irão seguir durante a fase de transferência de dados.

TRANSFERÊNCIA DE DADOS
Fase seguinte ao estabelecimento do CV, durante a qual ocorre a transferência de pacotes
desde a origem até o destino. Todos os pacotes seguem pelo caminho definido durante a fase
de estabelecimento do CV.

ENCERRAMENTO DO CV
Fase na qual o circuito virtual é desfeito. Necessária para que os comutadores sejam avisados
do encerramento e possam retirar de suas tabelas as informações sobre o circuito virtual
encerrado.
DATAGRAMAS

Em uma sub-rede de datagramas, nenhuma rota é previamente definida. Ao ser transmitido,


um pacote passa por uma série de roteadores, e cada roteador, ao longo do caminho, utiliza o
endereço destino para determinar por qual interface de saída enviar o pacote (realiza o
repasse).

Como não há estabelecimento de circuitos para as transferências, os roteadores, ao longo do


caminho, deverão manter tabelas de repasse baseadas no endereço destino do pacote,
qualquer que seja o destino. Significa dizer que, se as tabelas de repasse forem alteradas
durante uma transferência, os datagramas de uma mensagem podem fazer caminhos
diferentes até o destino.

Imagem: Shutterstock.com

Suponha que você esteja assistindo a um filme pela rede e que o vídeo seja enviado até seu
equipamento por uma sub-rede de datagramas. Parece real? Sim, é real. Atualmente,
assistimos a filmes pela Internet e ela é uma rede de datagramas.

O filme possui cerca de 90 minutos. Será que as rotas de uma rede mudam durante 90
minutos? Sim, essa é uma possibilidade. Isso significa que, em determinado momento, as
tabelas de repasse mudarão, então, os datagramas passarão a fazer outro caminho até
chegarem em seu equipamento. Assim, vemos que, ao contrário dos circuitos virtuais, os
pacotes em uma rede de datagramas não seguem sempre pelo mesmo caminho.

POR QUE A ROTA É ALTERADA?


Uma possibilidade é que os pacotes estavam passando por uma região que ficou
sobrecarregada, e os roteadores descobriram uma outra região com melhores condições de
tráfego, preferindo enviar os pacotes por essa nova região. Uma consequência disso é que os
primeiros pacotes que estão seguindo pelo novo caminho podem chegar ao destino antes de
alguns dos pacotes que seguiram pelo caminho antigo.

Assim sendo, existe a possibilidade de que alguns pacotes cheguem ao destino fora de ordem.

Os problemas que podem acontecer em uma rede de datagramas são:

A PERDA DE DATAGRAMAS

DATAGRAMAS CHEGAREM COM ERRO

DATAGRAMAS CHEGAREM FORA DE ORDEM

DATAGRAMAS SEREM DUPLICADOS


Para saber mais sobre circuitos virtuais e datagramas, assista ao vídeo abaixo:

ENDEREÇAMENTO
Alguns tipos de rede permitem que sejam criados vários endereços por hospedeiro, enquanto
outros tipos de rede permitem a utilização de apenas um por hospedeiro. Porém, qualquer que
seja o tipo de rede, o endereçamento deve ser completamente independente do
endereçamento dos protocolos de outras camadas. A camada de rede tem a função de unificar
toda a comunicação da rede, portanto ela deve definir uma forma de identificação dos
hospedeiros que seja aceita por toda a rede.

Basicamente dois tipos de endereçamento são possíveis:


ENDEREÇAMENTO HIERÁRQUICO
No endereçamento hierárquico, o endereço de uma entidade é constituído de acordo com os
endereços correspondentes aos vários níveis da hierarquia da qual faz parte. O endereço
hierárquico é o método sugerido pelo ITU-T para interconexão de redes públicas de telefonia.
Nessa recomendação, os endereços são números decimais formados por três campos: um
código do país, um código para a rede, e um campo para o endereçamento dentro da rede.

Observação: Setor da ITU (International Telecommunication Union) responsável pela


elaboração de padrões e normas consensuais sobre tecnologia que garantam o
funcionamento, a interoperabilidade e a integração dos sistemas de comunicação em todo o
mundo, com a finalidade de facilitar o acesso das indústrias aos diferentes mercados de cada
país.

ENDEREÇAMENTO HORIZONTAL
No endereçamento horizontal, os endereços não têm relação alguma com o lugar onde estão
as entidades dentro da rede. Um exemplo comum desse tipo de endereçamento são os
endereços utilizados nas placas de rede ethernet, que são gravados durante seu processo de
fabricação e será sempre o mesmo, não importando em qual lugar do mundo a placa seja
utilizada.

Observação: Placas de rede ethernet é um dispositivo de hardware que permite a ligação de


um computador a uma rede de computadores padrão ethernet.

Considerações sobre o roteamento indicam vantagens na utilização de endereçamento


hierárquico, uma vez que este contém informações explícitas sobre o local onde se localizam
as entidades. Já o endereçamento horizontal permite uma mobilidade das entidades sem
reconfiguração.

Apesar do endereçamento universal ser realizado pela camada de rede, o envio dos pacotes é
realizado por camada inferior que possui seu próprio esquema de endereçamento específico
da tecnologia da rede física em uso. Ocorre, portanto, um mapeamento entre os endereços
físicos e de rede, e esta tarefa deve ser realizada pela camada de rede. Existem duas técnicas
usuais para essa conversão: resolução através de mapeamento direto e resolução através de
vinculação dinâmica.

MAPEAMENTO DIRETO

A estação sabe como computar o endereço de enlace por intermédio de uma função que
mapeia o endereço de rede no endereço de enlace. Por exemplo, o endereçamento hierárquico
onde o campo de endereçamento dentro da rede corresponda exatamente ao endereço físico
da estação. Conversões mais complexas podem ser realizadas através de tabelas de
conversão e técnicas de acesso rápido a estas tabelas.

VINCULAÇÃO DINÂMICA

Para evitar o uso de tabelas de conversão, uma vinculação dinâmica pode ser efetuada entre o
endereço de rede e o físico por intermédio da utilização de algum protocolo de resolução. A
exemplo, temos o protocolo ARP, o qual estudaremos mais adiante.

VERIFICANDO O APRENDIZADO

1. QUANDO UM PACOTE CHEGA PARA SER ENCAMINHADO POR UM


ROTEADOR, O PROCESSO RESPONSÁVEL PELO REPASSE DEVE:

A) Consultar outros roteadores para determinar a interface de saída a ser utilizada.

B) Decidir pela interface de saída com base no endereço origem do pacote.

C) Montar a tabela de repasse com base nos dados obtidos pelo algoritmo de roteamento.

D) Escolher a interface de saída com base em sua tabela de repasse.


2. EM UMA REDE DE CIRCUITOS VIRTUAIS:

A) A identificação do circuito virtual permanece a mesma ao longo de todo o caminho.

B) Os pacotes sempre chegam ao destino na ordem em que foram enviados.

C) A rota é definida pelos comutadores antes mesmo do estabelecimento da conexão.

D) A rota pode ser alterada se o algoritmo de roteamento encontrar um caminho melhor.

GABARITO

1. Quando um pacote chega para ser encaminhado por um roteador, o processo


responsável pelo repasse deve:

A alternativa "D " está correta.

O algoritmo de roteamento de um roteador troca constantemente informações com outros


roteadores sobre o estado da rede e, com base nestas informações, monta a tabela de repasse
que determina por qual interface deve seguir um pacote que chega. Quando o pacote chega,
cabe ao processo de repasse apenas consultar a tabela de repasse que definirá por qual
interface o pacote deve seguir.

2. Em uma rede de circuitos virtuais:

A alternativa "B " está correta.

Em uma rede de circuito virtual, a rota a ser seguida pelos pacotes é definida no momento do
estabelecimento da conexão e nunca muda. Como os pacotes seguem sempre pelo mesmo
caminho, eles mantêm a posição um em relação ao outro, chegando ao destino na mesma
ordem em que foram enviados.

MÓDULO 2

 Aplicar configurações de rede IP


A CAMADA DE REDE NA INTERNET
Na camada de rede, a Internet pode ser vista como um conjunto de sub-redes ou Sistemas
Autônomos (SA) conectados entre si. Não existe uma estrutura real, mas diversos backbones
que interligam redes regionais, que por sua vez estão conectadas às redes locais.

BACKBONES

Linhas de comunicação de dados que formam a espinha dorsal de um sistema de


comunicação, provendo meio de comunicação entre redes de computadores.
Normalmente, possuem tecnologia com elevado desempenho para transmissão de
dados.

Imagem: Fábio Contarini Carneiro

O protocolo que mantém a Internet unida é o protocolo de camada de rede IP (Internet


Protocol). A tarefa do IP é fornecer a melhor forma de transportar datagramas da origem para o
destino, independentemente de esses hospedeiros estarem na mesma rede ou em outras
redes intermediárias.

Imagine que você está solicitando a transferência de dados de seu computador para um
hospedeiro remoto (está fazendo o upload do arquivo). A camada de transporte de seu
computador receberá o fluxo de dados referente à transferência de seu arquivo. Como
provavelmente esse fluxo é muito grande para caber em um único pacote IP, ele será quebrado
em partes menores pela camada de transporte e cada parte desta será entregue para a
camada de rede (cada um será colocado em um datagrama IP).

Imagem: Shutterstock.com

Estes datagramas serão transmitidos pela Internet, podendo ainda serem fragmentados ao
longo do caminho. Quando todos os fragmentos de um datagrama chegam ao destino, o
datagrama original é remontado pela camada de rede do destino sendo entregue à camada de
transporte que recriará o fluxo original para o processo de recepção.

PROTOCOLO IP VERSÃO 4 (IPV4)


Na Internet, a camada de rede trata cada pacote de forma independente, não tendo qualquer
relação com pacotes anteriores ou posteriores. Pacotes com mesma origem e destino podem,
inclusive, passar por diferentes rotas.

O IPv4 é definido pela RFC 791, sendo atualizado pelas RFC 1349, RFC 2474 e RFC 6864.
RFC

Request for Comments são documentos públicos mantidos pela Internet Engineering Task
Force.

Imagem: Shutterstock.com

MTU

Maximum Transmission Unit. Refere-se à quantidade máxima de dados que pode ser
enviada em uma mensagem de um protocolo de rede.

Quando um datagrama é quebrado em fragmentos, cada um destes fragmentos passa a ser


um novo datagrama que está passando pela rede.

Um datagrama IP consiste em duas partes: cabeçalho e dados. O cabeçalho tem uma parte
fixa de 20 bytes e uma parte opcional de tamanho variável.
Imagem: adaptada por Eduardo Trindade

Para saber mais sobre como funciona a fragmentação, assista ao vídeo abaixo:
ENDEREÇAMENTO IPV4
Um hospedeiro normalmente possui apenas uma interface com a rede de computadores.
Quando o protocolo IP de um hospedeiro quer enviar um datagrama, ele o faz por meio dessa
interface.

A INTERFACE DE REDE É A FRONTEIRA ENTRE O HOSPEDEIRO E A REDE FÍSICA.

Considere, neste momento, um roteador e suas interfaces. Como a tarefa de um roteador é


receber um datagrama por uma interface e repassá-lo por outra interface, ele estará ligado a
duas ou mais redes físicas. A fronteira entre o roteador e qualquer uma dessas redes também
é denominada uma interface. Assim, um roteador tem múltiplas interfaces, uma para cada uma
das redes a qual está conectado.

 ATENÇÃO

Independentemente de quantas interfaces tenha um hospedeiro, o IP exige que cada uma


delas tenha seu próprio endereço IP de modo que este, tecnicamente, esteja associado a uma
interface, e não ao hospedeiro que a contém.

Cada endereço IP tem comprimento de 32 bits (4 bytes), havendo um total de 232 endereços
possíveis (aproximadamente 4 bilhões de endereços IP), os quais são escritos em notação
decimal separada por pontos, na qual cada byte do endereço é escrito em sua forma decimal e
separado dos outros bytes por um ponto.
Considere o endereço IP 192.168.23.67. O 192 é o número decimal equivalente aos primeiros
8 bits do endereço; o 168 é o decimal equivalente ao segundo conjunto de 8 bits do endereço,
e assim por diante. Em notação binária, o endereço 192.168.23.67 fica:

11000000 10101000 00010111 01000011

Imagem: Fábio Contarini Carneiro

Cada interface em cada hospedeiro da Internet precisa de um endereço IP globalmente


exclusivo, ou seja, não pode haver duas interfaces com o mesmo endereço IP na Internet
válida.

A figura, a seguir, fornece um exemplo de endereçamento IP e interfaces em que um roteador


com 2 interfaces é usado para interconectar os 6 hospedeiros. Observando os endereços dos
hospedeiros da esquerda e da interface do roteador que os liga, percebe-se que todos
possuem endereço IP na forma 192.168.0.x, enquanto os hospedeiros e a interface do roteador
localizados na parte direita da figura possuem endereço na forma 192.168.1.x. Diz-se que cada
uma destas redes que interconecta 3 hospedeiros mais a interface do roteador formam uma
sub-rede.

Imagem: Fábio Contarini Carneiro

Como pode-se observar, no exemplo, os 3 campos mais à esquerda do endereço (formados


por 24 bits) nunca mudam dentro da sub-rede. Deste modo, temos à esquerda a sub-rede
192.168.0.0/24 e à direita a sub-rede 192.168.1.0/24. O “/24” indica que os 24 bits mais à
esquerda do endereço definem a sub-rede.
A ESTRATÉGIA DE ATRIBUIÇÃO DE
ENDEREÇOS DA INTERNET É CONHECIDA
COMO ROTEAMENTO INTERDOMÍNIO SEM
CLASSES (CLASSLESS INTER-DOMAIN
ROUTING – CIDR).

CIDR
O CIDR generaliza a noção de endereçamento de sub-rede. O endereço IP de 32 bits é
dividido em 2 partes sendo representado por A.B.C.D/X, em que X indica o número de bits
existentes na primeira parte do endereço.

Os X bits mais significativos de um endereço na forma A.B.C.D/X constituem a parcela da rede


do endereço IP e normalmente são denominados prefixo (ou prefixo de rede). Este prefixo
determina qual parte do endereço IP identifica a rede. Uma organização normalmente recebe
um bloco de endereços contíguos, ou seja, uma faixa de endereços com um prefixo comum.
Assim, os endereços IP de hospedeiros dentro da organização compartilharão o prefixo
comum, o que reduz consideravelmente o tamanho da tabela de repasse nos roteadores, visto
que um único registro da forma A.B.C.D/X será suficiente para transmitir pacotes partindo de
fora para qualquer destino dentro da organização.

Os últimos (32-X) bits de um endereço podem ser considerados como os bits que distinguem
os hospedeiros dentro da sub-rede. Esses bits menos significativos podem (ou não) ter uma
estrutura adicional de sub-rede tal como aquela discutida anteriormente. Por exemplo, suponha
que os primeiros 24 bits do endereço A.B.C.D/24 especificam o prefixo da rede da organização
e são comuns aos endereços IP de todos os hospedeiros da organização. Os 8 bits restantes,
então, identificam os hospedeiros específicos da organização.

A estrutura interna da organização poderia ser tal que esses 8 bits mais à direita seriam usados
para criar uma sub-rede dentro da organização, como discutido. Por exemplo, A.B.C.D/28
poderia se referir a uma sub-rede específica dentro da organização.

Anteriormente ao CIDR, os bits reservados para indicar a parte da sub-rede possuíam


exatamente 8, 16 ou 24 bits. Esse esquema é conhecido como endereçamento de classes
cheias, e as sub-redes com endereços de sub-rede de 8, 16 e 24 eram conhecidas,
respectivamente, como redes de classe A, B e C. Tal divisão em classes cheias se mostrou
problemática para suportar o rápido crescimento da quantidade de organizações com sub-
redes de pequeno e médio portes.

Uma sub-rede de classe C (/24) poderia acomodar apenas 28 - 2 = 254 hospedeiros (dois dos

28 = 256 endereços são reservados para uso especial). Esta sub-rede é muito pequena para

muitas organizações, por outro lado, uma sub-rede de classe B (/16), que suporta até 216 - 2 =
65.534 hospedeiros, seria demasiadamente grande. Com o endereçamento de classes cheias,
uma organização com 2.000 hospedeiros recebia um endereço de sub-rede de classe B (/16),
o que resultava no rápido esgotamento do espaço de endereços de classe B e na má utilização
do espaço de endereço alocado.

Os 2 endereços especiais de uma sub-rede que não podem ser utilizados são o primeiro e o
último endereço da faixa de endereços da organização. O primeiro é reservado para o
endereço de rede, que identifica a rede como um todo. Nele, todos os bits que não fazem parte
do prefixo de rede recebem o valor 0.

Já o último endereço é utilizado como endereço de difusão (broadcast). Roteadores não


repassam mensagens de difusão, portando, em uma rede IP a difusão fica limitada ao
segmento de rede limitado pelo roteador. No endereço de difusão, todos os bits que não fazem
parte do prefixo de rede recebem o valor 1.

O 255.255.255.255 é um endereço especial de difusão em que a mensagem é entregue a


todos os demais hospedeiros que estão na mesma sub-rede do hospedeiro que enviou a
mensagem.

DIFUSÃO

Endereço lógico utilizado em redes de computadores que deve ser colocado no campo
destino de uma mensagem quando se deseja que os dados sejam entregues a todos os
hospedeiros da sub-rede.

No endereçamento de classes cheias, o número total de redes e hospedeiros para cada classe
é:

CLASSE A
126 redes com aproximadamente 16 milhões de hospedeiros cada.

CLASSE
16.384 redes com até 64K hospedeiros cada.

CLASSE C
Cerca de 2 milhões de redes com até 254 hospedeiros cada.

CLASSE D
Cerca de 268 milhões de grupos multicast.

Imagem: Fábio Contarini Carneiro

A distribuição de endereços IP é controlada pela ICANN (Internet Corporation for Assigned


Names and Numbers).

SUB-REDES

O mundo exterior a uma organização enxerga sua rede como sendo única, e nenhuma
informação sobre sua estrutura interna é necessária. Porém, sem a utilização de sub-redes, o
espaço de endereçamento pode se tornar muito ineficiente.

A fim de tornar mais eficiente a utilização da rede, é comum sua divisão em várias sub-redes.
O mecanismo que permite tal divisão é conhecido como máscara de rede.

Assim como um endereço IP, uma máscara de rede possui 32 bits divididos em 4 campos com
8 bits cada, seguindo o padrão:

bits da rede – bit 1


bits da sub-rede – bit 1

bits do hospedeiro – bit 0

Os bits da sub-rede são utilizados para especificar quais bits no campo do hospedeiro são
usados para especificar as sub-redes de uma rede.

A máscara padrão (default) para cada classe é dada por:

Classe Decimal Notação IDR Hexadecimal

A 255.0.0.0 /8 FF:00:00:00

B 255.255.0.0 /16 FF:FF:00:00

C 255.255.255.0 /24 FF:FF:FF:00

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

EXEMPLO:

Imagem: Fábio Contarini Carneiro

Ao se dividir uma rede em sub-redes, deve-se alocar os bits para a sub-rede a partir dos bits de
mais alta ordem (bits mais à esquerda) do campo do hospedeiro. A tabela a seguir mostra os
valores usados no campo do hospedeiro quando se divide uma rede em sub-redes.

128 64 32 16 8 4 2 1

1 0 0 0 0 0 0 0 128
1 1 0 0 0 0 0 0 192

1 1 1 0 0 0 0 0 224

1 1 1 1 0 0 0 0 240

1 1 1 1 1 0 0 0 248

1 1 1 1 1 1 0 0 252

1 1 1 1 1 1 1 0 254

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Uma rede pode ser dividida em diversas partes para uso interno, continuando a ser vista como
uma única rede externamente. Essas partes são as sub-redes.

Existem diversas razões para se dividir uma rede em sub-redes. Algumas destas razões são:

Isolar o tráfego de uma sub-rede, reduzindo assim o tráfego total da rede.

Proteger ou limitar o acesso a uma sub-rede.

Permitir a associação de uma sub-rede com um departamento ou espaço geográfico


específico.
Para saber mais sobre como calcular máscaras de rede, assista ao vídeo abaixo:

NAT
Atualmente, endereços IP são escassos e este esgotamento não é um problema teórico que
pode ocorrer em algum momento no futuro distante, ele já está acontecendo, e a solução atual
para este problema é o NAT (Network Address Translation – Tradução de Endereço de Rede),
descrito na RFC 3022.

Com essa técnica, uma organização pode utilizar internamente uma faixa de endereços que
não é válida na Internet, e quando é necessário fazer acesso externo, o dispositivo responsável
pelo NAT faz a tradução do endereço da rede interna para o endereço válido da organização.
Dessa forma, a organização poderá obter internamente uma quantidade maior de hospedeiros
do que endereços disponíveis para utilização da Internet.

Imagem: Fábio Contarini Carneiro

 COMENTÁRIO

A ideia básica do NAT é atribuir a cada organização uma pequena quantidade de endereços IP
para tráfego na Internet. Dentro da organização, todo computador obtém um endereço IP
exclusivo (também conhecido como endereço IP privado) usado para roteamento do tráfego
interno e, quando um pacote sai da organização e vai para a Internet, ocorre uma conversão do
endereço.

Para tornar esse esquema possível, três intervalos de endereços IP foram declarados como
endereços privativos (reservados) e as organizações podem utilizá-los internamente da
maneira que quiserem, a única regra é que nenhum pacote contendo esses endereços pode
aparecer na própria Internet. Os três intervalos reservados são:

Faixa Máscara Classe

10.0.0.0 a 10.255.255.255 255.0.0.0 A


172.16.0.0 a 172.31.255.255 255.255.0.0 B

192.168.0.0 a 192.168.255.255 255.255.255.0 C

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Dentro da organização, toda máquina tem um endereço exclusivo que não é válido na Internet.
Quando um pacote deixa a organização, ele passa por uma caixa NAT (normalmente um
roteador), que converte o endereço de origem no endereço IP válido da organização. Desse
modo, o pacote poderá transitar sem problemas pela Internet, porém, a resposta do pacote
voltará para o endereço IP válido da organização e não para a máquina que fez tal requisição.
Por causa disso, a caixa NAT deverá manter uma tabela na qual poderá mapear a máquina
que enviou a requisição para Internet, de forma que, quando a resposta voltar, ela possa ser
mapeada para a máquina correta.

Na técnica de NAT, os endereços utilizados pelos hospedeiros de uma organização não são
válidos na Internet, não há como tais equipamentos receberem acesso direto da rede externa,
conferindo um certo grau de proteção aos hospedeiros da rede interna.

Para saber mais sobre o funcionamento do NAT, assista ao vídeo abaixo:


VERIFICANDO O APRENDIZADO

1. NO CIDR (CLASSLESS INTER-DOMAIN ROUTING – ROTEAMENTO


INTERDOMÍNIO SEM CLASSES) O PREFIXO DE REDE É UTILIZADO
PARA:

A) Identificar a interface de rede do hospedeiro.

B) Informar a quantidade de bytes do endereço IP.

C) Identificar o hospedeiro que deve receber o datagrama.

D) Determinar qual parte do endereço IP identifica a rede.

2. A TÉCNICA DE NAT FOI DESENVOLVIDA PARA:

A) Realizar a fragmentação de datagramas IP.

B) Calcular a máscara de rede.

C) Associar uma sub-rede a um espaço geográfico específico.

D) Resolver o problema da escassez de endereços IP.

GABARITO
1. No CIDR (Classless Inter-domain Routing – Roteamento Interdomínio sem Classes) o
prefixo de rede é utilizado para:

A alternativa "D " está correta.

Um endereço IP possui 32 bits. Quando se utiliza o CIDR, é definido um prefixo, sendo este
utilizado para dividir o endereço IP em 2 partes: rede e hospedeiro. O prefixo CIDR determina a
quantidade de bits a ser alocada na identificação da rede, ou seja, determina a parte do
endereço IP que identifica a rede.

2. A técnica de NAT foi desenvolvida para:

A alternativa "D " está correta.

A quantidade de endereços IP disponíveis para utilização na Internet já é escassa, e a cada dia


mais organizações e pessoas desejam se conectar à internet, Dessa forma, foi criada a técnica
de NAT (Network Address Translation), que permite que uma organização possua um conjunto
de endereços internos que não são válidos na Internet mas que, quando um hospedeiro deseja
acessá-la, seu endereço é traduzido em um endereço válido, permitindo, assim, a possibilidade
de conectar mais hospedeiros à Internet do que a quantidade de endereços disponíveis para
isso.

MÓDULO 3

 Classificar os protocolos de controle da Internet

PROTOCOLO DE CONTROLE DA INTERNET


O protocolo IP é o responsável por manter a unidade de toda a Internet, porém, ele não
consegue realizar sozinho todo o trabalho necessário. Para auxiliá-lo nesta tarefa, foram
desenvolvidos protocolos auxiliares na camada de rede, conhecidos como protocolos de
controle.
Neste módulo, estudaremos os principais protocolos de controle que trabalham em conjunto
com o protocolo IP.

ARP (ADDRESS RESOLUTION PROTOCOL)


Embora na Internet cada hospedeiro possua um ou mais endereços IP, na verdade eles não
podem ser usados diretamente para o envio de informações pela rede, pois o hardware da
camada de enlace de dados não entende os endereços Internet.

Suponha que você esteja utilizando um notebook e que ele enviará dados para um servidor na
mesma rede. O software IP do notebook receberá os dados a serem enviados e construirá um
pacote com o endereço IP do servidor no campo ENDEREÇO DESTINO do datagrama para
transmissão. O software IP descobrirá que o servidor está em sua própria rede e que, portanto,
deverá transmitir os dados diretamente a ele.

Neste ponto existe um problema. A placa de rede trabalha com endereços físicos da camada
de enlace, ela não reconhece endereços IP. Logo, é necessário encontrar uma forma de
mapear os endereços de rede nos endereços de enlace.

Imagem: Shutterstock.com

A solução adotada é fazer com que o hospedeiro que precise descobrir o endereço de enlace
do destinatário envie um pacote por difusão perguntando: “A quem pertence o endereço IP
A.B.C.D?”. Então, o hospedeiro destinatário responderá com seu endereço de enlace. O
protocolo que faz essa pergunta e obtém a resposta é o ARP (Address Resolution Protocol,
que é definido na RFC 826.

No exemplo da imagem, a seguir, a requisição ARP é enviada para o endereço de enlace ff-ff-
ff-ff-ff-ff, o que permite que a camada de enlace promova uma difusão (entregue a requisição a
todos os hospedeiros ligados ao meio de transmissão).

Imagem: Fábio Contarini Carneiro

Continuando em nosso exemplo, o software IP do notebook constrói um quadro de enlace


endereçado ao servidor, coloca o pacote IP no campo de carga útil e o envia. A placa de rede
do destinatário detecta esse quadro, reconhece-o como um quadro destinado a ela e o recolhe.
O software de enlace extrai o pacote IP da carga útil e o repassa para o software IP, que
verifica se ele está corretamente endereçado e o processa.

SÃO POSSÍVEIS VÁRIAS OTIMIZAÇÕES PARA TORNAR O ARP MAIS EFICAZ. EM


PRIMEIRO LUGAR, DEPOIS QUE UMA MÁQUINA EXECUTA O ARP, ELA ARMAZENA O
RESULTADO EM UM CACHE.

Em muitos casos, o destinatário precisará enviar uma resposta, o que forçará também a
execução do ARP para determinar o endereço de enlace do transmissor. Essa difusão do ARP
pode ser evitada fazendo-se com que o destinatário inclua em sua tabela o mapeamento entre
os endereços de rede e de enlace do transmissor.

Se um hospedeiro precisar enviar dados para outro hospedeiro que se encontra em uma sub-
rede diferente da sua, este sistema de entrega direta não funcionará. Neste caso, o hospedeiro
transmissor precisará enviar seus dados para um roteador, que deverá providenciar o
encaminhamento do datagrama para a sub-rede do destinatário. Poderá ser necessário que o
protocolo ARP seja utilizado mais de uma vez ao longo do caminho.
Para saber mais sobre o funcionamento do ARP quando existe um roteador no meio do
caminho, assista ao vídeo abaixo:

Para saber mais sobre Circuitos virtuais e Datagramas, assista ao vídeo abaixo:

DHCP (DYNAMIC HOST CONFIGURATION


PROTOCOL)
Para ter acesso à Internet, um hospedeiro precisa ser configurado com alguns parâmetros.

Os parâmetros mínimos a serem configurados são:

1 - ENDEREÇO IP
Para permitir que o hospedeiro possa ser endereçado e receber dados de outro hospedeiro.

2 - MÁSCARA DE SUB-REDE
Para que o hospedeiro possa determinar qual a sua sub-rede.

3 - ENDEREÇO DO GATEWAY (ROTEADOR)


Para que o hospedeiro possa enviar informações para fora de sua sub-rede.

4 - ENDEREÇO DO SERVIDOR DNS


Para que o hospedeiro possa acessar outros hospedeiros por seus nomes em vez de precisar
conhecer seus endereços IP.

Esses parâmetros devem ser configurados em todos os hospedeiros da organização, o que


pode ser feito manualmente pelos administradores da rede. Isso funcionaria muito bem em um
ambiente relativamente estático onde os hospedeiros raramente fossem mudados de lugar ou
trocados.

E NO CASO DE AMBIENTES ONDE EXISTE UMA


GRANDE VARIAÇÃO NOS HOSPEDEIROS
PRESENTES NA REDE?

Imagine, por exemplo, como seria na praça de alimentação de um shopping que oferece
acesso à Internet. Seria viável solicitar que todo o dispositivo móvel que chegasse nesse
shopping e quisesse acessar a Internet fizesse um pré-cadastro para poder ter esse acesso?
Como cada dispositivo precisa de um endereço único no momento do acesso, como seria
administrar esta distribuição por todos os possíveis clientes?
Imagem: Shutterstock.com

 COMENTÁRIO

Para facilitar a distribuição de endereços IP e demais parâmetros de rede entre os vários


hospedeiros que podem estar presentes em uma rede, e administrar a atribuição destes
parâmetros de forma automatizada, a IETF desenvolveu o DHCP, cuja especificação encontra-
se na RFC 2131.

Para utilizar o mecanismo dinâmico de alocação de endereços do DHCP, o administrador do


sistema deve configurar um servidor fornecendo um grupo de endereços IP. Sempre que um
novo computador se conecta à rede, entra em contato com o servidor e solicita um endereço. O
servidor opta por um dos endereços especificados pelo administrador e aloca tal endereço para
o computador.

IETF

Internet Engineering Task Force (IETF) é um grupo internacional aberto que tem como
objetivo identificar e propor soluções a questões relacionadas à utilização da Internet,
além de propor padronização das tecnologias e dos protocolos envolvidos.

De modo geral, o DHCP permite três tipos de atribuição de endereços:

1 - CONFIGURAÇÃO MANUAL
O administrador especifica o endereço que cada hospedeiro receberá quando se conectar à
rede.

2 - CONFIGURAÇÃO AUTOMÁTICA
O administrador permite que um servidor DHCP atribua um endereço quando um hospedeiro
se conectar pela primeira vez à rede. A partir deste momento, este endereço estará reservado
para este hospedeiro para sempre.

3 - CONFIGURAÇÃO DINÂMICA
O servidor “empresta” um endereço a um hospedeiro, por um tempo limitado. Quando o
hospedeiro não estiver mais utilizando este endereço, ele poderá ser alocado a outro
hospedeiro.

Um servidor DHCP empresta um endereço para o hospedeiro por um período de tempo


determinado que ele especifica ao alocar o endereço. Durante esse período, o servidor não
alocará o mesmo endereço a outro cliente, entretanto, quando a alocação terminar, o cliente
deverá renová-la ou cancelar o uso do endereço.

O período ideal de alocação depende da rede e das necessidades de um hospedeiro em


particular. O DHCP não especifica uma quantidade de tempo para o período de alocação. O
protocolo permite que um cliente solicite um tempo de alocação específico e que um servidor
informe ao cliente quanto tempo de alocação lhe será concedido. Fica a cargo do administrador
determinar este tempo.

A figura mostra os seis estados em que um cliente DHCP pode estar:


Imagem: Fábio Contarini Carneiro

1 - INICIALIZA
Quando um cliente faz a primeira inicialização, ele entra no estado INICIALIZA. Para dar início
à aquisição de um endereço IP o cliente primeiro entra em contato com todos os servidores
DHCP da rede local difundindo uma mensagem DHCPDISCOVER, utilizando para isto a porta
67 do protocolo UDP, que é o protocolo de transporte da internet sem conexões.

2 - SELECIONA
Após, ele passa para o estado SELECIONA. Os servidores da rede local recebem a mensagem
e enviam, cada um, uma mensagem DHCPOFFER. As mensagens DHCPOFFER contêm
informações de configuração e o endereço IP oferecido pelo servidor.

O cliente, assim, seleciona um dos servidores e lhe envia uma mensagem DHCPREQUEST,
solicitando uma alocação.

3 - SOLICITA
Em seguida, vai para o estado SOLICITA. O servidor responde com a mensagem DHCPACK,
dando início à alocação. O cliente segue então para o estado LIMITE, que é o estado normal
de operação.

4 - LIMITE
Uma vez no estado LIMITE, o cliente configura três temporizadores que controlam a
renovação, a revinculação e o fim da alocação. Um servidor DHCP pode especificar os valores
explícitos para os temporizadores, caso contrário o cliente utiliza o padrão. O valor padrão para
o primeiro temporizador é a metade do valor do tempo total da alocação.

5 - RENOVA
Quando o temporizador ultrapassar o tempo determinado pela primeira vez, o cliente deverá
tentar renovar a alocação. Para solicitar uma renovação, o cliente transmite uma mensagem
DHCPREQUEST ao servidor que lhe fez a alocação. Em seguida, muda para o estado
RENOVA para aguardar uma resposta.

O servidor pode responder de dois modos: instruindo o cliente a não utilizar mais o endereço
ou autorizando-o a prolongar o uso.

6 - LIMITE
Caso aprove a renovação, o servidor transmite um DHCPACK, o que faz o cliente retornar ao
estado LIMITE e continuar com o uso do endereço.

7 - INICIALIZA
Se um servidor não aprovar a renovação do endereço, ele envia um DHCPNACK, que faz com
que o cliente interrompa imediatamente o uso do endereço e retorne ao estado INICIALIZA.

8 - VINCULA NOVAMENTE
Caso o cliente esteja no estado RENOVA e não chegue nenhuma resposta, provavelmente o
servidor que concedeu a alocação estartá fora de alcance. Para contornar essa situação, o
DHCP conta com um segundo temporizador, que expira após 87,5% do período da alocação e
faz com que o cliente mude o estado VINCULA NOVAMENTE.

9 - LIMITE
Ao fazer essa transição, o cliente passa a difundir a mensagem DHCPREQUEST para
qualquer servidor da rede local. Caso receba uma resposta positiva, o cliente retorna ao estado
LIMITE e reconfigura os temporizadores.

10 - INICIALIZA
Se a resposta for negativa, o cliente deve mudar para o estado INICIALIZA e interromper
imediatamente o uso do endereço IP.

Quando um cliente não precisa mais da alocação, o DHCP permite que ele a encerre sem
precisar esperar que o prazo da validade termine. Para isto, o cliente envia uma mensagem
DHCPRELEASE ao servidor. Depois de enviar a mensagem, o cliente deixa o estado LIMITE e
volta ao estado INICIALIZA.
ICMP (INTERNET CONTROL MESSAGE
PROTOCOL)

Imagem: Shutterstock.com

Uma mensagem ICMP é carregada dentro de um datagrama IP, ou seja, as mensagens ICMP
são transportadas pelo protocolo IP. Existem diversas mensagens ICMP. As mais importantes
são:

DESTINATION UNREACHABLE (DESTINO


INALCANÇÁVEL)
Datagrama não pode ser entregue. Usada quando a sub-rede ou um roteador não pode
localizar o destino, ou um datagrama com o bit DF não pode ser entregue porque há uma rede
de pacotes pequenos no caminho.

TIME EXCEEDED (TEMPO EXCEDIDO)


Campo tempo de vida do IP chegou a zero. Enviada quando um pacote é descartado porque
seu contador chegou a zero. Esse evento é um sintoma de que os datagramas estão entrando
em loop, de que há congestionamento ou de que estão sendo definidos valores muito baixos
para o temporizador.

PARAMETER PROBLEM (PROBLEMA DE PARÂMETRO)


Campo de cabeçalho inválido. Essa mensagem indica existência de um problema no software
IP do hospedeiro transmissor ou no software de um roteador pelo qual o pacote transitou.
SOURCE QUENCH (REDUÇÃO DE ORIGEM)
Conhecida como pacote regulador. Usada para ajustar os hospedeiros que estejam enviando
pacotes demais a fim de controlar o congestionamento na rede.

REDIRECT (REDIRECIONAR)
Usada quando um roteador percebe que o pacote pode ter sido incorretamente roteado. É
usada pelo roteador para informar ao hospedeiro transmissor a respeito do provável erro.

ECHO REQUEST (SOLICITAÇÃO DE ECO)


Perguntar a um hospedeiro se ele está ativo. Ao receber a mensagem echo request, o destino
deve enviar de volta uma mensagem echo reply.

ECHO REPLY (RESPOSTA DE ECO)


Confirmação de que o hospedeiro está ativo.

TIMESTAMP REQUEST (SOLICITAÇÃO DE CARIMBO


DE DATA E HORA)
Mesmo que echo request, mas solicita que a hora da chegada da mensagem e da partida da
resposta sejam registradas na mensagem de resposta.

TIMESTAMP REPLY (RESPOSTA DE CARIMBO DE


DATA E HORA)
Resposta à mensagem timestamp request.

VERIFICANDO O APRENDIZADO

1. O DHCP É UM PROTOCOLO QUE FOI DESENVOLVIDO PARA:

A) Fazer o mapeamento entre o endereço de rede e o endereço de enlace.

B) Traduzir o endereço interno de um hospedeiro em um endereço externo válido.

C) Facilitar a configuração de rede dos hospedeiros de uma sub-rede.

D) Permitir a configuração manual dos parâmetros de rede.


2. QUANDO UM DATAGRAMA NÃO PODE SER ENTREGUE PORQUE O
ROTEADOR NÃO CONSEGUE LOCALIZAR O DESTINO, O PROTOCOLO
RESPONSÁVEL POR INFORMAR ESTE PROBLEMA É O:

A) ICMP.

B) DHCP.

C) NAT.

D) ARP.

GABARITO

1. O DHCP é um protocolo que foi desenvolvido para:

A alternativa "C " está correta.

A tarefa de configurar os parâmetros de rede em todos os hospedeiros de uma rede pode ser
uma tarefa demorada, principalmente para grandes redes. Desta forma, o DHCP foi
desenvolvido para facilitar o trabalho do administrador, o qual configura os parâmetros em um
servidor, sendo estes parâmetros recebidos pelos hospedeiros de forma automática durante
sua inicialização.

2. Quando um datagrama não pode ser entregue porque o roteador não consegue
localizar o destino, o protocolo responsável por informar este problema é o:

A alternativa "A " está correta.

O ICMP foi desenvolvido como o protocolo responsável pelo envio das mensagens de controle
e de erro de uma rede. Assim, quando o roteador não consegue localizar o destino, o software
ICMP do equipamento envia de volta à origem do datagrama uma mensagem ICMP contendo
esta informação.

MÓDULO 4
 Selecionar os algoritmos de roteamento

ROTEAMENTO
A principal função da camada de rede é rotear pacotes do hospedeiro origem para o
hospedeiro destino da melhor forma possível. Na maioria dos casos, os pacotes necessitarão
passar por vários roteadores para chegar ao destino.

O algoritmo de roteamento é a parte do software da camada de rede responsável pela decisão


sobre a linha de saída a ser usada na transmissão do pacote que entra. Caso a sub-rede utilize
datagramas, esta decisão deverá ser tomada para todos os pacotes de dados recebidos e se
utilizar circuitos virtuais internamente, as decisões de roteamento serão tomadas somente
quando o circuito virtual estiver sendo estabelecido.

Imagem: Fábio Contarini Carneiro

PRINCÍPIO DA OTIMIZAÇÃO
O princípio da otimização de Bellman (1957) estabelece que se o roteador B estiver no
caminho ótimo entre o roteador A e o roteador C, o caminho ótimo de B a C também estará na
mesma rota.

Esse princípio nos diz que o conjunto de rotas ótimas de todas as origens para um determinado
destino é uma árvore conhecida como árvore de escoamento (sink tree, em inglês), cuja raiz
é o hospedeiro destino. Os algoritmos de roteamento precisam descobrir a árvore de
escoamento a partir da topologia da rede.

Imagem: Fábio Contarini Carneiro

ROTEAMENTO PELO CAMINHO MAIS


CURTO
O protocolo de roteamento pelo caminho mais curto é um protocolo estático cuja ideia é criar
um grafo da sub-rede, com cada nó do grafo representando um roteador e cada arco indicando
um enlace. Para escolher uma rota entre um determinado par de roteadores, o algoritmo
simplesmente encontra o caminho mais curto entre eles no grafo.

Imagem: Fábio Contarini Carneiro


Uma forma de medir o comprimento do caminho é em número de saltos (quantidade de
enlaces que devem ser utilizados). Utilizando essa unidade métrica na figura anterior, os
caminhos ABC e ABE são igualmente longos. Outra unidade métrica é a distância geográfica,
caso em que ABC é mais longo que ABE.

Há também a unidade métrica baseada no tráfego entre os enlaces. Nesse grafo, o caminho
mais curto é o caminho mais rápido, e não o caminho com menos arcos ou com menor
distância.

Os valores dos arcos podem ser calculados como uma função da distância, da largura de
banda, do tráfego médio, do custo de comunicação, do comprimento médio de fila, do retardo
detectado ou de outros fatores. Alterando a função de atribuição de pesos, o algoritmo
calcularia o caminho mais curto medido de acordo com determinados critérios que podem ser
ou não combinados.

Existem diversos algoritmos para o cálculo do caminho mais curto. O mais conhecido deles foi
desenvolvido por Dijkstra em 1959. Nele, cada roteador armazena sua menor distância até a
origem e o caminho a ser seguido. Na inicialização do algoritmo não existe caminho conhecido,
assim, a distância é marcada como infinito. Conforme o algoritmo progride, os caminhos e seus
custos são encontrados.

DIJKSTRA

Edsger Wybe Dijkstra (Roterdã, 11 de maio de 1930 — Nuenen, 6 de agosto de 2002) foi
um holandês, cientista da computação, conhecido por suas contribuições nas áreas de
desenvolvimento de algoritmos e programas, de linguagens de programação (pelo qual
recebeu o Prêmio Turing de 1972 por suas contribuições fundamentais), sistemas
operacionais e processamento distribuído.
Imagem: Fábio Contarini Carneiro

Para encontrar a árvore de escoamento de A, na figura, marca-se o nó A como permanente, o


que é indicado por um círculo preenchido (a). Depois é examinado, um a um, cada nó
adjacente a A alterando o rótulo de cada um deles para a distância até A.

Sempre que um nó é rotulado novamente, ele também é rotulado com o nó a partir do qual o
teste foi feito, assim, pode-se reconstruir o caminho final posteriormente. Após examinar cada
nó adjacente a A, verifica-se todos os nós provisoriamente rotulados no grafo tornando
permanente o de menor rótulo, que passa a ser o novo nó ativo.

Imagem: Fábio Contarini Carneiro

No segundo passo (b) verifica-se que o nó B é o que possui o menor valor entre os nós
rotulados não permanentes. Logo, ele é marcado como permanente e os nós adjacentes são
rotulados. Como B tem custo 2 e o enlace entre B e D possui custo 6, o custo de D passando
por B será 6 + 2 = 8. Da mesma forma, o custo de E passando por B será rotulado como 4. E
assim o algoritmo prossegue, até que todos os nós sejam marcados como permanentes.
Imagem: Fábio Contarini Carneiro

Uma situação interessante acontece no quarto passo (d). Quando o nó C é marcado como
permanente, verifica-se que D anteriormente foi rotulado com valor 8 passando por B, porém
como vizinho de C seu custo será 7. Então, o nó D é rotulado novamente com o valor 7.

Imagem: Fábio Contarini Carneiro

Ao final, para obter a árvore de escoamento até A, basta seguir o caminho marcado por cada
roteador até seu vizinho de menor custo.

ALGORITMOS DE ROTEAMENTO
Conforme estudamos anteriormente, os algoritmos de roteamento são executados pelos
roteadores de uma sub-rede para que sejam criadas as tabelas de repasse dos roteadores.
Para isso, eles precisam trocar informações sobre o estado da rede e concordarem com a
árvore de escoamento a ser montada para cada destino.

Os algoritmos de roteamento podem ser agrupados em:

NÃO ADAPTATIVOS
Não baseiam suas decisões de roteamento em medidas ou estimativas do tráfego e da
topologia atuais. A escolha da rota a ser utilizada é previamente calculada e transferida para os
roteadores quando a rede é inicializada. Tal procedimento também é conhecido como
roteamento estático.

ADAPTATIVOS
Mudam suas decisões de roteamento para refletir mudanças na topologia e/ou no tráfego. Tal
procedimento também é conhecido como roteamento dinâmico.

Ainda, os algoritmos de roteamento podem ser classificados como algoritmos de roteamento


globais ou descentralizados.

GLOBAL
Calcula o melhor caminho com base no conhecimento completo da rede. Para este fim, o
roteador deve obter informações sobre o estado de todos os roteadores e enlaces que
compõem a sub-rede. Um exemplo deste tipo de roteamento é o roteamento de estado de
enlace.

DESCENTRALIZADO
Neste algoritmo, nenhum roteador possui informação completa sobre o estado da rede. As
rotas são calculadas com base em informações obtidas com roteadores vizinhos. Um exemplo
deste tipo de roteamento é o roteamento de vetor de distância.
Para saber mais sobre a diferença entre roteamento interno e externo, assista ao vídeo abaixo:

ROTEAMENTO DE VETOR DE DISTÂNCIAS

O roteamento de vetor de distância é um algoritmo dinâmico que opera fazendo com que cada
roteador mantenha uma tabela que fornece a melhor distância conhecida a cada destino e
determina qual linha deve ser utilizada para se chegar lá. Essas tabelas são atualizadas
através da troca de informações com os vizinhos.

TRATA-SE DO ALGORITMO DE ROTEAMENTO ORIGINAL DA ARPANET QUE TAMBÉM FOI


UTILIZADO NA INTERNET COM O NOME RIP. ALGUNS ROTEADORES UTILIZAM
PROTOCOLOS DE VETOR DE DISTÂNCIA MAIS APERFEIÇOADOS.
ARPANET

Precursora da Internet: primeira rede a implementar o conjunto de protocolos TCP/IP.

 COMENTÁRIO

Cada roteador mantém uma tabela de roteamento indexada por cada roteador da sub-rede.
Cada entrada contém duas partes: a linha de saída preferencial a ser utilizada para esse
destino e uma estimativa do tempo ou distância até o destino. A unidade métrica utilizada pode
ser o número de hops, o retardo de tempo, o número total de pacotes enfileirados no caminho
ou algo semelhante.

Presume-se que o roteador conheça a distância até cada um de seus vizinhos. Se a unidade
métrica for contagem de saltos, a distância será de apenas um salto. Se a unidade métrica for
o comprimento da fila, o roteador examinará cada uma das filas. Se a unidade métrica for o
retardo, o roteador poderá medi-lo com pacotes “ICMP ECHO”.

E COMO SABER QUAL O CAMINHO QUE POSSUI


MELHOR DISTÂNCIA APENAS OBTENDO
INFORMAÇÕES DOS VIZINHOS?

Seja dv(y) o custo do caminho de menor custo do roteador v para o roteador y, e seja c(x,v) o
custo da ligação entre os roteadores x e v. Seja ainda v um vizinho do roteador x.

Então, o custo do caminho para ir de x a y passando pelo vizinho v será {c(x,v) + dv(y)}.

Logo, pelo princípio da otimização, o menor custo para ir de x a y será:

dx(y) = minv{c(x,v) + dv(y)},

onde minv retornará o menor valor calculado para todos os vizinhos.


Conforme os vizinhos vão trocando informações sobre o estado da rede, o algoritmo converge
para um estado de equilíbrio onde são obtidas as árvores de escoamento para cada destino.

Sempre que houver alguma modificação na rede, o roteador comunicará esta mudança a seus
vizinhos, que atualizarão suas tabelas e repassarão estas alterações a seus próprios vizinhos.
Assim, a alteração se propagará entre todos os roteadores e rapidamente a rede convergirá
para um novo estado de equilíbrio.

Na Internet o roteamento de vetor de distância é implementado pelo RIP (Routing Information


Protocol). A versão 1 do RIP é definida pela RFC 1058, enquanto sua versão 2 é definida pela
RFC 2453.

ROTEAMENTO DE ESTADO DE ENLACE

O roteamento de vetor de distância era utilizado na ARPANET até 1979, quando então foi
substituído pelo roteamento de estado de enlace. Essa substituição foi basicamente motivada
por dois problemas:

A unidade métrica de retardo era o comprimento de fila, não levando em conta a largura
de banda.

O algoritmo geralmente levava muito tempo para convergir.

A ideia do roteamento de estado de enlace é simples. Cada roteador deve:

DESCOBRIR SEUS VIZINHOS E APRENDER SEUS


ENDEREÇOS DE REDE
Determinação dos Vizinhos: Quando um roteador é inicializado, ele envia um pacote HELLO
em cada linha. O roteador da outra extremidade envia de volta uma resposta identificando-se.

MEDIR O RETARDO OU O CUSTO PARA CADA UM DE


SEUS VIZINHOS
Medição do Custo da Linha: A forma mais simples de determinar o retardo é enviar um
pacote ECHO pela linha. Medindo o tempo de ida e volta o roteador pode obter uma estimativa
razoável do retardo. Para obter resultados melhores pode-se fazer o teste mais de uma vez e
usar a média.
CRIAR UM PACOTE QUE DIGA TUDO O QUE ACABA
DE SER APRENDIDO
Criação de Pacotes por Estado de Enlace: O pacote começa com a identidade do
transmissor, seguida do número de sequência, da idade, e de uma lista de vizinhos. É
fornecido o custo referente a cada vizinho. Um exemplo de sub-rede é ilustrado na figura
abaixo, sendo os custos mostrados por linhas. Os pacotes de estado de enlace
correspondentes a todos os seis roteadores são mostrados na figura abaixo.

ENVIAR ESSE PACOTE A TODOS OS OUTROS


ROTEADORES
Distribuição dos Pacotes de Estado de Enlace: Se estamos querendo criar as rotas para
que os datagramas possam ser enviados pela rede, como distribuir as informações? A ideia é
usar a inundação de pacotes, onde os pacotes que são recebidos por uma interface são
replicados para as outras interfaces, fazendo, assim, com que a informação se espalhe por
toda a rede.

Para controlar a inundação cada pacote contém um número de sequência que é incrementado
para cada pacote enviado. Quando é recebido, o novo pacote de estado de enlace é conferido
na lista de pacotes já verificados. Se for novo, o pacote será encaminhado a todas as linhas,
menos para aquela em que chegou. Se for uma cópia, o pacote será descartado. Se for
recebido um pacote com número de sequência inferior ao mais alto detectado até o momento,
ele será rejeitado.

Mas se um roteador apresentar falha, ele perderá o controle de seu número de sequência. A
solução é incluir a idade de cada pacote após o número de sequência e decrementá-la uma
vez por segundo. Quando a idade atingir zero, as informações desse roteador serão
descartadas. O campo de idade é também decrementado por cada roteador durante o
processo inicial de inundação para garantir que nenhum pacote viverá por um período
indefinido.

CALCULAR O MELHOR CAMINHO PARA CADA UM


DOS OUTROS ROTEADORES
Cálculo das Novas Rotas: Uma vez que um roteador tenha acumulado um conjunto completo
de pacotes de estado de enlace poderá criar o grafo completo da sub-rede. Neste momento o
algoritmo de Dijkstra pode ser executado localmente para calcular o melhor caminho.

Na Internet o roteamento de estado de enlace é implementado pelo protocolo OSPF (Open


Shortest Path First), definido pela RFC 2328.
Imagem: Fábio Contarini Carneiro

Assim, a topologia completa e todos os retardos são medidos e distribuídos para cada roteador.
Em seguida, o algoritmo de Dijkstra pode ser usado para encontrar o caminho mais curto.

ROTEAMENTO HIERÁRQUICO

Conforme as redes aumentam, as tabelas de roteamento crescem proporcionalmente até que


chega um momento em que não é mais possível que os roteadores conheçam todos os
caminhos da rede. Assim, é necessário pensar em uma nova forma de realizar o roteamento.
Foi pensando nesta situação que foi criado o roteamento hierárquico.

Quando o roteamento hierárquico é utilizado, os roteadores são divididos em regiões, com


cada roteador conhecendo todos os detalhes sobre como rotear pacotes para destinos dentro
de sua própria região, mas sem conhecer a estrutura interna de outras. No caso de redes muito
grandes, uma hierarquia de dois níveis pode ser insuficiente, sendo necessário agrupar as
regiões em clusters, os clusters em zonas, as zonas em grupos etc.

A figura abaixo mostra um exemplo quantitativo do roteamento em uma hierarquia de dois


níveis com quatro regiões. A tabela de roteamento completa do roteador A1 tem 16 entradas,
mas quando o roteamento é feito hierarquicamente são necessárias apenas 7 entradas.
Porém, este tipo de roteamento pode implicar um provável aumento do caminho para alguns
hospedeiros.
Imagem: Fábio Contarini Carneiro

Tabela Completa

Destino Linha Saltos

A1 -- --

A2 A2 1

A3 A2 2

A4 A4 1

B1 B4 2

B2 B4 3

B3 B4 2
B4 B4 1

C1 C1 1

C2 C1 2

C3 C1 2

D1 C1 3

D2 B4 3

D3 B4 4

D4 C1 3

D5 C1 2

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Tabela hierárquica

Destino Linha Saltos

A1 -- --

A2 A2 1

A3 A2 2
A4 A4 1

B B4 1

C C1 1

D C1 2

Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Na Internet, o roteamento hierárquico é implementado por intermédio do protocolo BGB (Border


Gateway Protocol), definido pela RFC 4271.

VERIFICANDO O APRENDIZADO

1. UM ALGORITMO DE ROTEAMENTO ADAPTATIVO POSSUI COMO


CARACTERÍSTICA:

A) Adaptar suas interfaces de acordo com a vazão dos enlaces.

B) Calcular as rotas a serem utilizadas com base no conhecimento completo da rede.

C) Basear suas decisões de roteamento de acordo com o tráfego e a topologia recentes.

D) Distribuir as informações de roteamento por intermédio de inundação de pacotes.

2. QUANDO A REDE CRESCE A PONTO DE SER NECESSÁRIO ALTERAR


O ESQUEMA DE ROTEAMENTO PARA DIMINUIR O TAMANHO DAS
TABELAS, DEVE-SE UTILIZAR O ROTEAMENTO:

A) de vetor de distância.

B) hierárquico.
C) não adaptativo.

D) de estado de enlace

GABARITO

1. Um algoritmo de roteamento adaptativo possui como característica:

A alternativa "C " está correta.

Um algoritmo de roteamento adaptativo, conforme seu nome indica, adapta as rotas ao estado
atual de enlaces e topologia, promovendo alterações na rota sempre que houver alguma
mudança significativa no estado da rede.

2. Quando a rede cresce a ponto de ser necessário alterar o esquema de roteamento


para diminuir o tamanho das tabelas, deve-se utilizar o roteamento:

A alternativa "B " está correta.

O roteamento hierárquico foi criado para resolver os problemas de armazenamento das tabelas
de roteamento quando as redes crescem muito. Com sua utilização não é necessário que os
roteadores conheçam a topologia de toda a rede para tomar suas decisões de roteamento,
bastando saber como rotear dentro de sua região e como chegar às outras regiões.

CONCLUSÃO

CONSIDERAÇÕES FINAIS
Acabamos de estudar a camada de rede do modelo OSI e sua implementação mais importante,
a camada de rede da arquitetura TCP/IP.

Vimos que o protocolo IP é o responsável por manter a Internet unida, promovendo um


endereçamento universal aceito por todos os equipamentos que possuem acesso à Internet.
Vimos ainda que é na camada de rede que é executado o algoritmo de roteamento,
responsável pela montagem das tabelas de repasse dos roteadores, permitindo que estes
equipamentos possam encaminhar os datagramas até seu destino, não importando o quanto
distante esteja.

Podemos então concluir que esta camada é uma das mais importantes, responsável por toda a
conectividade da Grande Rede, a Internet.

REFERÊNCIAS
BELLMAN, R.E. Dynamic Programming. Princeton, NJ: Princeton University Press, 1957.

COMER, D. E. Redes de computadores e Internet. 6. ed. Porto Alegre: Bookman, 2016.

COULOURIS, G. et al. Sistemas distribuídos – conceitos e projeto. 5. ed. Porto Alegre:


Bookman, 2013.

FOROUZAN, B. A. Comunicação de dados e redes de computadores. 4. ed. Porto Alegre:


AMGH, 2010.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a Internet: uma abordagem top-


down. 6. ed. São Paulo: Pearson, 2013.

SILBERSCHATZ, A.; GALVIN, P. B. Sistemas operacionais – conceitos. 5. ed. São Paulo:


Prentice Hall, 2000.

SOARES, L. F. G. et al. Redes de computadores – das LANs, MANs e WANS às redes ATM.
2. ed. Rio de Janeiro: Campus, 1995.

STANEK, W. R., Windows Server 2008: guia completo. Porto Alegre: Bookman, 2009.
TANENBAUM, A. S.; WETHERALL, D. Redes de computadores. 5. ed. São Paulo: Pearson,
2011.

EXPLORE+
Para saber mais sobre os assuntos explorados neste tema, leia:

IP versão 6, a nova implementação do protocolo IP, KUROSE, J. F.; ROSS, K. W. Redes


de computadores e a internet: uma abordagem top-down. 6. ed. São Paulo: Pearson,
2013. cap. 4.4.4.

Implementação do OSPF, o algoritmo de roteamento interno oficial da internet, KUROSE, J. F.;


ROSS, K. W. Redes de computadores e a internet: uma abordagem top-down. 6. ed. São
Paulo: Pearson, 2013. cap. 4.6.2.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a Internet: uma abordagem


top-down. 6. ed. São Paulo: Editora Pearson, 2013. Capítulo 4.6.2.

CONTEUDISTA
Fábio Contarini Carneiro

 CURRÍCULO LATTES
DESCRIÇÃO
Importância do estudo das camadas física e de enlace relacionadas à infraestrutura física das
redes, no contexto da arquitetura de redes de computadores. Principais problemas e soluções
desenvolvidas.

PROPÓSITO
As camadas física e de enlace constituem partes fundamentais da infraestrutura física das
redes. Estudar este tema permite compreender como os sistemas se conectam fisicamente e
como a informação é propagada pelos enlaces da rede. Tais conhecimentos têm aplicação
direta no projeto e na expansão e modernização das redes, como também na solução dos mais
diversos problemas que afetam essas estruturas.

OBJETIVOS

MÓDULO 1

Descrever a camada física da arquitetura de redes de computadores

MÓDULO 2

Descrever a camada de enlace da arquitetura de redes de computadores


MÓDULO 3

Descrever a subcamada de acesso ao meio

MÓDULO 1

 Descrever a camada física da arquitetura de redes de computadores

INTRODUÇÃO
Antes de iniciar nosso estudo, vamos conhecer o modelo de referência Open System
Interconnection.

OPEN SYSTEM INTERCONNECTION


O Modelo OSI, lançado em 1984, é referência da Open System Interconnection que tem
como principal objetivo ser um modelo standard, para protocolos de comunicação entre os
mais diversos sistemas.

O OSI foi proposto utilizando-se níveis hierárquicos (ou camadas) em um esforço de padronizar
as soluções de rede para que os equipamentos de diversos fabricantes diferentes pudessem
se comunicar.

Agora que você entendeu que o Modelo de referência OSI divide as funções das redes de
computadores em sete camadas, vamos estudar as duas primeiras camadas.

CAMADA FÍSICA
A camada física é responsável pela geração e transmissão do sinal propriamente dito, que é
levado de um transmissor ao receptor correspondente. Eles estão conectados por um
enlace físico de transmissão.
ENLACE FÍSICO DE TRANSMISSÃO

Exemplos de enlaces físicos: par trançado, cabo coaxial, fibra ótica, rádio frequência etc.

Figura 1 - Geração e transmissão de sinal de um transmissor para um receptor

Para ativar, manter e desativar o link físico entre sistemas finais, a camada física define
especificações:

Elétricas;

Mecânicas;

Funcionais;

De procedimentos.

A partir disso, são determinadas características como:

Níveis de voltagem;

Temporização de alterações de voltagem;

Taxas de dados físicos;

Distâncias máximas de transmissão;

Conectores físicos;
Outros atributos similares.

Essa camada está completamente associada ao hardware dos equipamentos e enlaces.

Na camada física, a unidade de dados é o bit de informação. O bit é codificado em um


sinal elétrico ou óptico, de forma a ser transmitido pelo transmissor do enlace até o
receptor através do meio físico de transmissão.

O sinal sofre diversos efeitos causados pelo meio de transmissão (como interferências, ruídos,
atenuação) e chega ao receptor após ter experimentado todas essas alterações.

Assim, em razão desses efeitos, o receptor precisa decodificar o sinal para receber o bit de
informação. Dependendo da situação, o receptor pode ou não decodificar corretamente o bit
enviado.

A figura 2 ilustra um diagrama em blocos simplificado do procedimento descrito anteriormente,


em que o ruído e outros fatores podem dificultar a recepção do sinal e causar erros na
interpretação dos bits.

Figura 2 - Diagrama em blocos simplificado da transmissão do sinal em um canal de


comunicação.

A seguir, abordaremos esses componentes e os conceitos principais com mais detalhes.


TRANSMISSÃO DE SINAIS
Em redes de comunicação, a informação deve ser codificada em um sinal transmitido pelo
canal do transmissor até o receptor.

Os sinais podem ser analógicos ou digitais.

Você sabe qual é a diferença?

Figura 3 - Sinal analógico e sinal digital (STALLINGS, 2005)

Sinais analógicos
Apresentam a intensidade (amplitude), variando suavemente com o tempo.

Figura 3 - Sinal analógico e sinal digital (STALLINGS, 2005)

Sinais digitais

Mantêm um nível constante de intensidade e, depois, mudam abruptamente para outro nível
constante
de intensidade.

SINAL PERIÓDICO

Sinal periódico é qualquer sinal (analógico ou digital) que se repete em um período de tempo T
(figura 4).
Figura 4 – Sinal periódico (STALLINGS, 2005)

A frequência do sinal é dada pelo valor inverso do


período de repetição:

F=1/T

Atenção! Para visualização completa da equação utilize a rolagem horizontal

O Período (T) é expresso em segundos (s), e a frequência (f), em hertz (Hz).

 QUANTO MAIS RÁPIDA FOR A VARIAÇÃO DO


SINAL (MENOR PERÍODO), MAIOR SERÁ A
FREQUÊNCIA.

É importante guardar essa relação quando formos estudar outros conceitos mais avançados,
como banda passante e taxa de transmissão de dados.

Além da frequência, o sinal apresenta ainda como propriedades:

AMPLITUDE A
Ponto máximo de intensidade

FASE Φ

Posição relativa do sinal dentro de um período de repetição

É possível codificar a informação variando as grandezas do sinal (f, A, Φ); assim, o sinal pode
transportar o dado de um ponto ao outro do enlace.

A figura 5 mostra o sinal variando em amplitude, frequência e fase.

Figura 5 - Variação do sinal em amplitude, frequência e fase (STALLINGS, 2005)

Nas figuras 3, 4 e 5, apresentamos os sinais em função de suas variações ao longo do tempo,


mas os sinais podem também ser representados no domínio da frequência.

 EXEMPLO

A senoide, que vimos na figura 4, apresenta uma única componente no domínio da


frequência, que é o próprio valor de f.
Pela análise de Fourier, é possível demonstrar que qualquer sinal pode ser decomposto em
componentes (senoides) de frequência e intensidades diferentes.

Na figura 6, o sinal de baixo pode ser obtido pela soma do primeiro sinal de frequência f e
amplitude A com o segundo sinal de frequência 3f e amplitude 0,4A.

FOURIER

Jean-Baptiste Joseph Fourier (1768 — 1830) foi um matemático e físico francês, famoso por
começar a investigar a decomposição de funções periódicas em séries trigonométricas
convergentes chamadas “séries de Fourier”.

Figura 6 - Decomposição de sinais em componentes de frequência (STALLINGS, 2005)

BANDA PASSANTE
Agora, podemos entender o conceito de banda passante do canal de comunicações.

Trata-se do conjunto contíguo de frequências de sinal que, ao passarem pelo canal de


comunicação, são praticamente inalteradas.

As componentes de frequência do sinal que estão além da banda passante sofrem forte
atenuação e são eliminadas.

Podemos imaginar o canal de comunicação como um filtro que deixa passar as componentes
dentro da faixa de frequências especificadas pela banda passante e bloqueia as demais
componentes fora da banda passante.

Vamos ver um exemplo?

Digamos que o sinal da parte inferior da figura 6 será transmitido por um canal de largura de
banda 2f Hz, que deixa passar sem atenuação componentes de frequência entre valores 0,5f e
2,5f.

Ao transmitir esse sinal pelo canal, a componente de frequência 3f será completamente


eliminada, e o sinal que aparecerá do outro lado será simplesmente a senoide de frequência f
(vide figura 7).

Figura 7 - Exemplo teórico de um canal ideal filtrando a componente 3f do sinal TX.

Um sinal digital apresenta variações abruptas na sua intensidade, o que pode ser
representado no domínio da frequência por componentes de frequência muito elevados.
Assim, ao passar por um canal de comunicação, o sinal sofre distorções causadas pela banda
passante do canal.

Quanto maior for a banda passante, menor será o efeito de filtragem do canal. Com isso, o
receptor terá mais facilidade para interpretar a informação contida no sinal.

A figura 8 ilustra a codificação de um caractere de informação (101111011) em uma possível


representação por um sinal digital. Os desenhos que se seguem ilustram os efeitos de
diferentes larguras de banda sobre a composição do sinal.

Figura 8 – Efeitos da largura de banda sobre o sinal digital (STALLINGS, 2005).

TAXA DE TRANSMISSÃO

Outro conceito importante é a taxa de transmissão (bit rate) de um canal ou meio físico, que é
dada pela quantidade de bits que esse meio consegue transmitir por segundo.

Essa taxa pode ser expressa em bits por segundo (bps), kilobits por segundo (Kbps),
megabits por segundo (Mbps),
gigabits por segundo (Gbps).

Pelos conceitos estudados, sabemos que:


O sinal recebido pelo receptor é diferente do sinal que foi transmitido, pois sofreu todos os
efeitos introduzidos pelo canal de comunicação.

Esses efeitos degradam o sinal e podem gerar erros de bits, ou seja, erros de interpretação na
decodificação do sinal pelo receptor, em razão das alterações sofridas.

 VOCÊ SABIA

Além das distorções causadas pela banda passante limitada dos meios físicos, o sinal pode
sofrer também uma série de outras degradações, como:

ATENUAÇÃO
A atenuação é a perda de potência do sinal devido à passagem pelo meio de transmissão
(canal), fazendo com que a potência do sinal recebido pelo receptor seja menor do que a
potência do sinal no momento em que foi transmitido. Caso a potência seja muito baixa na
recepção (abaixo de determinado limiar), o sinal estará muito fraco e mais sujeito aos ruídos,
podendo gerar erros no receptor.

O sinal transmitido em espaço livre (meio físico) sem obstáculos, onde o transmissor e o
receptor são separados por uma distância d, sofre uma atenuação proporcional ao inverso do

quadrado da distância 1/d2.

Em outras palavras, a razão entre a potência do sinal recebido (Pr) e a potência do sinal

transmitido (Pt) é proporcional ao inverso do quadrado da distância: Pr/Pt ~ 1/d2 (RAPPAPORT,

2001). Para outros meios físicos e contextos de transmissão, as relações seguem outra
formulação.

RUÍDO
Pode ser entendido de forma ampla como sinais indesejados que são inseridos pelo meio físico
de transmissão, comprometendo a integridade do sinal.

Os ruídos são classificados em diversos tipos e podem ser provenientes de fontes distintas.
O tipo de ruído mais comum é o ruído térmico (ou ruído branco), que afeta todos os
sistemas, pois ocorre em função da agitação dos elétrons no meio físico em virtude da
temperatura.

O ruído térmico não pode ser eliminado completamente, limitando a capacidade máxima de um
sistema de comunicação. A figura 9 ilustra o efeito do ruído do canal sobre o sinal digital e os
erros de interpretação de bits por parte do receptor.

Figura 9 - Efeito do ruído sobre o sinal e a decodificação dos bits (STALLINGS, 2005)

MEIOS FÍSICOS DE TRANSMISSÃO


Os meios físicos de transmissão que compõem o canal de comunicação são classificados em:

GUIADOS

Sinal é confinado

NÃO GUIADOS

Transmissão em espaço aberto

Vamos conhecer melhor cada um?

MEIOS DE TRANSMISSÃO GUIADOS

São geralmente empregados como meios físicos guiados o cabo de par trançado, o cabo
coaxial ou o cabo de fibra óptica:

PAR TRANÇADO

A figura a seguir apresenta um diagrama esquemático do par trançado. Esse meio físico é
composto por dois fios de cobre em espiral. O trançado facilita o manejo e reduz interferências.
Cada par trançado pode representar um canal de comunicação isolado.

Assim como na figura acima, mais de um par é normalmente agrupado em um cabo com capa
protetora, sendo geralmente comercializado dessa forma.

É um dos meios físicos mais comuns para telefonia e redes locais prediais. As categorias mais
encontradas são: categoria 5, com banda passante de 100Mhz, e a categoria 7, com banda
passante de 1Ghz.
Figura 10 - Diagrama do par trançado (STALLINGS, 2005)

COAXIAL
O diagrama esquemático do cabo coaxial está representado na figura 11. O cabo é composto
de quatro elementos, de dentro para fora, no condutor interno (núcleo de cobre, isolador
dielétrico interno, malha de cobre e revestimento plástico). Devido à sua própria confecção, ele
é mais imune às interferências do que o par trançado, porém é menos flexível e usualmente
mais caro. Alcança bandas passantes da ordem de 500Mhz, sendo muito empregado até os
dias de hoje em redes de televisão a cabo.

Figura 11 - Diagrama do cabo coaxial

FIBRA ÓPTICA
A fibra ótica é o outro tipo de meio físico guiado bastante utilizado.

De forma diferente do par trançado e do cabo coaxial, na fibra óptica, os sinais são constituídos
de pulsos de luz; sendo assim, a fibra óptica não sofre interferências eletromagnéticas.

A fibra óptica é constituída de um filamento flexível e transparente fabricado a partir de vidro ou


plástico. Ela é composta de um material com maior índice de refração (núcleo) envolto por um
material com menor índice de refração (casca). Na Figura 12, o núcleo e o revestimento são
caracterizados por diferentes índices de refração da luz n1 > n2.

Figura 12 - Diagrama da fibra óptica.

Pela Lei de Snell, também conhecida como lei da refração da luz, existe uma relação direta
entre os índices e ângulos de incidência da luz, de forma que ela possa ser refletida e seguir se
propagando pelo interior da fibra, vide feixe de luz “a” da Figura 13. Esse é o princípio de
propagação dos sinais luminosos em uma fibra óptica.

Figura 13 - Reflexão total do raio de luz "a" e refração do raio de luz "b”.

LEI DE SNELL

Willebrord Snellius (1580 — 1626) foi um astrônomo e matemático holandês, mais conhecido
pela lei da refração (Lei de Snell-Descartes).

O par trançado e o cabo coaxial transportam o sinal eletromagnético. Na fibra óptica, o sinal é
propagado na forma de luz.

E quais as vantagens e desvantagens?

PAR TRANÇADO

Vantagens

Mais flexível e barato

Desvantagens

Enfrenta em maior escala o problema de interferências eletromagnéticas.

CABO COAXIAL
Vantagens

O sinal fica mais protegido de interferências quando comparado ao par trançado. Não precisa
de nenhum componente eletro-óptico (caso da fibra óptica).

Desvantagens

Menos flexível e mais pesado que o par trançado. Menos capacidade de transmissão de
informação que a fibra óptica.

FIBRA ÓPTICA

Vantagens

Possibilita altas taxas de transmissão de dados (elevada banda passante), apresenta baixa
atenuação com a distância, é imune a interferências eletromagnéticas e possui baixo peso.

Desvantagens

Pouca flexibilidade, custos mais elevados e conectorização mais difícil.

 VOCÊ SABIA

A fibra óptica é o meio fisico principal que garante a interconexão global das redes de dados.

A figura 14 ilustra as conexões por cabos submarinos que empregram as fibras ópticas como
meio de transmissão. Essa tecnlogia de meio funcionamento da Internet.

Embora as fibras oticas sejam amplamente utilizadas em enlaces de longas distâncias,


atualmente observa-se o emprego crescente desse material nas residências dos assinantes de
serviços de Internet.
Figura 14 - Conexões de cabos submarinos empregando fibra óptica como meio de
transmissão.

MEIOS DE TRANSMISSÃO NÃO GUIADOS


(ESPAÇO ABERTO)

A transmissão de sinais em meios não guiados se refere à transmissão em espaço aberto.

Nesse ambiente, uma série de sinais e ondas eletromagnéticas estão presentes e


compartilham o espaço em diferentes frequências.

É possível classificar as transmissões em meio não guiado (sem fio) de acordo com as
frequências das ondas utilizadas. A figura 15 ilustra o espectro eletromagnético e a
correspondente classificação.
Figura 15 - Espectro eletromagnético

De acordo com a figura 15, é possível separar as transmissões em espaço aberto em três
grandes grupos que apresentam características distintas: ondas de rádio (radiofrequência –
RF), micro-ondas e infravermelho. Cada grupo pode ainda ser dividido em subgrupos.

Os sinais de radiofrequência se espalham desde as centenas de Khz até, no máximo, poucas


unidades de Ghz. Estão incluídas nessa faixa as ondas de rádio AM e FM, a TV e a telefonia
celular. As redes Wi-Fi operam na faixa conhecida como ISM, nas frequências de 900Mhz,
2.4Ghz e 5Ghz.

Nessas faixas de frequência, o sinal transmitido é irradiado em diversas direções, o que


permite um bom suporte à mobilidade para as estações receptoras.

Na faixa das micro-ondas, os comprimentos de onda dos sinais são pequenos, e existe a
necessidade de haver um alinhamento entre as antenas dos transmissores e receptores dos
sinais (linha de visada). As frequências mais altas garantem elevadas bandas passantes para
os canais de micro-ondas, porém esses canais são mais suscetíveis às interferências
causadas pelas condições climáticas.

A figura 16 ilustra a comunicação via satélite que opera na faixa de micro-ondas tanto em
enlaces ponto a ponto quanto em enlaces do tipo broadcast.
Figura 16 - Enlaces de micro-ondas via satélite (STALLINGS, 2005)

O terceiro grupo emprega transmissões em frequências ainda mais elevadas na faixa do


infravermelho e dos lasers. Nessa faixa, também é necessário o alinhamento entre transmissor
e receptor. Geralmente, são empregados em enlaces de curto alcance, pois apresentam
dificuldade para transpor obstáculos.

VERIFICANDO O APRENDIZADO

MÓDULO 2

 Descrever a camada de enlace da arquitetura de redes de computadores

INTRODUÇÃO
A camada de enlace está situada imediatamente acima da camada física. Elas atuam juntas de
forma direta.

Conforme estudado no módulo 1, apresentamos diversos fatores que podem afetar a


transmissão do sinal no meio físico. Alguns desses fatores representam características do
meio, não sendo possível eliminá-los (como o ruído).

Os erros na recepção dos sinais são previstos e a camada física por si só não pode recuperá-
los, cabendo à camada de enlace controlá-los.

A camada de enlace é subdividida em duas subcamadas: LLC (Controle de Enlace Lógico) e


MAC (Controle de Acesso ao Meio). Suas funções são:

DELIMITAÇÃO DE QUADROS

CONTROLE DE ERROS

CONTROLE DE FLUXO

CONTROLE DE ACESSO AO MEIO

Figura 17 – Funções das subcamadas LLC e MAC

Estudaremos neste módulo a subcamada LLC responsável pelas três primeiras funções e, no
módulo 3, a subcamada MAC e sua função de controle de acesso ao meio. Vamos lá?

DELIMITAÇÃO DE QUADROS
(ENQUADRAMENTO)
Para o melhor desempenho de suas funções, a camada de enlace utiliza o quadro como
unidade de dados.

O quadro é um conjunto de bytes de informação que pode variar de tamanho conforme o


protocolo a ser utilizado.

Suponhamos que determinado transmissor tenha uma quantidade muito grande de dados para
transmitir ao receptor. Ao final dessa transmissão, percebe-se que, em algum momento, houve
um erro no sinal recebido por conta dos problemas do canal.

Dessa forma, o transmissor precisaria repetir toda a transmissão para garantir a informação
correta ao receptor. No entanto, se dividíssemos essa grande quantidade de dados em
conjuntos menores (quadros) e transmitíssemos quadro após quadro, havendo um erro na
transmissão, seria possível identificar qual quadro foi afetado.

Com isso, só repetiríamos a transmissão desse quadro, tornando o controle de erros muito
mais eficiente.

Entendendo a importância da utilização de quadros no nível de enlace, verificaremos como


criar os quadros, ou seja, como particionar os dados delimitando o início e o fim de cada
quadro.

Existem basicamente quatro técnicas para realizar o enquadramento dos dados e, em alguns
casos, as técnicas são combinadas:

Contagem de caractere;

Enquadramento por caractere;

Enquadramento por bit;

Violação de códigos do nível físico.

Vamos ver cada um deles a seguir:

CONTAGEM DE CARACTERE

Na técnica de contagem de caractere, a ideia é adicionar um campo no início do quadro,


informando o número total de caracteres presentes.

Ao receber o quadro, o receptor (RX) lê o campo de contagem e, a partir de então, consegue


determinar onde está o final do quadro.

O problema dessa técnica simples é que, se houver um erro justamente nesse campo de
contagem, o transmissor (TX) e o receptor (RX) terão interpretações diferentes sobre os
quadros e perderão completamente o sincronismo.

Veja o exemplo a seguir:


Figura 18 - Problema de sincronização entre o TX e o RX quando há um erro no campo de
contagem (TANENBAUM, 2011)

Devido ao problema, ilustrado na figura 18, a técnica de contagem de caractere só é utilizada


em conjunto com outras técnicas.

ENQUADRAMENTO POR CARACTERE

Na técnica de enquadramento por caractere, a ideia é utilizar caracteres especiais para


indicar o início (STX) e o fim do quadro (ETX). O transmissor insere essas marcas. Com
isso, o receptor fica sabendo exatamente onde começa e termina cada quadro.

Figura 19 - Enquadramento por caractere

Além disso, outros campos são incluídos no quadro, como os campos de sincronização (SYN),
cabeçalho (HEADER) e códigos para verificação de erros (CRC). A figura 20 ilustra o quadro
com todos esses campos.
Figura 20 - Técnica de enquadramento por caractere

Uma dificuldade que pode ocorrer com essa técnica é que o campo de dados representa as
informações do usuário, e a camada de enlace não tem controle sobre elas. Assim, pode estar
presente no campo de dados o padrão idêntico ao do caractere ETX. Ao receber o quadro e
percorrê-lo, o receptor interpretaria esse ETX como fim do quadro, o que seria um erro de
interpretação.

Qual é a solução para esse problema?

Software é, em primeiro lugar, a utilização de outro caractere especial (DLE) para indicar que,
imediatamente após esse caractere, aparecerá o caractere delimitador (STX ou ETX). Dessa
forma, um início de quadro seria marcado como DLE STX e um fim de quadro por DLE ETX.
Isso ainda não resolve o problema, pois o DLE também pode estar presente no campo de
DADOS do usuário.

A solução completa é implementada da seguinte forma: ao gerar o quadro, o transmissor


percorre o campo de DADOS do usuário em busca do padrão DLE. Encontrando esse padrão,
ele insere no campo de dados outro DLE (operação conhecida como caracter stuffing), e segue
normalmente com a construção do quadro.

Ao receber o quadro, o receptor analisa os caracteres do quadro e, ao se deparar com um


DLE, ele verifica qual é o próximo caractere. Caso seja outro DLE, ele sabe que este foi
inserido pelo transmissor. Assim, ele exclui esse DLE e continua varrendo o quadro. Caso o
caractere seguinte não seja outro DLE, mas um marcador (por exemplo, ETX), ele sabe que a
marcação está correta. A figura 21 exemplifica esse processo de caracter stuffing.
Figura 21 - Enquadramento por caractere, técnica conhecida como caracter stuffing
(TANENBAUM, 2011)

Uma desvantagem da técnica de enquadramento por caractere é ser orientada completamente


pela existência e pelo reconhecimento de caracteres. Uma alternativa similar a essa é o
enquadramento por bit, onde não há a necessidade de se trabalhar com caracteres, mas, sim,
com bits de dados.

ENQUADRAMENTO POR BIT

Nesta técnica, o delimitador de quadros é o flag – sequência padrão de bits, geralmente


01111110. Cada quadro começa e termina com uma marca flag. Havendo falta de sincronismo
por algum motivo, tudo o que o receptor tem a fazer é procurar por um flag para ficar
sincronizado com o transmissor novamente.

De forma análoga à técnica anterior, aqui também ocorre o stuffing. O transmissor percorre o
campo de DADOS todo e, ao perceber uma sequência de 5 bits “1”, ele insere um bit “0”, para
quebrar o padrão de flag. Ao percorrer o quadro e identificar 5 bits “1” seguidos, o receptor fica
alerta; se o próximo bit for “0”, ele sabe que esse bit foi inserido pelo transmissor, caso
contrário (o próximo bit for “1”) ele sabe que se trata de um delimitador de quadro, flag.
Figura 22 - Ilustração da técnica bit stuffing

VIOLAÇÃO DE CÓDIGOS DO NÍVEL FÍSICO

A última técnica de enquadramento estudada é conhecida como violação de códigos do nível


físico. A ideia é bastante simples: na transmissão do sinal no meio físico, o bit “1” é
representado por alguma característica ou variação do sinal, e o bit “0”, por outra.

Se o sinal puder apresentar ainda outras variações que não sejam utilizadas para codificar os
bits, essas variações podem ser utilizadas para marcar o início e o fim do quadro, tendo em
vista que não serão confundidas com os bits propriamente ditos.

Um exemplo é a codificação Manchester padronizada pelo IEEE para redes locais. Nesta
codificação, o bit “1” é representado por uma transição do sinal de alto para baixo, e o bit “0”,
pela transição contrária do sinal de baixo para alto. Assim, as outras duas transições (ou
ausência de transições), de baixo para baixo e de alto para alto, estão livres para serem
usadas como marcadores de quadro.
Figura 23 - Codificação Manchester. Transições alto-alto e baixo-baixo não são usadas.

Agora que você estudou as técnicas de delimitação de quadros, vamos ver o controle de erros
no nível de enlace.

CONTROLE DE ERROS (CODIFICAÇÃO)


Existem duas estratégicas básicas para o controle de erro no nível de enlace: open loop (malha
aberta, sem canal de retorno) e feedback (malha fechada, com canal de retorno).

OPEN LOOP

Na estratégia de open loop, a detecção e correção de erros são feitas completamente pelo
receptor. São empregados códigos especiais (FEC: Forward Error Correction) para inserir
informação redundante no quadro. Tudo isso para que, ao receber um quadro, o receptor:

Possa usar a codificação para verificar a integridade do quadro;

Havendo algum problema, possa, por si só, alterar o quadro para a forma correta.

A desvantagem dessa técnica é a necessidade de se inserir grande quantidade de informação


redundante no quadro, de forma que o receptor possa executar as duas tarefas listadas acima
sozinho. No entanto, pode ser a única solução, caso a transmissão não tenha canal de retorno.

 EXEMPLO
Um exemplo mais simples de código de correção de erros é o código hamming.

FEEDBACK

A estratégia feedback emprega apenas códigos de detecção de erros, isto é, insere


informação redundante que seja suficiente apenas para o receptor testar a integridade do
quadro. Havendo um problema, o receptor solicita ao transmissor que retransmita aquele
quadro. Assim, é necessário haver um canal de retorno do receptor ao transmissor, situação
comum em redes de dados, pois as estações geralmente precisam transmitir e receber dados.

 EXEMPLO

Um exemplo simples de código de detecção de erros é o bit de paridade, que é inserido ao final
do quadro. Assumindo a escolha da paridade par, o transmissor, ao transmitir o quadro, verifica
a quantidade de bits “1” presentes nele. Se houver um número par de números 1, a paridade
estará correta, e o bit de paridade receberá o valor “0”. Caso haja um número ímpar de bits “1”
a ser transmitido no quadro, o transmissor fechará a paridade par inserindo o bit “1” no campo
do bit de paridade. Ao receber o quadro, o receptor deve checar a paridade; se não for par,
certamente houve algum problema com a recepção do quadro, e ele deve solicitar uma nova
transmissão deste mesmo quadro.

O bit de paridade, apesar de ser simples e de fácil implementação, não é eficaz em muitos
casos, como, por exemplo, na situação em que houve um problema no sinal, fazendo com que
o receptor interprete erradamente dois bits do quadro. Assim, quando o receptor fizer o teste, a
paridade estará correta, e o receptor não perceberá o erro na recepção do quadro. Dessa
forma, outros códigos de detecção mais poderosos foram desenvolvidos e padronizados para
uso em redes de computadores, como, por exemplo, o CRC (Verificação Cíclica de
Redundância), conforme ilustrado no quadro da figura 20 (STALLINGS, 2004).

FIGURA 20

Figura 20 - Técnica de enquadramento por caractere

Depois de termos estudado as técnicas de enquadramento e codificação, entendemos como os


quadros podem ser formados e como o receptor é capaz de verificar se houve ou não erro na
recepção do quadro. Falta agora estudarmos como as retransmissões são realizadas
automaticamente por meio de protocolos de enlace.
VÍDEO
Assista ao vídeo a seguir e veja a construção de um desses protocolos gradativamente,
acrescentando apenas a cada passo a função estritamente necessária para o seu
funcionamento.

CONTROLE DE FLUXO
Outra operação que pode ser implementada aproveitando-se dos protocolos ARQ é o controle
de fluxo.

O objetivo desse controle é evitar que um transmissor mais rápido acabe sobrecarregando um
receptor mais lento com o envio de quadros a uma velocidade mais rápida que o receptor é
capaz de suportar, causando um “afogamento” no receptor.

Esse descompasso não é desejável, pois o receptor vai acabar descartando os quadros novos
e o transmissor teria que retransmiti-los em um outro momento.

Uma forma do receptor dosar a velocidade de transmissão de quadros quando estiver


empregando os protocolos da família ARQ é simplesmente retardando o envio dos ACKs.

Desta forma, o receptor consegue reduzir a velocidade com que novos quadros são inseridos
no canal por parte do transmissor. O receptor pode inclusive reter todos os ACKs em um
determinado momento o que causaria timeouts no transmissor e a pausa na transmissão de
novos quadros.

Assim que o receptor estivesse pronto, bastaria enviar os ACKs para que a comunicação fosse
reestabelecida e seguisse com os novos quadros.
VERIFICANDO O APRENDIZADO

MÓDULO 3

 Descrever a subcamada de acesso a meio

INTRODUÇÃO
Como vimos, a camada de enlace é subdividida em duas subcamadas: LLC (Controle de
Enlace Lógico), conforme abordado no módulo 2, e MAC (Controle de Acesso ao Meio), para
lidar com o problema de acesso em enlaces multiponto, tema deste módulo.

Vamos ver a seguir?

A figura 24 ilustra uma rede de computadores composta de quatro redes locais (LANs)
conectadas por uma sub-rede. Na sub-rede os roteadores são conectados por enlaces ponto a
ponto, enquanto nas LANs as estações estão ligadas a enlaces multiponto.

Os enlaces ponto a ponto são dedicados e o fluxo de informação segue sempre de um único
transmissor a um único receptor. Já os enlaces multiponto são de uso compartilhado entre
transmissores e receptores diferentes.

Figura 24 - Rede de computadores com quatro redes locais (LANs) conectadas por uma sub-
rede e empregam enlaces multiponto (broadcast)
(TANENBAUM, 2011)

Nas ligações multiponto, o enlace é compartilhado por diversas estações, porém, para que uma
transmissão seja recebida com sucesso pela estação receptora, é necessário que cada
estação transmissora envie seus dados em momentos diferentes.

Havendo mais de uma transmissão ao mesmo tempo no enlace multiponto, a estação


receptora não terá condições de decodificar o sinal – fenômeno conhecido como colisão.

Desta forma, em enlaces multiponto, é necessário haver uma regra de acesso a fim de
organizar as transmissões, evitando (ou minimizando), com isso, as colisões.

O uso do recurso compartilhado, no caso o enlace multiponto, requer o emprego de


protocolos de controle de acesso ao meio, o que constitui a principal função da
subcamada MAC.

Em suma, o controle de acesso ao meio se faz necessário sempre que houver contenção
(disputa) de múltiplas estações pelo acesso ao meio de transmissão.

Vamos ver outro exemplo?

Redes móveis celulares nas quais o uplink (canal de subida dos terminais celulares para a
estação-base) é compartilhado pelos usuários móveis.

COMO SOLUCIONAR OS PROBLEMAS


As soluções para o problema de compartilhamento de enlaces entre múltiplas estações podem
ser divididas em três grandes grupos:

Alocação estática;

Contenção;

Acesso ordenado.

VÍDEO
O Professor Ronaldo Salles explica essas três estratégias no vídeo.

Vamos ver os protocolos que aplicam essas soluções a seguir.


PROTOCOLOS BASEADOS EM ALOCAÇÃO
ESTÁTICA

A figura 25 apresenta uma ilustração de duas técnicas de alocação estática bastante comuns:

Figura 25 – Técnicas de alocação estática do canal (FDMA e TDMA).

FDMA
(Acesso Múltiplo por Divisão em Frequência)

A largura de banda W do enlace compartilhado é dividida em N, formando, assim, N canais


individuais. Cada estação transmissora, ao ingressar no sistema, recebe a alocação estática de
um desses subcanais e pode utilizá-la de forma exclusiva com o seu par até o momento de
desconexão.

TDMA
(Acesso Múltiplo por Divisão no Tempo)

A divisão ocorre em função do tempo, onde o tempo de uso do canal é dividido em N fatias (ou
slots). Cada estação recebe um slot designado a ela para as suas transmissões com a estação
receptora.

Apesar de resolver o problema de compartilhamento do enlace, as técnicas de alocação


estática, como as ilustradas anteriormente, apresentam algumas desvantagens:

1
Existe um número máximo de estações que podem ser atendidas pelo sistema. No exemplo,
esse número é representado por N. Com a chegada de mais uma estação ao sistema (N+1),
ela será bloqueada por falta de recursos.

2
Nessas técnicas, é comum haver desperdício de recursos. Imagine que determinada estação é
alocada para utilizar determinado canal. Se essa estação, em algum momento, não tiver nada
a transmitir, o canal ficará ocioso e não poderá ser utilizado por outra estação. Como o tráfego
de dados ocorre em rajadas (períodos de muita atividade seguidos por períodos de silêncio),
essas técnicas podem causar desperdícios significativos de recursos.

Tradicionalmente, elas são mais empregadas para o tráfego telefônico (voz), daí o seu uso ter
sido mais difundido em redes de telefonia fixa e em redes de telefonia celular.

PROTOCOLOS QUE EMPREGAM CONTENÇÃO

Um dos primeiros protocolos a empregar a contenção como técnica de compartilhamento do


enlace foi o protocolo ALOHA, no início da década de 1970, na Universidade do Havaí
(ABRAMSON, 2009).

A figura 26 ilustra o cenário de aplicação do protocolo ALOHA na época. Existia uma unidade
central de processamento (um computador mainframe) que deveria ser acessada por terminais
remotos espalhados pela universidade.

Observe que, nesse caso, ambos compartilhavam os recursos da CPU e do canal sem fio para
as transmissões e acesso à CPU.
Figura 26 – Cenário de aplicação do protocolo ALOHA.

A solução empregada para o acesso ao meio físico foi bastante direta. Se determinado terminal
tivesse algo a transmitir, ele simplesmente faria isso usando a sua interface rádio sem qualquer
tipo de regra ou restrição. Caso houvesse também outro terminal na mesma situação, a colisão
seria certa. Nesse caso, o que precisaria ser feito era o tratamento da colisão.

O terminal a transmitir não sabia se a transmissão seria bem-sucedida ou não (colisão); tudo o
que ele tinha a fazer era aguardar a confirmação (ACK) enviada no sentido contrário pela
estação central (na figura, CPU). Quando a confirmação era recebida, o terminal entendia que
a transmissão foi um sucesso. Caso contrário, o terminal ficava ciente de que houve uma
colisão com a transmissão de outro terminal.

O protocolo ALOHA determinava, então, que, em uma situação de colisão, o terminal


precisaria sortear um número aleatório de espera e só poderia tentar novamente a transmissão
após esse tempo. Como os intervalos de tempo de espera para cada terminal eram sorteados
aleatoriamente, os terminais acabariam transmitindo em momentos diferentes, evitando novas
colisões.

A solução empregada pelo protocolo ALOHA era bastante simples, e isso ocasionava baixo
desempenho para a rede como um todo. O melhor desempenho teórico do protocolo ALOHA
pode ser calculado como 18%, ou seja, na melhor hipótese, apenas 18% dos casos seriam
caracterizados como transmissões bem-sucedidas (TANENBAUM, 2011).
O baixo desempenho do protocolo ALOHA motivou o desenvolvimento de protocolos mais
elaborados:

S-ALOHA
A ideia imediata era reduzir os eventos em que as colisões pudessem ocorrer. Levando isso
em consideração, foi desenvolvido o S-ALOHA (ALOHA com slots de tempo). Assim, o
terminal só poderia transmitir algo sempre no início de cada slot, fazendo com que o número de
eventos de colisão ocorresse apenas nesses momentos. O desempenho do S-ALOHA era
duas vezes maior do que o desempenho do ALOHA, mas, ainda assim, isso era considerado
muito baixo.

CSMA
Na tentativa de reduzir as colisões, foi desenvolvido o protocolo CSMA (Acesso múltiplo com
Detecção de Portadora). Para reduzir os eventos de colisão, os terminais que empregam o
CSMA “escutam” o meio físico antes de transmitir e só realizam a transmissão ao perceberem
que o meio está livre, ou seja, não existe outro terminal transmitindo naquele momento (não foi
possível detectar a presença de algum sinal no meio).

As colisões ainda podem ocorrer no CSMA se o meio estiver livre e mais de um terminal estiver
“escutando” o meio antes de transmitir. Com o meio livre, esses terminais transmitem ao
mesmo tempo, gerando a colisão. A detecção de um evento de colisão acontece tal como no
ALOHA, ao aguardar a confirmação ACK do terminal receptor. Havendo colisão, os terminais
aguardam um intervalo de tempo sorteado aleatoriamente. Depois disso, tentam iniciar
novamente a transmissão.

Na verdade, o CSMA é uma família de protocolos que podem ter variações quanto ao
momento de iniciar uma transmissão no canal. A figura 27 relaciona em um gráfico o
desempenho dos protocolos ALOHA, S-ALOHA e as variações do CSMA em um sistema
teórico com cem terminais (TANENBAUM, 2011).
Figura 27 - Desempenho dos protocolos para um sistema com cem terminais (TANENBAUM,
2011)

No eixo das ordenadas, o parâmetro S indica a proporção de eventos de transmissão com


sucesso (de 0 a 1 ou, analogamente, de 0% a 100%), e, no eixo das abcissas G, a intensidade
de tráfego que os terminais impõem ao canal (quantidade de pacotes de dados enviados pelos
terminais a cada tempo).

Pode-se observar que a curva do ALOHA (na figura, ele é chamado de Pure ALOHA) é a curva
mais baixa e apresenta o seu pico (melhor resultado) em torno dos 18%, conforme já
mencionado. É interessante observar também que, à medida que o G (intensidade de tráfego)
aumenta, o desempenho do ALOHA diminui até entrar em pleno colapso – desempenho
praticamente nulo. O mesmo ocorre para outras curvas, mas tal ponto de colapso é atingido
para valores de intensidade de tráfego cada vez maiores, indicando melhores desempenhos
em situações de mais alta carga. O destaque fica mesmo para o 0.01 persistent CSMA, que
apresenta, no cenário teórico de estudo, um desempenho de quase 100% (TANENBAUM,
2011).

Outro protocolo da família do CSMA que vale a pena destacar é o CSMA/CD (Acesso múltiplo
com detecção de portadora e detecção de colisão), que foi padronizado pelo IEEE por meio da
série IEEE802.3 (ETHERNET), para ser utilizado em redes locais cabeadas.

O CSMA/CD emprega uma função de detecção antecipada de colisão. Em vez de aguardar


pela mensagem de reconhecimento (ACK), o CSMA/CD é capaz de perceber a ocorrência de
uma colisão no momento em que o terminal estiver transmitindo o seu próprio pacote de dados.
Assim, é possível interromper antecipadamente uma transmissão que não teria sucesso. Essa
detecção antecipada reduz os tempos de colisão, que ficariam ocupando desnecessariamente
o canal.

PROTOCOLOS DE ACESSO ORDENADO

Na última categoria de protocolos, encontramos aqueles que garantem o acesso ordenado ao


meio físico, e, portanto, são livres de colisões.

São várias as possibilidades dentro dessa categoria, mas nos concentraremos nos protocolos
que utilizam passagem de permissão.

Permissão nada mais é do que um quadro especial que circula pela rede. Com isso, a estação
que capturar a permissão terá o direito de realizar a transmissão.

Todas as outras estações que não possuem a permissão ficam impedidas de realizar uma
transmissão no enlace compartilhado. Após a sua transmissão, a estação devolve a permissão
para a rede, a fim de que outra estação consiga transmitir.

Dois protocolos de passagem de permissão foram padronizados pelo IEEE:

TOKEN RING (PASSAGEM DE PERMISSÃO EM ANEL)


Observe a figura 28 a seguir:

Figura 28 - (a) Rede de passagem de permissão em anel, (b) diagrama do funcionamento da


interface de cada estação (TANENBAUM, 2011)

a) Topologia de rede de passagem de permissão em anel:


As estações são conectadas em uma estrutura topológica em anel para que a permissão
(token) possa circular pelo anel. Quando a estação deseja transmitir, ela captura a permissão e
realiza a sua transmissão. Após esse momento, ela libera novamente a permissão para circular
pelo anel e permitir que outra estação possa também receber a permissão e realizar a sua
transmissão.

b) Formas de operação das interfaces de cada estação com o anel:

A figura superior mostra o comportamento padrão da interface durante o modo de escuta do


barramento em anel, enquanto a figura inferior ilustra a interface da estação quando no modo
de transmissão. Durante a transmissão, a estação abre a interface com o anel para capturar o
token e também para inserir o seu quadro de informação no barramento.

O padrão IEEE 802.5 token ring especifica ainda uma série de modos de operação para o anel
e as funções de gerência necessárias para o controle do token, contribuindo, assim, para o
bom funcionamento da rede.

TOKEN BUS (PASSAGEM DE PERMISSÃO EM BARRA)


As redes de passagem em permissão em barra, padrão IEEE 802.4, são semelhantes às redes
em anel, porém as estações são conectadas em um barramento. Elas caracterizam um bom
exemplo de topologia física (conexão física das estações) em barra e topologia lógica (dada
pelo funcionamento do protocolo) em anel, conforme ilustra a figura 29.

Figura 29 – Funcionamento do Token Bus (TANEMBAUM, 2011)

A motivação para a padronização de tais redes veio do setor industrial e fabril, que opera com
as suas máquinas em linhas de produção, o que exige como pré-requisito uma rede com
topologia em barra.
Nas redes token bus, as estações possuem um número de identificação (endereço físico) e
cada estação conhece os endereços das estações vizinhas. Assim como no token ring, existe
um quadro especial de controle (token) que regula o acesso ao meio de transmissão. A
estação que possui o token (uma por vez – não há colisões) tem garantia de transmissão por
determinado espaço de tempo. O token “circula” pelas estações no sentido decrescente dos
endereços, formando um anel lógico.

Embora as tecnologias token ring e token bus não sejam mais utilizadas em redes locais, as
soluções são elegantes e foram cuidadosamente especificadas e padronizadas.

O estudo das soluções se justifica, pois as técnicas de passagem de permissão têm emprego
amplo na área de redes, principalmente em problemas de compartilhamento e alocação de
recursos entre múltiplos usuários.

IEEE

É a maior organização profissional do mundo, responsável por diversos padrões nos campos
de engenharia elétrica, eletrônica e telecomunicações e pelo desenvolvimento tecnológico e da
pesquisa nessas áreas.

ETHERNET

Lançado inicialmente em 1983 pelo IEEE, o padrão ETHERNET (IEEE 802.3) foi um padrão
desenvolvido para as redes locais de computadores. Esse padrão utiliza o protocolo CSMA/CD
com técnica de controle de acesso ao meio.

VERIFICANDO O APRENDIZADO

CONCLUSÃO
CONSIDERAÇÕES FINAIS
Este tema cobriu os assuntos referentes à camada física e à camada de enlace da arquitetura
de redes de computadores. Foram explorados diversos conceitos, problemas e soluções
desenvolvidos para o correto funcionamento dos protocolos nas redes de computadores. O
conteúdo apresentado é fundamental para o entendimento da área e para possibilitar ao aluno
uma visão ampla e crítica sobre o funcionamento das redes de computadores.

 PODCAST

AVALIAÇÃO DO TEMA:

REFERÊNCIAS
ABRAMSON, N. The ALOHAnet – Surfing for Wireless Data, IEEE Communications Magazine.
47(12): 21–25. Consultado em meio eletrônico em: 23 jan. 2020.

BERTSEKAS, D.; GALLAGER, R. Data Networks. 2. ed. São Paulo: Prentice Hall, 1992.

KLEINROCK, L. History of the Internet and its flexible future. IEEE Wireless
Communication. Vol. 15. Consultado em meio eletrônico em: 23 jan. 2020.

KUROSE, F.; ROSS, K. Redes de Computadores e a Internet. 5. ed. São Paulo: Pearson,
2010.
MOON, TODD. Error Correction Coding: Mathematical Methods and Algorithms, John Wiley
& Sons, 2005.

RAPPAPORT. T. Wireless Communications: Principles and Practice. 2. ed. São Paulo:


Prentice Hall, 2001.

STALLINGS, W. Data and Computer Communications. 7. ed. São Paulo: Pearson, 2004.

STALLINGS, W. Redes e Sistemas de Comunicação de Dados. 1. ed. São Paulo: Altabooks,


2018.

TANENBAUM, A. Redes de Computadores. 5. ed. São Paulo: Pearson, 2011.

EXPLORE+
Para saber mais sobre o código hamming, consulte o livro Error Correction Coding:
Mathematical Methods and Algorithms, dos autores Moon e Todd.

CONTEUDISTA
Ronaldo Moreira Salles

 CURRÍCULO LATTES
DEFINIÇÃO
Princípios teóricos de segurança e administração de redes de computadores. Ferramentas para o alcance de um nível
adequado de segurança e gerência de redes.

PROPÓSITO
Conhecer os riscos da operação e da utilização de redes de computadores, bem como os protocolos de segurança e
os tipos de ferramentas adequadas para a administração e o gerenciamento de tais processos.

OBJETIVOS

MÓDULO 1
Identificar os riscos de segurança nas redes de computadores

MÓDULO 2

Selecionar softwares e tipos de equipamentos adequados para a diminuição dos riscos de segurança nas redes

MÓDULO 3
Reconhecer a arquitetura de gerenciamento de redes

 Identificar os riscos de segurança nas redes de computadores

INTRODUÇÃO
A internet é uma rede comercial que pode ser utilizada por
qualquer pessoa ou empresa em todos os cantos do
mundo. Com isso, possíveis problemas de segurança
afloram.

Pessoas mal-intencionadas utilizam essa rede para realizar


atividades maliciosas, como roubo de informações e de
identidade, paralisação de serviços etc.

Por isso, o tópico segurança destaca-se atualmente como


uma das grandes preocupações dos administradores de
Fonte: Shutterstock
redes. Garantir a segurança na comunicação de dados
passou a ser uma das questões cruciais na utilização da
internet.

É fundamental que tanto usuários quanto profissionais de


tecnologia da informação (TI) tenham conhecimento dos
riscos no uso da rede e saibam identificar ferramentas
capazes de minimizá-los.

DEFINIÇÕES
Para identificar os riscos relacionados ao uso de uma rede de computadores, é importante conhecer algumas
definições. Por conta disso, iremos nos basear na norma ABNT NBR ISO IEC 27001:2013, reconhecida mundialmente
como uma referência na área de segurança. Essa norma apresenta as seguintes definições:

AMEAÇA
Causa potencial de um incidente indesejado que pode resultar em danos a um sistema ou organização.

ATAQUE
Tudo aquilo que tenta destruir, expor, alterar, desativar, roubar, obter acesso não autorizado ou fazer uso não
autorizado de um ativo.

ATIVO
Qualquer coisa que tenha valor para uma pessoa ou organização. Exemplo: os dados do cartão de crédito, um projeto
de uma empresa, um equipamento e até mesmo os colaboradores de uma empresa podem ser definidos como ativos
humanos.

Como é possível perceber nessas definições, a ameaça está relacionada a algo que pode comprometer a segurança,
enquanto o ataque é a ação efetiva contra determinado ativo.

 IMPORTANTE

Um incidente de segurança ocorre quando uma ameaça se concretiza e causa um dano a um ativo.

Se uma ameaça se concretizou e causou um dano, isso significa que alguma propriedade da segurança foi
comprometida.

TRÊS PROPRIEDADES SÃO TRATADAS COMO OS PILARES DA


SEGURANÇA: CONFIDENCIALIDADE, INTEGRIDADE E
DISPONIBILIDADE (CID).

Além delas, outras propriedades também são importantes no contexto de segurança. A norma ABNT NBR ISO IEC
27001:2013 destaca as seguintes:


CONFIDENCIALIDADE

Propriedade cuja informação não está disponível para pessoas, entidades ou processos não autorizados. Em outras
palavras, a confidencialidade está relacionada ao sigilo dos dados. Somente entes autorizados podem acessá-los.


INTEGRIDADE

Propriedade que protege a exatidão e a completeza de ativos. Trata-se da indicação de que o dado não foi adulterado.
Exemplo: um ativo permanece intacto após ser armazenado ou transportado.


DISPONIBILIDADE
Propriedade de tornar o dado acessível e utilizável sob demanda por fontes autorizadas. Se uma pessoa ou um
processo autorizado quiser acessar um dado ou equipamento, ele estará em funcionamento.


AUTENTICIDADE

Propriedade que assegura a veracidade do emissor e do receptor de informações trocadas. A autenticidade assevera
que quem está usando ou enviando a informação é realmente uma determinada pessoa ou processo. Em outras
palavras, garante a identidade.


NÃO REPÚDIO OU IRRETRATABILIDADE

Propriedade muito importante para fins jurídicos. Trata-se da garantia de que o autor de uma informação não pode
negar falsamente a autoria dela. Desse modo, se uma pessoa praticou determinada ação ou atividade, ela não terá
como negá-la. O não repúdio é alcançado quando a integridade e a autenticidade são garantidas.


CONFIABILIDADE

Propriedade da garantia de que um sistema vai se comportar segundo o esperado e projetado. Exemplo: se
determinado equipamento foi projetado para realizar uma operação matemática, esse cálculo será realizado
corretamente.


LEGALIDADE

Propriedade relacionada com o embasamento legal, ou seja, ela afere se as ações tomadas têm o suporte de alguma
legislação ou norma. No caso do Brasil, podemos citar o Marco Civil da Internet , a Lei Geral de Proteção de Dados
(LGPD) e o conjunto de normas 27.000 da ABNT.

Os mecanismos de proteção se relacionam a práticas,


procedimentos ou mecanismos capazes de proteger os
ativos contra as ameaças, reduzindo ou eliminando
vulnerabilidades. Além disso, eles evitam que uma dessas
propriedades sejam comprometidas.

Fonte: Shutterstock

TIPOS DE ATAQUES
Para haver a identificação dos riscos, será necessário entender e classificar os tipos de ataques que podem ser
realizados contra uma rede de computadores.

Interligadas, as tabelas a seguir apresentam os critérios de classificação desses tipos e as suas descrições:

ATAQUES DESCRIÇÃO TIPOS

Ataques de interrupção

Ataques de modificação

Tentam alterar os recursos do sistema ou afetar a sua


ATIVOS
operação. Ataques de fabricação ou
personificação

Ataques de repetição

Tentam descobrir ou utilizar as informações do sistema sem o


PASSIVOS Ataques de interceptação
objetivo de afetar seus recursos.

Tabela 1: Classificação primária dos tipos de ataques.

CRITÉRIOS TIPOS DESCRIÇÃO ATAQUES


Ataques Realizados dentro da própria rede. O atacante
internos e a vítima estão na mesma rede (doméstica ou
(inside attack) corporativa).

PONTO DE
INICIAÇÃO Ataques
externos Feitos a partir de um ponto externo à rede da
(outside vítima.
attack)

Ataques O atacante, sem a ajuda de terceiros, realiza


diretos uma ação diretamente contra a vítima.
MÉTODO
DE
O atacante emprega terceiros, ou seja, outros
ENTREGA Ataques
usuários da rede, para que o ataque seja
indiretos
realizado.

Ataques de Buscam obter informações que trafegam na Ataques passivos


interceptação rede, atacando a confidencialidade. (predominantemente)

Seu objetivo é indisponibilizar um ou mais


Ataques de serviços de rede por meio do excesso de
interceptação informação ou simplesmente desligando o
equipamento.

Ocorrem quando um atacante tem acesso não


Ataques de autorizado a um sistema ou a uma rede e
modificação modifica o conteúdo das informações ou as
OBJETIVO
configurações de um sistema.

Ataques ativos

Ataques de
Pretendem a quebra, principalmente, da
fabricação ou
autenticidade de um serviço ou de uma rede.
personificação

Uma entidade maliciosa intercepta e repete


uma transmissão de dados válida que trafega
Ataques de
através de uma rede para produzir um efeito
repetição
não autorizado, como a redundância de
pedidos de um item.

Tabela 2: Classificação secundária dos tipos de ataques.


ATAQUES ATIVOS E PASSIVOS

TERCEIROS

O uso de terceiros pode amplificar o poder de ataque ao, por exemplo, aumentar o volume de tráfego contra a
vítima em um ataque contra a disponibilidade.

Neste vídeo, apresentaremos as principais características dos ataques passivos e ativos. Para saber mais sobre
Ataques Ativos e Passivos, clique aqui.

ETAPAS DE UM ATAQUE
Precisamos dividir um ataque em sete etapas para poder
analisá-lo de forma mais criteriosa:
Reconhecimento;

Armamento (weaponization);

Entrega (delivery);

Exploração;

Installation;

Comando e controle;

Conquista.

Fonte: Shutterstock

Os atacantes passam a ter mais privilégios no alvo à medida que avançam nas etapas. Portanto, pelo lado da defesa,
o objetivo é pará-los o mais cedo possível para diminuir o dano causado.

Analisaremos a seguir cada uma dessas etapas.

1. RECONHECIMENTO:
Na primeira etapa, o ator da ameaça realiza uma pesquisa para coletar informações sobre o local a ser atacado. Trata-
se de uma fase preparatória na qual o atacante procura reunir o máximo de informações sobre o alvo antes
de lançar um ataque ou analisar se vale a pena executá-lo.

As informações podem ser obtidas por meio de diversas fontes:

Sites;

Dispositivos de rede voltados para o público;

Artigos de notícias;

Anais de conferências;

Meios de comunicação social.

Qualquer local público é capaz de ajudar a determinar o que, onde e como o ataque pode ser realizado. O atacante
escolhe alvos negligenciados ou desprotegidos, pois eles possuem a maior probabilidade de serem penetrados e
comprometidos.

2. ARMAMENTO (WEAPONIZATION):

Após a coleta de informações, o atacante seleciona uma arma a fim de explorar as vulnerabilidades dos sistemas. É
comum utilizar a expressão exploits para essas armas, que podem estar disponíveis em sites na internet ou ser
desenvolvidas especificamente para determinado ataque.

O desenvolvimento de uma arma própria dificulta a detecção pelos mecanismos de defesa. Essas armas próprias são
chamadas de zero-day attack.

Após o emprego da ferramenta de ataque, espera-se que o atacante tenha conseguido alcançar seu objetivo: obter
acesso à rede ou ao sistema que será atacado.

3. ENTREGA (DELIVERY)

Nesta fase, o atacante entrega a arma desenvolvida para o alvo. Para essa entrega, podem ser utilizados diversos
mecanismos. Eis alguns exemplos:
Mensagens de correio eletrônico (e-mail);

Mídias USB;

Websites falsos ou infectados;

Interação nas redes sociais.

O atacante pode usar um método ou uma combinação de métodos para aumentar a chance de entrega do exploit. Seu
objetivo é fazer com que a arma pareça algo inocente e válido, pois ludibriar o usuário permite que ela seja entregue.

Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails com algum assunto
aparentemente de interesse da vítima. Nesta mensagem, existe um link ou um anexo malicioso que serve de meio de
entrega da arma na máquina alvo.

4. EXPLORAÇÃO

A etapa de exploração ocorre quando o atacante, após entregar a arma, explora alguma vulnerabilidade (conhecida ou
não) na máquina infectada em busca de outros alvos dentro da rede de destino. As vulnerabilidades que não são
publicamente conhecidas são chamadas de zero-day.

No caso do emprego de phishing, a exploração ocorre quando o e-mail recebido é aberto e o usuário clica no link ou
abre o anexo, instalando um software malicioso que infecta a sua máquina. Isso permite o controle dela por parte do
autor do ataque.

A partir desse momento, o atacante obtém acesso ao alvo, podendo obter as informações e os sistemas disponíveis
dentro da rede atacada.

Os alvos de exploração mais comuns são aplicativos, vulnerabilidades do sistema operacional e pessoas.

5. INSTALLATION

A partir da exploração da máquina realizada na fase anterior, o atacante busca instalar algum tipo de software que
permita a manutenção do acesso à máquina ou à rede em um momento posterior.

Para essa finalidade, é instalado no sistema alvo um Remote Access Trojan (RAT). Conhecido também como
backdoor, o RAT permite ao atacante obter o controle sobre o sistema infectado.

Pelo lado do atacante, é importante que o acesso remoto não alerte nenhum sistema de proteção e permaneça ativo
mesmo após varreduras por sistemas de segurança da rede de destino.

O atacante pode usar um método ou uma combinação de métodos para aumentar a chance de entrega do exploit. Seu
objetivo é fazer com que a arma pareça algo inocente e válido, pois ludibriar o usuário permite que ela seja entregue.

Uma prática comum para essa entrega é o uso de phishing. Tipicamente, são enviados e-mails com algum assunto
aparentemente de interesse da vítima. Nesta mensagem, existe um link ou um anexo malicioso que serve de meio de
entrega da arma na máquina alvo.

6. COMANDO E CONTROLE
A partir do momento em que um RAT (backdoor) é instalado no sistema alvo, o atacante passa a ter um canal de
comunicação com o software instalado no alvo.

Denominado comando e controle, tal canal possibilita o envio de comandos para realizar ataques na própria rede
local ou para atacar a rede de terceiros, caracterizando, assim, um ataque indireto.


7. CONQUISTA

Quando o atacante chega à última etapa, isso é um indício de que o objetivo original foi alcançado. A partir de agora,
ele pode roubar informações, utilizar o alvo para realizar ataques de negação de serviço, envio de spam, manipulação
de pesquisas ou jogos online, entre outras atividades.

Nesse ponto, o agente de ameaças já está profundamente enraizado nos sistemas da organização, escondendo seus
movimentos e cobrindo seus rastros.

É extremamente difícil remover o agente de ameaças da rede quando ele já chegou a esta fase.

 SAIBA MAIS

Vamos analisar a seguinte noticia:

“Brasil sofreu 15 bilhões de ataques cibernéticos em apenas três meses. A questão não é mais ‘o que podemos
fazer se sofrermos um ataque cibernético?’, mas, sim, ‘o que podemos fazer quando sofremos um ataque
cibernético?’”

(Fonte: TECMUNDO, 2019)

Ao analisarmos o caso, percebemos a importância da análise dos riscos relacionados ao uso de uma rede de
computadores sem a devida proteção.

Pesquise outras situações similares e procure perceber a intervenção dos mecanismos de proteção nesses casos.

VERIFICANDO O APRENDIZADO

1. OS ATAQUES PODEM SER CLASSIFICADOS DE DIVERSAS FORMAS: ATIVO OU


PASSIVO, INTERNO OU EXTERNO, DIRETO OU INDIRETO. OS PASSIVOS SÃO OS DE
INTERCEPTAÇÃO; OS ATIVOS, OS DE MODIFICAÇÃO, INTERRUPÇÃO, PERSONIFICAÇÃO
OU REPETIÇÃO.

CONSIDERE QUE VOCÊ ESTEJA REALIZANDO A COMPRA ONLINE DE UMA CANETA. AO


VERIFICAR O EXTRATO DE SUA CONTA, PERCEBE QUE HAVIA DUAS COBRANÇAS DO
MESMO VALOR. ESSE TIPO DE EVENTO PODE SER ASSOCIADO AO ATAQUE DE:

A) Modificação, porque o atacante modificou a transação, permitindo que a operação fosse executada duas vezes.

B) Repetição, pois o atacante capturou os pacotes com as informações de pagamento e os enviou novamente para a
cobrança no banco.
C) Interceptação, uma vez que o atacante monitorou a transação e, percebendo a troca de informações financeiras,
repetiu a operação.

D) Personificação, já que o atacante assumiu a identidade da loja online, repetindo a operação financeira.

2. UMA DAS GRANDES AMEAÇAS EXISTENTES NA INTERNET É A CHAMADA APT. SIGLA


PARA ADVANCED PERSISTEN THREAT, ELA SE REFERE A ATAQUES DIRECIONADOS DE
ORGANIZAÇÕES A DETERMINADAS ORGANIZAÇÕES E EMPRESAS.

IMAGINE QUE VOCÊ, APÓS SER CONVOCADO PARA ANALISAR AS AÇÕES DE UMA APT,
TENHA PERCEBIDO QUE ELA ESTAVA ENVIANDO E-MAILS A DETERMINADA EMPRESA
COM UM ANEXO POSSIVELMENTE MALICIOSO.

A ETAPA DE ATAQUE IDENTIFICADA ESTÁ RELACIONADA COM:

A) Conquista, porque a APT obteve acesso a um endereço de e-mail válido da empresa.

B) Installation, pois a APT enviou a arma para obter acesso ao alvo.

C) Exploração, uma vez que a APT se aproveitou de uma vulnerabilidade no sistema de e-mail.

D) Entrega, já que a APT utilizou um meio de entregar a arma a seu alvo.

GABARITO

1. Os ataques podem ser classificados de diversas formas: ativo ou passivo, interno ou externo, direto ou
indireto. Os passivos são os de interceptação; os ativos, os de modificação, interrupção, personificação ou
repetição.

Considere que você esteja realizando a compra online de uma caneta. Ao verificar o extrato de sua conta,
percebe que havia duas cobranças do mesmo valor. Esse tipo de evento pode ser associado ao ataque de:

A alternativa "B " está correta.

O ataque de repetição permitiu que fosse debitado duas vezes o mesmo valor de sua conta. Como o atacante capturou
os pacotes que realizam a transação financeira, ele pôde modificar a conta de destino e – considerando que os dados
da transação estivessem presentes no pacote – receber o valor cobrado. Esse mesmo ataque pode ser utilizado
quando um atacante captura pacotes de autenticação, permitindo o acesso a determinada rede ou sistema.

2. Uma das grandes ameaças existentes na internet é a chamada APT. Sigla para Advanced Persisten Threat,
ela se refere a ataques direcionados de organizações a determinadas organizações e empresas.

Imagine que você, após ser convocado para analisar as ações de uma APT, tenha percebido que ela estava
enviando e-mails a determinada empresa com um anexo possivelmente malicioso.

A etapa de ataque identificada está relacionada com:


A alternativa "D " está correta.

O entendimento das fases dos ataques é de suma importância na segurança da rede. Quanto mais cedo o ataque for
detectado e interrompido, menos danos ele causará, porque o atacante (no caso ilustrado, uma APT) terá tido uma
menor penetração na rede e comprometido menos o ambiente.

 Selecionar softwares e tipos de equipamentos adequados para a diminuição dos riscos de segurança nas redes

INTRODUÇÃO
Estar conectado à internet nos expõe a diversos riscos, como roubo de informações e de identidade, adulteração de
informações etc. De acordo com a norma ABNT 27001:2013, para minimizar os riscos dessa conexão, é necessário
implementar mecanismos de controle a fim de garantir a segurança dela.

Esses mecanismos podem ser divididos em dois tipos:


MECANISMOS DE CONTROLE FÍSICOS

Evitam ou dificultam as falhas nos equipamentos e instalações.


MECANISMOS DE CONTROLE LÓGICOS

Evitam ou dificultam as falhas relacionadas aos softwares utilizados.

VERIFICAREMOS A SEGUIR A APLICAÇÃO DE AMBOS NA


MANUTENÇÃO DA SEGURANÇA DE UMA CONEXÃO.

SEGURANÇA FÍSICA
Fonte: Shutterstock

Abrange todo ambiente em que os sistemas de informação estão instalados. Seu objetivo principal é garantir que
nenhum dano físico ocorra nos equipamentos.

 EXEMPLO

Roubo de equipamentos, incêndio, inundação e qualquer ameaça às instalações físicas.

A norma ABNT NBR ISO/IEC 27002:2013 divide a segurança física em dois itens principais:


ÁREAS SEGURAS

Previnem o acesso físico não autorizado, os danos e as interferências em instalações e informações da organização.


EQUIPAMENTOS

Impedem perdas, danos, furto ou comprometimento de ativos e interrupção das atividades da organização.

A SEGURANÇA FÍSICA ENVOLVE OUTRAS ÁREAS DA


ENGENHARIA, COMO A CIVIL E A ELÉTRICA, AO PERMITIR A
PROJEÇÃO DE PRÉDIOS COM PAREDES ADEQUADAS À
PROTEÇÃO DOS EQUIPAMENTOS, SISTEMAS DE PARA-RAIOS,
ATERRAMENTO, LIMPEZA DA ÁREA PARA EVITAR INCÊNDIOS ETC.
Alguns exemplos de mecanismos de controle físicos podem ser encontrados no emprego de:

SISTEMAS DE REFRIGERAÇÃO E DE COMBATE A INCÊNDIO

Projetados para os equipamentos poderem operar em condições adequadas de temperatura e umidade. Ainda
garantem que os casos de incêndio possam ser combatidos o mais rápido possível.

SALA-COFRE

Espaço construído com paredes corta-fogo, sistemas de refrigeração e de forma hermética para proteger
equipamentos críticos de TI.

SISTEMAS DE ENERGIA REDUNDANTES

Funcionam como no-breaks (Uninterruptable Power Supply - UPS) e geradores. Ambos são necessários ao permitirem
que, em caso de queda de energia, os equipamentos permaneçam em operação. Isso garante tanto o fornecimento
constante de energia quanto a manutenção dela dentro da tensão recomendada.

PREPARAÇÃO DO AMBIENTE CONTRA ALAGAMENTO

No caso de chuvas fortes.

LIMPEZA DA ÁREA EXTERNA


Para evitar incêndios.

SEGURANÇA LÓGICA
A segurança lógica envolve o emprego de soluções baseadas em softwares para garantir a CID. Entre os diversos
mecanismos existentes, destacaremos os oito listados a seguir:

Autenticação;

Sistemas de controle de acesso;

Criptografia;

Funções de hash;

Assinatura digital;

Certificado digital;

Redes Virtuais Privadas (VPN);

Fonte: Shutterstock
Firewall, sistemas de detecção de intrusão e
antivírus.

VAMOS ENTENDER AGORA O FUNCIONAMENTO DE CADA UM


DESSES MECANISMOS.

1. AUTENTICAÇÃO

Está relacionada à garantia da propriedade da autenticidade, evitando que terceiros possam fingir ser uma das partes
legítimas a fim de acessar sistemas ou informações não autorizadas.

A autenticação diminui o risco de um ataque de


personificação ou fabricação. Para realizá-la, podem ser
utilizados os seguintes mecanismos:

Senhas;
Controles biométricos;

Tokens;

Certificados digitais.

O mecanismo escolhido deve se adequar ao objetivo de


segurança a ser alcançado. Atualmente, os controles
biométricos são considerados os mais eficientes.

Exemplo: Digitais, reconhecimento de íris, palma da mão e


certificados digitais.

Fonte: Shutterstock

2. SISTEMAS DE CONTROLE DE ACESSO

Gerenciam os usuários que podem acessar sistemas e


redes, autorizando apenas o acesso às informações que
lhes couberem. Desse modo, a confidencialidade dos
dados está garantida.

Exemplo: o uso de senhas nas redes wi-fi garante que


somente as pessoas autorizadas possam utilizá-las.

PARA QUE O CONTROLE DE


ACESSO SEJA EFETIVO, DEVE-
SE EMPREGAR UM MECANISMO
DE AUTENTICAÇÃO A FIM DE
Fonte: Shutterstock VALIDAR A IDENTIDADE E –
CASO O ACESSO ESTEJA
AUTORIZADO – RESTRINGIR OS
DIREITOS DE ACESSO PARA
CADA INDIVÍDUO DE ACORDO
COM O SEU PERFIL DE USO.
3. CRIPTOGRAFIA

Esta é uma vasta área que, assim como a criptoanálise – cujas técnicas não abordaremos aqui –, compõe a
criptologia.

A criptografia é uma área que estuda técnicas para esconder não a mensagem real, mas, na verdade, o seu
significado. Ela pode inclusive ser utilizada para garantir a CID. A propriedade a ser garantida depende do mecanismo
utilizado e de que maneira ele foi empregado.

FUNÇÕES

Para entendermos o processo criptográfico, iremos, inicialmente, identificar duas funções principais:

CRIPTOANÁLISE

Sua finalidade é testar e validar os métodos criptográficos, ou seja, verificar se é possível obter o texto original
sem haver o conhecimento de todo o processo.

CRIPTOLOGIA

Ciência que, de forma segura, cuida da comunicação e do armazenamento de dados.

CIFRAMENTO
Transforma um escrito simples, cujo alfabeto comum é utilizado para compor a mensagem original, em um texto
cifrado. Nesse texto, as letras originais são substituídas pelas do alfabeto cifrado, escondendo, dessa forma, o
conteúdo da mensagem. A função do ciframento é responsável pela criptografia da mensagem original. Já a
substituição das letras da original na mensagem cifrada é feita pelas cifras.

Fonte: Shutterstock
DECIFRAMENTO
Realiza o processo oposto. Como o texto cifrado é transformado no original, o conteúdo de sua mensagem pode ser
entendido. A função de deciframento é a responsável pela decriptografia da mensagem cifrada.

Fonte: Shutterstock

CIFRAS

Qualquer forma de substituição criptográfica aplicada ao texto original da mensagem.

AS TÉCNICAS MODERNAS DE CRIPTOGRAFIA ENVOLVEM O USO


DE UM ALGORITMO DE CRIPTOGRAFIA ASSOCIADO A UMA CHAVE.
O SEGREDO DO PROCESSO NÃO ESTÁ NO ALGORITMO EM SI, E
SIM NA CHAVE UTILIZADA PARA A REALIZAÇÃO DO CIFRAMENTO.

CLASSIFICAÇÃO

Quanto ao tipo de chave empregada, os algoritmos criptográficos podem ser classificados como:

ALGORITMOS DE CHAVE SIMÉTRICA

Criptografia de chave privada. Empregam uma única chave. Dessa forma, a mesma chave que realiza a cifragem faz
a decifragem. Alguns exemplos de algoritmos simétricos: DES, 3DES, Blowfish, RC4, RC5, IDEA, Rinjdael e
Advanced Encrytion Standard (AES).

ALGORITMOS DE CHAVE ASSIMÉTRICA

Criptografia de chave pública. Utilizam duas chaves (pública e privada): uma para cifrar e outra para decifrar.
Dependendo da ordem em que ambas são empregadas, o algoritmo pode garantir a confidencialidade ou a
autenticidade.

ADVANCED ENCRYTION STANDARD (AES)

Algoritmo padrão adotado por diversos governos e várias empresas para garantir a confidencialidade.

QUANDO A CHAVE PÚBLICA É UTILIZADA NA FUNÇÃO DE


CIFRAGEM, APENAS A PRIVADA PODE DECIFRAR.

Como o nome sugere, a chave privada fica restrita à entidade.

Exemplo: pessoa, empresa ou equipamento.

Portanto, neste caso, está garantida a confidencialidade, porque só quem possui a chave privada pode decifrar o
conteúdo.

Fonte: Shutterstock
QUANDO OCORRE O INVERSO, A CHAVE PRIVADA É EMPREGADA
NO PROCESSO DE CIFRAGEM E APENAS A PÚBLICA PODE
DECIFRAR.

Entretanto, como a chave usada é a pública, qualquer pessoa pode possui-la e, portanto, decifrar a mensagem.

Não há como garantir a confidencialidade dessa forma: o que está garantido, na verdade, é a autenticidade. A
aplicação das chaves nesta ordem permite o emprego da assinatura digital.

O algoritmo Rivest-Shamir-Adleman (RSA) é o padrão utilizado para transações comerciais, financeiras etc.

4. FUNÇÕES DE HASH

O objetivo das funções de resumo de mensagem ou de hash é a garantia da integridade das informações. Para
calcular o resumo, pode ser utilizado qualquer algoritmo que pegue uma mensagem de qualquer tamanho e a mapeie
em uma sequência de caracteres de tamanho fixo.

 EXEMPLO

Você tem um arquivo chamado aula.doc e quer calcular o resumo dessa mensagem. Uma das funções de hash
bastante utilizadas é o Message-Digest Algorithm 5 (MD5). Então, caso você tenha instalado em seu computador o
MD5, pode utilizar o seguinte comando:

MD5SUM AULA.DOC

A saída desse comando é uma sequência de caracteres:

595F44FEC1E92A71D3E9E77456BA80D1

Essa saída será permanente enquanto não ocorrer nenhuma alteração no arquivo. Portanto, toda vez que quiser
verificar se ele foi modificado, basta executar novamente a função de hash e compará-la à sequência original. Se ela
permanecer a mesma, isso demonstra que o arquivo é íntegro; caso contrário, é uma evidência de que ele foi
modificado.

Uma propriedade desejável na função de resumo é que, diante de qualquer modificação mínima na informação, o
resumo gerado deve ser totalmente diferente. As funções de resumo também são utilizadas como auxiliares no
processo de autenticação.
Alguns sistemas usam o hash para armazenar a senha de
um usuário. Portanto, quando ele cadastra uma senha, o
sistema calcula o hash e armazena esse valor. Quando o
usuário for digitar sua senha para entrar no mesmo
sistema, o sistema calculará o hash, enviará essa
informação e comparará com o que está armazenado. Se
for igual, o seu acesso será autorizado.

A vantagem dessa solução é que a senha do usuário não


fica armazenada no sistema nem trafega pela rede. Quem
o faz é o hash.

Fonte: Shutterstock

Outra propriedade desejável das funções de resumo é que ela não é inversível, ou seja, se temos o hash da
mensagem, não conseguimos descobrir a mensagem original. Dessa forma, podemos afirmar que ele configura uma
função criptográfica, pois esconde o conteúdo de uma mensagem. Então, quando ocorre o envio do hash da senha,
não há como um atacante descobrir a senha original.

Entretanto, o uso isolado dele na autenticação pode gerar uma facilidade para o ataque de reprodução. Um atacante
que conseguir obter o hash das assinaturas poderá repetir o seu processo, enviando o resumo e obtendo a autorização
de acesso.

Além do MD5, outras funções de resumo muito utilizadas são as seguintes:

SECURE HASH ALGORITHM VERSION 1 (SHA-1);

SECURE HASH ALGORITHM VERSION 2 (SHA-2);

SECURE HASH ALGORITHM VERSION 3 (SHA-3).

5. ASSINATURA DIGITAL
O objetivo do emprego da assinatura digital é assegurar a
autenticidade e a integridade das informações.
Automaticamente, está garantido o não repúdio. A
assinatura ainda garante tanto a validade jurídica dos
documentos, pois existe a certeza de que eles não
sofreram qualquer adulteração, estando íntegros e
completos, quanto a sua autoria, asseverando que eles
realmente foram assinados por determinada pessoa.

O PROCESSO UTILIZADO PARA


REALIZAR A ASSINATURA
DIGITAL COMBINA O EMPREGO
Fonte: Shutterstock
DA CRIPTOGRAFIA ASSIMÉTRICA
COM AS FUNÇÕES DE RESUMO
DA MENSAGEM. PARA QUE UM
DOCUMENTO SEJA ASSINADO
DIGITALMENTE, O USUÁRIO
DEVE SEGUIR ESTES PASSOS:

CALCULAR O RESUMO DA MENSAGEM.

CIFRAR ESSE RESUMO COM A CHAVE PRIVADA DO EMISSOR DO


DOCUMENTO.

ENVIAR A MENSAGEM COM O RESUMO CRIPTOGRAFADO, QUE É A


ASSINATURA DIGITAL.
O esquema a seguir ilustra esse processo:

Fonte: Shutterstock

Assinatura digital de um documento. Fonte: (FOROUZAN; MOSHARRAF, 2013).

Ao receber o documento, o receptor precisa realizar o seguinte processo para o validar:

O usuário deve calcular o hash da mensagem e decifrar o outro recebido com a utilização da chave pública do emissor.
Em seguida, ele vai comparar os dois hashes. Se forem iguais, há a garantira de que o documento não foi modificado e
o emissor é autêntico. Caso sejam diferentes, algum problema ocorreu. Mas não é possível garantir o que aconteceu,
já que não se sabe se o problema reside na modificação dele ou na autenticidade do emissor. Estabelece-se apenas
que o documento não é válido.

6. CERTIFICADO DIGITAL

Ele é utilizado para vincular a chave pública a uma entidade, como pessoa, empresa, equipamento etc. O certificado
contém a chave pública da entidade, que é assinada digitalmente por uma terceira parte confiável chamada de
Autoridade Certificadora (AC).

O EMPREGO DO CERTIFICADO DIGITAL É IMPORTANTE PARA


GARANTIR UM ATAQUE CONHECIDO COMO “HOMEM NO MEIO” OU,
EM INGLÊS, MAN IN THE MIDDLE (MITM). O MITM OCORRE QUANDO
UM ATACANTE PODE INTERCEPTAR O ENVIO DA CHAVE PÚBLICA E
TER ACESSO ÀS INFORMAÇÕES.

Vejamos a descrição deste problema:

AUTORIDADE CERTIFICADORA (AC)

Cartório eletrônico que garante a segurança de todo o processo na troca das chaves públicas.
Alice quer enviar um documento para Bob. Desse modo, ela solicita a chave pública dele para poder cifrar a
mensagem.

Darth, enquanto isso, realiza um ataque de interceptação para monitorar a comunicação entre ambos. Quando percebe
que houve uma solicitação da chave pública de Bob, Darth envia para Alice a sua chave. Ao mesmo tempo, se fazendo
passar por ela, solicita a Bob a chave pública dele, o que caracteriza um ataque de personificação.

Alice, dessa forma, cifra a mensagem com a chave privada de Darth. Obviamente, ele consegue ler as informações
enviadas. Para que o processo continue, Darth agora cifra a mensagem com a chave pública de Bob e a envia. Bob,
em seguida, recebe a mensagem e a decifra com sua chave privada.

Ao monitorar a troca de mensagens entre Alice e Bob, Darth conseguiu obter as informações, quebrando a
confidencialidade desse processo de comunicação.

Para resolver esse problema, é necessária uma terceira parte confiável: a AC. Ela é a responsável por armazenar as
chaves públicas das entidades envolvidas no processo de comunicação. Dessa maneira, a chave fica assinada
digitalmente pela autoridade certificadora, como ilustra o esquema a seguir:
Fonte: Shutterstock

Uso do certificado de chave pública. Fonte: (STALLINGS, 2008).

Voltemos ao exemplo da comunicação entre Alice e Bob. Agora ela já pode solicitar o certificado digital dele para a AC.
Ao receber esse certificado, Alice irá verificar a assinatura digital da AC. Se ela estiver correta, é um indício de que
Alice possui o certificado correto de Bob, podendo, dessa forma, realizar a transmissão das mensagens.

O PROCESSO PARA OBTER A CHAVE PRIVADA DA AC, CONTUDO,


PODE ESBARRAR NO MESMO PROBLEMA. PARA O PROCESSO
FUNCIONAR CORRETAMENTE, O USUÁRIO DEVE IR AO SITE DA AC
E REALIZAR O DOWNLOAD DOS CERTIFICADOS – CHAMADOS DE
CERTIFICADOS RAIZ –, GARANTINDO, ASSIM, A OBTENÇÃO DA
CHAVE PÚBLICA CORRETA.

 SAIBA MAIS

No Brasil, as ACs estão organizadas na Infraestrutura de Chaves Públicas Brasileira (ICP-Brasil). Trata-se de uma
cadeia hierárquica de confiança que viabiliza a emissão de certificados digitais para a identificação virtual do cidadão.

6. REDES VIRTUAIS PRIVADAS (VPN)

Sigla de Virtual Private Network, a VPN permite a utilização de um meio inseguro de forma segura. Afinal, quando
estamos conectados à internet e desejamos acessar algum serviço ou rede, ficamos vulneráveis a diversos tipos de
ataques.

Para minimizar o risco inerente a esse acesso, podemos empregar uma VPN, que utilizará um túnel de comunicação
entre dois dispositivos. Considere a topologia desta imagem na qual as redes da matriz e da filial desejam trocar
informações por meio da internet:

Fonte: Shutterstock

Ao trafegar pela internet, as informações trocadas entre as redes da matriz e da filial estão sujeitas a diversos tipos de
ataque. Na utilização de uma VPN, é criado, como ilustra a imagem a seguir, um túnel virtual entre essas duas redes:

Fonte: Shutterstock

NA UTILIZAÇÃO DO TÚNEL, AS INFORMAÇÕES TRAFEGADAS


FICAM PROTEGIDAS, JÁ QUE OS DADOS SÃO CRIPTOGRAFADOS.
ALÉM DISSO, PODEM SER UTILIZADOS MECANISMOS DE
AUTENTICAÇÃO E INTEGRIDADE PARA GARANTIR TANTO A
ENTRADA EM CADA UMA DAS REDES SÓ DE PACOTES
AUTORIZADOS QUANTO A MANUTENÇÃO DE SUA ESTRUTURA, OU
SEJA, QUE ELES NÃO SEJAM MODIFICADOS.

7. FIREWALL, SISTEMAS DE DETECÇÃO DE INTRUSÃO E


ANTIVÍRUS

No vídeo a seguir, falaremos sobre os seguintes mecanismos de segurança lógica: firewall, sistemas de detecção de
intrusão e antivírus.
Firewall, sistemas de detecção de intrusão e antivírus. Para saber mais sobre outros Mecanismos de Segurança
Lógica, clique aqui.

 SAIBA MAIS

Veja o trecho da seguinte notícia:

“PF identifica invasão nos celulares de presidentes de STJ, Câmara e Senado; PGR também foi alvo”.

(Fonte: G1, 2019)

Analisando esse ocorrido, percebemos a importância dos softwares, cuja função é a de garantir a CID nas instituições.

Pesquise outras situações similares e procure perceber como foi a intervenção da segurança lógica nesses casos.

VERIFICANDO O APRENDIZADO

1. VOCÊ FOI CONTRATADO POR UMA EMPRESA PARA REALIZAR UMA CONSULTORIA NA
ÁREA DE SEGURANÇA. DURANTE O TRABALHO REALIZADO, IDENTIFICOU QUE ELA
ESTAVA SUJEITA A ATAQUES CONTRA A DISPONIBILIDADE POR FALTA DE MECANISMOS
DE CONTROLE FÍSICOS OU LÓGICOS.

NO RELATÓRIO ESCRITO PARA A EMPRESA, UMA DE SUAS SUGESTÕES FOI A


IMPLANTAÇÃO DE UM MECANISMO DE CONTROLE:

A) Físico, com o emprego de no-breaks para garantir o fornecimento de energia.

B) Físico, com o uso de assinaturas digitais para garantir a identidade do emissor.

C) Lógico, com o emprego de no-breaks para garantir o suprimento de energia.

D) Lógico, com a aplicação de firewalls para garantir o controle de acesso físico.

2. LEIA O FRAGMENTO DE TEXTO A SEGUIR:

“DURANTE UM GRANDE SURTO EM MAIO DE 2017, RÚSSIA, CHINA, UCRÂNIA, TAIWAN,


ÍNDIA E BRASIL FORAM OS PAÍSES MAIS AFETADOS. O WANNACRY AFETOU TANTO
PESSOAS QUANTO ORGANIZAÇÕES GOVERNAMENTAIS, HOSPITAIS, UNIVERSIDADES,
EMPRESAS FERROVIÁRIAS, FIRMAS DE TECNOLOGIA E OPERADORAS DE
TELECOMUNICAÇÕES EM MAIS DE 150 PAÍSES. O NATIONAL HEALTH SERVICE DO REINO
UNIDO, DEUTSCHE BAHN, A EMPRESA ESPANHOLA TELEFÓNICA, FEDEX, HITACHI E
RENAULT ESTAVAM ENTRE AS VÍTIMAS.”

FONTE: (AVAST, S.D.)

COMO FOI DESCRITO ANTERIORMENTE, O WANNACRY CAUSOU, EM 2017, UMA GRANDE


INFECÇÃO EM DIVERSAS EMPRESAS NO BRASIL E NO MUNDO. ESSE TIPO DE ATAQUE
SEQUESTRAVA OS DADOS DOS USUÁRIOS E EXIGIA UMA RECOMPENSA PARA QUE ELES
FOSSEM DISPONIBILIZADOS NOVAMENTE.

PARA MINIMIZAR OS RISCOS DE UM USUÁRIO OU UMA EMPRESA SOFRER O MESMO


TIPO DE ATAQUE, É NECESSÁRIO O EMPREGO DE:

A) Um firewall, já que este tipo de controle impede a invasão à rede, não sendo possível o sequestro dos dados.

B) Um sistema de detecção de intrusão, pois pode monitorar o tráfego da rede, identificando o sequestro dos dados.

C) Um antivírus, porque este tipo de ataque é realizado por um malware conhecido como ransonware.

D) Um sistema de criptografia dos dados, uma vez que o atacante não consegue sequestrar os dados criptografados.

GABARITO

1. Você foi contratado por uma empresa para realizar uma consultoria na área de segurança. Durante o
trabalho realizado, identificou que ela estava sujeita a ataques contra a disponibilidade por falta de
mecanismos de controle físicos ou lógicos.
No relatório escrito para a empresa, uma de suas sugestões foi a implantação de um mecanismo de controle:

A alternativa "A " está correta.

O objetivo dos mecanismos de controle físico é proteger as instalações físicas, ou seja, a destruição, o roubo ou a
paralisação de serviços. Os mecanismos físicos podem incluir desde o uso de portões, grades e cadeados até a
manutenção do ambiente dentro de condições climáticas adequadas, como a utilização de equipamentos de
refrigeração e o fornecimento de energia ininterruptos graças ao emprego de fontes de energia redundantes (geradores
e no-breaks).

2. Leia o fragmento de texto a seguir:

“Durante um grande surto em maio de 2017, Rússia, China, Ucrânia, Taiwan, Índia e Brasil foram os países
mais afetados. O WannaCry afetou tanto pessoas quanto organizações governamentais, hospitais,
universidades, empresas ferroviárias, firmas de tecnologia e operadoras de telecomunicações em mais de 150
países. O National Health Service do Reino Unido, Deutsche Bahn, a empresa espanhola Telefónica, FedEx,
Hitachi e Renault estavam entre as vítimas.”

Fonte: (AVAST, s.d.)

Como foi descrito anteriormente, o WannaCry causou, em 2017, uma grande infecção em diversas empresas
no Brasil e no mundo. Esse tipo de ataque sequestrava os dados dos usuários e exigia uma recompensa para
que eles fossem disponibilizados novamente.

Para minimizar os riscos de um usuário ou uma empresa sofrer o mesmo tipo de ataque, é necessário o
emprego de:

A alternativa "C " está correta.

A segurança de um ambiente pode ser considerada completa quando ela emprega um conjunto de mecanismos de
controle físico e lógico com o objetivo de garantir a CID. Afinal, os mecanismos de controle lógicos, firewalls, IDS,
criptografia, controle de acesso e antivírus são soluções que devem atuar em conjunto. Os antivírus, por exemplo, são
os responsáveis pela detecção dos malwares como o WannaCry.

 Reconhecer a arquitetura de gerenciamento de redes

INTRODUÇÃO
Com o crescimento das redes, a administração e o gerenciamento delas passaram a ser atividades de suma
importância. Afinal, seus ambientes são complexos e heterogêneos, tendo diversos tipos de equipamentos, fabricantes
e protocolos em operação.

O esquema a seguir apresenta um cenário típico de uma rede local (LAN):


Fonte: Shutterstock

Podemos observar na imagem diversos servidores e várias estações de trabalho com sistemas operacionais Windows
e Linux, firewalls, roteadores, switches e equipamentos para redes sem fio.

IMAGINEMOS AGORA A SEGUINTE SITUAÇÃO CORRIQUEIRA: UMA


PARALISAÇÃO DE ALGUM SERVIÇO OU PARTE DA REDE. NESSES
CASOS, MUITOS SE PERGUNTAM: ONDE OCORREU A FALHA? NO
SERVIDOR? NO SWITCH? NA ESTAÇÃO?

SWITCHES

Switches ou comutadores são ferramentas de camada de enlace que conseguem identificar os equipamentos
conectados em cada porta e direcionar os quadros para os destinos corretos, segmentando a rede.

A gerência de redes auxilia no processo de identificação


das falhas e na correção de problemas, permitindo que a
rede possa operar corretamente e oferecer níveis de
serviços adequados à necessidade dos usuários.

O objetivo dessa gerência é monitorar e controlar os


elementos físicos ou lógicos da rede, assegurando,
segundo Stallings (1998), certo nível de qualidade de
serviços.
Fonte: Shutterstock

QUALIDADE DE SERVIÇOS

Trata-se do ato de oferecer serviços que atendam à necessidade dos usuários com um funcionamento adequado,
bom desempenho e disponibilidade.

DESCOBRIREMOS A SEGUIR COMO É POSSÍVEL ATINGIR ESSE


NÍVEL DE QUALIDADE.

ARQUITETURA DE GERENCIAMENTO OSI


Fonte: Shutterstock

Para oferecer uma organização das tarefas de gerenciamento de redes, a International Organization for
Standardization (ISO) criou a M.3400, um modelo de gerência derivado de recomendação publicada pela International
Telecommunications Union (ITU).

ESSE MODELO SE BASEIA EM CINCO ÁREAS CONHECIDAS PELA


SIGLA FCAPS (ABREVIAÇÃO, EM INGLÊS, DE FAULT,
CONFIGURATION, ACCOUNTING PERFORMANCE E SECURITY).
VAMOS CONHECÊ-LAS AGORA!

GERÊNCIA DE DETECÇÃO E CORREÇÃO DE FALHAS (F =


FAULT)

A área de gerenciamento de falhas é importante para garantir que os serviços e as redes permaneçam em operação.
De acordo com a norma ISO, esta área permite registrar, detectar e reagir às condições de falha da rede.

 ATENÇÃO

Tal gerenciamento depende do bom funcionamento de cada componente da rede tanto de forma isolada quanto pela
interoperação com outros equipamentos dela.

As possíveis falhas nas redes podem ser causadas por problemas de:
1

Software: Falha no sistema operacional de um servidor ou em um serviço.

Enlace: Paralisação de operação de uma ligação entre uma matriz e uma filial por um rompimento de cabo.

Equipamentos: Interrupção no fornecimento de energia.

Quando uma falha ocorre, o gerente da rede deve analisar as informações de gerência para identificar a causa raiz do
problema, descobrindo, em uma diversidade de equipamentos, softwares e protocolos, o que realmente causou o
problema.

O gerenciamento de falhas pode ser dividido em dois subsistemas:

1. Reativo: Trata as falhas no curto prazo (detecção, isolamento, correção e registro de falhas).

Fonte: Shutterstock

2. Proativo: Monitora a rede para tentar impedir que ocorram falhas.

GERÊNCIA DE CONFIGURAÇÃO E OPERAÇÃO (C =


CONFIGURATION)
As redes são compostas por diversos equipamentos
interligados entre si que possuem uma configuração.

ESSAS CONFIGURAÇÕES DEVEM


SER CONSISTENTES EM TODOS
ELES, PERMITINDO QUE, NO
CASO DE UMA REINICIALIZAÇÃO,
O DISPOSITIVO VOLTE A OPERAR
COM A CONFIGURAÇÃO
CORRETA.

Fonte: Shutterstock
Desse modo, é necessário realizar o gerenciamento das
configurações dos equipamentos para:

Garantir seu funcionamento com os ajustes corretos;

Identificar quais dispositivos estão presentes na rede;

Verificar se eles estão com as configurações corretas.

De acordo com Forouzan (2010), um sistema de gerenciamento de configuração precisa saber o estado de cada
entidade e sua relação com outras entidades a todo instante.

Fonte: Shutterstock

GERÊNCIA DE CONTABILIDADE E FATURAMENTO (A =


ACCOUNTING)
De acordo com a ISO, a gerência de contabilidade e faturamento permite especificar, registrar e controlar o acesso de
usuários e dispositivos aos recursos da rede. Por meio desta área de gerenciamento, é possível contabilizar o
consumo de determinado recurso da rede.

 EXEMPLO

A franquia de consumo de internet de uma linha telefônica, o que possibilita a tarifação para o usuário.

Este tipo de gerenciamento impede que usuários possam monopolizar os recursos da rede e libera a elaboração de
planos de evolução de acordo com a demanda de uso dela.

GERÊNCIA DE DESEMPENHO E OTIMIZAÇÃO (P =


PERFORMANCE)

O objetivo do gerenciamento de desempenho e otimização é garantir que uma rede esteja em operação da forma mais
eficiente possível. De acordo com a ISO, sua função é quantificar, medir, informar, analisar e controlar o desempenho
de diferentes componentes dela.

Dentro desta área de gerenciamento, é possível realizar dois tipos de avaliação de desempenho:

AVALIAÇÃO DE DIAGNÓSTICO
Detecta problemas e ineficiências na operação da rede.

Exemplo: Se o gerente da rede percebe um equipamento ou enlace com baixa utilização, ele pode alterar a
configuração para permitir que haja uma melhor distribuição de carga.

Esse tipo de avaliação auxilia no gerenciamento de falhas, porque é capaz de antever situações que poderiam causar
uma falha na rede.

AVALIAÇÃO DE TENDÊNCIAS
Auxilia no planejamento da evolução da rede, observando seu comportamento e estimando a necessidade de aumento
de determinado recurso.

Exemplo: O monitoramento de um enlace entre matriz e filial poderá indicar a necessidade de um aumento na
capacidade dele quando a utilização média ultrapassar determinado valor.

Para avaliar a operação da rede, devem ser utilizadas, aponta Forouzan (2010), medidas mensuráveis, como
capacidade, tráfego, vazão (throughput) e tempo de resposta.

CIFRAS
Qualquer forma de substituição criptográfica aplicada ao texto original da mensagem.

GERÊNCIA DE SEGURANÇA E PROTEÇÃO (S = SECURITY)

A gerência de segurança e proteção permite controlar o


acesso aos recursos da rede e verificar se ela está de
acordo com a Política de Segurança da Informação (PSI)
da empresa.

QUE PAPEL DESEMPENHA A


SEGURANÇA NESSE CONTEXTO?

Ela envolve todas as camadas da pilha de protocolos


TCP/IP, o que engloba cada dispositivo e informação

Fonte: Shutterstock trafegando pela rede. Por isso, é possível afirmar que esta
é a área mais difícil de ser gerenciada.

ARQUITETURA DE GERENCIAMENTO EM REDE


No vídeo a seguir, falaremos sobre a arquitetura de gerenciamento de rede.
Entenda o processo da arquitetura de gerenciamento em rede. Para saber mais sobre Arquitetura de Segurança de
Rede, clique aqui.

VERIFICANDO O APRENDIZADO

1. O DIRETOR DA EMPRESA EM QUE VOCÊ TRABALHA INFORMOU A OCORRÊNCIA DE


DIVERSAS PARALISAÇÕES NA REDE, O QUE PREJUDICA A REALIZAÇÃO DAS
ATIVIDADES DOS FUNCIONÁRIOS. ALEGANDO QUE ELA ESTÁ SUBDIMENSIONADA, ELE
DEFENDE QUE A REDE NÃO CONSEGUE ATENDER À DEMANDA DE TRABALHO
EXISTENTE.

VOCÊ ARGUMENTA QUE A REDE, APESAR DE CONSTANTEMENTE MONITORADA, POSSUI


UMA UTILIZAÇÃO CONSIDERADA ALTA (70%), PRECISANDO, PORTANTO, SER AMPLIADA
PARA O ATENDIMENTO DESSA DEMANDA.

ESSA SITUAÇÃO SE REFERE À ÁREA DE GERENCIAMENTO DE:

A) Desempenho, que realiza a avaliação de tendências e auxilia no planejamento da evolução da rede.

B) Contabilização, que monitora o consumo de recursos da rede, permitindo o uso racional dos dispositivos.

C) Falhas, que é responsável por realizar um monitoramento proativo da rede, evitando que haja uma sobrecarga dela.

D) Configuração, que realiza o monitoramento da configuração dos dispositivos, apresentando o consumo da rede.

2. UMA ARQUITETURA DE GERENCIAMENTO DE REDE É COMPOSTA POR QUATRO


COMPONENTES BÁSICOS: ESTAÇÃO DE GERENCIAMENTO, DISPOSITIVO GERENCIADO,
BASE DE INFORMAÇÕES GERENCIAIS E PROTOCOLO DE GERENCIAMENTO.

TAIS COMPONENTES TRABALHAM EM CONJUNTO PARA PERMITIR QUE A REDE POSSA


SER MONITORADA E CONTROLADA. PARA ISSO:

A) O agente envia mensagens para o gerente solicitando informações dos objetos.


B) A gerência da rede é realizada pelo protocolo de gerenciamento, permitindo que os comandos sejam executados
pelo gerente.

C) A base de informações gerenciais mantém informações do estado dos diversos objetos existentes em um
dispositivo.

D) O gerente emite comandos para a base de informações gerenciais, informando os valores de cada objeto.

GABARITO

1. O diretor da empresa em que você trabalha informou a ocorrência de diversas paralisações na rede, o que
prejudica a realização das atividades dos funcionários. Alegando que ela está subdimensionada, ele defende
que a rede não consegue atender à demanda de trabalho existente.

Você argumenta que a rede, apesar de constantemente monitorada, possui uma utilização considerada alta
(70%), precisando, portanto, ser ampliada para o atendimento dessa demanda.

Essa situação se refere à área de gerenciamento de:

A alternativa "A " está correta.

A situação apresentada é típica em diversas redes. Por meio dos sistemas de gerenciamento, é possível monitorar o
seu uso e planejar os investimentos necessários para que as demandas da rede sejam atendidas, garantindo um nível
de satisfação elevado para os seus usuários.

2. Uma arquitetura de gerenciamento de rede é composta por quatro componentes básicos: estação de
gerenciamento, dispositivo gerenciado, base de informações gerenciais e protocolo de gerenciamento.

Tais componentes trabalham em conjunto para permitir que a rede possa ser monitorada e controlada. Para
isso:

A alternativa "C " está correta.

A arquitetura de gerenciamento de redes é genérica, mas os sistemas de gerenciamento existentes são baseados nos
componentes apresentados. A entidade gerenciadora ou de gerenciamento monitora e controla os dispositivos da rede
por intermédio do software gerente. No dispositivo gerenciado, o software agente recebe os comandos do gerente por
meio do protocolo de comunicação. Já o conjunto de objetos existentes compõe a base de informações gerenciais.

CONCLUSÃO

CONSIDERAÇÕES FINAIS
Garantir a operação de uma rede é uma tarefa árdua. Afinal, ela deve estar preparada para suportar diversos tipos de
ataques mediante o emprego de mecanismos de controle adequados.

Além disso, os sistemas de gerenciamento podem permitir o controle de uma diversidade enorme de dispositivos,
protocolos e aplicações. Os mecanismos de controle e gerenciamento adequado das redes, portanto, são
fundamentais na manutenção da qualidade e da operacionalidade de seu serviço.

REFERÊNCIAS
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR ISO/IEC 27001:2013 – tecnologia da informação –
técnicas de segurança – sistemas de gestão da segurança da informação – requisitos. Rio de Janeiro: ABNT, 2013a.

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR ISO/IEC 27002:2013 – tecnologia da informação –


técnicas de segurança – código de prática para controles de segurança da informação. Rio de Janeiro: ABNT, 2013b.

AVAST. WannaCry. Avast. s.d.

CENTRO DE ESTUDOS, RESPOSTA E TRATAMENTO DE INCIDENTES DE SEGURANÇA NO BRASIL. Estatísticas


dos incidentes reportados ao CERT.br. In: CERT.br. Consultado em meio eletrônico em: 28 maio 2020.

FOROUZAN, B. A. Comunicação de dados e redes de computadores. 4. ed. Porto Alegre: AMGH, 2010.

FOROUZAN, B. A.; MOSHARRAF, F. Redes de computadores: uma abordagem top-down. Porto Alegre: AMGH,
2013.

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a internet: uma abordagem top-down. 6. ed. São Paulo:
Pearson, 2013.

LUKASIK, S. J. Why the Arpanet was built. IEEE annals of the history of computing. n. 33. 2011. p. 4-21.

MCCLURE, S.; SCAMBRAY, J.; KURTZ, G. Hackers expostos: segredos e soluções para a segurança de redes. 7. ed.
Porto Alegre: Bookman, 2014.

STALLINGS, W. Criptografia e segurança de redes – princípios e práticas. 4. ed. São Paulo: Pearson Prentice Hall,
2008.

STALLINGS, W. SNMP, SNMPv2, SNMPv3 and RMON1 and 2. 3. ed. Boston: Addison-Wesley, 1998.

EXPLORE+
Pesquise na internet para:

Visitar a página do Centro de Estudos, Resposta e Tratamento de Incidentes de Segurança no Brasil


(CERT): CERT.br. Em Publicações, navegue pelos diversos artigos produzidos pelo CERT com recomendações
sobre prevenções de ataques;

Acessar a Cartilha de Segurança para Internet. Desenvolvida pelo CERT, ela descreve os riscos na utilização
da internet e as soluções existentes para isso;

Ler o documento intitulado Sistema de gerenciamento de rede: White Paper de práticas recomendadas (2018).
Desenvolvido pela Cisco, ele apresenta uma estrutura mais detalhada sobre o processo de gerenciamento de
redes;

Saber mais sobre a Information Technology Infrastructure Library (ITIL). Trata-se de um conjunto de
recomendações de boas práticas para o gerenciamento dos serviços de TI.

CONTEUDISTA
Sérgio dos Santos Cardoso Silva

 CURRÍCULO LATTES
Considerado do tipo TUDO ou NADA.

Pode estar instalado em um equipamento da rede (servidor), no terminal ou no roteador.


Serve para analisar os pacotes que trafegam na rede. De PACOTE ou de ESTADO (mais modernos e eficientes) estes
mantêm em memória o que já foi enviado e recebido, facilitando a filtragem. E o que pode ser analisado? Veja abaixo:

Dependem das REGRAS determinadas para a filtragem do tráfego.


Duas estratégias básicas utilizáveis: PERMITE (PERMIT) (TUDO) e BLOQUEIA (DENY) (NADA).

O resto está liberado. Esta regra não é uma boa prática, não deve ser utilizada.
É a estratégia mais adequada para criar os FireWalls.

O IDS verifica se o tráfego que foi autorizado pelo FireWall é ou não um tráfego legitimo OU se é ou não um ataque.
Pode estar instalado no terminal (HIDS) ou na rede (NIDS). Ele gera:

O IDS NÃO toma nenhum tipo de ação ! Já o IPS sim.

O IPS pode por exemplo criar automaticamente uma regra no FireWall visando bloquear determinado tipo de tráfego.
Técnicas utilizadas pelos IPS além da ASSINATURA:

Analisa o comportamento da rede gerando ALERTAS sobre um possível ataque.


São diversos tipos que podem realizar diversos tipos de ações. O mais conhecido e tradicional é o

Os Vírus precisam de um hospedeiro para existir assim como os abaixo:

SEM precisar de um hospedeiro, temos o worm que é muito mais ‘automático’ que o vírus.

Outro tipo é o TROJAN, que serve para abrir porta(s) de comunicação não verificadas pelo FireWall...

Os SPYWARES (espiões) podem ser de 3 tipos:


1 – Key (captura toda a digitação)
2 – Screen (captura todas as telas)
3 – Cookies de rastreamento
O último tipo de MALWARE é o

Criptografa os dados e exige resgate para disponibilizar a chave de descriptografia.

Um tipo de RANSOMWARE que afetou muitas empresas no mundo todo a alguns anos foi o

CONCLUSÃO:
FAÇA SEMPRE BACKUP DE SEUS DADOS MAIS SENSÍVEIS OU IMPORTANTES!

OS ANTIVÍRUS PODEM (AS VEZES) DETECTAR OS TIPOS DE MAWARES CITADOS ACIMA POR ASSINATURA OU
RECONHECIMENTO.
Composto por quatro elementos principais
As informações coletadas pelo software gerente através dos softwares agentes formam a MIB (Main Information Base)

Com esse banco de dados no NOC (centro de gerenciamento da rede) o gerente pode ajustar as melhores

configurações de carga, tráfego etc. através do

Um principal protocolo é o

Ele roda em cima do usando a porta 161.

Resumo:
Considerado do tipo TUDO ou NADA.

Pode estar instalado em um equipamento da rede (servidor), no terminal ou no roteador.


Serve para analisar os pacotes que trafegam na rede. De PACOTE ou de ESTADO (mais modernos e eficientes) estes
mantêm em memória o que já foi enviado e recebido, facilitando a filtragem. E o que pode ser analisado? Veja abaixo:

Dependem das REGRAS determinadas para a filtragem do tráfego.


Duas estratégias básicas utilizáveis: PERMITE (PERMIT) (TUDO) e BLOQUEIA (DENY) (NADA).

O resto está liberado. Esta regra não é uma boa prática, não deve ser utilizada.
É a estratégia mais adequada para criar os FireWalls.

O IDS verifica se o tráfego que foi autorizado pelo FireWall é ou não um tráfego legitimo OU se é ou não um ataque.
Pode estar instalado no terminal (HIDS) ou na rede (NIDS). Ele gera:

O IDS NÃO toma nenhum tipo de ação ! Já o IPS sim.

O IPS pode por exemplo criar automaticamente uma regra no FireWall visando bloquear determinado tipo de tráfego.
Técnicas utilizadas pelos IPS além da ASSINATURA:

Analisa o comportamento da rede gerando ALERTAS sobre um possível ataque.


São diversos tipos que podem realizar diversos tipos de ações. O mais conhecido e tradicional é o

Os Vírus precisam de um hospedeiro para existir assim como os abaixo:

SEM precisar de um hospedeiro, temos o worm que é muito mais ‘automático’ que o vírus.

Outro tipo é o TROJAN, que serve para abrir porta(s) de comunicação não verificadas pelo FireWall...

Os SPYWARES (espiões) podem ser de 3 tipos:


1 – Key (captura toda a digitação)
2 – Screen (captura todas as telas)
3 – Cookies de rastreamento
O último tipo de MALWARE é o

Criptografa os dados e exige resgate para disponibilizar a chave de descriptografia.

Um tipo de RANSOMWARE que afetou muitas empresas no mundo todo a alguns anos foi o

CONCLUSÃO:
FAÇA SEMPRE BACKUP DE SEUS DADOS MAIS SENSÍVEIS OU IMPORTANTES!

OS ANTIVÍRUS PODEM (AS VEZES) DETECTAR OS TIPOS DE MAWARES CITADOS ACIMA POR ASSINATURA OU
RECONHECIMENTO.
Composto por quatro elementos principais
As informações coletadas pelo software gerente através dos softwares agentes formam a MIB (Main Information Base)

Com esse banco de dados no NOC (centro de gerenciamento da rede) o gerente pode ajustar as melhores

configurações de carga, tráfego etc. através do

Um principal protocolo é o

Ele roda em cima do usando a porta 161.

Resumo:

Você também pode gostar