Você está na página 1de 37

CENTRO MEDICO AZUL EBENEZER

Bairro Talatona , largo do condomínio riviera, Avenida-AL7

Telef. 935108022
912 666 356

E-mail: centromedicoazulebenezer@outlook.com

www.logicengenharia.com.br/mcamara/alunos/wireless.pdf( Trabalho sobre rede sem


fio) acesso no dia 24 de Novembro de 2017
1- Movimentação Repartida
1.1 Para lançar no Sistema o Acto Medico
2. Para Emissão da Factura
1. Movimentação
1.1 Facturação
REDES 802.11 (Camada de Enlace)

Redes locais sem fio que atendem ao ao padrão IEEE 802.11

Autor: Luis Guilherme Uzeda Garcia

Introdução

Os avanços nas comunicações nos últimos anos possibilitaram o surgimento de várias tecnologias, que
desde então procuram atender a real necessidade de seus usuários, com a melhor qualidade possível.
Nos últimos anos a comunicação sem fio ganhou um espaço considerável nas tecnologias de
transmissão de dados, deixando de existir apenas nas comunicações de longa distância (feitas através de
satélite), para fazer parte de ambientes locais. Essa tendência foi fortalecida pelo investimento de
instituições e empresas no sentido de aplicar a transmissão sem fio em redes de computadores.

Também apostando nessa nova tecnologia, o IEEE (Institute of Electrical and Eletronics
Engineers) constituiu um grupo de pesquisa para criar padrões abertos que pudessem tornar a tecnologia
sem fio cada vez mais realidade. Esse projeto, denominado de Padrão IEEE 802.11, nasceu em 1990,
mas ficou inerte por aproximadamente sete anos devido a fatores que não permitiam que a tecnologia
sem fio saísse do papel. Um dos principais fatores era a baixa taxa de transferência de dados que
inicialmente a tecnologia oferecia, que era em torno de Kbps.

De acordo com a elevação dessa taxa de transferência de dados que passou a atingir Mbps, a rede sem
fio começou a ser vista como uma tecnologia promissora e a receber ainda mais investimentos para a
construção de equipamentos que possibilitassem a comunicação sem fio entre computadores.

Atualmente o foco das redes de computadores sem fio (Wireless) se encontra no contexto das redes
locais de computadores (Wireless Local Area Network - WLAN), tanto em soluções proprietárias como
no padrão do IEEE. Primeiramente foram colocados em prática alguns padrões proprietários, através de
empresas como IBM, CISCO, Telecom e 3COM. Hoje essas e outras empresas baseiam seus produtos
no padrão do IEEE, devido às inúmeras e já conhecidas vantagens que o padrão aberto oferece:
interoperabilidade, baixo custo, demanda de mercado, confiabilidade de projeto, entre outras.

Fora das redes de computadores, muitas tecnologias sem fio proprietárias têm sido usadas para
possibilitar a comunicação entre dispositivos sem fio. Essas tecnologias têm o propósito de permitir o
controle remoto de equipamentos domésticos e interligar os periféricos (teclado, mouse, impressoras,
etc) aos computadores, eliminando os fios e tornando mais flexível e prático o uso desses equipamentos.
O Bluetooth e HomeRF são exemplos dessas tecnologias.

O padrão IEEE 802.11 define basicamente uma arquitetura para as WLANs que abrange os
níveis físico e de enlace. No nível físico são tratadas apenas as transmissões com freqüência de rádio
(RF) e infravermelho (IR), embora outras formas de transmissão sem fio possam ser usadas, como
microondas e laser, por exemplo. No nível de enlace, o IEEE definiu um protocolo de controle de acesso
ao meio (protocolo MAC), bastante semelhante ao protocolo usado em redes locais Ethernet
(CSMA/CD). O padrão IEEE 802.11 possibilita a transmissão de dados numa velocidade de 1
(obrigatório) à 2Mbps (opcional), e especifica uma arquitetura comum, métodos de transmissão, e outros
aspectos de transferência de dados sem fio, permitindo a interoperabilidade entre os diversos produtos
WLAN [Soares95].

Apesar da significante elevação da taxa de transferência de dados que subiu de algumas poucas dezenas
de kilobits por segundo para 2Mbps, as WLANs não atendiam satisfatoriamente a necessidade de banda
das empresas. Com isso, o IEEE investiu no melhoramento do padrão 802.11 (que passou a ser chamado
de 802.11b), com a mesma arquitetura e tecnologia, mas com taxa de transferência de dados maiores,
entre 5 e 11 Mbps, impulsionando de vez a tecnologia e estimulando as comunidades científica e
industrial a padronizarem, projetarem e produzirem produtos para essas redes.

Portanto, a adoção de sistema sem fio vem crescendo significativamente, em que muitas soluções
WLAN estão ou já foram implantadas em empresas, universidades e outras instituições do mundo
inteiro. Isso indica, sem dúvida, que as redes de computadores sem fio são uma realidade e,
provavelmente, nos próximos anos, substituirão ou serão adicionais aos sistemas com fio já existentes,
passando a ser uma solução bastante interessante para as organizações, pois desta forma os pontos que
necessitam de mobilidade são conectados à rede pelo meio “Wireless” e as estações fixas são ligadas à
rede via cabo.

“Fibra ótica e comunicação sem fio são as tecnologias do futuro”[Tenenbaum96].

Não só isso. Há uma tendência moderna de se implantar cada vez mais as redes sem fio ao invés de
redes com fio. Essa propensão é motivada tanto por aspectos da inviabilidade da instalação de redes com
fio em certos lugares, como pelo barateamento dos equipamentos sem fio e da interoperabilidade
oferecida pela tecnologia Wireless. Outros fatores relacionam-se com as facilidades de mobilidade e
flexibilidade que as comunicações sem fio oferecem.

A tecnologia sem fio não é recente, mas seus produtos caros e sua baixa taxa transferência de dados,
inviabilizaram seu uso. Porém, a tecnologia WLAN (Wireless Local Area Network) vem sendo muito
usada na medicina móvel no atendimento aos pacientes, transações comerciais e bancárias, usadas onde
não possa traspassar fios como construções antigas ou tombadas pelo patrimônio histórico, entre outros,
lugares onde há a necessidade de mobilidade e flexibilidade nas estações de trabalho.

Este trabalho apresenta informações sobre as redes locais sem fio, particularmente as redes locais que
atendem o padrão IEEE 802.11 comentado nesta introdução, mostrando basicamente sua arquitetura e o
funcionamento do protocolo de acesso ao meio (protocolo MAC) usado nessas redes sem fio. Para isso,
este trabalho foi organizado em capítulos, incluindo esta introdução.

No capítulo 1, serão apresentadas as redes locais sem fio que atendem o padrão IEEE 802.11,
destacando o meio físico e o protocolo de acesso ao meio usados nesse tipo de rede. No capítulo 2, serão
apresentadas outras considerações sobre as redes sem fio. No capítulo seguinte, serão abordados os
principais componentes que fazem parte de uma rede sem fio. Por fim, será apresentada uma conclusão
sobre esta monografia.
REDES 802-11 (Camada de Enlace)

(continuação-1)

1.1 Redes Locais Sem Fio IEEE 802.11

Uma rede sem fio (Wireless) é tipicamente uma extensão de uma rede local (Local Area Network -
LAN) convencional com fio, criando-se o conceito de rede local sem fio (Wireless Local Area Network -
WLAN). Uma WLAN converte pacotes de dados em onda de rádio ou infravermelho e os envia para
outros dispositivos sem fio ou para um ponto de acesso que serve como uma conexão para uma LAN
com fio.

“Uma rede sem fio é um sistema que interliga vários equipamentos fixos ou móveis utilizando o ar
como meio de transmissão”[IEEE 802.11a].

A Figura 1.1 ilustra uma rede sem fio conectada por um ponto de acesso (AP) a uma rede convencional
com fio

Figura 1.1- Conexão de uma rede sem fio com uma convencional com fio

O IEEE constituiu um grupo chamado de Wireless Local-Area Networks Standard Working Group, com
a finalidade de criar padrões para redes sem fio, definindo um nível físico para redes onde as
transmissões são realizadas na freqüência de rádio ou infravermelho, e um protocolo de controle de
acesso ao meio, o DFWMAC (Distributed Foundation Wireless MAC). Esse padrão é denominado de
Projeto IEEE 802.11 [Soares95] e tem, entre outras, as seguintes premissas: suportar diversos canais;
sobrepor diversas redes na mesma área de canal; apresentar robustez com relação a interferência; possuir
mecanismos para evitar nósescondidos; oferecer privacidade e controle de acesso ao meio [Camara00].

A Figura 1.2 ilustra o padrão IEEE 802.11, comparando com o modelo padrão de redes de
computadores, o RM-OSI da ISO (Reference Model – Open Systems Interconnection of the
International Standardization Organization).
Figura 1.2 - Comparação do padrão 802.11 com o RM-OSI

A maioria das redes sem fio é baseada nos padrões IEEE 802.11 e 802.11b (sendo este último evolução
do primeiro), para comunicação sem fio entre um dispositivo e uma rede LAN. Esses padrões permitem
transmissão de dados de 1 a 2Mbps, para o padrão IEEE 802.11, e de 5 a 11Mbps, para o padrão IEEE
802.11b, e especificam uma arquitetura comum, métodos de transmissão, e outros aspectos de
transferência de dados sem fio, permitindo a interoperabilidade entre os produtos.

Duas razões contribuíram bastante para que a tecnologia sem fio avançasse: a aprovação do padrão
IEEE 802.11, em 1997, o que ajudou a tornar as WLAN uma realidade; e o barateamento dos
equipamentos para WLAN, que fizeram com que as redes sem fio ficassem mais acessíveis para
algumas empresas, aumentando consideravelmente a comercialização de produtos para computadores
móveis, como o cartão PCMCIA para Notebook e o cartão ISA/PCI para PCs.

1.2 Arquitetura de Rede Sem Fio 802.11

O padrão IEEE 802.11 define uma arquitetura para as redes sem fio, baseada na divisão da área coberta
pela rede em células. Essas células são denominadas de BSA (Basic Service Area). O tamanho da BSA
(célula) depende das características do ambiente e da potência dos transmissores/receptores usados nas
estações. Outros elementos fazem parte do conceito da arquitetura de rede sem fio, quais sejam
[Soares95]:

· BSS (Basic Service Set) – ou Conjunto Básico de Serviço, representa um grupo de estações
comunicando-se por radiodifusão ou infravermelho em uma BSA.
· Ponto de acesso (Access Point – AP) – são estações especiais responsáveis pela captura das
transmissões realizadas pelas estações de sua BSA, destinadas a estações localizadas em outras BSAs,
retransmitindo-as, usando um sistema de distribuição.

· Sistema de distribuição – representa uma infra-estrutura de comunicação que interliga múltiplas


BSAs para permitir a construção de redes cobrindo áreas maiores que uma célula.

· ESA (Extended Service Area) – ou Área de Serviço Extendida, representa a interligação de


vários BSAs pelo sistema de distribuição através dos APs.

· ESS (Extended Service Set) – ou Conjunto de Serviço Extendido, representa um conjunto de


estações formado pela união de vários BSSs conectados por um sistema de distribuição.

A Figura 1.3, apresenta união de duas BSSs conectados por um sistema de distribuição.

Figura 1.3 – União de duas BSS formando uma ESS [Soares95, Pag 271]

A identificação da rede ocorre da seguinte maneira: cada um dos ESSs recebe uma identificação
chamada de ESS-ID; dentro de cada um desses ESSs, cada BSS recebe uma identificação chamada de
BSS-ID. Então, o conjunto formado por esses dois identificadores (o ESS-ID e o BSS-ID), formam
o Network-ID de uma rede sem fio padrão 802.11 [Soares95].

Apesar dos elementos que fazem parte da arquitetura sem fio possibilitar a construção de uma rede
abrangendo áreas maiores do que um ambiente local, o projeto do IEEE 802.11 limita o padrão IEEE
802.11 às redes locais, com ou sem infra-estrutura.

Numa rede WLAN sem infra-estrutura (conhecidas por redes Ad Hoc), as estações se comunicam numa
mesma célula, sem a necessidade de estações especiais, ou seja, sem necessidade dos APs para
estabelecer as comunicações. Numa rede local com infra-estrutura, é necessária a interconexão de
múltiplos BBSs, formando um ESS. Nesse caso, a infra-estrutura é representada pelos APs, e pelo
sistema de distribuição que interliga esses APs. O sistema de distribuição, além de interligar os vários
pontos de acesso, pode fornecer os recursos necessários para interligar a rede sem fio a outras redes, e
ele, o sistema de distribuição, geralmente é representado por um sistema de comunicação com fio (cobre
ou fibra) [IEEE802.11a].
Um elemento fundamental na arquitetura de rede local sem fio com infra-estrutura é o ponto de acesso,
que desempenha as seguintes funções[Soares95]:

· autenticação, associação e reassociação: permite que uma estação móvel mesmo saindo de sua
célula de origem continue conectada à infra-estrutura e não perca a comunicação.

A função que permite manter a continuidade da comunicação quando um usuário passa de uma célula
para outra, é conhecida como handoff [Alencar98].

· gerenciamento de potência: permite que as estações operem economizando energia, através de um


modo chamado de power save.

· Sincronização: garante que as estações associadas a um AP estejam sincronizadas por um relógio


comum.

REDES 802-11 (Camada de Enlace)

(continuação-2)

1.3 Protocolo MAC do Padrão IEEE 802.11

Além de definir um mecanismo para transmissão física usando radiofreqüência ou infravermelho, o


IEEE definiu um protocolo de acesso ao meio (subcamada MAC do nível de enlace de dados),
denominado de DFWMAC (Distributed Foundation Wireless Medium Access Control), que suporta dois
métodos de acesso: um método distribuído básico, que é obrigatório; e um método centralizado, que é
opcional, podendo esses dois métodos coexistir [IEEE802.11a], o protocolo de acesso ao meio das redes
802.11 também trata de problemas relacionados com estações que se deslocam para outra células
(roaming) e com estações perdidas (hidden node).

O método de acesso distribuído forma a base sobre a qual é construído o método centralizado. Os dois
métodos, que também podem ser chamados de funções de coordenação (Coordination Functions), são
usados para dar suporte à transmissão de tráfego assíncrono ou tráfego com retardo limitado (time
bounded).

Uma função de coordenação é usada para decidir quando uma estação tem permissão para transmitir.
Na função de coordenação distribuída (Distributed Coordination Functions - DCF), essa decisão é
realizada individualmente pelos pontos da rede, podendo, dessa forma, ocorrer colisões. Na função de
coordenação centralizada, também chamada de função pontual (Point Coordination Function - PCF), a
decisão de quando transmitir é centralizada em um ponto especial, que determina qual estação deve
transmitir em que momento, evitando teoricamente a ocorrência de colisões [Soares95]. Em todos os
métodos de acesso, há diversos parâmetros importantes para controlar o tempo de espera antes do acesso
ao meio. A figura 2.4 mostra três diferentes parâmetros que definem as prioridades de acesso ao meio. O
meio, como mostrado, pode estar ocupado ou disponível; podendo ser ocupado de diversar maneiras,
por exemplo, quadros de dados, ou quadros de controle. Durante o período de disputa, vários nós tentam
acessar o meio. Seguem detalhes do funcionamento dessas duas funções:

O mecanismo básico do controle de acesso DFWMAC é ilustrado na Figura 2.4, nela podemos observar
que uma estação, com quadros para transmitir, deve sentir o meio livre por um período de silêncio
mínimo, IFS (Inter Frame Space), antes de utiliza-lo. Utilizando valores diferentes para esse período. O
DFWMAC define três prioridades de acesso ao meio[Soares95]:

Figura 2.4 - Método de acesso CSMA/CA[Soares, Pág 276]

· Distributed Inter Frame Spacing (DIFS) – espaço entre quadros da DCF (Função de
Coordenação Distribuída), este parâmetro indica o maior tempo de espera, portanto a menor prioridade;
ele monitora o meio, aguardando no mínimo um intervalo de silêncio para transmitir os dados.

· Priority Inter Frame Space (PIFS) – espaço entre quadros da PCF (Função de Coordenação
Pontual), um tempo de espera entre o DIFS e o SIFS (prioridade média) , é usado para o serviço de
acesso com retardo, ou seja um ponto de acesso controlando outros nós, so precisa esperar um tempo
PIFS para acessar o meio.

· Short Inter Frame Space (SIFS) – é usado para transmissão de quadros carregando respostas
imediatas (curtas), como ACK que possuem a mais alta prioridade.

1.3.1 Função de Coordenação Distribuída (DCF)

Representa o método de acesso básico do protocolo DFWMAC. É uma função conhecida como
CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) com reconhecimento. A DCF
trabalha semelhantemente a função CSMA/CD da tecnologia de rede local cabeada (Padrão Ethernet
802.3), apenas com uma diferença: o protocolo CSMA/CD do Ethernet controla as colisões quando elas
ocorrem, enquanto que o protocolo CSMA/CA do padrão sem fio apenas tenta evitar as colisões. A
utilização dessa função distribuída é obrigatória para todas as estações e pontos de acesso (APs), nas
configurações Ad Hoc e com infra-estrutura, e ela, a DCF, trabalha da seguinte maneira, quando uma
estação deseja transmitir [Soares95]:

· a estação sente o meio para determinar se outra estação já está transmitindo.

· se o meio estiver livre há pelo menos um intervalo de tempo DIFS, a estação transmite seu quadro
imediatamente, caso contrário, ela aguarda DIFS novamente, cada estação escolhe um tempo aleatório
de retirada (Back-off time) e atrasa esse tempo aleatório sua tentativa de acesso ao meio. Se ao terminar
seu tempo de back-off a estação encontrar o meio livre, ela transmitirá.

. Esse tempo de back-off é escolhido por cada estação respeitando um limite máximo, que pode
variar de acordo com a carga de utilização da rede. Se a rede está muito carregada, esse limite máximo
para o tempo de retirada vai dobrando a cada colisão até chegar ao limite máximo de 255 ms. Quando a
rede está pouco carregada, esse limite permanece baixo, 7 ms, diminuindo assim os atrasos. É óbvio que
quanto menor o limite, maior é a probabilidade de duas estações escolherem tempos de back-off iguais,
provocando uma colisão.

· após cada transmissão com ou sem colisão, a rede fica em um modo onde as estações só podem
começar a transmitir em intervalos de tempo a elas pré-alocados.

· ao findar uma transmissão, as estações alocadas ao primeiro intervalo têm o direito de transmitir.
Se não o fazem, o direito passa as estações alocadas ao segundo intervalo, e assim sucessivamente até
que ocorra uma transmissão, quando todo o processo reinicia.

· se todos os intervalos não são utilizados, a rede entra então no estado onde o CSMA comum é
usado para acesso, podendo dessa forma ocorrer colisões.

No método CSMA/CA pode ocorrer colisões e esse método não garante a entrega correta dos dados.
Com isso, uma estação após transmitir um quadro, necessita de um aviso de recebimento (ACK) que
deve ser enviado pela estação destino. A estação de destino envia o sinal de recebimento após esperar
apenas por um tempo SIFS, logo, nenhuma outra estação acessará o meio ao mesmo tempo causando
uma colisão. Lembremos que cada estação precisa aguardar um tempo DIFS mais o seu tempo de
retirada Para isso, a estação que enviou o quadro aguarda um tempo (timeout) pelo aviso de
recebimento do quadro por parte da estação destino. Caso esse aviso não chegue no tempo considerado,
a estação origem realiza novamente a transmissão do quadro.

Para melhorar a transmissão de dados, o protocolo DFWMAC acrescenta ao método CSMA/CA com
reconhecimento, um mecanismo opcional que envolve a troca de quadros de controle RTS (Request To
Send) e CTS (Clear To Send) antes da transmissão de quadros de dados. Esse mecanismo funciona da
seguinte forma [Soares95]:

· Uma estação, após aguardar DIFS e seu tempo de retirada aleatório, antes de efetivamente
transmitir o quadro de dados, transmite um quadro de controle RTS, que carrega uma estimativa da
duração no tempo da futura transmissão do quadro de dados e o ACK associado a este, além do
destinatário da transmissão de dados por vir..

· A estação de destino ao receber o quadro de controle RTS acerta o seu Vetor de Alocação de
Rede (NAV). O NAV especifica quando uma estação tentará acessar o meio novamente. Em resposta ao
RTS, o receptot envia um quadro de controle CTS avisando que está pronto para receber o quadro de
dados. O CTS informa as demais estações sobre a transmissão que vai ocorrer, fazendo com que estas
também acertem seus NAVs. Agora, todas as estações estão informadas sobre a transmissão e irão
esperar para acessar o meio, podemos dizer então que os sinais RTS e CTS reservam o meio para uma
transmissão. Só então, a estação transmissora envia o quadro de dados após SIFS, que deve ser
respondido com um reconhecimento (ack) enviado pela estação receptora.

. Neste caso, uma colisão so acontecerá se duas estações enviarem um RTS ao mesmo tempo. O
RTS só deve ser usado quando temos um quadro maior, pois seu uso acarreta uma sobrecarga na rede
(overhead).

O quadro RTS basicamente possui as funcionalidades de reservar o meio para a transmissão do quadro
de dados, e de verificar se a estação de destino está pronta para receber o quadro de dados, sendo esta
última funcionalidade devido à possibilidade da estação de destino estar operando no modo de economia
de energia (modo power save).

A figura 2.5, apresenta a troca de dados para a transmissão de informações, usando o mecanismo
opcional com RTS e CTS.

ESTAÇÃOFONTE

Figura 2.4 – Troca de dados para transmissão de informações [Soares95, Pag 275]

1.3.2 Função de Coordenação Pontual (PCF)

Trata-se de uma função opcional que pode ser inserida no protocolo DFWMAC, sendo construída sobre
uma função de coordenação distribuída (DCF) para transmissões de quadros assíncronos, e é
implementada através de um mecanismo de acesso ordenado ao meio, que suporta a transmissão
de tráfego com retardo limitado ou tráfego assíncrono [Soares95].

Para a integração dessas duas funções – pontual e distribuída – é utilizado o conceito de superquadro,
fazendo com que o protocolo possa trabalhar de uma forma em que a função pontual assuma o controle
da transmissão, para evitar a ocorrência de colisões. Para isso, o protocolo DFWMAC divide o tempo
em períodos denominados superquadros, que consiste em dois intervalos de tempo consecutivos, que
são usados da seguinte maneira [Soares95]:

· no primeiro tempo, controlado pela PCF, o acesso é ordenado, o que evita a ocorrência de
colisões; após esperar PIFS, o ponto de coordenação dá acesso a primeira estação, que pode responder
após SIFS. Depois de aguardar mais SIFS, o coordenador dá a vez para a segunda estação e assim por
diante. Quando uma estação não responde após SIFS, o coordenador, aguarda PIFS e passa a vez para a
próxima.

· no segundo tempo, controlado pela DCF, o acesso baseia-se na disputa pela posse do meio,
podendo ocorrer colisões.

REDES 802-11 (Camada de Enlace)

(continuação-3)

1.4 Quadros MAC

Um quadro MAC IEEE802.11 tem basicamente os seguintes campos:

. Controle de quadro: Os primeiros 2 octetos indicam a versão do protocolo, o tipo de quadro (


controle, dados, manutenção), se o quadro foi ou não fragmentado, informações de privacidade e os dois
bits do sistema de distribuição. De acordo com esses 2 bits, os campos de endereço adquirem
significados diferentes.

. Duração ID: Utilizado para a reserva virtual do meio, usando RTS/CTS. Este campo indica a
duração do periodo de ocupação do meio de transmissão.

. Endereços 1 a 4: Cada um desses campos contém endereços MAC padrão (48 bits) assim como
nas demais LAN 802.x Seu significado depende dos dois bits do sistema de distribuição.

. Sequência de controle: Utilizado para se filtrar quadros que possam ser eventualmente duplicados.

. Dados: Variam de 0 à 2312 octetos.

. CRC : 32 bits do código corretor de erro comum a todas as LANs 802.x


1.5 Roaming

O roaming é uma importante característica de comunicação sem fio. Permite que estações mudem de
célula e continuem enviando e recebendo informações. Sistemas de roaming empregam arquiteturas de
microcélulas que usam pontos de acesso estrategicamente localizados. O handoff entre pontos de acesso
é totalmente transparente para o usuário.

Redes sem fio típicas dentro de prédios requerem mais que apenas um AP para cobrir todos os
ambientes. Dependendo do material de que é feito as paredes dos prédios, um AP tem um raio
transmissão que varia de 10 a 20 metros, se a transmissão for de boa qualidade. Se um usuário passeia
com uma estação (aparelho sem fio), a estação tem que se mover de um célula para outra. A função
do roaming funciona da seguinte forma [Alencar00]:

. A estação, ao perceber que a qualidade da conexão atual ao seu ponto de acesso está muito pobre,
começa a buscar por um outro ponto de acesso.

· A estação escolhe então um novo ponto de acesso baseada por exemplo, na potência do sinal, e
envia um pedido de adesão à célula deste novo ponto de acesso.

· Na célula visitada, o AP desta, irá verificar se a estação móvel visitante não havia se registrado
anteriormente. Caso esse procedimento não tenha sido efetuado, o referido AP irá informar ao AP da
célula origem sobre a nova posição. O novo AP envia uma resposta de adesão, e a estação passa a
pertencer a essa nova BSS.

· Com isso, o AP da célula origem fica sabendo da nova posição da estação móvel, e envia a
informação a ela destinada, como se a referida estação estivesse em sua própria célula.

1.6 Estações Perdidas / Escondidas (hidden node)

Um dos grandes problemas em redes sem fio ocorre quando uma estação fica incomunicável por um
período de tempo com o AP. São vários os motivos porque isto ocorre. O desligamento da estação
móvel, a saída da estação móvel da área de atuação do AP ou entrada da estação móvel em uma área
onde as ondas de rádio proveniente de outro lugar não se propagam ou locais com grande degradação de
sinal, que pode ser por motivos geográficos ou ambientais (área de sombra).

A Figura 2.6 ilustra uma perda de conexão do AP com a estação móvel por razões geográficas.
Figura 2.6 - Perda de conexão com a estação móvel por razão geográfica

O protocolo MAC trata o problema de estações perdidas da seguinte forma [Camara00]:

· Ao tentar comunicar-se com a estação móvel inúmeras vezes sem obter resposta, o AP envia
um pedido de comunicação para todas as outras estações móveis sob sua área de cobertura. Cada uma
destas envia um pedido de comunicção para a estação perdida, esta por sua vez, envia um notificação de
respostapara todos avisando que está ativa.

· As estações que ouvirem esta comunicação envia um bridge request, diretamente para o AP,
podendo que assim encontrar a melhor opção de comunicação entre o AP e a estação perdida.

A Figura 2.7 ilustra o AP escolhendo uma estação móvel para usar como ponte para comunicar-se com a
estação perdida.

Figura 2.7 - AP escolhe uma estação móvel mas próxima da estação perdida para usar como
ponte.

A comunicação do AP com a estação perdida, será via “ponte”. O AP deve enviar dados para a ponte,
como diretamente para a estação perdida. Assim se esta receber a comunicação, não há mais a
necessidade da ponte.

Se o AP perder a comunicação com a ponte ou a ponte perde a comunicação com a estação perdida, o
AP escolhe outra ponte entre as estações que respondera inicialmente.

Com este método o AP tem a chance de recuperar uma estação que por algum motivo tornou-se
incomunicável com a rede.

1.7 Sincronização

Cada nó de uma rede 802.11 mantém um relógio interno. Para sincronizar o relógio de todos os nós, o
padrão especifia uma função de sincronização de tempo (timing sinchronization function, TST) .
Dentro de uma BSS, o ajuste dos relógios é feito através de um quadro transmitido quase
periodicamente. Os nós não precisam escutar esse quadro sempre, entretanto, de tempos em tempos os
relógios internos têm que ser ajustados.

Em uma rede com infra-estrutura os APs são responsáveis pelo envio desse quadros de sincronização.
Esses quadros são quase periódicos, pois eles têm a mesma prioridade que os demais, ou seja, se o meio
estiver ocupado, eles não serão enviados naquele ciclo.

Numa rede Ad Hoc, a situação é um pouco mais complicada, já que não há um ponto de acesso
responsável pela transmissão desse sinal. Neste caso, cada nó mantém seu próprio relógio e envia um
sinal de sincronização após o tempo padrão para o envio desses sinais ter passado. Entretanto, várias
estações mandam esse sinal ao mesmo tempo, aí o algorítmo padrão de back-off entra em ação e uma
estação vai acabar "vencendo". Todos os demais nós da rede ajustam seus relógios de acordo com esse
sinal vencedor e cancelam o envio de seus próprios sinais de sincronização neste ciclo.

1.8 Transmissão em Redes Locais Sem Fio (WLAN)

O Padrão IEEE 802.11 trata da tecnologia sem fio enfocando as redes locais sem fio (WLAN). Essas
redes basicamente utilizam radiofreqüência para a transmissão de dados, através de duas técnicas
conhecidas como DSSS (Direct Sequence Spread Spectrum) e FHSS (Frequency Hopping Spread
Spectrum), codificando dados e modulando sinais de modos diferentes para equilibrar velocidade,
distância e capacidade de transmissão. A escolha da técnica DSSS ou FHSS dependerá de vários fatores
relacionados com a aplicação dos usuários e o ambiente onde a rede operará.

Outras formas de transmissão também podem ser usadas em redes locais sem fio, como a transmissão
em infravermelho, por exemplo. Mas transmissões com infravermelho não atravessam certos tipos de
materiais, apesar de poder enviar mais dados do que a transmissão com radiofreqüência. Com isso, a
transmissão através de radiofreqüência acaba sendo o padrão adotado nas transmissões WLAN.

Para a transmissão em radiofreqüência são usadas as técnicas DSSS e FHSS. Essas técnicas transmitem
os quadros de dados enviando-os por vários canais disponíveis dentro de uma freqüência, ao invés de
usar um único canal, possibilitando, dessa forma, a transmissão simultânea de vários quadros.

A técnica DSSS distribui o sinal em cima de uma gama extensiva da faixa de freqüência e reorganiza os
pacotes no receptor. A técnica FHSS envia segmentos curtos de dados que são transmitidos através de
freqüências específicas, controlando o fluxo com o receptor, que negocia velocidades menores
comparadas às velocidades oferecidas pela técnica DSSS, mas menos suscetíveis a interferências.

O padrão 802.11 usa as duas técnicas, enquanto que outras tecnologias, como
o HomeRF e Bluetooth, usam apenas a técnica FHSS, que é mais eficiente para ambientes que possuem
outros tráficos de rádio, como áreas públicas abertas, por exemplo.

As WLANs baseadas em radiofreqüência usam as faixas de freqüência ISM (Industrial - Scientific -


Medical), que assumem freqüências de 900MHz, 2.4GHz e 5GHz. Quanto maior a freqüência maior é a
quantidade de informação que um dispositivo pode enviar num canal. As primeiras WLANs operavam
na freqüência de 900MHz, atingindo uma taxa de 256Kbps. O padrão IEEE 802.11 aumentou a taxa de
transmissão para 1Mbps, usando a técnica FHSS, e posteriormente para 2Mbps, usando a técnica DSSS,
trabalhando na freqüência de 2.4GHz.

A maioria das empresas optou pela técnica DSSS porque oferece freqüências mais altas do que a FHSS.

1.9 Novos Padrões para Rede Local Sem Fio

:.IEEE 802.11b

A velocidade das redes 802.11b é de 11 megabits, comparável à das redes Ethernet de 10megabits, mas
muito atrás da velocidade das redes de 100 megabits. Estes 11 megabits não são adequados para redes
com um tráfego muito pesado, mas são mais do que suficientes para compartilhar o acesso à web, trocar
pequenos arquivos, jogar games multiplayer, etc. Note que os 11 megabits são a taxa bruta de
transmissão de dados, que incluem modulação, códigos de correção de erro, retransmissões de pacotes,
etc., como em outras arquiteturas de rede. A velocidade real de conexão fica em torno de 6 megabits, o
suficiente para transmitir arquivos a 750 KB/s, uma velocidade real semelhante à das redes Ethernet de
10 megabits.

O alcance do sinal varia entre 15 e 100 metros, dependendo da quantidade de obstáculos entre o ponto
de acesso e cada uma das placas. Paredes, portas e até mesmo pessoas atrapalham a propagação do sinal.
Numa construção com muitas paredes, ou paredes muito grossas, o alcance pode se aproximar dos 15
metros mínimos, enquanto num ambiente aberto, como o pátio de uma escola o alcance vai se aproximar
dos 100 metros máximos.

A potência do sinal decai conforme aumenta a distância, enquanto a qualidade decai pela combinação do
aumento da distância e dos obstáculos pelo caminho. É por isso que num campo aberto o alcance será
muito maior do que dentro de um prédio por exemplo.

Conforme a potência e qualidade do sinal se degrada, o ponto de acesso pode diminuir a velocidade de
transmissão a fim de melhorar a confiabilidade da transmissão. A velocidade pode cair para 5.5
megabits, 2 megabits ou chegar a apenas 1 megabit por segundo antes do sinal se perder completamente.
Algumas placas e pontos de acesso são capazes de negociar velocidades ainda mais baixas,
possibilitando a conexão a distâncias ainda maiores. Nestes casos extremos o acesso à rede pode se
parecer mais com uma conexão via modem do que via rede local.

:.IEEE 802.11a

O 802.11b utiliza a frequência de 2.4 GHz, a mesma utilizada por outros padrões de rede sem fio e pelos
microondas, todos potenciais causadores de interferência. O 802.11a por sua vez utiliza a frequência de
5 GHz, onde a interferência não é problema. Graças à frequência mais alta, o padrão também é quase
cinco vezes mais rápido, atingindo respeitáveis 54 megabits.

Note que esta é a velocidade de transmissão "bruta" que inclui todos os sinais de modulação, cabeçalhos
de pacotes, correção de erros, etc. a velocidade real das redes 802.11a é de 24 a 27 megabits por
segundo, pouco mais de 4 vezes mais rápido que no 802.11b.
Outra vantagem é que o 802.11a permite um total de 8 canais simultâneos, contra apenas 3 canais no
802.11b. Isso permite que mais pontos de acesso sejam utilizados no mesmo ambiente, sem que haja
perda de desempenho.

O grande problema é que o padrão também é mais caro, por isso a primeira leva de produtos vai ser
destinada ao mercado corporativo, onde existe mais dinheiro e mais necessidade de redes mais rápidas.

Além disso, por utilizarem uma frequência mais alta, os transmissores 8021.11a também possuem um
alcance mais curto, teoricamente metade do alcance dos transmissores 802.11b, o que torna necessário
usar mais pontos de acesso para cobrir a mesma área, o que contribui para aumentar ainda mais os
custos.

A diferença de custo vai se manter por um ou dois anos. É de se esperar então que as redes de 11
megabits continuem se popularizando no mercado doméstico, enquanto as de 54 megabits ganhem
terreno no mercado corporativo, até que um dia o preço dos dois padrões se nivele e tenhamos uma
transição semelhante à das redes Ethernet de 10 para 100 megabits.

Ao contrário do que o nome sugere, o 802.11a é um padrão mais recente do que o 802.11b. Na verdade,
os dois padrões foram propostos pelo IEEE na mesma época, mas o 802.11b foi finalizado antes e por
isso chegou ao mercado com mais de 6 meses de antecedência. Os primeiros periféricos 802.11a foram
lançados em Novembro de 2001.

:. IEEE 802.11g

Este é um padrão recentemente aprovado pelo IEEE, que é capaz de transmitir dados a 54 megabits,
assim como o 802.11a.

A principal novidade é que este padrão utiliza a mesma faixa de frequência do 802.11b atual: 2.4 GHz.
Isso permite que os dois padrões sejam intercompatíveis. A idéia é que você possa montar uma rede
802.11b agora e mais pra frente adicionar placas e pontos de acesso 802.11g, mantendo os componentes
antigos, assim como hoje em dia temos liberdade para adicionar placas e hubs de 100 megabits a uma
rede já existente de 10 megabits.

A velocidade de transferência nas redes mistas pode ou ser de 54 megabits ao serem feitas transferências
entre pontos 802.11g e de 11 megabits quando um dos pontos 801.11b estiver envolvido, ou então ser de
11 megabits em toda a rede, dependendo dos componentes que forem utilizados. Esta é uma grande
vantagem sobre o 802.11a, que também transmite a 54 megabits, mas é incompatível com os outros dois
padrões.

Os primeiros produtos baseados no 802.11g devem chegar ao mercado apartir do final de 2002, um ano
depois da primeira leva do 802.11a, que é o concorrente direto. Isso significa que a popularidade do
802.11g será determinada pelo sucesso do concorrente. Se o 802.11a for rapidamente adotado e chegar a
substituir o 802.11b até lá, os periféricos 802.11g terão pouca chance e talvez nem cheguem a ser
lançados, já que seria uma guerra perdida.

Se por outro lado a maioria dos usuários preferir os dispositivos 802.11b, então o 802.11g terá chances
de dominar o mercado.
O padrão IEEE 802.11b também define o protocolo para dois tipos de redes: redes Ad Hoc e redes com
infra-estrutura (Cliente/Servidor).

· uma rede Ad Hoc é um sistema onde as comunicações são estabelecidas entre várias estações de
uma mesma área (célula), sem o uso de um ponto de acesso ou servidor e sem a necessidade de infra-
estrutura [Alencar98].

<p

As Figuras 1.7 e 1.8 apresentam um exemplo de uma rede local sem fio Ad Hoc e uma rede com infra-
estrutura, respectivamente.

Figura 1.7 – Rede local sem fio Ad Hoc


Figura 1.8 – Rede local sem fio com infra-estrutura

https://www.gta.ufrj.br/grad/01_2/802-mac/index.html
1.

Acesso 11 de Novembro de 2017

https://sistemas.riopomba.ifsudestemg.edu.br/dcc/materiais/402257390_redes-sem-fio.pdf

E TEC BRASIL 402257390_redes-sem-fio

www.faeterj-rio.edu.br/downloads/bbv/0030.pdf-Ivan Dias Borba Netto - Faeterj-Rio

Principais Dispositivos de uma Rede de Computadores [Parte 1]


POR ANDRE H O SANTOS · PUBLISHED 15 DE SETEMBRO DE 2016 · UPDATED 17 DE
NOVEMBRO DE 2016
Para os amantes de artigos sobre redes de computadores, hoje apresentamos mais um post onde iremos
mostrar o funcionamento básico dos principais equipamentos ativos de uma rede. Para entendermos
melhor todo o processo, é de extrema importância que tenham lido os artigos sobre o Modelo de
Referência OSI e a Arquitetura de Redes TCP/IP, ou no mínimo possuem conhecimentos sobre
o “Modelo em Camadas”. Esta matéria está dividida em duas partes para melhor compreensão do
conteúdo a ser repassado.
A produção deste artigo foi possível graças a reunião de diversos conceitos entre alguns autores bem
conhecidos da área, além de outros artigos em blogs e sites sobre o assunto. Para mais informações, vide
as “Fontes” no final desta matéria.
Índice [Exibir]

Introdução
“Criar uma LAN (Rede Local) isolada do resto do mundo, já não faz mais muito sentido atualmente”.
(BEZERRA, 2009).
Tudo hoje praticamente impõe a necessidade de conexão com o restante do mundo. Transações
bancárias, envio de correspondência, compras de produtos e bens de consumo, conversas e bate papo
geral, comunicação por voz e vídeo, entretenimento são apenas alguns exemplos de atividades
corriqueiras do dia-a-dia. Para que estas atividades sejam possíveis, utilizamos muitas vezes sem mesmo
saber, alguns dispositivos que são fundamentais para o processo de comunicação na Internet e em Redes
Locais.
E, para simplificar nosso aprendizado, iremos tratar especificamente dos principais e mais comuns dos
dispositivos ativos em uma Rede de Computadores. Mas, é necessário primeiro compreender alguns
conceitos básicos, além dos já repassados nas matérias sobre “Modelo em Camadas”, como grupos de
equipamentos ativos e passivos em uma rede.

Dispositivos Ativos x Passivos de Rede


Quando falamos de Redes de Computadores, há dois principais grupos de dispositivos que são
normalmente citados: dispositivo ativo e passivo.
 Passivo da Rede: O grupo de componente passivo é representado pelos elementos responsáveis
pelo transporte dos dados através de um meio físico. São todos dispositivos que funcionam com
pulsos/sinais elétricos e não procedem com uma análise dos dados.
 Alguns elementos comuns:
1. Painéis de Conexão (Blocos, Patch Panel), Rack de Rede (Parede ou Piso);
2. Voice Panel;
3. Cabos Metálicos, Cabos Ópticos, Conectores e Extensores;
4. Cordões de Manobra (Patch Cable, Adapter Cable, Cable Link), entre outros.
 Ativo da Rede: Dispositivos que analisam e decidem sobre o modo como a informação atravessa o
equipamento, afetando o funcionamento dos sistemas. Estes são os responsáveis pela comunicação
adequada entre as estações de trabalho e os servidores. Eles garantem uma comunicação confiável
com a performance requerida pela aplicação. Portanto, é imprescindível que estes equipamentos
estejam dimensionados adequadamente para as necessidades da organização.
 Alguns elementos comuns:
 Switches, Hubs, Bridges (Pontes), Modems, Roteadores, Placas de Rede;
 Firewall (equipamento);
 Chaveador KVM;
 Conversores de Mídia;
 Servidores;
 Access Points (Pontos de Acesso), entre outros.

HUB

Hub 8 Portas (10mbps). (C) Google Imagens, 2016.


O HUB é um concentrador de rede, um equipamento que funciona na Camada 1 do Modelo OSI
(Camada Física). Sua principal funcionalidade é a interligação entre computadores de uma rede uma vez
que possui várias portas RJ-45 (ou ISO 8877) fêmea. Está diretamente associado a “Topologia Física
Estrela”. É fato também que atualmente este equipamento está cada vez mais em desuso, conhecido
muitas vezes pelo termo “concentrador burro”.
Um HUB consiste num repetidor multiportas, ou seja, ele trabalha com o que chamamos de “Domínio
de Colisão”, quando recebe a informação numa determinada porta, ele transmite essa informação por
todas as outras portas, exceto por aquela que recebeu essa informação (flood), criando assim um único
domínio de colisão reduzindo também a performance.
“Domínio de Colisão: Um domínio simples de colisão consiste em um ou mais Hubs Ethernet e nós
conectados entre eles. Cada aparelho dentro do domínio de colisão partilha a banda de rede disponível
com os outros aparelhos no mesmo domínio. Switches e Bridges são utilizados para separar domínios
de colisão que são demasiado grandes de forma a melhorar a performance e a estabilidade da rede.”
(BEZERRA, 2009).
Outra característica dos Hubs é que apenas permitem comunicações simultâneas entre dois pontos, isto
é, se tivermos um PC A ligado a porta 1 e outro PC B a porta 2, e estiverem comunicando entre eles via
HUB, se o PC C ligado à porta 3 pretender comunicar com o PC D ligado a porta 4 terá de esperar que
termine a ligação entre o PC A e o PC B (a comunicação é estabelecida por frações de tempo mediante o
número de portas do HUB ativas).

Gráfico do HUB, sem microsegmentação no domínio de colisão. (C) Google Imagens, 2016.
O HUB como um tipo de concentrador pode apresentar-se como:
 Concentrador Passivo: dispositivo simples adequado a instalações onde a distribuição física das
estações é tal que a degradação do sinal, quando transmitido entre quaisquer estações adjacentes,
está dentro do limite aceitável. Não regeneram os bits, ou seja, não estendem o comprimento de um
cabo, apenas permitem que dois ou mais hosts se conectem ao mesmo segmento de cabo.
 Concentrador Ativo: possui repetidores embutidos nas portas onde são conectados os cabos que
ligam o concentrador às estações. Esse tipo de concentrador restaura a forma e o sincronismo do
sinal quando ele passa por suas portas. A distância máxima permitida entre um concentrador ativo e
uma estação é o dobro da que é permitida quando um concentrador passivo é utilizado. Eles obtêm
energia de uma fonte de alimentação para gerar novamente os sinais da rede.
REPETIDOR (Repeater)

Funcionamento básico de um Repetidor. (C) Google Imagens, 2016.


Os repetidores são equipamentos utilizados para interligar redes com a mesma tecnologia. São usados
em circuitos de comunicação reduzindo a distorção regenerando e amplificando um sinal de modo que
possa continuar sendo transmitido com a força e formas originais, ou seja, o que é recebido numa porta é
amplificado e retransmitido instantaneamente em todas as outras portas.
Opera apenas na Camada 1 do Modelo OSI (Camada Física) recebendo um sinal de entrada,
regenerando-o e enviando para a porta de saída. Com o objetivo de manter a inteligibilidade dos dados,
o repetidor é um regenerador de sinais (não um amplificador), pois refaz os sinais originais (deformados
pela atenuação/ruído) tentando anular a interferência do ruído.
Por definição, não efetua nenhum tipo de filtragem. Sua utilização requer estudos relacionados ao
padrão do meio físico e a susceptibilidade do ruído neste.
“Filtragem: Capacidade de um dispositivo determinar se um frame (quadro ou pacote) deve ser
repassado para alguma interface ou deve ser descartado. A filtragem e o repasse são feitos através de
uma tabela de comutação”. (BEZERRA, 2009).
Algumas vantagens do seu uso são:
 Reduz os Efeitos da Atenuação;
 Evitar Colisões;
 Isolar Segmentos;
 Hubs Ativos.
“É válido observar que um repetidor é transparente . Os computadores não sabem de sua existência,
no sentido que nunca o endereçam. Na realidade, um repetidor não possui endereço IP nem MAC.”

BRIDGE (Ponte)
Segmentando Redes com Bridge. (C) CISCO Networking Academy, 2014.
Uma Bridge (Ponte) pode ser tanto um dispositivo de hardware quanto um software, projetado para
conectar segmentos diferentes de uma rede. Estes equipamentos possuem a capacidade de isolamento de
tráfego por segmento de rede, apresentando-se como uma solução para resolver problemas de tráfego
em redes locais.
Operam nas Camadas 1 e 2 do Modelo OSI (Camada Física e de Enlace), agregando a função de
verificar o MAC Address do host que receberá o frame (quadro). Aqui é possível realizar filtragem de
entrega através do MAC Address, determinando que interface receberá um quadro enviado. (BEZERRA,
2009).
Usa-se uma bridge quando existem diferentes tipos de redes em um ambiente e deseja-se trocar
informações ou compartilhar arquivos entre todos os computadores, que podem comunicar entre si.

Exemplo básico de segmentação com Bridge. (C) Google Imagens, 2016.


Sua principal diferença dentre os outros dispositivos como os repetidores que trabalham a nível físico, é
que as Bridges manipulam pacotes de dados em vez de sinais elétricos. Além de não retransmitirem
ruídos e erros nos pacotes, as bridges são totalmente transparentes para os outros dispositivos de rede, e
por isso, diversas redes locais interligadas por uma ponte formam uma única rede lógica. (MARTINEZ,
2016).
As principais características da Bridge são:
 Filtrar pacotes entre segmentos de LAN’s;
 Capacidade de armazenamento de mensagens, principalmente quando o tráfego na rede for muito
grande;
 Possui função de uma estação repetidora comum;
 Algumas bridges atuam como elementos gerenciadores da rede, coletando dados sobre tráfego para
a elaboração de relatórios;
 São Auto-configuráveis;
 Transparente para os protocolos acima da camada MAC.
Apesar de Bridges, Repetidores e HUBs serem dispositivos de rede semelhantes, a Ponte é mais
complexa. Elas podem gerenciar o tráfego de uma rede ao invés de simplesmente retransmití-lo para os
segmentos de rede adjacentes.

ACESSO 25 de NOVEMBRO DE 2017

Arquitetura de Redes TCP/IP


POR ANDRE H O SANTOS · PUBLISHED 2 DE AGOSTO DE 2016 · UPDATED 30 DE
OUTUBRO DE 2017
O Modelo TCP/IP tem o mesmo objetivo do Modelo OSI, que é a de definir um modelo padrão de
camadas para a implementação de camadas na arquitetura da rede. A principal diferença entre o
Modelo TCP/IP e o modelo OSI é o número de camadas, sendo que este primeiro possui 4 camadas e o
segundo 7.

— Willians Ribeiro

O TCP/IP é um conjunto de protocolos de comunicação entre computadores em rede (também chamado


de Pilha de Protocolos TCP/IP). Seu nome vem de dois principais protocolos utilizados: o
TCP (Transmission Control Protocol – Protocolo de Controle de Transmissão) e o IP (Internet Protocol
– Protocolo de Interconexão).
Para que seja possível entender melhor este artigo, é de extrema importância que tenha lido o artigo
sobre o Modelo de Referência da Camada OSI (veja aqui), ou no mínimo conhecer o Modelo OSI de 7
camadas.
O protocolo IP é o protocolo mais popular e utilizado em redes do mundo todo (LOPEZ, 2016).
O TCP, localiza-se na camada de transmissão do modelo OSI e, por ser um protocolo orientado a
conexão, provê uma conexão segura para a troca de dados entre hosts diferentes. Com esse protocolo,
todos os pacotes são sequenciados e identificados e, um circuito virtual é estabelecido para
comunicações (LEWIS, 1999).
O IP é um protocolo de conectividade que provê um serviço de pacotes de dados (datagramas)
entre hosts. É responsável pelo endereçamento dos pacotes, pacotes de roteamento, fragmentação e
reunião, movendo dados entre as camadas de transporte e rede do modelo OSI. Este protocolo não
garante a entrega dos pacotes em uma rede. Localizado na camada de Rede do modelo OSI, o
protocolo IP confia em outros protocolos providos de camadas superiores do modelo OSI para prover
serviços orientados à conexão se necessário. O cabeçalho de um pacote IP é composto por muitos
campos de controle, entre os mais importantes estão os campos de endereço da fonte, endereço de
destino e tempo de vida do pacote (LEWIS, 1999).
O conjunto de protocolos pode ser visto como um modelo de camadas, onde cada camada é responsável
por um grupo de tarefas, fornecendo um conjunto de serviços bem definidos para o protocolo da camada
superior. As camadas mais altas estão logicamente mais perto do usuário (chamada camada de
aplicação) e lidam com dados mais abstratos, confiando em protocolos de camadas mais baixas para
tarefas de menor nível de abstração.
Surgiu por volta de 1960, desenvolvido pelo Departamento de Defesa Americano, com o intuito de
preservar a integridade dos dados, sem que os mesmos fossem interceptados por inimigos
(principalmente em épocas de guerra) (FILIPPETTI, 2002).
Conforme DIOGENES (2004), os principais objetivos da criação do Protocolo TCP/IP foram:
 Obter um protocolo que fosse compatível com todos os tipos de redes;
 Que fosse interoperável entre todos os fabricantes;
 Possuísse uma comunicação robusta (confiável e com baixo índice de falhas), escalonável (passível
de ser colocada em níveis ou etapas) e que suportasse o crescimento das redes de uma forma segura
e confiável;
 E que fosse dinâmico e de fácil configuração.
No inicio, a utilização do TCP/IP era restrita apenas para fins militares, porém, com o passar do
tempo, o TCP/IP passou a ser utilizando em grande escala pelo domínio público, o que permitiu aos
fabricantes de softwares viabilizarem o suporte ao TCP/IP em todos os principais sistemas
operacionais, seja qual for à arquitetura computacional utilizada (PC, mainframes, celulares, etc.)
(MORIMOTO, 2011).
Segundo MORIMOTO ( 2011), qualquer sistema com um mínimo de poder de processamento, pode
conectar-se à Internet, desde que alguém crie para ele um protocolo compatível com o TCP/IP e
aplicativos WWW, correio eletrônico etc.

Camadas do Modelo TCP/IP


A arquitetura TCP/IP assim como a OSI, possui suas funções divididas em camadas, com a diferença na
quantidade, enquanto o Modelo OSI possui 7 camadas, o Modelo TCP/IP possui apenas 4 camadas. Na
imagem abaixo é possível comparar as Camadas entre os dois modelos.

Fonte da Imagem: Própria


 Camada de Aplicação (Application Layer)
 Camada de Transporte (Transport Layer)
 Camada de Internet (Internet Layer)
 Camada Host/Rede ou Acesso à Rede (Network Access Layer ou Link Layer)

Principais Funções de Cada Camada


As camadas mais altas, estão logicamente mais perto do usuário (chamada camada de aplicação) e lidam
com dados mais abstratos, confiando em protocolos de camadas mais baixas para tarefas de menor nível
de abstração.
Como já é percebido esta Arquitetura é semelhante ao Modelo OSI e, como tal, possui suas funções
divididas em camadas segmentando assim passo-a-passo cada etapa da comunicação.
 Camada de Aplicação (Application Layer)
 Esta camada é a camada que convivemos diariamente quando lidamos com redes. E através
dela que fazemos nossas requisições para executarmos determinadas tarefas em nossa rede.
Lidamos com ela através de softwares que utilizam protocolos da Camada de Aplicação para
executar as tarefas que solicitamos.
 Contém todos os protocolos de auto nível:
 TELNET (Terminal Virtual);
 FTP (File Transfer Protocol);
 SMTP (Send Mail Transfer Protocol);
 DNS (Domain Name System);
 HTTP (Hipertex Transfer Protocol)…
É responsável pela interação junto ao usuário, reunindo e fornecendo serviços de comunicação, os
quais são separados entre protocolo de serviços básicos e protocolos de serviços para o usuário
(LOPEZ, 2016).
Aplicações TCP/IP tratam os níveis superiores de forma monolítica, desta forma o Modelo OSI é mais
eficiente, pois permite reaproveitar funções comuns a diversos tipos de aplicações. Em TCP/IP, cada
aplicação tem que implementar suas necessidades de forma completa (COMER, 1999).
 Camada de Transporte (Transport Layer)
 É equivalente a Camada de Transporte do Modelo OSI.
 Os protocolos nesta camada podem resolver problemas como:
 Confiabilidade: o dado alcançou seu destino?
 Integridade: os dados chegaram na ordem correta?
 Como forma de garantir que dois hosts se comuniquem (conversação), foram definidos 2
protocolos nesta camada. O UDP e o TCP.
 UDP: O protocolo UDP (User Datagram Protocol) é usado em uma entrega de pacotes de
forma não confiável, pois ele não garante que os pacotes cheguem ou cheguem sem erros,
definindo que o protocolo UDP é um protocolo não orientado a conexão, por essas
características citadas acima.
 TCP: O protocolo TCP (Transmission Control Protocol) é usado na entrega de pacotes de
forma confiável. Como seu próprio nome diz é usado no controle de transmissão
garantindo que o pacote chegue ao seu destino, e garantido que o mesmo esteja livre de
erros. Essas características definem o protocolo como um protocolo orientado a conexão.
Para que a comunicação entre a origem e destino possua maior confiabilidade, o protocolo TCP
realiza diversas funções como: o controle de fluxo, o controle de erro, a sequenciação e a
multiplexação de mensagens (LOPEZ, 2016).
 Camada de Internet (Internet Layer)
 É equivalente a Camada de Rede do Modelo OSI.
 Também conhecida pelo nome de Inter-Redes.
 É responsável por permitir que hosts enviem pacotes à qualquer rede e garantam que os
mesmos trafeguem até o seu destino.
 Não importa a ordem.
 Define o formato de pacote oficial e um protocolo chamado IP (Internet Protocol).
 Basicamente sua função, é entregar pacotes IP.
 Protocolos: IP, ARP, ICMP
No caso de existir endereçamento nos níveis inferiores é realizado um mapeamento para possibilitar a
conversão de um endereço IP em um endereço deste nível. Todos os protocolos das camadas superiores
a esta fazem uso do protocolo IP (LOPEZ, 2016).
 Camada de Acesso à Rede (Link Layer)
 Corresponde às camadas de Enlace e Física do Modelo OSI.
 A Pilha (ou Arquitetura) TCP/IP, não especifica o que ocorre exatamente nessa camada, a
única exigência é que o host se conecte a rede usando algum protocolo capaz de enviar pacotes
IP.
 Protocolo não é definido, e varia de rede para rede e de host para host.
Proveem meios para que os dados sejam transmitidos a outros computadores na mesma rede física e, é
responsável pelo envio de datagramas construídos pela camada de Rede (Maurício F. Magalhães)

Benefícios do Modelo TCP/IP


 Padronização: um padrão, um protocolo roteável que é o mais completo e aceito protocolo
disponível atualmente. Todos os sistemas operacionais modernos oferecem suporte para o TCP/IP e
a maioria das grandes redes se baseia em TCP/IP para a maior parte de seu tráfego.
 Interconectividade: uma tecnologia para conectar sistemas não similares. Muitos utilitários
padrões de conectividade estão disponíveis para acessar e transferir dados entre esses sistemas não
similares, incluindo FTP (File Transfer Protocol) e Telnet (Terminal Emulation Protocol).
 Roteamento: permite e habilita as tecnologias mais antigas e as novas a se conectarem à Internet.
Trabalha com protocolos de linha como PPP (Point to Point Protocol) permitindo conexão remota a
partir de linha discada ou dedicada. Trabalha como os mecanismos IPCs e interfaces mais
utilizados pelos sistemas operacionais, como Windows sockets e NetBIOS.
 Protocolo Robusto: escalável, multiplataforma, com estrutura para ser utilizada em sistemas
operacionais cliente/servidor, permitindo a utilização de aplicações desse porte entre dois pontos
distantes.
 Internet: é através da suíte de protocolos TCP/IP que obtemos acesso a Internet. As redes locais
distribuem servidores de acesso a Internet (proxy servers) e os hosts locais se conectam a estes
servidores para obter o acesso a Internet. Este acesso só pode ser conseguido se os computadores
estiverem configurados para utilizar TCP/IP.
Pilhas de Protocolos da Internet
A internet utiliza uma pilha de protocolos mista, ou seja, ela é resultado da mistura das duas pilhas de
protocolos (OSI e TCP/IP). O resultado desta mistura, gerou um Modelo de abstração em 5 camadas,
conforme indicado abaixo:
Modelo OSI + Modelo TCP/IP = Pilhas de Protocolos da Internet

Fonte da Imagem: Própria


 Camada de Aplicação
 Suporta as aplicações da rede.
 Ex.: FTP, SMTP, HTTP…
 Camada de Transporte
 Transferência de dados, sistema final a sistema final. Ex.: TCP e UDP
 Camada de Rede
 Roteamento de datagramas da origem ao destino. Ex.: IP, protocolos de roteamento.
 Camada de Enlace
 Transferência de dados entre elementos vizinhos da rede. Ex.: PPP, Ethernet…
 Camada Física
 Bits no meio de transmissão. Ex.: Pulsos elétricos no Cabo UTP.

Modelo OSI x Modelo TCP/IP


 Semelhanças
 Ambos têm camadas;
 Ambos têm camadas de aplicação, embora incluam serviços muito diferentes;
 Ambos têm camadas de transporte e de rede comparáveis;
 A tecnologia de comutação de pacotes (e não comutação de circuitos) é presumida por ambos;
 Os profissionais da rede precisam conhecer ambos.
 Diferenças
 TCP/IP combina os aspectos das camadas de apresentação e de sessão dentro da sua camada de
aplicação;
 TCP/IP combina as camadas física e de enlace do OSI em uma camada;
 TCP/IP parece ser mais simples por ter menos camadas;
 Os protocolos do TCP/IP são os padrões em torno dos quais a Internet se desenvolveu,
portanto o modelo TCP/IP ganha credibilidade apenas por causa dos seus protocolos. Em
contraste, nenhuma rede foi criada em torno de protocolos específicos relacionados ao OSI,
embora todos usem o modelo OSI para guiar seu raciocínio.

Switches em Redes Locais de Computadores


José Mauricio Santos Pinheiro em 13/03/2005

As redes locais de computadores (LAN�s) permitem aos seus usuários compartilharem recursos tais
como periféricos, informações e aplicações, de maneira simples e eficiente.

Estas redes estão divididas em dois grupos, segundo o tipo de componentes utilizados: componentes
passivos, responsáveis pelo transporte dos dados através do meio físico (cabos, antenas, acessórios de
cabeamento e tubulações) e componentes ativos, estes responsáveis pela comunicação adequada entre os
diversos equipamentos de rede como as estações de trabalho, servidores, multiplexadores, etc. Dentro
dessa categoria destacamos o switch, a bridge, o roteador, etc, pelo papel que eles desempenham dentro
da rede local. Esse conjunto de elementos de rede - ativos e passivos � é que garante uma comunicação
confiável, com a performance requerida pelas aplicações.

Podemos observar o quanto é imprescindível que estes equipamentos estejam adequadamente


dimensionados para que possam atender plenamente as necessidades dos usuários. Por exemplo, hoje
em dia as redes locais têm que transportar grandes quantidades de informação, arquivos contendo textos,
dados, gráficos e imagens, para isso requerendo recursos de alta capacidade e velocidade.

Definição de Switch

Switches são dispositivos que filtram e encaminham pacotes entre segmentos de redes locais, operando
na camada de enlace (camada 2) do modelo RM-OSI.

Um switch funciona como um nó central de uma rede em estrela. Ele tem como função o chaveamento
(ou comutação) entre as estações que desejam se comunicar.

Figura 1 - Interligação de redes através de um swtich

A partir do momento em que as estações estão ligadas a esse elemento central, no qual a implementação
interna é desconhecida, mas a interface é coerente com as estações, é possível pensar que esses
elementos podem implementar arquiteturas que não utilizam apenas um meio compartilhado, mas sim
possibilitam a troca de mensagens entre várias estações simultaneamente. Dessa forma, as estações
podem obter para si taxas efetivas de transmissão bem maiores. Conceitualmente, switches poderiam ser
considerados bridges multi-portas. Como "bridging" tecnicamente é uma função da camada 2 do modelo
OSI, todos os padrões atuais de rede (Ethernet, Fast Ethernet, Token Ring, FDDI, etc) podem ser
conectados através de switches.

Funcionamento

A função de um switch é conectar segmentos de redes diferentes. Um switch mapeia os endereços dos
nós que residem em cada segmento da rede e permite apenas a passagem do tráfego necessário. O switch
aprende quais estações estão conectadas a cada um dos segmentos de suas portas. Ele examina o tráfego
de entrada, deduz endereços MAC de todas as estações conectadas a cada porta e usa esta informação
para construir uma tabela de endereçamento local. Assim, quando o switch recebe um pacote, ele
determina qual o destino e a origem deste, encaminhando-o para a direção correta, bloqueando a
passagem desse pacote para a outra rede caso a origem e o destino seja o mesmo segmento de rede.

Métodos de encaminhamento

Quanto ao método utilizado pelo switch no encaminhamento dos pacotes, podemos ter:

Store-and-forward

Esse tipo de switch aceita e analisa o pacote inteiro antes de encaminhá-lo para a porta de saída,
guardando cada quadro em um buffer. Este método permite detectar alguns erros, evitando a sua
propagação pela rede.

Enquanto o quadro está no buffer, o switch calcula o CRC e mede o tamanho do quadro. Se o CRC
apresenta erro ou o tamanho é muito pequeno ou muito grande (um quadro Ethernet tem de 64 bytes a
1518 bytes), o quadro é descartado. Se tudo estiver correto, o quadro é encaminhado para a porta de
saída. Esse método assegura operações sem erro e aumenta a confiabilidade da rede. Contudo, o tempo
gasto para guardar e checar cada quadro adiciona um tempo de latência grande ao processamento dos
quadros e a latência total é proporcional ao tamanho dos pacotes: quanto maior o pacote, maior o atraso.

Os switches store-and-forward são projetados para redes corporativas, onde a verificação de erros e um
bom throughput são desejáveis.

Cut-through

Os switches cut-through apenas examinam o endereço de destino antes de re-encaminhar o pacote. Eles
foram projetados para reduzir a essa latência, minimizando o atraso (delay) lendo apenas os 6 primeiros
bytes de dados do pacote (que contém o endereço de destino) e logo encaminham o pacote.
Contudo, esse switch não detecta pacotes corrompidos causados por colisões, conhecidos como "runts",
nem erros de CRC. Quanto maior o n�mero de colisões na rede, maior será a largura de banda gasta
com o encaminhamento de pacotes corrompidos.

Um segundo tipo de switch cut-through, chamado "fragment free", foi projetado para eliminar esse
problema. Nesse caso, o switch sempre lê os primeiros 64 bytes de cada pacote, assegurando que o
quadro tem pelo menos o tamanho mínimo, evitando o encaminhamento de runts pela rede.

Switches cut-through são mais bem utilizados em pequenos grupos de trabalho e pequenos
departamentos. Nessas aplicações é necessário um bom throughput e erros potenciais de rede ficam no
nível do segmento, sem impactar a rede corporativa.

Adaptative cut-through

São switches híbridos que processam pacotes no modo adaptativo, suportando tanto o modo store-and-
forward quanto cut-through. Qualquer dos modos pode ser ativado pelo gerente da rede ou o switch
pode ser inteligente o bastante para escolher entre os dois métodos, baseado no n�mero de quadros com
erro passando pelas portas.

Quando o n�mero de quadros corrompidos atinge um certo nível, o switch pode mudar do modo cut-
through para store-and-forward, voltando ao modo anterior quando a rede se normalizar.
Aplicações

Existem pontos nas redes em que há uma alta concentração de tráfego, se tornando um problema. Com o
uso de switches é possível reduzir esses "gargalos" e montar uma rede de alta performance, ideal para
agilizar a comunicação entre usuários de redes locais diferentes, aumentando assim a disponibilidade e a
utilização dos servidores e equipamentos existentes.

No switch, os pacotes de dados são enviados diretamente para o destino, sem serem replicados para
todas as máquinas. Além de aumentar o desempenho da rede, esse fato gera uma segurança maior.
Várias transmissões podem ser efetuadas por vez, desde que tenham origem e destino diferentes. O
switch é um equipamento que permite que vários segmentos de redes se comuniquem com outros
segmentos, ao mesmo tempo, 2 a 2.

Se uma rede, antes composta de estações de trabalho e hubs, cresceu, há a necessidade de um switch
para segmentar a rede e melhorar a performance como um todo. Assim, o uso de switches é ideal em
situações que requerem um maior desempenho de rede e comunicação com servidores ou mesmo para
criar um barramento de alta velocidade interligando servidores e outros equipamentos, como roteadores,
por exemplo.

A maioria dos switches atuais está disponível em diferentes configurações de portas, sendo que o
n�mero de portas indica quantos equipamentos podem ser conectados simultaneamente. A maioria
oferece portas projetadas para gerenciar tráfego ethernet com velocidades tanto de 10Mbps quanto de
100Mbps e portas que comportam até mesmo o Gigabit Ethernet.

Switch x Hub

Os switches são equipamentos que estão substituindo rapidamente os hubs em novos projetos de redes.
Embora projetado para a mesma tarefa, o switch trabalha de forma diferente de um hub, fazendo um
melhor uso da banda disponível na rede. Um hub compartilha a velocidade entre todas as estações de
forma idêntica (o barramento é compartilhado de forma idêntica). Já o Switch dedica a mesma
velocidade para todas as estações, mas a velocidade não é compartilhada, é dedicada. Assim, o switch
funciona como uma matriz de comutação de alta velocidade, feita ao nível de hardware.

Um domínio simples de colisão consiste em um ou mais hub�s e nós conectados entre eles. Cada
dispositivo dentro do domínio de colisão partilha a banda de rede disponível com os outros dispositivos
no mesmo domínio.
Figura 2 - Aplicação de hub e switch em uma rede com roteador

Já os switches são utilizados para separar domínios de colisão que são demasiado grandes de forma a
melhorar a performance e a estabilidade da rede. Para executar essa tarefa, o switch identifica as
máquinas da rede pelo MAC Address e também pelo o endereço IP de cada máquina, evitando assim os
conflitos de pacotes o que torna a rede mais rápida. Por esse motivo, ao se projetar uma rede é sempre
preferível utilizar um switch ao invés de um Hub.

Esquemas de comutação

Existem basicamente dois tipos de switch quanto ao esquema de comutação que utilizam:

Comutação por software - o quadro, depois de recebido através de uma das portas, é armazenado em
uma memória compartilhada. O endereço de destino é analisado e a porta destino obtida de uma tabela
de endereços por um algoritmo usualmente executado em um processador RISC. Em seguida, o quadro
é transferido para a porta de destino;

Comutação por hardware - assim que recebem e armazenam o cabeçalho dos quadros, eles processam
o endereço de destino e estabelecem um circuito entre as portas de origem e de destino, enquanto durar a
transmissão do quadro. Normalmente esses switches são implementados com tecnologia ASIC
(Application Specific Integrated Circuit).

Switches de balanceamento de carga

Os switches de balanceamento de carga são semelhantes aos switches Ethernet convencionais, porém
apresentam uma funcionalidade adicional. Comparados com os roteadores, esses dispositivos
normalmente têm mais portas e maior poder de processamento, o que os permite enviar um volume
maior de pacotes mais rapidamente pela rede.

Esse tipo de switch é mais adequado para redes maiores, de alto tráfego ou intranets, em que grande
parte do tráfego vem em conexões de rede local de alta velocidade, em vez de Internet.

http://www.projetoderedes.com.br/artigos/artigo_switches_em_redes_locais.php acessso 25 de
setembro de 201713/03/2005
EDGAR GARÇÃO