Você está na página 1de 19

ELEMENTOS E COMPONENTES DA REDE

123 minutos

 Aula 1 - Dispositivos e tecnologias

 Aula 2 - Componente de cabeamento e Nobreak

 Aula 3 - Redes em Cloud Computing

 Aula 4 - Projeto de rede de computadores em data centers

 Referências

Aula 1

DISPOSITIVOS E TECNOLOGIAS
Para compreender como as infraestruturas de TI funcionam, o primeiro passo é entender que,
apesar de uma estação de trabalho ser o equipamento mais próximo do usuário e, por isso, ser
aquele com o qual estamos mais familiarizados, existem diversos equipamentos por trás da
forma como os serviços são oferecidos e, entre eles, temos o servidor e o rack.

29 minutos

INTRODUÇÃO

Atualmente, diversas tarefas que envolvem a Internet são comuns, porém a maioria das pessoas que utilizam

esses serviços executa tarefas desde as mais simples, como pesquisas na internet e compartilhamento, até
tarefas mais complexas, como o uso de sistemas corporativos. Porém, para que isso seja possível, elas precisam
estar conectadas. A conexão das redes envolve uma série de componentes e recursos operacionais que são

providos por outras máquinas e dispositivos de redes, permitindo o acesso via uma rede, geralmente, a
internet.

Com a crescente participação da internet na vida das pessoas, consideramos importante também que a
estrutura de uma rede de computadores e a forma como os dados são transmitidos sejam compreendidas. Por

isso, nesta unidade, vamos conhecer os principais dispositivos de rede e suas funcionalidades.

O SERVIDOR E RACK

Para compreender como as infraestruturas de TI funcionam, o primeiro passo é entender que, apesar de uma

estação de trabalho ser o equipamento mais próximo do usuário e, por isso, ser aquele com o qual estamos
mais familiarizados, existem diversos equipamentos por trás da forma como os serviços são oferecidos e, entre

eles, temos o servidor e o rack.

Basicamente, os servidores (Figura 1) são computadores robustos utilizados para atender às demandas de uma
rede e, geralmente, muitos usuários, e isso depende, principalmente, da sua complexidade. Para que isso seja

possível, Morimoto (2010) relata que é necessário que os recursos alocados tenham grande capacidade de

processamento e armazenamento de dados, entre eles, podemos citar o hardware: disco, memória e
processamento.

Figura 1 | Servidores de rede

Fonte: Pixabay.
Além disso, o computador servidor e os computadores clientes precisam estar conectados em uma arquitetura

de rede denominada cliente-servidor, em que o cliente consome os serviços ofertados pelos servidores. Mesmo
assim, é importante lembrarmos que os servidores não são construídos somente com base em hardware mas
também de softwares, sendo assim, enquanto o hardware envolve os dispositivos físicos para disponibilizar os
serviços aos clientes, o software controla a utilização desses serviços e a forma como eles podem ser acessados.

Em geral, cada servidor da rede é responsável por oferecer determinado serviço de forma dedicada, sendo a
referência para possibilitar determinadas atividades em uma rede. Alguns exemplos de serviços podem ser
vistos na Figura 2.

Figura 2 | Tipos de servidores

Fonte: elaborado pela autora.

A fim de que entenda ainda mais como essas funcionalidades podem ser definidas por um único equipamento
(nesse caso, o servidor) e distribuir os serviços para diversas estações, o seguinte exemplo pode ser
considerado:

●  O usuário faz acesso aos dados em um site, por meio da sua URL de acesso, sem conhecer a rede em que o

serviço está hospedado.

●  O servidor estabelece uma conexão com o cliente por meio da internet, em que diversas conexões podem ser
estabelecidas simultaneamente — característica de um servidor de aplicações.

●  Com seu poder computacional, o servidor retorna com as informações necessárias, permitindo que o
conteúdo seja acessado via página na web ou plataforma compatível.

Uma infraestrutura de rede vai muito além do uso de servidores, por mais poderosos que eles sejam. Um
exemplo está no uso de racks (Figura 2), que representam estruturas que podem ser utilizadas na hospedagem
de equipamentos de redes de computadores, formando um aglomerado. Nesse cenário, podem ser alocados
não somente servidores, mas switches, roteadores, patch panels, entre outros. Vamos conhecer alguns deles

nos próximos blocos. Pinheiro (2010) categoriza os racks em duas formas: rack aberto e rack fechado.

●  Rack aberto – Esse tipo de rack consiste em uma estrutura retangular fixada no piso, de estrutura simples e
que, geralmente, é utilizada em ambientes restritos e que possuem outros recursos de controle e segurança
para impedir o acesso físico indevido aos recursos de hardware.

Figura 2 | Estrutura de rack aberto

Fonte: Pixabay.
●  Rack fechado – Diferencia-se do modelo anterior por possuir uma porta, trazendo maior segurança e
integridade para os equipamentos, além de permitir o controle de circulação de ar interno. É possível que ele

possa ser fixado na parede ou no piso.

Figura 3 | Estrutura de rack fechado

Fonte: Pixabay.

Outros equipamentos são necessários para definir a funcionalidade de uma infraestrutura de TI, e vamos

analisá-los no próximo bloco.

SWITCH E PATCH PANEL

Assim como os servidores e os racks, outros dispositivos de rede possuem um papel importante na rede, entre

eles, estão os switches, que, de acordo com Carvalho e Lorena (2017), são dispositivos utilizados para interligar
equipamentos em uma rede, formando um aglomerado de equipamentos capazes de trocar informações entre

si por meio da conexão, que utiliza seus adaptadores de rede como interface de comunicação, permitindo que a
informação possa fluir entre diferentes computadores.

Geralmente, os switches atuais possuem entre 24 e 48 portas, e a comunicação pode ser estendida quando um

switch é conectado a outro, trazendo uma maior capacidade de conectividade para a rede. Porém, a depender
do fabricante e da marca do dispositivo, diferentes características podem ser notadas, como velocidade, meio

de transmissão compatível, taxa de transferência, desempenho, entre outras.

Nem sempre os switches ocuparam esse lugar na rede, pois, assim como toda a tecnologia, a inteligência desse
tipo de dispositivo foi sendo desenvolvida aos poucos. Anteriormente, existiam os hubs cuja tradução significa

ponto central, e isso se deu, principalmente, ao fato de ser capaz de receber dados vindos apenas de um
computador e retransmitidos para outro computador (GUGELMIN, 2011).

Todavia, quando surgiram os switches (Figura 4), passou a ser possível permitir o estabelecimento de diferentes

conexões de forma simultânea. Assim, subgrupos de computadores da rede passaram a ser capazes de trocar
mensagens ao mesmo tempo, utilizando diferentes portas que identificam, de maneira independente, cada um

dos dispositivos na rede e seu canal de comunicação.

Figura 4 | Switch de 24 portas

Fonte: Gratispng ([s. d., s. p.]).


Apesar das vantagens que um switch traz para a rede, permitindo que o tráfego de rede possa ser transmitido a

partir de uma única via, existe a necessidade de organizar a rede, uma vez que, em redes de grande porte,
podem ser necessários múltiplos switches para conectar todos os dispositivos que fazem parte da rede, e aí

entra o papel do patch panel.

Resumidamente, um patch panel (Figura 5) é utilizado em sistemas de cabeamento estruturado de baixa


densidade; sua estrutura é responsável por suportar todo o cabeamento horizontal (faz a ligação entre os cabos

que saem dos equipamentos) ou vertical (cabeamento secundário que faz a ligação entre dois racks) mantido na

rede, geralmente, alocado em salas de telecomunicações, sendo compatível com equipamentos conectados por
meio de diferentes meios, como: conectores/adaptadores para UTP, fibra, coaxial e aplicações multimídia

(PINHEIRO, 2010).

Figura 5 | Patch panel

Fonte: Gratispng ([s. d., s. p.]).

Podemos considerar ainda um patch panel como um recurso básico do cabeamento estruturado, que garante
facilidade no gerenciamento da rede, visto que nele são conectados todos os cabos provenientes da rede,

independentemente da existência ou não de uma sala de equipamentos. O patch panel também estabelece a

função de interface flexível, que permite alterar o layout lógico dos pontos da rede, facilitando a organização
dos cabos e identificação de pontos de rede.

Outra vantagem é a preservação dos switches, pois com o uso de um patch panel, a vida útil dos equipamentos

aumenta, uma vez que os cabos não passam diretamente entre eles e os computadores, evitando a ação de
conectar e desconectar os cabos.

Concluímos que cada dispositivo tem sua função e desempenha um papel fundamental na rede.

ACCESS POINT

As redes de computadores foram evoluindo à medida que as necessidades também foram crescendo. Os

dispositivos precisam estar conectados em diferentes ambientes e nem todos os ambientes apresentam uma
estrutura completa para manter cabeamento e dispositivos conectados, seja a switches, patch panels ou
servidores.

Por isso, viu-se uma grande disseminação em redes sem fios, e, para isso equipamentos que suportam esse tipo

de conectividade foram sendo cada vez mais implementados. De acordo com Intelbras (2021), um ponto de
acesso sem fio é denominado Access Point (AP) ou ponto de acesso sem fio, que funciona, basicamente,
recebendo um sinal da rede cabeada, estendendo o sinal (Figura 6).

Figura 6 | Funcionalidade de um access point na rede


Fonte: Santos (2019, [s. p.]).

Um Access Point proporciona uma cobertura de rede mais extensa a partir de uma conexão com o roteador

central via cabo de rede, evitando problemas como perda de qualidade e oferecendo diversos recursos que
garantem o controle de banda e segurança.

Com isso, é possível que diferentes dispositivos (tablets, smartphones, notebooks, smart TVs etc.) possam
acessar a mesma rede a partir de diferentes pontos de acesso à rede local por meio de Wi-Fi, ainda mais

considerando que dispositivos móveis, por exemplo, não possuem suporte para cabeamento de rede. Nesse
caso, um AP serve para eliminar essa limitação da rede, no entanto, existe uma grande responsabilidade desse
tipo de dispositivo, que está em manter a qualidade e estabilidade na rede. É importante salientarmos que
existem variações de Access Point e sua função não deve ser confundida, por isso, a repetição de sinal permite

que uma rede ofereça uma largura de banda satisfatória e um melhor alcance, sem a necessidade da
contratação de outro link de Internet; por outro lado, existem, ainda, os repetidores, equipamentos que
repetem o sinal de redes sem fio, sendo considerado um dispositivo mais simples quando comparado ao Access

Point. O modelo do equipamento pode ser mais bem visto na Figura 7.

Figura 7 | Access point

Fonte: Gratispng.

Diferentes tipos de access point podem ser utilizados, Cisco (2022) os descreve como:

● Access point raiz: realiza conexão direta em uma rede local com fio, fornecendo um ponto de conexão para
os usuários de conectividade sem fio. Pode existir mais de um access point, permitindo que os usuários se
movimentem entre as áreas de conexão criadas, também chamado de full mesh.

● Access point repetidor: funciona como um repetidor autônomo para aumentar o alcance da infraestrutura; o

tráfego pode ser distribuído tanto em conexões com ou sem fio e os dados são enviados pela rota que oferece o
melhor desempenho.

● Bridges: os equipamentos são configurados para ingressar em várias redes. Dois ou mais pontos se
comunicam entre si, conforme mostra a Figura 8.

Figura 8 | Access point em modo bridge

Fonte: Tp-link (2021, [s. p.]).

Nesse exemplo, foram configurados três access points, um em cada parte da rede, para estender o acesso de
um ponto para os demais. Outra configuração possível é obter conectividade sem fio para um grupo de

impressoras de rede configurado para todos os usuários da rede, por meio de uma conexão ao switch, criando
um workgroup bridge.

O access point oferece qualidade do sinal distribuído para todos os usuários que fazem parte da rede,
subdividindo a infraestrutura em várias redes de acesso, trazendo flexibilidade para todos os recursos alocados
na rede, por meio da conexão de Internet.
VIDEOAULA

Este vídeo apresenta como os componentes e elementos de rede funcionam nas camadas inferiores do Modelo
OSI, seja na camada física, seja de enlace, seja de rede, compreendendo a importância de um bom
planejamento para manter a funcionalidade de uma infraestrutura de rede com o principal objetivo de oferecer
conectividade e serviços, que sejam importantes para a continuidade do negócio.

Videoaula

Para visualizar o objeto, acesse seu material digital.

 Saiba mais
CONTROLE NET. O que são servidores. [s. d.].

O conteúdo traz conceitos importantes para enriquecer seu conhecimento, aborda os tipos de servidores e
revisa suas funcionalidades, bem como apresenta a arquitetura cliente/servidor e como são utilizados em
redes locais. 

PINHEIRO, J. M. dos. Switches na camada de enlace. 2006.

O artigo fala sobre como os switches funcionam na camada de enlace, apresentando a sua comunicação
com as estações de trabalho e apresentando o RMON, que garante que o monitoramento seja jeito de

switches gerenciáveis.

Aula 2

COMPONENTE DE CABEAMENTO E NOBREAK


O cabeamento é o principal fator para se estabelecer a conexão física entre os diversos
dispositivos de rede e permitir a comunicação e transmissão de dados.

32 minutos

INTRODUÇÃO

Para que uma rede de computadores funcione adequadamente, é necessário que um conjunto mínimo de
componentes esteja instalado e seja operacional, ou seja, a configuração e a comunicação entre os

componentes precisam ser prioridade, levando-se em consideração, principalmente, os meios físicos, que
apresentam características distintas e, por isso, cada meio é adequado para certa aplicação.

O cabeamento e a estrutura que permitem a instalação de um datacenter são fundamentais para garantir que
as demais camadas, como enlace, rede e transporte, possam funcionar adequadamente. Nesta unidade, vamos
analisar alguns componentes essenciais para garantir a funcionalidade de uma rede, seus equipamentos e

aplicações.

TOMADAS E TIPOS DE CABEAMENTO

O cabeamento é o principal fator para se estabelecer a conexão física entre os diversos dispositivos de rede e

permitir a comunicação e transmissão de dados. Além do cabeamento, também é imprescindível compreender


como os conectores são importantes para a conexão física de cada um dos recursos computacionais e a
compatibilidade entre ambos. Os conectores representam as ligações mais fracas, mas são selecionados de

acordo com o cabeamento utilizado. Existem alguns tipos de cabos, porém vamos conhecer os mais comuns.

Cabo coaxial: utilizado na transmissão de sinais a partir de um cabo construído internamente por um fio de

cobre condutor revestido por um material isolante, para garantir a blindagem do meio (Figura 1).

Figura 1 | Cabo coaxial

Fonte: Pixabay.

Nesse tipo de cabeamento, existem três principais fatores, e Pinheiro (2003) os define como:
● Condutor: componente interno, produzido em fio de cobre.

● Camada isolante: material plástico flexível que envolve o condutor interno, garantindo que o núcleo esteja
isolado.

● Blindagem: malha ou trança metálica que cobre os fios e protege o condutor interno contra a indução de
interferências eletromagnéticas (EMI).

● Cobertura: capa plástica protetora do cabo para finalizar sua estrutura.

Par trançado: atualmente, esse tipo de cabeamento é comumente utilizado em redes de computadores e
podem apresentar diferentes taxas de transferência, o que depende, principalmente, da categoria utilizada. As
taxas de transferência iniciam em 10Mbps, mas podem ir até 10Gbps nas redes mais atuais. A Figura 2,

demonstra sua estrutura:

Figura 2 | Cabo par trançado

Fonte: Multi Condutores (2020).

Os cabos de par trançado recebem esse nome pelo fato de serem trançados e ficarem em pares; além disso,
sua principal vantagem é a forma como evitam interferências externas ou entre os condutores do próprio cabo,

reduzindo, principalmente, os ruídos, porém há uma desvantagem: esse tipo de cabeamento é sensível a
interferências e ruídos elétricos.

Os cabos de par trançado podem ser classificados, de acordo com Bay e Bluning [s.d.], da seguinte forma,
apesar de terem a aparência semelhante:

● Cabo UTP (Unshielded Twisted Pair): não utiliza blindagem, por isso, são mais baratos e possuem uma
estrutura mais flexível.

● Cabo STP (Shielded Twisted Pair): sua estrutura combina técnicas de blindagem para evitar que haja
interferência eletromagnética e de frequência de rádio.

● Cabo FTP (Foiled Twisted Pair): utiliza uma blindagem mais simples: de fina folha de aço ou de alumínio,
protegendo o cabo contra interferências externas.

A Figura 3 demonstra a diferença entre o cabo com e sem blindagem:

Figura 3 | Diferença entre cabo UTP e STP

Fonte: Almeida (2018).

Assim como os cabos, as tomadas elétricas de distribuição deverão ser consideradas como uma infraestrutura

do Data Center. Uma tomada elétrica (Figura 4) é o ponto de conexão que fornece eletricidade. Em modelos
mais comuns, existem dois terminais, mas outros modelos ainda apresentam um terceiro pino, denominado
aterramento.

Figura 4 | Tomada elétrica

Fonte: Pinheiro, (2003, p. 90).


Serão descritas, a seguir, algumas recomendações que devem ser levadas em consideração no momento da
instalação de um aterramento, conforme a norma EIA/TIA 607, como o aterramento (PINHEIRO, 2003). Para

complementar, uma estrutura de data center pode ser vista na Figura 5.

Figura 5 | Componentes conectados

Fonte: Pinheiro (2003, p. 121).

Componentes de conexão são importantes tanto para a rede como para fornecer energia para os
equipamentos, por isso, precisam ser mantidos de maneira padronizada, sendo compartilhados pelos
dispositivos que compõem a rede.

ORGANIZADORES, GUIAS E PATCH CORD

Os patch panels são tradicionalmente instalados em racks, mas existem outros componentes que precisam ser

utilizados nessa estrutura. Vamos conhecer alguns deles:

● Organizadores: são ferramentas utilizadas para organizar todos os cabos que estão conectados a um

determinado sistema e protegê-los adequadamente, o que facilita também a organização de cada equipamento
conectado (Figura 6). Organizadores são itens que facilitam o processo de instalação de dispositivos de

diferentes designs, conectados em diferentes pontos da rede. Existem, também, organizadores para identificar

cabos, atribuindo nomes para os dispositivos, facilitando a administração e manutenção da rede.

Figura 6 | Organizadores de cabo de rede

Fonte: Amazon ([s. d., s. p.]).

● Guias: utilizadas com o principal objetivo de alinhar os fios, assim como os organizadores. Além disso, impede
a remoção ou desajuste dos cabos com facilidade, diminuindo acidentes que envolvem a conexão ou danos nos

cabos.

● Patch Cord: descrevem as categorias dos cabos do tipo par trançado utilizados para a interligação entre os

diversos equipamentos do sistema de uma rede estruturada, tais como estações de trabalho, tomada de

telecomunicações, interligação entre patch panels. As diferentes padronizações para os patch cords podem ser
descritas da seguinte forma:

● CAT-5: é recomendado para cabeamento estruturado, oferecendo frequências de até 100 MHz e uma taxa de
transferência de mais de 1000 Mbps. Em redes domésticas, são os mais utilizados para conectar dispositivos de

uso cotidiano, como laptops, desktops e smart TVs. Existe uma versão posterior a essa que recebeu melhorias,

chamada CAT-5e; de acordo com Alves (2015), a vantagem é que se pode transferir quatro sinais
simultaneamente. Essa categoria suporta transmitir sinal a uma distância de até 100 metros.

● CAT-6: assim como o tráfego de dados aumenta nas redes atuais, a velocidade também é exigida na conexão,
sendo necessário que melhorias ocorram nos cabos de patch. Por isso, o CAT-6 é recomendado para conexões

de rede Gigabit Ethernet, e sua principal característica é atingir até 250 MHz e operar em velocidades de até 10

Gb/s. Como tudo tem sua desvantagem, Alves (2015) relata que, devido ao comprimento do cabo, a transmissão
acaba perdendo desempenho e demorando mais tempo. O cabo possui um conector RJ45 com diâmetro de

2,88 mm e largura de banda de 500Mhz.

● CAT-7: esse tipo de cabo transmite dados em velocidades de até 10 Gb/s, sendo ainda mais eficiente e pode

ser usado em dispositivos que requerem alta velocidade. A largura de banda desse cabo é ainda maior que 600

MHz, mas o padrão ainda passa por algumas aprovações.

● CAT-8: cabos mais robustos, que suportam até 2000 MHz e podem alcançar uma velocidade de até 25 Gb/s.
Os projetos atuais de redes de computadores que envolvem um sistema de cabeamento estruturado levam em

consideração a evolução das redes e as tendências no uso das normas e especificações que padronizam as

infraestruturas de TI; além disso, abrangem os conceitos de sistemas operacionais e todos os recursos que
precisam ser suportados pelos componentes e meios físicos, garantindo que as instalações possam operar sem

restrições, seja em termos de layouts ou atualizações de equipamentos e tecnologia.

NOBREAK

O Nobreak, também denominado UPS (fonte de alimentação ininterrupta, do inglês Uninterruptible Power
Supply), é um dispositivo importante para ambientes de rede que exigem alta disponibilidade. Sua autonomia é
garantida por meio do uso de bateria, que fornece energia limpa e ininterrupta para equipamentos, evitando

queda de energia abrupta e danos aos equipamentos (Figura 7). Além disso, oferece proteção contra curtos-
circuitos, picos de tensão, sub e sobretensão, sobrecarga e descarga da bateria.

Figura 7 | Nobreak utilizado em racks e redes comerciais

Fonte: Morimoto (2010, p. 593).

Dessa forma, a principal função de qualquer UPS é manter a rede e os computadores funcionando em caso de

falha de energia. Existe um intervalo em que a energia é produzida, mas é possível ganhar tempo, até que o
sistema de energia retorne ou os servidores sejam desligados. Morimoto (2010) afirma que, com isso, é possível

evitar a perda de dados por desligamentos repentinos.

Assim como todos os dispositivos e tecnologias, os nobreaks também apresentam algumas limitações, nesse

caso, o problema é que a grande maioria dos nobreaks no mercado é modelo offline ou line-interactive,

modelos que passam por uma pequena interrupção de alguns poucos milésimos de segundo até que o inversor
entre em ação e mude a chave para a rede convencional e o equipamento reserva, o que pode causar alguns

imprevistos.

O nobreak tem uma função bastante específica, mas pode ser classificado em diferentes tipos, de acordo com o

seu objetivo. Morimoto (2004) os descreve da seguinte forma:

● Offline(short-brake): equipamentos que possuem carga de curta duração, alimentados por um único

inversor, que muda para a bateria sempre que o fornecimento elétrico é cortado, ocasionando algumas

variações. Porém, pelo fato de a mudança ser feita em milissegundos, trata-se de uma interrupção curta o
suficiente para ser compensada pela própria fonte de alimentação do PC, sem prejuízo para o equipamento.

● Line-interactive: criados para resolver algumas limitações do modelo off-line sem aumentar muito o custo de
aquisição do equipamento. Sua principal função é estabilizar a tensão vinda da tomada, corrigindo variações de

tensão e oferecendo proteção contra picos, por isso, além de ser um nobreak, também exerce a função de

estabilizar a rede.

● Onlines: modelos que exigem um maior investimento para quem busca segurança em eventos que envolvem

a falta de energia, destinados a uso industrial ou em data-centers de alta complexidade e dimensão. Neles, as
baterias são carregadas de forma contínua, retirando energia das baterias e fornecendo aos equipamentos,

mesmo quando há energia, não ficando em modo de espera (standby) como os demais, por isso, não enfrenta

variação na troca de fonte de energia quando necessário.

Também existem os nobreaks denominados line-boost, que são uma alternativa de baixo custo aos line-

interactive, principalmente destinados ao uso doméstico (Figura 8), por isso, representam equipamentos
menores, com menor capacidade e bateria menos eficiente, mas que cumprem sua função em redes pequenas

ou para apenas um equipamento. Além disso, é importante salientarmos que as baterias que alimentam os

dispositivos têm vida útil e precisam ser periodicamente substituídas.

Figura 8 | Nobreak doméstico


Fonte: Morimoto (2010, p. 595).

É necessário analisar todos os modelos oferecidos no mercado, comparando as soluções e as características de

cada um deles, escolhendo o que melhor se adequa à rede, à carga de energia necessária e aos equipamentos
que estarão conectados na rede e que precisam ser mantidos, evitando-se a indisponibilidade elétrica da rede.

VIDEOAULA

Este vídeo apresenta conceitos importantes sobre dispositivos e cabeamento de redes que envolvem a

funcionalidade de um datacenter e a disponibilidade dos servidores e serviços, bem como compreenderá a


conectividade da rede, explorando formas de organizar o cabeamento estruturado e evitar danos ou

interrupções na transmissão de dados na rede.

Videoaula

Para visualizar o objeto, acesse seu material digital.

 Saiba mais
Componentes necessários numa rede.

Essa coleção de podcasts traz informações sobre componentes necessários em uma rede, os episódios
falam sobre cabeamento estruturado e resumem os componentes necessários para uma rede.

Cabeamento estruturado. 

O podcast fala sobre o meio físico e sua importância, conceituando o cabeamento estruturado e

problemas comuns que podem ocorrer na rede, caso a instalação não seja realizada corretamente.

RODRIGUES, L. Qual a diferença entre filtro de linha, nobreak e estabilizador. 2013.

O artigo compara o nobreak com outros equipamentos utilizados para suprir a necessidade de energia em
redes de computadores: os filtros de linha e os estabilizadores.

Aula 3

REDES EM CLOUD COMPUTING


O conceito de tecnologia muda a todo tempo, e o principal objetivo das soluções e
infraestruturas de TI é permitir que organizações de todos os portes possam fazer o uso da
tecnologia a seu favor, facilitando os processos, garantindo agilidade aos seus serviços e
flexibilidade para os usuários que fazem parte da gestão do seu ecossistema sem transparecer
qualquer complexidade.

28 minutos

INTRODUÇÃO

O conceito de tecnologia muda a todo tempo, e o principal objetivo das soluções e infraestruturas de TI é
permitir que organizações de todos os portes possam fazer o uso da tecnologia a seu favor, facilitando os

processos, garantindo agilidade aos seus serviços e flexibilidade para os usuários que fazem parte da gestão do

seu ecossistema sem transparecer qualquer complexidade.

Os data centers concentram todos os recursos computacionais, e tanto em redes on-premises como na nuvem,

os serviços precisam estar bem orquestrados, os recursos precisam estar interconectados e a rede conectada
com o mundo externo, para permitir a funcionalidade dos serviços. Nesta aula, compreenderemos quais são as

semelhanças e diferenças entre as redes baseadas em infraestrutura de TI tradicional e em serviços fornecidos

por provedores, conhecendo os principais componentes de um data center em suas principais camadas e os
diferentes níveis que compreendem sua operação. Vamos lá?
REDES ON-PREMISES E NUVEM PÚBLICAS: ASPECTOS DIFERENCIAIS

A tecnologia evoluiu desde os seus primórdios, tornando os data centers cada vez mais robustos em relação à

infraestrutura de TI oferecida para organizações de todos os portes. Porém a necessidade de hospedar

equipamentos, configurar serviços e armazenar informações cresceu cada vez mais, e a computação em nuvem
se aproximou cada vez mais da realidade do mercado.

Atualmente, muitas organizações ainda utilizam redes on-premises, em contrapartida, muitas outras já
migraram para a nuvem ou integraram seus ambientes. Por esse motivo, é necessário compreender os

aspectos que diferenciam os dois tipos de operação.

Existem diversas modalidades de implementação na nuvem, mas a nuvem pública surgiu antes de todas as

outras, dando início à proposta de oferecer serviços simples aos usuários finais, sem manter o foco em

demandas complexas, cenário que, com o tempo, foi sendo modificado e adaptado para diferentes
necessidades. A principal diferença entre redes on-premises e a nuvem pública é que, enquanto no primeiro

modelo, a organização é responsável por instalar, configurar, monitorar e manter a manutenção do data center

alocado em seu perímetro de rede, assim como todos os serviços, na nuvem pública, esse é o papel do
provedor. Buyya, Vecchiola e Selvi (2013) afirmam que as nuvens públicas podem substituir completamente

uma infraestrutura de TI ou estendê-la, quando necessário.

Por isso, a nuvem pública representa uma estrutura em que os serviços são disponibilizados e oferecidos pela
internet de forma elástica, caracterizando um modelo dinâmico que suporta cargas de trabalhos variáveis e

inconstantes, sem a necessidade de assumir alto custo de investimento (CHANDRASEKARAN, 2014).

Quando um serviço é comercializado na nuvem pública, todas as solicitações são aceitas e os serviços são

comercializados conforme configurações e recursos criados pelo provedor, oferecendo diversas opções e

customização de pacotes, que estão altamente disponíveis para qualquer pessoa e em qualquer parte do
mundo, sem apresentar, de forma geral, restrições geográficas. Ou seja, o ambiente passa a ser compartilhado

e não privado como em um data center tradicional, e a Figura 1 ilustra como o acesso aos recursos ocorre.

Figura 1 | Funcionalidade da nuvem pública

Fonte: elaborada pela autora.

Outra diferença está relacionada principalmente à elasticidade e à flexibilidade para alocar ou excluir recursos. 

A nuvem pública passou a ser adotada principalmente devido a sua relação custo-benefício e a possibilidade de

ampliar o compartilhamento de recursos entre uma infinidade de soluções, já que a organização não necessita
desembolsar ou realizar qualquer investimento para adquirir hardware, todo fornecido por terceiros (SILVA,

2020).

Em redes on-premises, é necessário prever, a longo prazo, a amplitude que o negócio tomará, optar por alocar

recursos computacionais excessivos ou estar sempre preparado para atualizar o data center para demandas

futuras. Além disso, em muitos casos, também pode ocorrer a subutilização de recursos, diferentemente do que
ocorre em um ambiente de nuvem pública, em que os recursos podem ser realocados para outros clientes.

Concluímos que a nuvem pública é ideal para empresas e usuários que buscam poder tecnológico, sendo
beneficiados por escalabilidade ilimitada, total disponibilidade de recursos sob demanda e custos menores do

que os oferecidos pelas redes on-premises, além de ser um recurso que permite aumentar a produtividade de

forma imediata, sem ser necessário esperar por uma aquisição e posterior implementação antes de começar a
utilizar os serviços necessários, tendo como resultado a agilidade aos processos.

SISTEMAS OPERACIONAIS, RECURSOS DE PROCESSAMENTO E DATA CENTERS

Atualmente, todos os equipamentos armazenados no data center são conectados com o mundo externo por

meio da rede de telecomunicações e servem para tratar de cargas de TI em diferentes dimensões, definidas por

todas as instalações, largura de banda e sistema de telecomunicações.


De maneira geral, um data center também pode ser chamado de centro de processamento de dados (CPD).
Esse nome se dá por serem ambientes especialmente projetados para alocação de componentes eletrônicos de

alto desempenho, incluindo servidores, roteadores, redes de armazenamento, entre outros.

Além disso, sua principal função consiste em fornecer um ambiente altamente controlado para processamento

e armazenamento de dados. O uso de data centers é essencial para organizações que precisam manter seus

sistemas com alta taxa de disponibilidade. Exemplos de serviços são: sistemas de pagamentos on-line,
transações bancárias e sistemas de gestão empresarial. (MARQUES, 2015).

Tanto em uma rede on-premises como nos modelos de implementação e serviços em nuvem, apesar da
diferença de infraestrutura vista por parte da organização, a função do data center é a mesma: alcançar o nível

apropriado de serviço para cada uma das aplicações hospedadas com base na criticidade de cada uma delas,

melhorando a capacidade e eficiência de como as aplicações são tratadas.

Por outro lado, existe uma diferença na forma como os recursos na nuvem são provisionados, de forma mais

flexível, que devem atender com eficácia às necessidades do negócio, reduzindo os custos e permitindo o
gerenciamento de forma centralizada. Adicionalmente, o data center deve prover, principalmente,

disponibilidade, desempenho e segurança. Todavia, podemos ver um sistema de computador como sendo um

dos principais recursos de um data center, representando um conjunto de hardware, software e dados, em que:

● O hardware é responsável por executar programas computacionais que exigem certas operações comuns,

como aquelas que controlam os dispositivos de E/S de um computador, e alocam recursos.

● Os dados dizem respeito a tudo que precisa ser armazenado e processado na rede, servindo como base,

principalmente, para a funcionalidade das aplicações.

● O sistema operacional é responsável por encapsular todas as informações, serviços e aplicações, permitindo a

interação do usuário.

Em suma, é importante salientar a importância dos sistemas operacionais nesse ecossistema, seja na nuvem,

seja em uma rede on-premises, que pode ser caracterizada como uma coleção de softwares responsável por

facilitar a execução de programas, permitindo que os programas compartilhem memória, interajam com os
dispositivos e outros programas.

Em resumo, o sistema operacional realiza a comunicação com a memória, alocando e desalocando espaços
para que as aplicações possam inserir ou remover informações. Além disso, ele é capaz de controlar os recursos

da CPU e os outros dispositivos, realizando operações e abstraindo complexidades que, caso não existissem,

seriam de responsabilidade das aplicações (TANENBAUM, 2014).

Sendo assim, Tanenbaum (2014) ainda reforça a importância de se manter o sistema operacional funcional,

para que suas principais operações, que são controlar o hardware e coordenar seu uso entre os vários
programas aplicativos para os usuários, sejam cumpridas.

Logo, não é simples gerenciar um data center, e é necessário compreender as necessidades do negócio para
definir como cada um dos componentes trocará informações entre si, evitando riscos operacionais para a

infraestrutura, informações e usuários, que compõem o ecossistema da organização.

COMPONENTES E CLASSIFICAÇÃO DE DATA CENTERS

Para darmos continuidade ao que já sabemos sobre a funcionalidade de um data center, precisamos reforçar

que o propósito não é somente fornecer equipamentos eletrônicos para armazenamento e processamento de
um grande volume de dados mas também alojar centenas a milhares de computadores de alto desempenho

para ofertar diferentes serviços preestabelecidos, nesse caso, denominados servidores.

Em geral, computadores comuns, principalmente voltados para uso doméstico, representam uma arquitetura

de torre, na qual a Central Process Unit (CPU – unidade central de processamento) e outros componentes ficam

armazenados em um gabinete. Contudo, servidores em data centers são armazenados nas estruturas que
conhecemos como racks, e os centros de processamento de dados (CPD) não são compostos somente por

servidores, já que, para conectá-los, são necessários diversos outros componentes, como os switches,

roteadores e demais dispositivos de uma rede que se conectam por meio do cabeamento estruturado, patch
panel e itens de organização.

Basicamente, um data center (Figura 2) pode ser dividido em quatro níveis (tiers), que servem para avaliar,
efetivamente, desempenho e processamento (VASCONCELOS, 2018):

● Tier 1 – Configuração básica: não há redundância em nível físico ou lógico da infraestrutura de TI; falha
elétrica pode causar interrupção parcial ou total na operação da infraestrutura; e o datacenter, geralmente,

possui um ponto central único de falha, pois nenhum equipamento de rede como roteador e switch é

redundante.
● Tier 2 – Data center redundante: os equipamentos de telecomunicações devem conter módulos de
alimentação redundantes.  Geralmente, os cabos são de cobre ou fibra ótica, mesmo assim, qualquer ponto de

falhas nos sistemas de refrigeração e energia podem ocasionar falhas.

● Tier 3 – Sistema autossustentado: pelo menos dois provedores/operadoras de telecomunicação estão

envoltos, provendo cabeamento redundante para garantir a conectividade do ambiente.

● Tier 4 – Alta tolerância a falhas: todo cabeamento, dispositivos e caminhos são redundantes, contendo duas

alimentações de energia, pelo menos, comunicação automatizada até os dispositivos de backup, zonas de

proteção de incêndio, capacidade de resfriamento (ar-condicionado) com contingência. Falhas não acometerão
o ambiente.

Figura 2 | Estrutura básica de um data center

Fonte: Judice (2015, [s. p.]).

Além disso, analisando a evolução de uma rede on-premises para a nuvem, os principais recursos de um data
center são as instâncias virtuais, no entanto, muitas vezes, a organização ainda opta por integrar recursos de
diferentes provedores (Figura 3).

Figura 3 | Data center virtualizado na nuvem

Fonte: Veras (2012, p. 259).

A princípio, data centers também devem dispor de componentes de armazenamento mais robustos, que

garantam a segurança e a integridade dos dados, como métodos de backup, restauração e dados armazenados
remotamente, para que, em caso de desastres de grandes proporções, cópias dos dados estejam seguras em

locais distantes.

Outra característica que deve ser levada em consideração é o uso de um ambiente físico adequado: piso

elevado e sistema de refrigeração. A infraestrutura proposta por data centers fornece um ambiente propício

para que componentes eletrônicos operem com todo o seu potencial.

VIDEOAULA

Este vídeo mostra como um data center é estruturado e você poderá também como o hardware, o software, o
sistema operacional e as aplicações cumprem as suas responsabilidades da rede. Com a evolução da tecnologia,

é necessário compreender as diferenças entre as características de uma rede on-premises e a computação em

nuvem, comparando qual tipo de serviço e de implementação se adequam melhor aos objetivos do negócio.

Para visualizar o objeto, acesse seu material digital.

 Saiba mais
HOST ONE. Data center tradicional e cloud computing: quais são as diferenças? 2020.
O conteúdo apresenta as diferenças entre cloud computing e o data center comum, traz conceitos sobre a

segurança em um data center, os modelos ideias de gestão de serviços para uma organização, bem como
compara a flexibilidade e os custos de cada ambiente; além disso, por meio dele, é possível compreender

qual a melhor escolha para determinados cenários.

FURUKAWA ELECTRIC. Os 5 tipos de data center. 2018.

O conteúdo traz informações sobre as principais características de um data center e os 5 tipos mais
comuns de implementação.

Aula 4

PROJETO DE REDE DE COMPUTADORES EM DATA CENTERS


Desde os primórdios das redes de computadores e da necessidade de interligar redes locais
entre si e com a Internet, já se notou a importância dos data centers, sendo esse espaço uma
realidade cada vez mais comum no cotidiano das empresas que visam a inovar sua visão de
negócio utilizando a tecnologia como uma poderosa ferramenta.

27 minutos

INTRODUÇÃO

Os projetos de data center constituem a base para instalação dos componentes de hardware, software e

sistemas operacionais. Nesse ambiente, são alocados os servidores, conectados a partir de uma rede, e

diferentes dispositivos de armazenamento, que permitem que os usuários finais acessem os serviços de forma
centralizada, facilitando o controle de recursos e informações.

Um data center visa a oferecer não somente recursos mas todas as soluções que oferecem segurança para os

dados e permitem o processamento, considerando o desempenho adequado para cada ambiente corporativo.
Além disso, é importante conhecer os diferentes tipos de dispositivos de armazenamentos e outros

componentes importantes para garantir o sucesso de um projeto de redes de computadores e de um data


center, independentemente de sua complexidade.

Vamos lá?

REDES DE COMPUTADORES PARA DATA CENTERS

Desde os primórdios das redes de computadores e da necessidade de interligar redes locais entre si e com a
Internet, já se notou a importância dos data centers, sendo esse espaço uma realidade cada vez mais comum

no cotidiano das empresas que visam a inovar sua visão de negócio utilizando a tecnologia como uma poderosa

ferramenta. Sua origem não é recente, mas a forma como os projetos de redes de computadores baseados na
estrutura dos data centers foram evoluindo fica cada vez mais evidente.

Antes do advento da Internet e da subsequente modernização dos serviços computacionais, os data centers
costumavam atender apenas à demanda interna das empresas e serem utilizados como recursos que

representavam certa limitação, porém as demandas computacionais passaram a representar um grande

volume e a exigir uma entrega de serviços em um nível de qualidade relevante, por isso, o data center passou a
ser construído por meio de conceitos cada vez mais complexos.

Da mesma forma, dispositivos antes improváveis de estarem configurados em um data center passaram a ter
um papel importante em uma rede de computadores, visando-se, principalmente, a alcançar outros patamares,

como a mobilidade, a inteligência e a automação dos processos, por isso, podemos citar: celulares, sensores e

sistemas embarcados.

Tal mudança e evolução somente foram possíveis devido à evolução pela qual passaram as redes de

computadores, possibilitando que diferentes cargas de informações e uma quantidade importante de


dispositivos pudessem se comunicar e compartilhar informações em diferentes formatos. Uma estrutura

baseada em data center pode ser vista na Figura 1.

Além de componentes básicos, como processadores, discos e memória, as redes precisam oferecer, também,
interfaces de conexão de rede para integrá-los ao data center, considerando a compatibilidade de cada recurso

computacional (KUROSE; ROSS, 2013). Porém, os serviços podem ser tão complexos que essa tarefa pode
envolver um certo conhecimento por parte do administrador de rede, para que tudo ocorra bem.

Figura 1 | Estrutura de data center


Fonte: BTM ([s. d., s. p.]).

Atualmente, de acordo com Kurose e Ross (2013), os data centers são formados por múltiplos módulos de

processamento e armazenamento que atuam de forma independente, mas são responsáveis pela mesma

entrega, e esses módulos são conhecidos como hospedeiros, por estarem interligados por meio de diferentes
tecnologias de redes de computadores. Como sabemos, todos os recursos computacionais podem estar

alocados no mesmo rack, mas oferecer recursos de maneira distribuída.

Uma rede de computadores não é importante apenas para conectar dispositivos e representar todos os

serviços, servidores e equipamentos de armazenamento e processamento mantidos no data center, bem como

sua conexão com o ambiente externo, mas também para interconectar cada host, que, realmente, reflete a
forma como os serviços da rede podem ser utilizados pelos usuários, que são os principais interessados.

De nada adianta que um data center seja implementado sem as devidas conexões de rede, porém a
infraestrutura de rede depende diretamente do que o data center pode oferecer. A conectividade é um fator

importante e todos os recursos precisam estar conectados entre si para garantir a comunicação e transmissão

de dados.

TECNOLOGIAS DE REDES DE ARMAZENAMENTO: SAN E DAS

Diferentes tecnologias de armazenamento podem ser utilizadas, e, diferentemente, do que ocorria quando a
tecnologia passou a ser utilizada, o foco não é somente o espaço de armazenamento; hoje em dia, a escolha de

uma mídia de armazenamento vai muito além disso e são levados em consideração diferentes fatores, como o
desempenho, a taxa de transmissão e a mobilidade dos dados, quando necessária.

Sendo assim, tecnologias de rede de armazenamento foram criadas, e, entre elas, está a tecnologia SAN

(Storage Area Network) cuja principal característica está na exclusividade do armazenamento de dados. Com o
uso desse tipo de mídia, em redes privadas, é possível conectar esse tipo de dispositivo de armazenamento aos
servidores, permitindo flexibilidade, disponibilidade e escalabilidade.

Entre as unidades de armazenamento mais comuns nessa modalidade estão os discos rígidos (Hard Disk),
unidades de armazenamento sólido (SSD – Solid-State Drive) e servidores de bancos de dados. Nas palavras da

Vmware (2022), essa é uma tecnologia de alta velocidade, independente e dedicada, que oferece pools

compartilhados de dispositivos de armazenamento a vários servidores.

Em uma SAN, os discos, também conhecidos como LUNs (números de unidades lógicas), são apresentados ao

sistema operacional, na camada de aplicação, e o sistema operacional usa links para localizar cada LUN na área

de armazenamento determinada pelo gerenciador de infraestrutura.

Depois que a identificação ocorre, o sistema operacional é conectado ao servidor e aos switches de

armazenamento que fazem parte da rede por meio das instruções de localização primária dentro do sistema

operacional. Uma configuração padrão é realizada para que o sistema operacional possa gravar e ler dados

(quando isso for permitido) no LUN, conforme mostrado na Figura 2 (LUCAS, 2012).

Figura 2 | Estrutura de armazenamento SAN – storage area network


Fonte: Controle net ([s. d., s. p.]).

Note que os principais componentes da estrutura são cabeamento; adaptadores, também denominados

controladoras HBAs, responsáveis por conectar os servidores ao storage; e switches conectados aos sistemas de

armazenamento e servidores.

Cada controladora (servidores) e sistema de armazenamento numa rede SAN deve estar interligado, sendo que

essas conexões físicas devem suportar altos níveis de transmissão de dados, visando a proporcionar largura de

banda adequada para todas as atividades às quais será destinada.

Outro tipo de tecnologia de armazenamento denominado DAS (Direct Attached Storage) também é bastante

utilizado; por sua vez, trata-se de equipamentos que precisam ser conectados diretamente a um computador

ou servidor para serem utilizados. A estrutura pode ser vista na Figura 3.

Figura 3 | Estrutura de armazenamento DAS

Fonte: Rubens (2019, [s. p.]).

Geralmente utilizado para fornecer mais capacidade de armazenamento para os servidores de aplicação, um

storage DAS centraliza as informações, facilitando o gerenciamento e a organização dos dados em estruturas do
tipo cliente/servidor. Alguns exemplos do nosso cotidiano de storage do tipo DAS são dispositivos de arquivos e

backup pessoal, pen-drives, cartões de memória e HDs externos (MILLER, 2012).

Note que a principal semelhança entre eles é o fato de proporcionarem acesso direto para o computador

hospedeiro, mas também podem ser utilizados como sistemas de armazenamento para dados corporativos e

que facilitam as rotinas de armazenamento e transferência de dados. A maioria dos dispositivos como esses
oferece alta capacidade e recursos contra falhas. O armazenamento de rede é essencial para manter o

armazenamento e a recuperação dos dados, principalmente em redes locais (LAN) que exigem confiabilidade e

alta velocidade.

PROJETOS EM DATA CENTERS

À medida que mais e mais serviços se tornam digitais e a demanda por recursos de computação cresce, o

mesmo acontece com o tamanho e a necessidade de um baixo tempo de resposta em redes de computadores.

A computação distribuída, a implementação de redundância remota, as técnicas de aprendizado de máquina e

muitos outros fatores passam a ser cada vez mais indispensáveis em projetos de data centers.

À primeira vista, um projeto de data center pode parecer envolver apenas a seleção de equipamentos de

processamento e armazenamento e elementos de rede, que apenas precisam estar interconectados entre si

para funcionar, no entanto, a infraestrutura é muito mais do que isso, e a escolha dos equipamentos e sistemas

a serem utilizados deve ser sempre realizada com parcimônia. Como já sabemos, o acesso aos dados pode ser
feito de diferentes formas e considerando uma série de tecnologias adaptáveis à rede, cada uma com custos e

capacidades distintas.

Figura 4 | Projeto de data center


Fonte: Montanez (2015, [s. p.]).

Uma das maiores dificuldades de qualquer projeto de data center é a falta de manuais e padrões que possam

ser aplicados para qualquer situação ou necessidade, já que todo ambiente é único e projetado para
determinado propósito ou segmento de operação. Além disso, o projeto do data center deve permitir que o

negócio cresça e se expanda sem maiores dificuldades, prevendo as necessidades futuras, o que nem sempre é

fácil e nunca se trata de um processo assertivo.

As organizações, no entanto, sempre esperam chegar a um custo acessível, considerando condições que

garantam a manutenção adequada. Mesmo uma pequena mudança estrutural pode ser considerada um

projeto de melhoria, que requer uma série de passos para alcançar os resultados esperados (RASMUSSEN,

2021).

O passo mais importante, no entanto, é o planejamento — etapa em que são identificados os serviços que

serão prestados, e um detalhe importante nessa fase é a avaliação da estrutura existente ou de como a nova

será montada. O planejamento adequado pode, aliás, agilizar projetos, reduzir custos ou, até mesmo, evitar
restrições técnicas que inviabilizem determinado projeto de acontecer (TEARE, 2008).

Já na fase de definição dos requisitos desenvolvidos, é necessário levantar o que será necessário para elaborar
o projeto. Aqui, os especialistas são consultados, a fim de elaborar um desenho da rede mais adequado e que

atenda às necessidades de disponibilidade, segurança, confiabilidade, desempenho e escalabilidade. Algumas

ações a serem consideradas de acordo com Rasmussen (2021) são:

● Manter uma lista detalhada dos componentes que serão utilizados no projeto.

● Construir plantas baixas de todo o sistema, incluindo sistemas elétricos, ventilação, fiação, piso elevado,
disposição de armários e prateleiras e outros componentes.

● Documentar ao máximo quais as instruções de instalação e execução do projeto devem ser seguidas.

● Organizar a sequência em que as tarefas devem ser executadas.

Um projeto de data center se divide em identificar as necessidades do cliente, avaliar a estrutura existente e

desenhar a topologia dos recursos que serão utilizados. A implementação é desdobrada em planejamento e

implementação seguidos de validar o bom funcionamento e monitoramento de todos os serviços. O data center
projetado nem sempre será suficiente para atender a todas as necessidades, mas se for implementado

corretamente, desde a sua criação, tornará o projeto mais flexível, garantindo a funcionalidade de todos os

componentes.

VIDEOAULA

Este vídeo mostra como as unidades de armazenamento funcionam em uma rede de computadores,
oferecendo diferentes tipos de conexão com os dispositivos e diferentes formas de gerenciamento. Também

mostra os componentes básicos de um data center e como eles podem atender diferentes necessidades do

negócio.

Videoaula

Para visualizar o objeto, acesse seu material digital.

 Saiba mais
RAZOR. O que é RAID e como funciona? 2018.

O conteúdo traz um conceito importante de soluções RAID, que permitem que o armazenamento na rede

ofereça redundância, segurança e desempenho.

NASCIMENTO. A. O que é NAS (Network-Attached Storage). 2014.


Além dos armazenamentos baseados em rede como SAN e DAS, outra opção bastante utilizada é o NAS,

por isso, é importante compreender em quais ambientes é ideal utilizar esse tipo de armazenamento e
suas características.

REFERÊNCIAS
7 minutos

Aula 1

CARVALHO, A.; LORENA, A. Introdução à computação: hardware, software e dados. Rio de Janeiro: LTC. 2017.

CISCO. O que é um access point. 2022. Disponível em: https://www.cisco.com/c/pt_br/solutions/small-

business/resource-center/networking/what-is-access-point.html#~tipos-de-access-points. Acesso em: 10 jun.


2022.

GUGELMIN, F. Quais as diferenças entre hub, switch e roteador. 2011. Disponível em:
https://www.tecmundo.com.br/roteador/9586-quais-as-diferencas-entre-hub-switch-e-roteador-.htm. Acesso

em: 10 jun. 2022.

MORIMOTO, C. Hardware II: o guia definitivo. Porto Alegre: Sul Editores, 2010.

INTELBRAS. 2021. Access Point.Disponível em: https://blog.intelbras.com.br/access-point/. Acesso em 13 jun.

2022.

PINHEIRO, J. Elementos de infraestrutura. 2010.  Disponível em:

https://www.projetoderedes.com.br/aulas/ugb_infraestrutura/UGB_apoio_aula4b_Sistemas_de_Cabeamento.pd.
Acesso em: 10 jun. 2022

Aula 2

ALVES, R. Guia para escolha do melhor patch cord. 2015. Disponível em: https://www.linkedin.com/pulse/guia-

para-escolha-do-melhor-patch-cord-r%C3%AAmulo-maia-alves. Acesso em: 10 jun. 2022.

BAY, E.; BLUNING, P. Introdução à comunicação de dados e redes de computadores. [s. d.]. Disponível em:

https://livrodigital.uniasselvi.com.br/ADS25_fund_de_redes_de_computadores/unidade1.html?topico=3. Acesso
em: 10 jun. 2022.

MORIMOTO, C. Definição de line interactive. 2004. Disponível em:  https://www.hardware.com.br/termos/line-


interactive. Acesso em: 14. abril. 2022.

MORIMOTO, C. Hardware II: o guia definitivo. Porto Alegre: Editora Sulina, 2010.

PINHEIRO, M. Guia completo de cabeamento de redes. Rio de Janeiro: Elsevier, 2003.

Aula 3

BUYYA, R.; VECCHIOLA, C.; SELVI, S. T. Mastering cloud computing: foundations and applications programming.

Waltham: Elsevier, 2013.

CHANDRASEKARAN, K. Essentials of cloud computing. Boca Raton: Chapman and Hall/ CRC, 2014.

HOSTDIME. Classificação TIER: o que é e como isso diferencia os data centers. 2018. Disponível em:
https://hostdime.com.br/classificacao-tier-o-que-e-e-como-isso-diferencia-os-data-centers. Acesso em: 13 jun.

2022.

MARQUES, M. R. Estudo de caso: gerenciamento de um projeto de data center com as boas práticas do project

management institute. 2013. 62 f. Monografia (Especialização em Teleinformática e Redes de Computadores) –

Departamento de Eletrônica, Universidade Tecnológica Federal do Paraná, Curitiba, 2013. Disponível em:

http://repositorio.roca.utfpr.edu.br/jspui/handle/1/3245. Acesso em: 13 jun. 2022.

MILLER, R. Google spent $951 million on data centers in 4Q. 2012. Disponível em:

https://www.datacenterknowledge.com/archives/2012/01/23/google-spent-951-million-on-data-centers-in-4q.

Acesso em: 13 jun. 2022.

SILVA, F. Cloud computing. 2020. Disponível em:

https://integrada.minhabiblioteca.com.br/reader/books/9786556900193/pages/recent. Acesso em: 13 jun. 2022.


TANENBAUM, A. S. Modern operating system. New Jersey: Pearson Education, 2014.

VERAS, M. Cloud computing: nova arquitetura da TI. Rio de Janeiro: Brasport. 2012.

Aula 4

KUROSE, J. F.; ROSS, K. W. Redes de computadores e a Internet: uma abordagem top- -down. 6. ed. São Paulo:

Pearson, 2013.

LUCAS. Desvendando os conceitos da virtualização. 2012. Disponível em:

https://www.devmedia.com.br/desvendando-os-conceitos-da-virtualizacao-revista-infra-magazine-8/26297.

Acesso em: 13 jun. 2022.

MILLER, R. Google Spent $951 Million on Data Centers in 4Q. 2012. Disponível em:

https://www.datacenterknowledge.com/archives/2012/01/23/google-spent-951-million-on-data-centers-in-4q.
Acesso em: 13 jun. 2022.

RASMUSSEN, N. Data center projects: system planning. [s. d.]. Disponível em:
https://www.technologydecisions.com.au/content/data-centres/ white-paper/data-centre-projects-system-

planning-60159304/download. Acesso em: 13 jun. 2022.

TEARE, D. Designing for cisco internetwork solutions (DESGN). 2. ed. Indianapolis: Cisco Press, 2008.

VMWARE. O que é SAN e como funciona? 2022. Disponível em:


https://www.vmware.com/br/topics/glossary/content/storage-area-network-san.html. Acesso em: 13 jun. 2022.
Imagem de capa: Storyset e ShutterStock.

Você também pode gostar