Você está na página 1de 21

-REDES DE COMPUTADORES: HISTÓRIA E EVOLUÇÃO:

A história de redes de computadores remonta aos anos 1960, no auge da Guerra Fria,
nos laboratórios do Massachusetts Institute of Technology
(MIT). O engenheiro e cientista da computação Leonard Kleinrock (1934-) foi o
responsável pelos primeiros estudos sobre a teoria das filas de
pacotes de dados de um computador a outro.
Esses pacotes de dados, ou tramas, são a divisão de uma transmissão, como um e-
mail, uma imagem, uma mensagem etc. Pensando em uma
forma bem simples, a informação é dividida em pequenas partes que navegam pela
malha de uma rede e, à medida que as partes chegam ao
destino, são “montadas” ordenadamente, formadas e apresentadas de uma forma
abstrata ao nosso Front End (tela do computador), satisfazendo
a necessidade e solicitação.
Quando, por algum motivo, essa montagem não acontece corretamente, o que chamamos
de sinal atrasado, existe um período (ou Delay) que
retransmite os pacotes até que sejam liberados para a solicitação ou recusados,
impedindo a transmissão e visualização.
Voltando à nossa viagem no tempo, podemos considerar que nessa mesma época teve
início a internet, com o advento da ARPANET, que vamos
retomar um pouco mais adiante.
Até os anos 1960, o que prenominava como comunicação eram as redes telefônicas, e o
que se pensava como transmissão de origem e destino
era a comunicação de voz ou sinais de som para este objetivo.
Em 1877, Graham Bell fundou a maior empresa de comunicação do mundo, a American
Telephone & Telegraph, mundialmente conhecida
como AT&T, apesar de muitos processos de outros inventores reivindicarem a autoria
dessa descoberta.
Podemos observar que, de 1876 a 1960, não houve mudança significativa nesse
segmento. O mesmo não se pode falar de 1960 em diante, pois
foi a partir das pesquisas de Leonard Kleinrock que, em 1964, Paul Baran inicia os
estudos mais aprofundados na comutação de pacotes para
fins militares e com maior segurança. Quase que simultaneamente, Donald Davies e
Roger Scantlebury, dois pesquisadores ingleses, também
pesquisavam sobre a comutação de pacotes.
Por volta de 1967, Lawrence Roberts, pesquisador do MIT, publicou na ARPANET que a
rede de computadores seria comutada por pacotes, e
esses primeiros comutadores seriam conhecidos como Interface Message Processors
(IMP), ou Processadores de Mensagens de Interface.
Em 1969, surgiu o primeiro IMP (ou modem), que seria a configuração inicial das
redes de computadores atuais, dentro da Universidade da
Califórnia, como se fosse o servidor central, mais três IMP adicionais, um no
Stanford Research Institute, em Santa Bárbara, e outro na
Universidade de Utah, sob a supervisão de Leonard Kleinrock.
Cabe ressaltar que essa foi a primeira utilização de um login; ainda, que essa
conexão acabou não durando muito, derrubando rapidamente o
sistema com apenas quatro nós. Mas sem dúvida alguma foi um grande feito inicial
para essa tecnologia.
Nessa época, ainda eram incipientes pesquisas sobre redes de computadores. No
mercado de Tecnologia da Informação (TI), prevaleciam os
computadores de grande porte com os chamados sistemas proprietários, que eram
sistemas que comunicavam estações de trabalho
independentes através de cabeamentos, ligando as estações diretamente nas centrais
de processamento de diversos fabricantes como IBM,
Burroughs Corporation, dentre outros.
A exemplo desses computadores de grande porte, ainda nos anos de 1960 e 1970,
podemos citar o IBM 360 e o Burroughs B-3500, que
competiam entre si na disseminação e popularização da informática no mundo.
Apesar de uma relativa eficiência tecnológica — considerada a terceira geração de
computadores —, uma das principais características desses
fabricantes era a inexistência de uma comunicação direta entre eles, nem mesmo
entre as estações de trabalho, por isso eram chamados de
sistemas proprietários.
Embora diante dessas condições desfavoráveis para a integração dos usuários
mundiais, continuaram seu progresso até aproximadamente
1975, quando alguns fabricantes apresentaram ao mercado os minicomputadores, os
quais atrairiam um mercado de empresas de menor porte
que ansiavam pela tecnologia da informação e, com isso, aprimorariam seus processos
organizacionais.
Seria um grande passo na questão da popularização dos computadores, mas ainda havia
dificuldade de comunicação entre eles, algo que só
foi paliativamente resolvido com a Linguagem Universal de Comunicação: O arquivo
texto ou TXT, como chamamos até hoje em dia.
Esse modelo de comunicação, no qual se criam matrizes com o mapeamento dos campos
que integram computadores e sistemas diferentes,
acabou resolvendo essa dificuldade ao longo do tempo e, por incrível que pareça,
muitas organizações ainda utilizam esse modelo para trafegar
e atualizar dados entre os seus sistemas corporativos.
Em 1980, a IBM lançou seu primeiro microcomputador, o IBM PC/XT com a capacidade de
64 KB de memória RAM e 40 KB de ROM, mas
dessa feita com seus componentes de vídeo (fósforo verde), CPU e Teclado com
processamento local, isto é, o processamento era feito
somente dentro desse computador. A partir desse momento, a evolução dos
microcomputadores não parou mais, aumentando sua capacidade
de processamento, memória e armazenamento.
E quanto às redes, como ficaram? Pois bem, durante as décadas de 1970 e 1980,
continuaram as pesquisas no mundo inteiro sobre comutação
de dados e a formação de redes para que os computadores e usuários pudessem se
comunicar simultaneamente, mas ainda com pequenas
redes Local Área Network (LAN) espalhadas pelo planeta, como Telenet: comutação de
pacotes comerciais da BBN baseada na tecnologia da
Arpanet, Taymnet e Transpac: rede de comutação de pacotes franceses, Alohanet: rede
de micro-ondas via rádio que interligava as ilhas do
Havaí etc.
Para se ter uma ideia, na década de 1970, havia no mundo 200 computadores ligados
em rede; com o final da Guerra Fria, os militares
perderam o interesse pela Arpanet, que acabou direcionando seus interesses para as
universidades dos Estados Unidos, as quais, por sua vez,
iniciaram uma divulgação para outras nações. Na década de 1980, já havia cerca de
100 mil máquinas interligadas. Em 1 de janeiro de 1983,
o protocolo TCP/IP foi anunciado, passando a ser obrigatório em todos os
microcomputadores.
Até 1990, as pesquisas continuaram evoluindo para que cada vez mais pessoas e
organizações estivessem interligas na rede mundial de
computadores. Desse modo, houve uma guinada com o surgimento da World Wide Web
(www), a famosa internet, estabelecendo a conexão
entre pessoas do mundo inteiro e criando novos tipos e tecnologias de redes de
computadores.
No Brasil, apesar da reserva de mercado da tecnologia da informação que perdurou
até 1990, essa evolução foi acompanhada com alguns
anos de atraso. Mesmo assim, as organizações foram adequando-se dentro de suas
condições de investimento que, na época, exigia um custo
bastante elevado para se ter um departamento de Processamento de Dados.
Com o término dessa reserva de TI, ainda em 1990, foi criada a Rede Nacional de
Pesquisas (RNP) e, em 1992, foi fundada a Internet Society;
nessa época, o Brasil contava com pelo menos 200 servidores de web em atuação no
país. Com isso, percebemos que o mundo crescia na
direção das redes de computadores, ambientes web, hardwares e softwares de alta
performance, contribuindo para o que temos hoje de melhor
na área.
De lá para cá, visualizamos uma série de inovações tecnológicas que, de acordo com
a demanda dos usuários, fizeram dos últimos dez anos
uma crescente. Por isso, precisamos estar sempre ligados nessas inovações, porque
elas darão o rumo dos estudos referentes a redes de
computadores.

-CONCEITOS DE REDES DE COMPUTADORES:


Como conceito principal, podemos afirmar que redes de computadores são um conjunto
de hardwares, softwares e peoplewares
interconectados em uma malha mundial de comunicação, transmitindo e recebendo todo
tipo de informação. Existem vários autores e websites
definindo diferentemente o significado de redes de computadores. Vamos analisar
algumas:
- uma rede de computadores pode ser definida como uma estrutura de computadores e
dispositivos conectados através de um sistema de
comunicação com o objetivo de compartilharem informações e recursos entre si.
- Com o objetivo de compartilhar serviços, informações e recursos criam-se as redes
informáticas, as quais compreendem um conjunto de
dispositivos de diferentes classes (computadores, routers, modems), conectados
mediante sinais, cabos, ondas radioelétricas ou qualquer outro
tipo de transporte de dados digitais.
Podemos dizer que a rede de computadores é uma das especialidades de uma grande
área, a Ciência da Computação, que abrange todas as
disciplinas e que tem como responsável um departamento denominado TIC.
Mas afinal, o que é TIC?
Pois bem, há pouco tempo, chamávamos a área responsável pelos processos
computacionais nas organizações de Tecnologia da Informação
(TI); com o passar do tempo e a grande evolução das comunicações que, além do
avanço no tempo de resposta para nossas solicitações,
englobaram a parte de telefonia.
Por exemplo, as empresas deixaram de utilizar a telefonia fixa em suas dependências
e a substituíram pelas telefonias inteligentes, como
VOIP – tecnologia que recebe ligações telefônicas via internet dentro de uma rede
de computadores. Essa mudança trouxe uma redução
significativa de custos com impulsos telefônicos tanto para ligações locais quanto
para interurbano, além de benefícios e facilidades de suporte
e instalação de novas linhas.
Dessa forma, vamos entender essa sigla tão importante no mundo informático:
T – Tecnologia
Engloba todas as tecnologias: hardwares, softwares e servidores; switches de redes,
estações de trabalho, cabeamentos, sistemas operacionais
etc., usadas para a construção da estrutura física e lógica computacional.
I – Informação
Em um mundo onde estão em plana expansão Big Datas, Cloud Computing, Inteligência
Artificial (IA) etc., cabe sempre uma preocupação
especial na composição de dados e informações. Na área de redes não poderia ser
diferente. Dimensionar corretamente o tráfego de dados em
uma rede é de vital importância para o atual objetivo de termos altas velocidades
de transmissão, disponibilidade e integridade total das
informações solicitadas pelos usuários, pois, em um mundo globalizado e ágil,
ninguém admite ficar esperando por muito tempo algo solicitado
e principalmente ficar observando aquela mensagem no computador “Aguarde –
Processando…”
Você, que está se preparando para essa atividade, deve sempre ter em mente os
princípios básicos e perceber que é fundamental ter
informações disponíveis instantaneamente, não importa onde elas estejam
armazenadas.
Desde sempre, mas com mais ênfase na atualidade, a informação é o bem mais precioso
e valioso de uma organização, seja ela privada ou
pública, pois com ela é possível tomar decisões visando ao crescimento de empresas,
retirar perfis de clientes oferendo produtos específicos,
aumentar as vendas de e-commerce ou e-service.
Até nas redes sociais somos vistos como possibilidade de negócio. Você já deve ter
percebido quando de alguma forma acessou uma pesquisa
de algum produto e, a partir daí, começou a receber propagandas referente ao mesmo
produto. Pois é, quando participamos de grupos em
redes sociais, na verdade estamos alimentando um banco de dados com nossas
informações que são similares a outras pessoas com o
mesmo perfil.
C – Comunicação
Abrange a estrutura de comunicação, como redes na sua classificação LAN, WLAN, WAN
etc., comunicações via satélite, via cabeamento,
Wireless etc.
Percebemos então que a área de Tecnologia da Informação e Comunicação (TIC) deve
ser responsável pelos resultados de uma empresa
através de sua participação contínua, auxiliando a tomada de decisão sobre quais
seriam as melhores opções tecnológicas. Para que isso
aconteça, no entanto, é importante que os profissionais de TIC tenham um
conhecimento básico de negócios da organização (Visão Holística)
ou cliente com necessidades de implantar um novo sistema, servidor e tecnologias
web, pois somente assim será possível efetuar um
dimensionamento correto e atingir os objetivos de uma companhia.
Quer dizer, então, que vou precisar de todo esse conhecimento para criar e
administrar uma rede de computadores?
Sim. Dependendo do projeto de redes, do tamanho da empresa de seu cliente ou de
onde você trabalha, da disponibilidade financeira e,
principalmente, do objetivo ou negócio da companhia, nós de TIC devemos pensar em
cada projeto como algo novo e único.
Vamos refletir juntos. Temos uma empresa de pequeno porte, de venda de cosméticos
pela web através de um sistema e-commerce, com
cinco funcionários, uma unidade e uma disponibilidade de investimento financeiro
baixo; outra empresa de grande porte multinacional,
chegando para vender seu produto inédito no Brasil, com cinco unidades, mais de 100
funcionários. Com base nesse cenário, devemos pensar
da mesma forma pelos dois projetos com as mesmas dimensões e tecnologias?
A resposta é sempre não, pois os pensamentos devem ser independentes para cada um
deles. Com isso, podemos trazer as soluções e
tecnologias adequadas a cada necessidade e a disponibilidade de investimentos.
Outro ponto de vital importância em um projeto é sempre documentar o que está
previsto dentro do escopo. Isso serve para evitar qualquer
contratempo futuro sobre o que foi pedido e o que foi entregue, uma vez que
segurança não é apenas para a rede de computadores, mas para
nós profissionais de TIC também.
Por falar em segurança, outro fator importante em nossa área é a segurança de
redes, acessos e informação. A segurança a informação está
regida, a partir de fevereiro de 2020, pela Lei Geral de Proteção de Dados do
Brasil (LGPD), Lei 13.709/2018. Trata-se de uma lei sancionada
em 2017 que basicamente controlará os acessos, armazenamentos e processamento dos
dados pessoais espalhados por diversos bancos de
dados e plataformas existentes.
Se, para o ambiente de dados, já existem normatizações estabelecidas por lei, para
as redes de computadores, devemos entender sobre
segurança de acesso, pois redes sempre terão usuários e o que mais lhes for
permitido. Por isso, vamos entender alguns desses importantes
fatores, bem como o conceito de segurança.
Pode-se comparar segurança de redes com a mesma segurança da internet com
aplicativos de controle diferentes; conforme já estudamos,
atualmente os acessos a redes são regidos pela comunicação, que na maioria dos
casos são os acessos via web. Devemos, portanto, pensar
primeiramente quais os principais fatores que levam à quebra da segurança? Podemos
pensar em várias causas, mas de uma forma ordenada
podemos citar:
● Ataque de hackers: Na maioria das vezes, o ataque de hackers simboliza uma
invasão para demonstrar falhas e brechas de segurança de um
sistema ou rede de computadores.
● Ataque de crackers: Neste caso, a situação fica muito mais séria, pois não são
apenas demonstração de falhas de sistema, mas a intenção de
furtar informações e valores financeiros, destruir banco de dados, adicionar vírus
novos sem antivírus, interromper o funcionamento de sistemas
transacionais e de apoio à decisão, causando assim um enorme prejuízo para as
organizações empresariais.
Normalmente, os crackers se utilizam de malwares (softwares espiões) que, em
determinado momento, são acionados ou mesmo colocados
em nossos computadores sem nem mesmo percebermos que eles estão lá; daí quando se
manifestam causam um estrago maior. Por essa
razão, é sempre importante ter no mínimo um antivírus, antimalwares para
minimizarmos as consequências.
● Evasão de informações: Este caso é tratado como “Pirataria”; pensar em evasão de
informações é entender que o caso está sempre ligado a
uma questão cultural da empresa, à ética dos usuários e, desta forma, está muito
além dos recursos disponíveis, tornando-se muito mais difícil
seu controle, pois não existe software que impeça alguém de comercializar dados de
uma empresa sem autorização. Assim, existem muitas
empresas que prestam serviços nessa área para treinar a questão cultural da
empresa, criar dispositivos legais sob a importância da
responsabilidade de cada usuário e aplicações para o controle de acesso às
informações.
Mesmo com todo esse trabalho, devemos estar conscientes de que estaremos sempre
correndo riscos de acesso, principalmente quando
falamos de acesso web; precisamos entender também que os benefícios desse acesso
são tão importantes e ágeis que devemos estar atentos
e tomar todas as medidas necessárias com vistas a evitar tais complicações.
Essas aplicações são softwares que nos auxiliarão na proteção de acesso a redes e
dados, como antivírus, antispam, gerenciadores de senhas,
serviços proxy, criptografias etc., mas nada como um bom e velho backup e um plano
de contingência para nos protegermos, seja no âmbito
profissional seja no pessoal.
Ainda no quesito segurança, dependendo da estrutura organizacional, será necessário
trabalharmos com sistemas distribuídos para melhorar a
performance dos sistemas da companhia. Os sistemas distribuídos são equivalentes a
plataformas distintas, com sistemas operacionais
diferentes, redes e comunicação também distintas para um aumento significativo de
performance.
Por exemplo, imagine uma empresa com várias unidades em diversas cidades. Dessas
unidades, uma é indústria de processos (Fábrica),
outra é de armazenagem e logística (Estoque e Faturamento) e outra é centralizadora
(Administração e Vendas). Qual seria a melhor estrutura?
Pois então, imaginemos nosso banco de dados na nuvem, centralizando as atualizações
das informações e com sistemas transacionais, que
têm acesso a todos os aplicativos via web. Aí podemos utilizar várias redes LAN,
uma em cada unidade, para efetuar seus processos
independentemente, com sistemas operacionais diferentes, como Windows, Linux ou
Samba fazendo a conexão entre eles e, ao final,
atualizando seu banco de dados único.
Esse formato nos traz a ideia de uma melhoria considerável na performance, pois os
processos subdivididos trazem esse benefício e, assim,
aplicando os cuidados necessários com a segurança, estaremos caminhando para o
melhor cenário desse case. Lembre-se, porém, de que
tudo depende de vários fatores de um bom planejamento de um projeto.
Entendemos, com isso, que é necessário, em um projeto de redes, pensarmos além dos
detalhes técnicos e alinharmos o conhecimento com
as necessidades do cliente, ou seja, visão holística, lembra?
No mundo atual, o foco sempre recai sobre os objetivos do negócio da companhia. Por
mais que haja inovações e tecnologias envolvidas,
se não atingirmos esses objetivos, teremos perdido tempo e dinheiro sem os
resultados esperados, fase chamada de Projeto Funcional.
Após esse momento, organize as ideias e parta para o que interessa sobre as
necessidades do cliente. Foque nas tecnologias, topologias
físicas e lógicas que podem resolver o caso. Contrate bons profissionais e crie uma
sinergia em sua equipe. Apresente soluções inteligentes e
acompanhe de perto a execução do projeto, aprendendo com os erros. Mensure os
riscos, pois assim seu projeto certamente apresentará
poucas falhas.
Nesse momento, escolha um framework de mercado com as melhores práticas para
controle de projetos, como um ITIL, acompanhado de um
PMBOK ou alguma ferramenta parecida, pois isso dá mais segurança em decisões
importantes ao longo do projeto.
Nas próximas leituras, trataremos de detalhes pertinentes a tudo que foi mencionado
até agora, visto que uma visão geral você já tem, com
muita informação macro do que é necessário para criar e gerir uma rede de
computadores. Além disso, de alguma forma precisamos
aprofundar as pesquisas para acompanhar o mercado, que vai muito além de
tecnologias específicas de redes, bem como participar e
entender das tecnologias emergentes e inovações na área, como inteligência
artificial, gerenciamento, distribuição de caminhos de
comunicação de dados como middleware, o caminho para as redes mundiais wireless tal
qual acontece com os smartphones.
Estamos em uma era de mudanças rápidas, profissões que serão extintas e outras
sendo criadas, tecnologias que estarão obsoletas muito
brevemente. Por isso, é preciso prepare-se; ultrapasse seus limites de conhecimento
agregando o que precisa de melhor, pois essas mudanças
acontecerão muito rapidamente.

-EVOLUÇÃO NO MUNDO E NO BRASIL COM DATAS RELEVANTES:


● Primeira geração de computadores
1943: A Inglaterra lança o Colossus, usado inicialmente para decifrar códigos
secretos da Alemanha durante a Segunda Guerra Mundial
(1939-1945); foi criado por Alan Turing, considerado até hoje como o pai da Ciência
da Computação.
1945: Von Neumann sugere que os computadores utilizem o número binário, com base na
lógica matemática e na álgebra de Boole.
1946: Lançamento do primeiro computador, o Eniac por J. P. Eckert e John Mauchly.
1947: Invenção do transistor.
1949: Lançamento do Binac com maior portabilidade e concepção binária.
1952: Concluído o Electronic Discrete Variable Automatic Computer (Edvac),
tornando-se o primeiro computador comercializado em escala
industrial. Neste ano, a IBM lança o IBM 701, com maior capacidade de
processamento.
● Segunda geração de computadores
1954: IBM 650 de tamanho médio para a época.
1957: Lançamento do IBM 1401 e o Burroughs B 200.
1958: IBM TX-0 Primeiro computador com monitor de alta qualidade.
1959: Criação do MARK I.
● Terceira geração de computadores
1960: Computadores IBM 360 e o Burroughs B-3500.
1964: Formação da primeira empresa de software do mundo, Computer Sciences
Corporation (CSC).
1965: O primeiro minicomputador criado pela Digital Equipament Corporation (DEC).
1970: Lançado o primeiro microprocessador pela Intel.
1972: Lançamento mundial da Atari e seu primeiro videogame, surgimento dos
primeiros microcomputadores.
1975: Paul Allen e Bill Gates fundam a Microsoft.
1977: Steve Jobs e Wozniak criam o microcomputador Apple.
1980: Lançamento do IBM PC/XT com sistema operacional DOS que permitia a utilização
de aplicações, como editor de texto Wordstar e a
planilha eletrônica Lotus 1-2-3.
● Quarta geração de computadores
1982: Surge o PC 286 com os monitores CGA, alguns modelos eram coloridos, pois até
então todos os computadores eram com visores de
fósforo verde em sua maioria.
1985: Surge o PC 386 com monitores VGA coloridos; lançamento do Windows 1 criando
uma interface gráfica para o sistema operacional DOS.
1987: Lançamento do Windows 2.
1988: Primeiro acesso à internet do Brasil (a Bitnet), pelo Laboratório Nacional de
Computação Científica (LNCC), localizado no Rio de Janeiro.
1989/1990: Lançamento do PC 486 DX com monitores SVGA coloridos e uma velocidade de
processamento muito maior. Aproximadamente
neste período, a Microsoft lança o Windows 3, momento em que há uma debandada geral
dos minicomputadores para pequenas redes LAN
com a Novell e Lantastic em uma crescente indescritível.
● Quinta geração de computadores até os dias atuais
É importante mencionar que, devido aos avanços de processamento e armazenamento de
informações, bem como à febre da informatização
mais acessível a todos, criou-se um mundo informatizado dando oportunidade para o
nascimento de várias empresas desse ramo inovador,
tanto para o desenvolvimento de hardwares quanto para o de softwares.
1991: Lançamento da primeira versão do Linux pelo então estudante universitário
finlandês Linus Torvalds.
1993: Surge o processador Pentium.
1995: Lançamento do Windows 95.
1997: Surge o processador Pentium II.
1999: Surge o processador Pentium III.
2001: Surge o processador Pentium IV.
Dessa data aos dias atuais, evoluímos rumo a melhorias técnicas, de processamento e
armazenamento, para falarmos hoje em Big Data e
máquinas com super processadores.
E o futuro como ficará?
Para falarmos sobre isso, temos que nos aprofundar em pesquisas, pois quase que
diariamente surgem novas tecnologias que são chamadas
de emergentes, como o Super Computador Quântico que, segundo estudos, será
aproximadamente um milhão de vezes mais rápidos do que
os computadores atuais mais rápidos. Dessa maneira, fala-se até da substituição do
binário como tradutor entre máquina-homem.
Juntando esse fato com o que a Nasa está pesquisando sobre a internet
interplanetária e processadores espaciais, inteligências artificiais,
Internet das Coisas, estradas inteligentes etc., será que nossa querida área de
redes de computadores ficará da forma como está? A resposta é
não. Por isso, devemos cada vez estarmos atualizados nesse mercado e no seu futuro.
Não pense que o Brasil está de fora disso, pois, de
alguma maneira, caminhados juntos nessa evolução dentro de um mundo globalizado.

PROJETO DE REDES DE COMPUTADORES SEGUNDO AS TOPOLOGIAS E CLASSIFICAÇÕES:


A melhor forma de entendermos este tema é, primeiramente, falar sobre os projetos,
suas divisões, seus conceitos e suas diferenças com as
operações. Uma definição bem interessante de projetos é dada em conformidade com o
PMBOK:
Um projeto é um esforço temporário empreendido para criar um produto, serviço ou
resultado exclusivo. Os projetos e as operações diferem,
principalmente, no fato de que os projetos são temporários e exclusivos, enquanto
as operações são contínuas e repetitivas.
Podemos definir projeto também como uma ideia, uma necessidade ou até mesmo um
problema, em que será necessário pensar e elaborar
com algumas fases e recursos predefinidos, para a realização e concretização do
objetivo. Assim, entendemos que, para um projeto de redes
de computadores, não é diferente. Por isso, entenderemos essas fases, suas
aplicações segundo o tipo de projeto etc.
Apesar de existirem muitas divergências em torno delas, trataremos aqui das cinco
fases de um projeto:
1. Inicialização: pensando a partir de uma necessidade de uma estrutura de redes de
computadores de uma organização ou mesmo pessoal,
temos a fase de inicialização, a qual tem por objetivo sua estruturação inicial de
projeto. Por exemplo, uma rede residencial com quatro
computadores, todos notebooks, acesso via wireless e alguns acessos de smartphones.
Note que se trata de uma rede bem comum, que muitos
de nós já nos deparamos com essa necessidade.
2. Planejamento: podemos considerar esta fase como a principal, pois é nela que
normalmente gastamos mais tempo, mas esse tempo é
bastante importante, pois quanto mais planejamento houver, menor será a chance de
ocorrerem erros e retrabalhos nas fases posteriores.
Em um projeto de redes, podemos planejar e definir topologia, classificação segundo
a área geográfica, tipos de comunicação (cabo ou
wireless), acessos de internet e quais hardwares utilizar como estações de
trabalho, servidores, switches etc.; todos eles com a configuração
perfeita para a necessidade.
3. Execução: esta é a fase de implantação da rede de computadores com as ligações
físicas e as conexões lógicas (configuração de protocolos
TCP/IP, cálculos para conversão numérica binária, serviços de rede etc., que
estudaremos ainda neste módulo), as quais deixam o projeto em pleno funcionamento.
Neste momento, em conjunto com a fase de execução, encontra-se a fase de
monitoramento e controle.
4. Monitoramento e Controle: por que as duas fases estão em conjunto? Porque, à
medida que evoluímos na fase de execução, o
monitoramento nos apresenta resultados conclusivos, bem como problemas encontrados
durante o trajeto ou acontecimentos que fugiram do
planejamento (lembre-se da importância da fase 2). Neste ponto, podemos citar
exemplos como uma banda de transmissão mal definida,
escolhas erradas de parceiras técnicas, subdimensionamento de hardwares etc. Esta
fase traz ainda grandes experiências e aprendizados,
visto que cada falha ensina a não falhar mais, pelo menos nos mesmos pontos em
futuros projetos.
5. Finalização e entrega: esta fase traz sempre as entregas previstas no início do
projeto (fase 1). Com ela, conseguimos atingir os objetivos e
satisfazer as necessidades, entregando o projeto completo e com a eficiência
desejada.

CONHECIMENTO E CONFIGURAÇÃO SOBRE PROTOCOLOS TCP/IP - IP CONFIG:


IP significa Internet Protocol, utilizado como número de identificação de um
computador, smartphone ou outro periférico de rede, ou seja, é o
número de registro do componente e que também é chamado de IP Address. Em conjunto
com o Trasmission Control Protocol (TCP) forma-se
o protocolo TCP/IP, o qual serve para identificar o número na configuração de uma
ligação na rede de computadores, que identifica e aceita a
conexão.
Para poder identificar o número, basta entrarmos no Windows, sempre lembrando que
cada versão pode nos guiar diferentemente. Digite o
comando CMD (DOS), em seguida, dentro do prompt do DOS, o comando “Ipconfig”;
surgirá uma tela, na qual é possível localizar onde fica o
IP do dispositivo na linha do IPv4, que é a quarta versão e mais difundida dentro
do protocolo TCP/IP.
Na sequência, observamos, em conjunto com a máscara da sub-rede, o gateway padrão,
ou seja, o endereço do roteador e o número do TCP
que juntos auxiliam na configuração do endereço do protocolo TCP/IP; assim, inicia-
se a conexão dos hosts (equipamentos conectados à rede)
envolvidos.
As demais informações não são mencionadas para não nos estendermos muito em um
conjunto de informações que ainda não é pertinente
para o nosso objetivo principal de aprendizado.
O endereço IP é uma sequência de números composta por 32 bits, cujo valor consiste
em um conjunto de quatro sequências de 8 bits, sendo
que cada uma dessas sequências é separada por um ponto, denominado octeto ou byte
(formação básica de 8 bits).
Os números que observamos do Gateway padrão (Figura 2), por exemplo, é a sequência
192.160.0.1; e aí podemos notar que cada octeto é
formado por números que podem ir de 0 a 255. Essa divisão em quatro partes auxilia
muito a organização do protocolo. Por essa razão, vamos
entender, antes de prosseguirmos, o que chamamos de Classes de endereços de IPs..
Nenhum equipamento na rede mundial pode ter o mesmo número de IP que outro. Caso
isso ocorra, há um conflito de IP, causando a
interrupção na comunicação. Dessa forma, órgãos reguladores pelas entidades
Internet Assigned Numbers Authority (IANA) e Internet Corporation
for Assigned Names and Numbers (ICANN) dividem os endereços em três classes
principais e duas complementares:
● Classe A: 0.0.0.0 até 127.255.255.255 — Permite até 128 redes, cada uma com até
16.777.214 dispositivos conectados. Nesse caso,
observamos que sua utilização tem um número menor de redes, porém um número muito
maior de equipamentos interligados. Por exemplo:
Redes de grandes organizações com um número menor de descentralização.
● Classe B: 128.0.0.0 até 191.255.255.255 — Permite até 16.384 redes, cada uma com
até 65.536 dispositivos. Observamos que ocorre um fato
contrário: o número de redes é bem maior, porém é menor o número de equipamentos
interligados. Por exemplo, uma empresa que necessita
distribuir sua rede em vários pontos, mas ainda assim com um número grande de
dispositivos.
● Classe C: 192.0.0.0 até 223.255.255.255 — Permite até 2.097.152 redes, cada uma
com até 254 dispositivos. Nesse caso, contempla-se um
número muito maior de redes, porém com um número reduzido de dispositivos
interligados.
● Classe D: 224.0.0.0 até 239.255.255.255 — Multicast.
● Classe E: 240.0.0.0 até 255.255.255.255 — Multicast reservado.
As classes D e E existem por uma questão bem especial; a D é usada para propagação
de pacotes especiais de comunicação entre os
dispositivos, e a E é reservada para aplicações futuras. Complementando nosso
conhecimento, as classes A, B e C são privadas, por isso, não
podem ser utilizadas na internet.
Desse modo, conforme estudamos as divisões e estruturas lógicas, na Figura 3
podemos observar nossa primeira conexão de rede de
computadores, com o primeiro protocolo de comunicação, bem como as portas de redes,
ou seja, um ponto físico e lógico em que são feitas as
conexões em um host emissor e um receptor.
Assim, para configurar um protocolo TCP/IP fixo, precisamos entender qual sistema
operacional está sendo usado (Windows, IOS ou Linux).
Nesse momento, tomaremos como exemplo o Windows 10 para se ter uma ideia de qual o
caminho precisamos percorrer.
Com as figuras a seguir, aprendemos o que é necessário fazer, ainda que muitas das
instalações sejam praticamente plug and play, nas quais
as configurações são bem intuitivas e a maioria dos roteadores já sugerem as
configurações padrões.
Conforme estudamos anteriormente, por meio de Ipconfig podemos identificar alguns
endereços importantes para nossa primeira configuração,
então vamos ao passo a passo:
● Entrar no painel de controle e na configuração de redes do Windows (versão 10).
● Vá em Rede e Internet e, depois, clique em Exibir o status e as tarefas de rede.
● Do lado esquerdo do menu, clique em Alterar as configurações do adaptador.
Depois, clique duas vezes na rede que conecta seus dispositivos
ao computador servidor.
● Clique em Detalhes.
● Anote os dados necessários para configurar seu IP fixo para usarmos depois.
● Clique em Detalhes.
● Anote os dados necessários para configurar seu IP fixo para usarmos depois.
● Na janela de Propriedades, selecione a opção Protocolo IP Versão 4 (TCP/IPv4) e
clique em Propriedades:
você precisa preencher o IP fixo que deseja configurar e finalizar o processo de
configuração.
De fato, parece muito simples, mas é necessário familiarizar-se com as
configurações, aprofundando assim seus conhecimentos; em caso de
dúvida, sempre consulte um profissional da área para auxiliá-lo até que tenha
domínio desta atividade.

SERVIÇOS DE REDE:
Tais serviços são basicamente ferramentas ou aplicações que carregam em segundo
plano e, com isso, fornecem funcionalidades para redes
de computadores internas e externas, como controle de acessos, segurança, os
próprios protocolos etc.
Os exemplos citados a partir de agora vão orientar divisões, como o Dynamic Host
Configuration Protocol (DHCP) — ou Protocolo de
Configuração Dinâmica de Endereços de Redes —, que tem uma função muito importante
de identificar e configurar automaticamente a
comunicação de computadores ou dispositivos em uma rede.
Os servidores Domain Name System (DNS), ou sistema de nomes de domínios, são os
responsáveis por localizar e traduzir para números de IP
os endereços dos sites que digitamos nos navegadores. Por exemplo, quando digitamos
algum endereço de site ou enviamos alguma
mensagem ou e-mail, o DNS tem a função de localizar e direcionar o caminho para
trazer o que foi solicitado. Existem diversos servidores de
DNS; entre eles, podemos citar alguns bem importantes, como Google Public DNS, DNS
Benchmark, OpenDNS etc.
Outro serviço bastante comum é o serviço da web, que especificamente disponibiliza
páginas web, websites, e-commerce e e-service etc.
O mais popular do mundo é o Apache Tomcat, código aberto que possui versões tanto
para Windows quanto para Linux; além dele, podemos
mencionar o IBM WebSphere, o GlassFish Server, Zend Server etc.
O Serviço de Voice Over Internet Protocol (VOIP), ou voz sobre protocolo de
internet, como o próprio nome já diz, trata-se de uma tecnologia que
engloba toda a tradução para comunicação de áudio, chamadas de voz, dados digitais
etc. Essa tecnologia possui atualmente grandes
vantagens quando a adotamos como uma significativa redução de custos telefônicos,
pois em muitas situações são gratuitas, possibilitando que
ao invés de possuirmos estruturas de centrais telefônicas PABX, passamos a
controlar tudo via rede e por acessos à internet, que nos faz lembrar
como nossos últimos serviços de acesso, os servidores de e-mails.
Esses servidores se destinam ao controle, envio, recebimento, armazenamento etc. de
e-mails, sejam pessoais ou empresariais; além de
possuirmos diversas opções gratuitas ou não, como Gmail, Windows Live Hotmail,
Yahoo, Inbox.com etc.
Dessa forma, estudamos uma diversidade de serviços que podemos agregar a nossos
usuários de redes de computadores, e o limite é sempre
nossa capacidade de orientar e disponibilizar esses serviços para atender a tantas
necessidades, em um mundo totalmente conectado.

CONCEITOS E TIPOS DE CRIPTOGRAFIA:


Após estudarmos as várias etapas dentro da estrutura de redes e sua comunicação,
vamos avançar rumo às formas de enviarmos as
informações dentro das redes de computadores e focar na sua segurança, da qual
trataremos especificamente a segurança física e a lógica,
isto é, a Criptografia.
A segurança física diz respeito aos nossos princípios básicos de segurança e deve
estar em pensamento, toda vez que participamos de um
projeto de redes. Podemos definir que esse tipo de segurança está sempre destinado
aos locais de armazenagens de dados, servidores,
métodos de backups, controle de acessos de pessoas e equipamentos etc. Outra
informação importante é que devemos analisar sempre o
negócio da organização, visando a tomarmos as medidas necessárias para o primeiro
controle.
A segurança lógica, por seu turno, controla o acesso aos aplicativos da empresa,
sistemas operacionais, bancos de dados, senhas etc.,
podendo inicialmente ser controlados por firewalls, antispam ou outros aplicativos
que possam minimizar as famigeradas invasões de hackers,
crackers ou mesmo a evasão de dados. De certa forma, nunca teremos a certeza
absoluta de que estamos seguros com todos os controles
existentes, mas as medidas precisam ser tomadas a fim de diminuir essas
consequências. Pensando nisso, a criptografia é o foco deste tópico.
Então vamos entender do que estamos falando?
A origem da criptografia data de milhares de anos; iniciou-se com a escrita em
papel que, de alguma forma, convertia letras em sinais ou
simplesmente eram trocadas com o efeito de confundir alguém que intervisse no envio
de mensagens. Tal fato foi se aprimorando no século 20
com as guerras mundiais, quando equipamentos que surgiram nessa época tinham o
objetivo de codificar mensagens de guerra, como a
máquina alemã Enigma.
Desde então, esse processo tem evoluído muito, sobretudo quando os
microcomputadores passaram a ficar interligados na rede transitando
informações importantes a todo momento. Verificou-se, assim, a necessidade de
assegurar que as informações não corressem riscos de serem
roubadas.
Uma dessas técnicas foi a criptografia, que, mesmo parecendo algo bem complexo, é
mais simples do que pensamos. Trata-se de uma série de
algoritmos matemáticos que converte e codifica os dados de uma fonte emissora e
descriptografa na fonte receptora. É como se tivéssemos
mandando mensagens secretas entre nossos grupos.
Existem vários tipos de criptografia, sendo as principais a Data Encryption
Standard (DES), uma das primeiras a serem utilizadas para essa
finalidade; Advanced Encryption Standard (AES), padrão do governo dos Estados
Unidos e de várias organizações mundiais;
Rivest-Shamir-Adleman (RSA), pioneira em criptografia de chave pública etc. Além
dessas, temos algumas divisões, como a chave simétrica,
assimétrica, para redes sem fio, assinaturas digitais e atualmente já se fala em
criptografia quântica. Em outras palavras, estamos evoluindo em
nosso conhecimento e percebemos quantas informações são importantes para se ter uma
rede de computadores em pleno funcionamento.
DIMENSIONANDO TRÁFEGO DE DADOS:
Dimensionar o tráfego de dados é uma discussão que poderia levar horas, pois
teoricamente ainda não possuímos uma fórmula mágica para
um dimensionamento preciso de uma rede, seus componentes e volume de transações
antes de iniciá-la. Ainda assim, não se desespere, pois
é claro que todos desta área estamos bem amparados por aplicativos de mercado, os
quais nos ajudam a monitorar o tráfego de informações.
É importante, então, analisarmos dicas de como monitorar as transações, visto que
elas nos ajudarão a tomar decisões precisas sobre o que é
necessário para resolver os problemas encontrados, bem como para direcionarmos
nossos esforços para a tomada de decisões mais assertivas.
Podemos, inicialmente, entender o comportamento do tráfego e os gargalos de redes
de uma organização, identificando a origem dos
problemas e, neste caso, um dos seus maiores aliados serão os usuários
operacionais, isto é, uma espécie de termômetro de situações críticas,
por isso, traga-os para o seu lado.
Nenhuma mudança deve ser aplicada sem se avaliarem as consequências. Não tome
medidas sem pensar, sem fazer um bom planejamento
de suas descobertas de congestionamentos que têm como fatores principais os links
de acesso externos, atividades fora do profissional, como
acesso a vídeos, jogos on-line, entre outros.
Por conta disso, entenda os passos que você deve tomar em direção a uma solução
definitiva. Procure identificar as necessidades do nosso
melhor cliente: o usuário de nossa rede. Na sequência, planeje e nunca saia
fazendo, pois com certeza criará mais problemas do que já tem.
Constantemente estamos sendo criticado, e você já deve ter ouvido muito coisas do
tipo: “O TI desta empresa não funciona” etc. Temos que
trabalhar fortemente para mudar esse paradigma e, assim, com um profissionalismo
sem precedentes no local de trabalho, mudar tudo isso.
Dimensionar uma solução de redes parece algo impossível, mas a experiência em
outros projetos auxiliará você a tomar os caminhos corretos
para um resultado esplendido. Busque sempre as experiências de projetos passados.

CÁLCULO PARA CONVERSÃO DE NÚMEROS DECIMAIS PARA BINÁRIO PARA IP:


É chegado o momento em que, após recebermos tantas informações textuais e teóricas,
finalmente entraremos em alguns cálculos numéricos,
mais precisamente em conversão numérica de decimais para números binários e vice-
versa. Lembre-se daquela tradução de como nos
comunicamos com nossos computadores.
Assim, dentro de redes, também utilizamos essa comunicação com endereços dos
protocolos de redes e sub-redes. Antes, porém, vamos
entender a composição de um número binário, que está sempre atrelado aos números “0
e 1”, em que o zero significa livre, ou não utilizado, etc.;
o um, ocupado ou utilizado etc.
A partir disso, vamos entender que um número binário dentro dos protocolos possui
quatro grupos com oito bits cada, chamados octetos:
11111111.11111111.11111111.11111111, que no final 4 octetos X 8 bits, será igual
aos conhecidos 32 bits.
Cada octeto representa de forma decimal o número máximo de 255; então vamos iniciar
nossos cálculos com alguns exemplos, para depois
desenvolvermos esse conhecimento com aplicações práticas. Esse tipo de conversão
possui algumas formas de fazer, mas aqui vamos usar a
matemática com a base 10 para converter, efetuar divisões simples por 2, entender o
que significa o “resto” para compor o número binário e
usar uma tabela como “prova” de cálculos, que servem também de certa forma para
converter o número decimal para binário.
Acompanhamos o passo a passo que fizemos um cálculo do número 46, sempre dividindo
por 2. Repare que algumas das divisões são inteiras,
isto é, não existe fração, e em outros casos quando dividimos números ímpares por
2, sobra uma fração que, para o cálculo binário, se chama
resto. Aí utilizamos a parte inteira do número e jogamos 1 para o resto.
Acompanhe a sequência de cálculos exposta no Exemplo 1, no qual nossa divisão
resulta em 1, pois na matemática poderíamos continuar a
dividir os elementos, dando uma dízima periódica simples, mas no binário não é bem
assim, por isso termina nesse ponto.
Repare nos números propositalmente colocados em cor vermelha:
No Exemplo 2, vamos converter o número 254 para o binário, mas desta vez perceba
que esse binário já está com oito bits, isto é, um octeto
completo.
Será que isso é uma verdade absoluta? Vamos aprender a fazer a chamada prova, se
isso confere com as expectativas e também uma segunda
forma, talvez mais simples de converter números decimais em binários, criando uma
tabela que sabemos que um octeto possui o número de
até 255.
Vamos inserir, nessa tabela, os números binários calculados nos exemplos
anteriores, sendo que cada número 1 do binário calculado significa
que ele está ligado e que 0 está desligado. Assim, somaremos o número do topo da
tabela, que inicia em 1, 2, 4, 8, 16, 32, 64 e 128, totalizando
o número 255.
Percebemos que não é fácil finalizar esta etapa. Vamos aprender também a calcular
um número binário a partir dessa tabela, a qual pode ser
criada no Excel por exemplo. Dessa maneira, use da forma que preferir ou melhor se
adequar para efetuar seus cálculos.
A fórmula é bem simples, basta seguir as seguintes orientações:
Se o número a converter é o decimal 46, sequencialmente deve-se perguntar a partir
da coluna que tem o conteúdo 128. Se 128 cabem dentro
de 46: se sim, então o resultado será 1; se não, será 0. Continue sua pergunta para
os próximos números, que para esse exemplo 128, 64 não
cabem em 46 marcando zeros neles, mas o 32 cabe, então marque 1 e deduza de 46 o
32, sobrando 14. Continuando nossa pergunta, agora
sobraram 14 e o próximo número, 16, não cabe; então será zero. Aplique a regra
assim por diante até zerar o decimal. Siga assim até o decimal
255.
Aprender a utilizar esses cálculos de conversão auxiliará a definir os
identificadores de hosts e criar uma rede adequada em pleno
funcionamento. Busque sempre seu aperfeiçoamento, indispensável para essa área!

CABEAMENTO ESTRUTURADO, APLICAÇÕES DE SEGURANÇA, REDES WIRELESS E WDS:


Iniciamos pelo cabeamento estruturado, o qual pode ser chamado de organização das
conexões de uma rede e como ela está demarcada e
organizada para utilização. Em outras palavras, seria a padronização do cabeamento
de redes, que também serve para outras organizações de
cabos, como elétricos, de internet etc. e são usadas para diversos objetivos
importantes dentro de uma organização, seja a integração de uma
rede de dados ou suas aplicabilidades para transmissão de dados, voz, imagens,
entre outros.
Esse conceito surgiu sobretudo a partir do avanço das telecomunicações, atendendo
aos diversos padrões de redes locais, telefonia e demais
aplicações que foram agregadas a organizações. Com isso, trouxe muitos benefícios
importantes que mencionamos a seguir, dentre os quais
podemos citar a minimização de falhas nas conexões e cabos utilizados, agilidade na
identificação e manutenção dos pontos de redes,
melhoramento no controle e na evolução da escalabilidade, dentre outros.
Para se ter uma ideia da importância do cabeamento estruturado, diversas entidades
(profissionais da área e fabricantes de componentes) são
orientadas por organizações como ISO/IEC, TIA/EIA, CSA, ANSI, BICSI etc. Essas
organizações desenvolveram várias normas e certificações,
garantindo a aplicação dessas normas, que são mencionadas a seguir:
● ANSI/TIA/EIA-568-A/B (Sistema de cabeamento) compreende conceitos citados
anteriormente e é complementado por outras normas.
● ANSI/TIA/EIA-569-A: Infraestrutura utilizada a rigor por engenheiros civis e
arquitetos.
● ANSI/EIA/TIA-570-A: Cabeamento para pequenos escritórios e residência SOHO.
● ANSI/TIA/EIA-606: Administração e identificação.
● ANSI/TIA/EIA-607: Aterramento em telecomunicações.
Além desses, há os Telecommunication System Bulletin (TSB):
● TSB67: Testes realizados em campo no cabeamento UTP.
● TSB72: Cabeamento óptico centralizado.
● TSB75: Práticas do cabeamento por zonas (Zone wiring).
● TSB95: Diretrizes adicionais da performance de transmissão do cabeamento UTP 4P
Cat. 5.
No Brasil, a norma oficial mais utilizada é a NBR 14565 da ABNT, que se baseia na
EIA/TIA 568-A ou EIA/TIA 568B
Nesse contexto, podemos pensar nas aplicações de segurança de redes, que são
basicamente algumas medidas que minimizam invasões ou
evasões nos dados e sistemas, principalmente quando estamos falando em acessos via
internet. Apesar de toda sofisticação e benefícios, o
acesso via internet ainda é o grande vilão quando falamos dos caminhos de acesso à
rede de computadores. Assim, podemos seguir algumas
dicas sobre medidas de segurança, a saber:
● Estabelecer níveis controlados de acesso aos usuários com regras predefinidas e
suas autorizações.
● Criar proteções para conexões wi-fi, com senhas mais fortes de acesso de usuários
e limitações de acessos de usuários externos.
● Investir em aplicações de monitoramento constante de ataques digitais, o que é
muito comum hoje em dia.
● Realizar treinamentos periódicos sobre conduta com a equipe de TIC responsável
por redes e, até mesmo, com os usuários.
● Considerar a possibilidade de terceirizar a empresas que prestam serviços na área
de segurança etc.
Note como são importantes essas atitudes. Quando não tomadas em tempo hábil, podem
acarretar diversos problemas como perda ou
danificação dos dados, informações confidenciais caindo em mãos erradas ou na
concorrência, falta de confiança por parte dos clientes ou
usuários da rede, entre outros. Tudo isso representa a perda principal: dinheiro.
Sendo assim, podemos até buscar algumas opções de aplicativos free para esse
monitoramento. Por exemplo, The Dude, da Mikrotik, com o
qual você pode adquirir uma boa base do que estamos mencionando sobre o
monitoramento; ademais, existem vários tutoriais de como instalar
e utilizar esse software.
Já que estamos pensando na questão de segurança de redes cujo principal acesso são
as comunicações via wi-fi, vamos ao nosso
entendimento do que estamos falando quando nos referimos a Wireless e WDS?
Sabemos que wireless significa, especificamente na nossa disciplina, o acesso de
comunicação sem fio ou sem a necessidade de algum tipo
de cabeamento. Retomando o que já estudamos, os W significam wireless e são
atribuídas a classificações de redes segundo a localização
geográfica, como WLAN, WMAN e WWAN. Em conjunto com o Wireless Distribution System
(WDS), ou Distribuição Sem Fio, tem como objetivo
a repetição de sinais wi-fi de um roteador para outros. Desse modo, não se faz
necessária a utilização de cabos, estendendo os sinais para
outros pontos de uma rede ou estendendo para outras redes integradas à rede
original.
Ao conhecer esses recursos. Preparar sua rede de computadores torna-se mais fácil.
Quando estiver em uma situação específica, sabendo
disso, procure relembrar esta parte do ensino, pois ajudará você a tomar as
decisões assertivas na estrutura de seu projeto.
CONCEITOS DE VIRTUALIZAÇÃO DE REDES, CLOUD COMPUTING E SUB-REDES:
Neste momento, vamos conhecer mais alguns conceitos e recursos envolvendo
inicialmente a virtualização de redes, o que significa criar
ambientes virtuais, ou melhor, ambientes externos aos ambientes físicos. Para isso,
é preciso entender que não estamos falando de uma
tecnologia, mas de um conceito ligado à arquitetura de redes para construir,
desenvolver e gerenciar uma rede de computadores. Chamamos
esse conceito de Software Defined Network (SDN), ou Rede Definida por Software, com
a qual somos capazes de gerar e monitorar
inteligentemente essa estrutura.
Seus conceitos básicos resumem-se a quatro fases obrigatórias:
1. Planejamento e controle de entidades distribuídas, centralizando seu
gerenciamento por meio de softwares das redes globalizadas.
2. Execução de controles específicos de softwares para um grupo de hardwares que,
pela estrutura, se encontram separados fisicamente.
3. Planos de dados programáveis, com os quais se garantem tanto o gerenciamento
quanto a tomada decisória de medidas para as
manutenções de uma central de redes, como o servidor.
4. Arquitetura específica cuja função é controlar por completo a rede corporativa e
distribuída, bem como todo o gerenciamento praticamente
sem intervenção humana.
Podemos destacar benefícios importantes que esse conceito proporciona, como a
aceleração para implantação de novos aplicativos, redução
significativa dos custos de TIC, garantia de funcionamento e facilidade de
escalabilidade, otimização do fluxo de trabalho etc.
A fim de fixarmos esse conhecimento, precisamos equiparar o conceito de SDN e Cloud
Computing (computação em nuvem), que seria o
mesmo que pensarmos em um servidor fisicamente alojado na organização, mas que se
armazena seus dados nas nuvens.
Como se fala: “O servidor está nas nuvens ou armazenamos as informações na nuvem?
Nada mais são do que datacenters privados ou públicos,
locais disponíveis para virtualizarmos nossas redes com segurança e confiabilidade,
tendo acessos remotos a qualquer momento e que as
informações solicitadas estejam sempre disponíveis.
Para restar bem entendido, pensemos em uma estrutura pesada de servidores, com
quedas significativas de performance, com grande número
de transações no tráfego de dados e aí precisamos virtualizá-las, visando a
melhorar os processos organizacionais.
Estamos falando de uma espécie de “terceirização de ambientes” que, quando
adicionamos a tudo isso as sub-redes, estamos descentralizando
ou distribuindo processos com o objetivo de melhorar a performance, criando
downsizings mais simples e profissionais, os quais eliminam
processos desnecessários e de alto custo.
Percebemos que podemos criar estruturas virtuais, sem perder o controle das
informações e que esse conceito está cada vez mais presente em
ambientes de redes, ou seja, a cada dia evolui na inovação de controles e
gerenciamentos. Portanto, não pare de pesquisar sobre quais
tecnologias ou conceitos estão por vir, pense sempre nisso e se mantenha
atualizado.

APLICAÇÕES PRÁTICAS NO MERCADO ATUAL:


Podemos perceber que o conhecimento de práticas de redes é fundamental para o pleno
funcionamento de uma organização. Dessa maneira,
cabe a nós estarmos sempre antenados a inovações e conceitos; com isso, estamos
aptos a buscar o melhor para nossos projetos de redes.
Sabe-se que vivemos um momento inédito no ambiente computacional, por essa razão, é
preciso verificar frequentemente quais as tendências
do mercado em relação a esta área de atuação. Podemos citar alguns exemplos que,
posteriormente e por pesquisas mais aprofundadas, pode
constatar essa evolução.
Por exemplo, o planejamento geográfico: com o aumento de transações, cada vez mais
necessitamos de redes lógicas ou externas ao nosso
ambiente com comunicação via internet. Assim, planejar parcerias com empresas
regionais de cada parte do mundo, que forneçam um serviço
de Cloud Computing e que estejam com suas tecnologias a um passo adiante dos
ambientes tradicionais, cumprindo o compliance de TIC, ou
seja, a aplicação das regras e normas internacionais.
Como a tecnologia caminha cada vez mais sobre a multiplicação de dispositivos
(smartphones, tablets, computadores portáteis como o
Raspberry Pi, etc.), a intelligent edge ou a Intent-Based Networking (IBNS) ajudará
e muito para que as organizações desenvolvam seus negócios
e suas estratégias digitais, tão importante em um mundo absolutamente globalizado.
Estar ciente de que não temos todas as respostas e soluções de negócio é um fato.
No entanto, buscar as melhores práticas para uma atuação
exemplar nessa área faz parte do nosso aperfeiçoamento profissional e pessoal. Você
já refletiu sobre isso? Pense e procure os melhores
caminhos para as suas soluções.

ITIL FOUNDATION E SUA APLICAÇÃO EM PROJETOS DE REDES:


A melhor forma de entendermos este tópico é conhecer o significado de ITIL
Foundation, ou seja, do que estamos falando e quais suas
aplicações no mercado de redes de computadores. ITIL Foundation significa
Information Technology Infrastructure Library (Biblioteca de
infraestrutura de tecnologia da informação). O que devemos saber primeiramente é
que o ITIL não é uma metodologia, mas um conjunto ou guia
de práticas a serem utilizadas de acordo com a necessidade de cada projeto que, no
nosso caso, é de redes de computadores.
Pelo fato de esse conjunto de práticas ser denominado guia ou framework, nele está
contido algo muito maior da administração corporativa, a
Governança de TI. Trata-se de uma área indispensável a organizações corporativas
atualmente, pois tem a missão de estabelecer o
entendimento ou uma visão holística — modo de conhecer e visualizar profundamente o
negócio, os processos de uma empresa e suas
necessidades reais, com vistas a gerar processos eficientes —, para a realização
desses objetivos é necessária a participação constante e
efetiva da área de TIC.
Dentro dessa visão, estabelecemos o ITIL como um guia prático que orienta os
profissionais de redes de computadores. Para isso, vamos
detalhar algumas divisões do ITIL, como área de serviços de redes, library de TI,
segurança e gerenciamento da infraestrutura, gestão de ativos
e aplicativos etc.
Com o intuito de conhecer mais esse framework, a versão mais utilizada é a do ITIL
V3 (lançada em 2007), e sua versão atual é ITIL V4 (lançada
em 2019). É vastamente utilizado dentro de TIC em diversas organizações
empresariais e tem a preocupação de aplicar as melhores práticas
no gerenciamento de serviços no mundo. Passemos aos detalhes e características.
Desde 1986, o framework ITIL tem recebido diversos aperfeiçoamentos visando a
atingir sua versão plena, uma que contemple a gestão perfeita
de TI com transparência e equidade na prestação de serviços nas organizações,
entendendo e detalhando as necessidades das áreas de
negócio; demonstrando-se domínio e destinando-se especificamente o que pode ser
esperado de TIC, trazendo inúmeras vantagens, como a
priorização das demandas de serviços com clareza e agilidade, reduzindo assim o
número de ocorrências e minimizando a interrupção dos
serviços, ou seja, reduzindo custos operacionais de TIC e aumentando o alinhamento
estratégico das corporações com a otimização dos SLA
(Tempo de Atendimento), dentre outros, trazendo uma organização efetiva para que
ambos lados da organização saibam de suas
responsabilidades.
O ITIL é composto de cinco volumes:
1. Service Strategy (Estratégia de Serviço – 5 Processos) orienta-nos sobre o
planejamento de como os serviços de TI são direcionados e
priorizados, de acordo com a estratégia de negócios da organização, detalhando
quais as necessidades e os requisitos, os departamentos
(clientes) envolvidos, como será executado o serviço, qual o valor agregado,
diferencial aplicado etc.
2. Service Design (Desenho de Serviço – 8 Processos) trata da criação efetiva dos
projetos a aplicar e de orientações, como devemos mapear
os projetos, tendo alguns processos desse mapeamento como gerenciamento de SLA,
disponibilidade, capacidade, continuidade do serviço,
gerenciamento de fornecedores etc.
3. Service Transation (Transição de Serviços – 7 Processos) é a fase de
planejamento e gerenciamento das mudanças identificadas,
implementação das liberações necessárias e também de medir os resultados no
ambiente de operação real ou produtiva, sendo alguns de seus
processos básicos ao planejamento e ao suporte à transição, ao gerenciamento de
mudanças, à avaliação da mudança, à validação e aos
testes de serviços implantados etc.
4. Service Operation (Operação de Serviço – 5 Processos) visa a garantir a entrega
dos serviços previstos e planejados, neste instante, os
clientes percebem o valor agregado do serviço, tendo como principais processos o
gerenciamento de incidentes, problemas, eventos, acessos
e cumprimento e conclusão da solicitação/requisição.
5. Continual Service Improvement (Melhoria Contínua de Serviço – 1 Processo) é o
mais importante, pois tem a missão de gerenciar
continuamente mudanças e serviços implantados, nunca a finalização da entrega. Na
visão mercadológica, existe uma constante necessidade
de melhorias daquilo que já se faz existente, então será muito importante continuar
avaliando o funcionamento, promovendo a análise e os
ajustes necessários para o resultado eficaz esperado.
Outra divisão importante do ITIL são as quatro funções, a saber:
● Central de serviço: é o ponto de contato entre a necessidade do usuário/cliente e
a área de TI.
● Gerenciamento técnico: é o momento de analisar e planejar as funcionalidades a
serem implantadas, bem como o dimensionamento dos
recursos necessários.
● Gerenciamento de operações de TI: gerencia o cotidiano de serviços e estruturas
de TI.
● Gerenciamento do aplicativo: tem similaridades com o gerenciamento técnico, porém
é responsável por oferecer o conhecimento das
aplicações utilizadas nos serviços de TI.
Resumidamente, a terceira versão do ITIL tem um total de 26 processos e 4 funções
para pesquisar e estudar em detalhes. Ainda sobre o volume
de gerenciamento, resultados e integração com a organização, temos que mencionar
outro conjunto de boas práticas: o Control Objectives for
Information and related Technology, mais conhecido como Cobit 5, ou seja, a
estrutura para o fornecimento da governança de TI, criada pela
Information Systems Audit and Control Association (Isaca), cujo principal objetivo
é a geração de valores para organizações e seus processos,
além da efetivação da confiança de TI para a companhia.
Demonstramos as divisões básicas do ITIL Foundation, sua ligação com o Cobit 5 e a
governança de TI, bem como que se trata de um conjunto
de boas práticas (framework) com diversos volumes e assuntos que nos apoiam nas
atividades do dia a dia das organizações. É preciso
aprofundar o conhecimento no ITIL e, com alguma oportunidade, dentro da leitura
desses volumes, tê-los com base de pesquisa para nossos
projetos ou ainda tirarmos as certificações necessárias, que certamente valorizarão
e muito o profissional com tais características.

INOVAÇÕES E TECNOLOGIAS EMERGENTES:


Quando pensamos em redes de computadores, logo nos vem à mente todas aquelas
estruturas, conceitos, melhores práticas etc. que
aprendemos durante as leituras. Contudo, chegou o momento mais importante de todos,
pois é o instante que precisamos sair daquilo que
todos sabem e praticam para uma imersão em assuntos mais modernos sobre o que temos
de inovador. Dito de outra forma, estamos falando
sobre as tecnologias emergentes.
Essa afirmação fará parte de vida em TIC, pois em um mundo onde os acontecimentos
ocorrem em uma velocidade extremamente rápida, fica
muito difícil conhecer tudo sobre as modernidades, assim, é comum ficar
desatualizado por algum tempo até que surja a necessidade e aí
correr atrás do conhecimento para resolvê-la.
Neste módulo, analisaremos algumas novidades tecnológicas, mas o importante mesmo é
que elas nos motivem a pesquisar novos formatos,
que nos ajudem a ficar à frente do nosso tempo e nos destacarmos no mercado
profissional.
Iniciemos com a Indústria 4.0 ou a nova revolução industrial e o que ela representa
ou influencia no contexto de redes. A Indústria 4.0 surgiu
aproximadamente em 2012, em Hannover (Alemanha) e trouxe à tona um Ecossistema
Cibernético. Desde então, tem gerado uma série de
discussões, e a percepção é que a visão estaria influenciando todas as áreas de
todos os segmentos de negócio, inclusive de TIC, a qual está
se tornando a responsável em descobrir, aplicar e apoiar as demais.
Vamos iniciar o tema pela inteligência artificial (IA), algo que pode parecer
ficção para alguns, mas que já está sendo aplicado em diversos
segmentos, como áreas financeiras, relacionamentos comerciais e interpessoais etc.
Ao relacioná-la às redes de computadores, podemos
afirmar que esse ambiente cibernético está relacionado a informações, pessoas e
equipamentos, trocando informações o tempo todo e com
alta performance. Para isso ser possível, entretanto, precisamos interconectar
todos os componentes da malha; e aí que entra em cena o apoio
dos profissionais de TIC, pensando na infraestrutura física e lógica, na
cibersegurança e orientações de quais formas são ideais para que tudo
isso funcione perfeitamente.
Então perguntamos: qual a rede ideal para a indústria 4.0? Podemos pensar de
diversas formas dentro dessa estrutura. Por exemplo, se
atualmente a internet é o padrão de interconectividade, podemos então aplicar a
Ethernet como base de comunicação em uma indústria, com
qualquer tipo de conexão (cabo, ondas de rádio, wi-fi), utilizar o Backbone para
conexão com o Cloud, Proxy para convergência etc.
Observe que a complexidade aumenta e, com isso, confirmamos o que foi dito
anteriormente sobre as pesquisas e os avanços de conhecimento.
Conforme esperado, é a IA que gerencia todas as transações e seu tráfego,
direcionando por softwares middlewares capazes de controlar os
melhores caminhos sem intervenção humana.
Em segunda instância, a IA conecta e controla toda a estrutura da Internet das
Coisas, que é utilizada nos lares com os eletrodomésticos, nas
estradas inteligentes com os automóveis, transportes conectados com smartphones,
computadores com tamanhos extremamente reduzidos
como o relativamente novo Raspberry Pi 4, além de muitas outras inovações. E não
para por aí, pois em um evento em Hannover (Alemanha), já
se falou da internet das coisas para a indústria, também interligando máquinas de
produção a pessoas, por meio de dispositivos móveis, fábricas
inteligentes etc.
Reforçando a atenção neste momento, perceba que há um envolvimento nas conexões
para isso existir realmente. Seguindo um pouco mais
nesse momento de evolução, temos outro componente importante, o Big Data.
Utilizados por grandes companhias como Facebook, Microsoft,
empresas de e-commerce e e-service, entre outras, pois trata-se de um caminho sem
volta para as inovações.
O Big Data é um banco de dados com grande volume de informações que, na maioria das
vezes, é estruturado para a obtenção de insights
(acontecimento cognitivo que pode ser associado a vários fenômenos, tais quais
sinônimo de compreensão, conhecimento, intuição...),
tornando-se fundamental para as novas estratégias de negócio, não só trazendo
informações, como também os perfis e as tendências de
consumo de modo eficiente.
Temos também os 5V: Volume, Velocidade, Variedade, Veracidade e Valor. O Volume
representa a capacidade de o Big Data administrar um
grande volume de informações simultâneas; a Velocidade considera o tempo de
propagação de uma determinada informação e armazenamento
em diversas localidades; a Variedade diz respeito à diversidade de informações; a
Veracidade busca cada vez mais trazer informações reais e
leais, mas ainda sem êxito total neste ponto; o Valor busca agregar valor às
informações que contém, pois informação sem valor de nada vale.
Poderíamos nos deter em outros componentes da indústria 4.0, como Gêmeos Digitais,
Plataformas de conversação, Chatbots, Startups etc.,
Apesar de serem muito estimulante para o conhecimento, não deixe de pesquisar esses
assuntos. Agora vamos nos ater à nossa disciplina com
as inovações em redes de computadores, como Cybersecurity, que podemos chamar de
uma prática de proteção de invasões de hackers ou
softwares maliciosos para servidores, redes, dispositivos móveis etc.
A fim de termos uma ideia da importância desse fato, observe a notícia: O governo
norte-americano gasta US$ 13 bilhões por ano com
Cibersegurança, mas avisa que os ataques virtuais continuam evoluindo rapidamente.
Mesmo sabendo que os ataques são ações difíceis de controlar, temos de agir no
sentido de nos proteger das melhores formas possíveis, como
usar um poderoso antivírus que traga confiabilidade, usabilidade, uma proteção mais
abrangente e uma qualidade de proteção reconhecida por
outras estruturas de redes.
Outra proteção necessária em redes é contra os Cybersquatters, empresas com
registro de domínio na web para venda de produtos, sendo que
muitos deles têm dispositivos maliciosos, que muitas vezes induzem os visitantes
desavisados ao seu acesso e, assim, contaminam a estrutura
de redes. Para esse e outros tipos de controle, seria interessante contratar
serviços de empresas que fornecem mapas de monitoramento de
Cybersquatters, adotado por grandes companhias.
Vamos pensar também nas cinco tendências de infraestrutura de redes, que são
importantes na aplicação, já que cada vez mais as transações
estão crescendo em volumes alarmantes. São elas:
● Planejamento geográfico: como o volume de transações torna-se maior a cada dia,
bem como a necessidade de agilidade do trâmite, muitas
empresas estão adotando o planejamento geográfico e, por meio de parcerias
importantes, estão disponibilizando suas redes em estruturas
distribuídas, visando a uma melhor administração e eficiência sobre suas
necessidades.
● Intelligent edge: foi criada para ser um pensamento dos administradores de redes
visando à descentralização dos processamentos, isto é,
uma forma de todos os dispositivos atuais captarem e processarem localmente as
transações e, posteriormente, trafegarem as transações para
servidores de processamento de dados, reduzindo o volume transacional do back-end.
● Intent-Based Networking: é um software inteligente que configura a rede de acordo
com a intenção do negócio. O software diagnostica as
necessidades operacionais envolvendo tanto suas tecnologias quanto as de cada rede
de computadores, ajudando a tomada de decisões para
upgrades e melhorias de sua estrutura. Assim, como os modelos de negócios estão
assumindo um perfil digital cada vez mais intensivo, a
previsão é de que até 2020 os sistemas de Intent-Based Networking ainda estarão
ganhando adeptos.
● Migração da estrutura atual para a meganuvem: já são altamente utilizadas em
diversos segmentos, mas sua função principal é distribuir os
bancos de dados, aplicações sistêmicas e processos operacionais em diversos tipos
de nuvens, sejam elas públicas ou privadas.
● Inteligência Artificial: está sendo cada vez mais incorporada, por meio de
algoritmos, aos softwares e às operações de uma organização,
em que atividades corriqueiras sejam atribuídas a um raciocínio lógico. Por
exemplo, os Chatbots são basicamente um software que utiliza a IA
para imitar conversas entre usuários e aplicações, como acontece no Facebook e em
plataformas de e-commerce e e-service.
Atualmente, a transformação digital cria grandes desafios para os profissionais de
TIC, sobretudo para os que administram conexões e estruturas
de redes. É preciso, então, refletir sobre isso a fim de aplicar às suas atividades
cotidianas, como pesquisar para expandir suas habilidades,
o que dará subsídios para que as tomadas de decisão estejam dentro das expectativas
da geração de usuários.
Pensando nisso, todas as inovações aqui mencionadas podem já nos próximos cinco
anos serem substituídas pelas chamadas Tecnologias
Emergentes, isto é, tecnologias que ainda estão em fase de estudo ou prototipação.
Por exemplo, a comunicação 6G, em estudo pela Huawei,
que já fala em uma transmissão de 1 Terabyte/s para 2030. Você tem ideia de como
será essa velocidade? Se utilizamos ainda precariamente
o 4G e o 5G ainda nem chegou ao nosso país? Essa evolução atribui-se à base
tecnológica dos smartphones, denominada Long Term Evolution
(LTE), em português Evolução a Longo Prazo.

ORIENTAÇÕES SOBRE CERTIFICAÇÕES:


Iniciemos pela certificação de ITIL, ferramenta que estudamos anteriormente para
gestão de projetos:
A certificação de ITIL – Information Technology Infrastructure Library, que possui
diversos níveis, concentram nas habilidades do profissional de
TIC em planejar, entregar e suportar um departamento de TI, contribuindo para o
crescimento do negócio. É uma certificação bastante
gerencial, por isso é indicada especialmente para Gestores de Tecnologia, Inovação,
entre outros cargos da área de TI e este profissional atua
fortemente na melhoria da produtividade, redução de custos e satisfação dos
clientes por meio da gestão em TI (MUNDO ITIL, [s.d]).
A certificação CCENT, também chamada de CCNA ICND1, é muito importante, tanto que é
a primeira a ser executada. Administrada pela Cisco,
tornou-se líder mundial em redes e TI; visa a certificar os iniciantes dessa área
atribuindo-lhes o conhecimento sobre Fundamentos de Redes,
Configuração de Roteadores e Switches da Cisco, Fundamentos de Roteamento,
Fundamentos de Switching, Infraestrutura de redes, Serviços
de rede etc. Esta cerificação é um preparatório para a CCNA 100-105, com isso,
podemos perceber que as certificações são evolutivas e
crescentes.
Outra certificação é a Cisco Certified Design Associate (CCDA), cujo objetivo é
destinado a engenheiros de projeto de rede, técnicos e
engenheiros de suporte, pois exige um entendimento básico dos fundamentos do
projeto de rede.
Segundo a Cisco, a nova certificação CCNA está substituindo as certificações CCNA
cloud, colaboração CCNA, CCNA data center, CCDA,
CCNA industrial, roteamento e comutação CCNA, segurança CCNA, fornecedor de
serviços CCNA, CCNA wireless. Dessa forma, podemos
imaginar a importância destas capacitações que têm o:
Objetivo validar a capacidade do candidato para instalar, configurar, operar e
solucionar problemas em redes de tamanho médio compostas por
Roteadores e Switches, incluindo a implementação e verificação de conexões para
sites ou unidades remotas conectadas via uma rede
WAN (CISCO CERTIFIED, 2019).
Temos ainda a Cisco Certified Design Professional (CCDP): “A certificação CCDP cria
conhecimento avançado dos conceitos e princípios de
design de rede necessários para desenvolver arquiteturas corporativas e componentes
de rede de várias camadas” (CISCO CERTIFIED, 2019).
A Certified Information Systems Security Professional (CISSP) é uma das principais
certificações relacionadas à segurança da informação,
pois tem como objetivo trabalhar com várias frentes, entre elas o desenvolvimento
de softwares, as aplicações sistêmicas, o cloud computing etc.
A CCIE - Cisco Certified Internetwork Expert é uma das certificações em TI de maior
prestígio no mercado. Engenheiros de rede que possuem
esta certificação são considerados peritos em soluções Cisco e passam por um
rigoroso exame escrito e de laboratório. O padrão CCIE é
considerado referência no mercado, contudo, menos de 1% dos profissionais de redes
possui esta certificação (CISCO CERTIFIED, 2019).

Você também pode gostar