Você está na página 1de 12

Sumário – Edição 13

EDITORIAL REDES MÓVEIS CLOUD


Tecnologia para melhorar a 5G – Como reduzir os riscos TI verde e a computação em
vida da população antes do lançamento nuvem

WAN REDES ÓPTICAS INFRAESTRUTURA


SD-WAN – Uma solução, Equipamentos FTTH classes Medição do PUE em um data
diversas possibilidades B+ e C+ center

SEGURANÇA DA REDES SEGURANÇA FÍSICA


INFORMAÇÃO Como a digital twin pode Câmeras inteligentes para
Os avanços e desafios da otimizar a infraestrutura de melhorar a mobilidade
Internet das coisas comunicação urbana

CARREIRA
A importância do
networking

Desenvolvido por Revista Digital Online


Tecnologia para melhorar a
vida da população
Simone Rodrigues, Editora da Infra News Telecom

A mobilidade urbana é um dos grandes desafios das cidades brasileiras. O tema tem gerado
muitas discussões com o intuito de criar ambientes melhores para se viver, trabalhar e
empreender.
Não há dúvidas de que a tecnologia terá um papel crucial nesse cenário. Criar cidades mais
inteligentes e conectadas ajudará a sanar problemas relativos não só à mobilidade urbana,
mas ao meio ambiente, saúde, segurança pública, educação, entre outros.
Mas para oferecer à população acesso simples e transparente a diferentes tipos de serviços,
as infraestruturas de redes precisarão de maior capacidade e eficiência para suportarem
tecnologias como 5G, computação em nuvem, IoT – Internet das coisas e câmeras
inteligentes.
Um artigo publicado nesta edição mostra que o sucesso do 5G, por exemplo, depende de
ações imediatas das operadoras. Tomando as medidas necessárias agora elas poderão reduzir
os riscos do lançamento da tecnologia e recuperarão os seus investimentos em curto prazo.
Segundo o relatório da GSMA, divulgado no MWC – Moblie World Congress 2019, em
Barcelona, até 2025 as redes 5G deverão ser responsáveis por 15% das conexões móveis em
todo o mundo. Na América Latina, no mesmo período, esse percentual alcançará 8%, com
mais de 60 milhões de conexões. Hoje, as operadoras móveis de todo o mundo investem mais
de US$ 160 bilhões por ano na expansão e atualização de suas redes.
Nesta edição você também poderá conferir como a implantação de câmeras inteligentes
diminui os engarrafamentos e torna o trânsito mais seguro. Também já estão sendo usadas
tecnologias como DAI – Detecção Automática de Incidentes com o objetivo de melhorar toda
a rede de gerenciamento de ocorrências nas principais avenidas e rodovias das cidades.
Basicamente, o sistema alerta os operadores de gerenciamento de tráfego para a presença de
veículos quebrados ou parados para eles que possam enviar ajuda rapidamente. Além disso, a
plataforma fornece vídeo e imagens para apoiar os serviços de emergência.

Acessos banda larga

O país vem avançando no acesso à Internet banda larga. Segundo uma pesquisa da Telebrasil
– Associação Brasileira de Telecomunicações, em 2018 o Brasil ativou 27,5 milhões de chips
4G, alcançando 130 milhões de aparelhos em operação com a tecnologia. De janeiro a
dezembro do ano passado, 606 municípios receberam redes 4G, somando 4,4 mil cidades
conectadas, onde vivem 95,4% da população.
No total, foram registrados 204 milhões de acessos à Internet pela rede móvel no ano
passado. Considerando os acessos fixos e móveis, esse número chegou a 235,4 milhões. Deste
volume, 31 milhões são em banda larga fixa, segmento que cresceu 7,6% em 12 meses, com
2,2 milhões de novos acessos.
É claro que ainda há muito o que fazer quando o assunto é inclusão digital. A digitalização
não se limita ao uso de redes sociais. Para avançar nesse quesito, o país também precisará
adotar políticas de gestão pública mais eficientes com ações conjuntas e integradas entre o
Governo Federal, estados, municípios e iniciativa privada, com o engajamento da população.
Boa Leitura!

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

5G – Como reduzir os TI verde e a SD-WAN – Uma


riscos antes do computação em solução, diversas
lançamento nuvem possibilidades
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

Equipamentos FTTH Como a digital twin Os avanços e desafios


classes B+ e C+ pode otimizar a da Internet das coisas
27 de fevereiro de 2019 infraestrutura de 26 de fevereiro de 2019

comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


5G – Como reduzir os riscos
antes do lançamento
Enquanto a experiência da “banda larga em todos os lugares” promete muitos
benefícios, tanto para os consumidores quanto para as operadoras, o lançamento
do 5G representa um grande risco para as empresas do setor de
telecomunicações, em especial as de telefonia móvel e de cabo. Este artigo mostra
como reduzir as ameaças e colher recompensas como a nova tecnologia.

Shameka Young, vice-presidente da prática de comunicações da Cognizant

A banda larga 5G chegará em breve e está criando expectativas dos profissionais do setor e
consumidores, que esperam que a tecnologia, ultrarrápida e altamente confiável, altere para
sempre o mundo das telecomunicações. Tudo indica que os usuários e as empresas vão
adotar a experiência “banda larga em todos os lugares” do 5G, porém ainda não está claro
como os provedores de serviços de comunicação (CSPs) e as operadoras de telefonia móvel
recuperarão os seus investimentos em curto prazo e para além do lançamento. Entretanto,
uma abordagem desenhada para o 5G ajudará a reduzir o risco.
Entre os maiores riscos está a incapacidade de responder como e onde o 5G se tornou
“essencial” para o mercado corporativo e usuários finais, muitos dos quais não devem ver o
avanço tecnológico como nada além de um canal maior de dados. Cabe às operadoras afirmar
que o 5G é muito mais do que velocidade, antes que empresas de jogos, OTT – Over the Top e
outros provedores de serviços o façam por elas.
O 5G sinaliza muitas mudanças para os CSPs, que devem esperar uma ruptura em seus
modelos de negócios. Atualmente, a maior parte da receita de um CSP vem de contratos,
equipamentos no local, também conhecidos como CPEs, como roteadores e set-top boxes e
taxas de instalação. Porém, o advento do 5G sugere que esses provedores precisarão mudar,
acrescentando produtos e serviços de valor agregado, feitos sob medida para casos
específicos de uso. A maneira mais rápida de chegar a essa adaptação é fazer parceria com
outras empresas no ecossistema – algo que a maioria dos provedores de serviços acha
desafiador.
As oportunidades são enormes, tão grandes quanto os palpites das pessoas neste momento.
A IHS Markit divulgou a exuberante estimativa de US$ 12,3 trilhões de receita para o escopo
do 5G em uma ampla gama de setores. Seja qual for o tamanho do mercado, as operadoras
que reduzirem os riscos de lançamento da tecnologia aproveitarão a sua parte das heranças
antes dos demais.
À beira da implantação do 5G, aqui estão quatro ações que as operadoras podem tomar hoje
para estabelecer uma base para o sucesso amanhã.

Concentre-se nos casos de uso mais benéficos e


visíveis

Antes da implantação, os operadoras devem pensar em como criar serviços para envolver os
casos mais pertinentes de uso. Como fazer isso? Comece olhando para a base de clientes e,
em seguida, concentre-se nos setores que mais se beneficiarão com um “tubo” super-rápido e
com baixa latência.
Com o investimento existente hoje na IIoT – Internet das coisas industrial e o aumento
exponencial do volume de dados, a manufatura e logística são exemplos de setores que se
beneficiarão com o 5G. O segmento de saúde é outro exemplo. Se as equipes das operadoras
puderem analisar, criar e ativar vários serviços e recursos essenciais para desafios de negócios
e casos de uso específicos agora, é possível estar mais bem posicionado quando o 5G entrar
em ação.

Para os consumidores, faça estudos em torno da


conveniência

A maioria dos consumidores não está interessada na tecnologia exata que lhes permite
acessar dados móveis com rapidez, precisão e confiabilidade. Por conta disso, a história do 5G
de ser a maior, a melhor e a mais rápida tecnologia provavelmente não vai chamar a atenção.
O provedor precisará amarrar essas características à conveniência.
Crie uma mensagem que vá além de “rede pela rede” e que demonstre a arte do possível. Em
seguida, planeje ofertas de serviços que aumentem a conveniência para o consumidor. A “casa
conectada”, por exemplo, não atingiu todo o seu potencial em parte porque os CSPs ainda
não criaram mensagens atraentes em relação a sua conveniência, como segurança doméstica
oferecida como um serviço gerenciado. Então, essa oportunidade está aí para ser aproveitada.
Os clientes só querem que os CSPs gerenciem isso.
Outra possibilidade para atrair consumidores é se oferecer para remover a carga dos ombros
dos usuários de negócios, aquela que têm o peso de se manter atualizado com a tecnologia
de rede. Crie ofertas completas e fáceis de entender para os seus clientes, com a promessa de
cuidar de todo os detalhes.

Encontre novas formas de monetizar os dados dos


clientes

Tanto para empresas quanto para os usuários finais, capturar e dar sentido aos seus dados
gerará novas oportunidades. O truque é aprender com os “códigos halos” ou “pegadas
digitais” dos clientes. São as ações que cercam cada interação e transação digital e é possível
aproveitar esses conhecimentos para gerar mais valor para o cliente. A introdução de novas
CPEs capazes de fomentar a rede 5G mais rápida criará milhares de dados adicionais, que
podem ser adicionados aos trilhões de dados atuais que fornecem valor limitado, como forma
de melhorar a experiência do cliente e permitir oportunidades e vendas cruzadas.

Entenda onde e como você deve fazer parcerias

O 5G já tem um vasto ecossistema de organizações, incluindo operadores de rede,


fornecedores de componentes e tecnologias, dispositivos OEMs, provedores de infraestrutura
e desenvolvedores de conteúdo e aplicativos, cada um trabalhando para completar a sua
parte no quebra-cabeças da tecnologia. Todos farão parte da tarefa para o 5G funcionar. Os
CSPs, tradicionalmente, não se destacaram nas parcerias para a prestação de serviços,
preferindo, no passado, desenvolver e trazer ao mercado suas próprias habilidades.
Agora isso vai mudar. A chegada do 5G é um momento para essas empresas aprenderem
mais sobre como fazer parcerias para criar e habilitar serviços. A velocidade e a agilidade
obtidas pelo engajamento dos parceiros certos serão um fator crítico de sucesso do 5G.
Escolher parceiros que têm a capacidade de escalar rapidamente diminuirá o risco. Certifique-
se de aproveitar os parceiros e entender quais recursos poderá usufruir. Não se trata apenas
de um componente do produto, mas de por para fora suas as necessidades, adaptar e então
seguir em frente.
O pensamento “se você construir, eles virão” não é uma estratégia vencedora do 5G. O
engajamento transcende uma rede rápida e eficaz ou a realização de uma pesquisa ocasional
do cliente. Engajamento significa criar um diálogo bidirecional, fazer perguntas e depois ouvir
o que os clientes precisam e desejam, bem como o que os parceiros têm a oferecer.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para TI verde e a SD-WAN – Uma


melhorar a vida da computação em solução, diversas
população nuvem possibilidades
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

Equipamentos FTTH Como a digital twin Os avanços e desafios


classes B+ e C+ pode otimizar a da Internet das coisas
27 de fevereiro de 2019 infraestrutura de 26 de fevereiro de 2019

comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


TI verde e a computação em
nuvem
A TI verde trata do uso eficiente de energia para recursos computacionais. Ela
pode ser ainda mais eficiente com uma computação em nuvem baseada em
Internet distribuída, para fornecer todos os tipos de serviços aos usuários via rede,
como armazenamento, processamento, compartilhamento de recursos, software.

Ashis Behera – Dep. Computer Sc & Engg. Padmashree Krutartha Acharya College of Engineering,
Bargarh, Odisha
Bikram Kesari Ratha – Dep. Computer Sc. & Application, Utkal University, Bhubaneswar, Odisha
Srinivas Sethi – Dep. Computer Science Engg. & Appl Indira Gandhi Institute of Technology, Sarang,
Odisha

O conceito de TI verde trata da computação em nuvem “ecológica” orientada para uma rede
de Internet distribuída, essencial para tornar o sistema mais eficiente em um ambiente
amigável. Com esta tecnologia, os usuários podem economizar energia e dinheiro com as
suas infraestruturas existentes. Isso também ajuda a melhorar a eficiência das aplicações e de
software.
A computação em nuvem é baseada em Internet distribuída, que fornece todos os tipos de
serviços aos usuários via rede, como armazenamento, processamento, compartilhamento de
recursos, software, entre outros. A computação em nuvem permite manter e manipular
diferentes aplicativos e recursos pela Internet, sem depender de uma plataforma específica.
Entre as suas vantagens está o provisionamento de recursos on-demand – isso quer dizer que
pagamos apenas a largura de banda e os recursos do servidor que realmente são utilizados.
Os modelos de implementação e de serviço tornam a computação em nuvem viável e
acessível ao cliente. São quatro tipos de acesso à nuvem. No primeiro, a nuvem pública
permite que os serviços e recursos estejam abertos ao público, que se beneficia ao acessa-los
sem restrições, porém com menos segurança. O segundo é a nuvem privada, que está
confinado dentro de uma organização. Nesse caso, somente os membros dessa organização
podem ter acesso e usufruir dos serviços dessa nuvem. Um terceiro tipo é o da nuvem
comunitária, que é restrita a um grupo de organizações e somente seus membros têm acesso
aos serviços disponíveis.
Por fim, temos a nuvem híbrida, que nada mais é do que uma combinação de uma nuvem
pública com outra privada. Nessa modalidade, mais aprimorada, a nuvem privada lida com as
atividades críticas, enquanto a pública opera com atividades não críticas.
O modelo de serviço define três segmentos importantes de atuação. O primeiro é o SaaS –
software como serviço, que fornece ao usuário uma infraestrutura com hardware e rede de
Internet instalada, além de uma plataforma como vários sistemas operacionais e aplicativos,
como o ERP. O segundo é o PaaS – plataforma como serviço, que fornece várias
infraestruturas, além da rede de hardware e plataforma com sistemas operacionais para os
usuários. O terceiro tipo é o IaaS – infraestrutura como serviço, onde os clientes podem usar a
sua própria plataforma, software e aplicativos, pois apenas a infraestrutura é fornecida por
terceiros ao cliente.
Em todos os casos, os benefícios da computação em nuvem são:
Otimização do custo, devido à virtualização e à utilização adequada dos recursos.
Redução do impacto dos clientes nas despesas de capital da empresa.
Recuperação dos dados armazenados em backup quando ocorrem perdas.
Serviços sob demanda (on demand), eliminando o excesso de provisionamento.
Acesso aos dados via Internet a partir de qualquer lugar e a qualquer hora.
Cria e move os recursos de maneira dinâmica.
É confiável, portátil, escalável, flexível e de baixo custo.

Modelo cloud computing

A computação em nuvem ecológica

Embora a nuvem tenha provocado uma revolução na era da computação, ela também trouxe
impactos negativos sobre o meio ambiente. A computação em nuvem é aprimorada por meio
da instalação de grandes data centers, equipados com sofisticados servidores de alta
performance, altas capacidades de memórias e recursos inteligentes de hardware e redes.
Para manter esses data centers são necessárias infraestruturas cada vez mais avançadas,
incluindo alta capacidade de energia e refrigeração, que gera alto custo e também polui o
meio ambiente ao emitir mais dióxido de carbono.
Para reduzir a emissão de carbono e o custo, é preciso diminuir o consumo de energia nos
data centers. O modelo de computação em nuvem ecológica utiliza diferentes técnicas para
enfrentar o alto impacto da cloud para o meio ambiente. A TI verde é a concepção, fabricação,
uso e descarte de computadores, servidores e outros recursos de forma eficiente e efetiva
com o mínimo impacto para o meio ambiente. Isso pode ser alcançado ao se redesenhar a
infraestrutura da rede reduzindo o número de servidores, switches e cabos e ainda utilizando
diferentes esquemas de consumo de energia. Existem novas tecnologias que atuam atrás da
computação em nuvem para reduzir o consumo de energia dos data centers e também para
tornar a computação em nuvem flexível e confiável. Algumas dessas tecnologias tratam da
virtualização, agendamento, alocação de recursos e roteamento.

Virtualização da nuvem ecológica

A computação em nuvem separa o aplicativo do hardware, ao mesmo tempo em que a


virtualização separa o hardware do sistema operacional. Nas soluções comuns, o sistema
operacional é instalado no hardware, ou seja, ele está fortemente associado ao hardware, por
isso é muito difícil migrar ou mover o software ou arquivos de uma máquina para outra, pois
há uma dependência da plataforma. Além disso, manter o backup de software e de arquivos é
um processo difícil, devido às diferenças de plataformas e de configurações de hardware.
Atualmente, os servidores e sistemas com técnica de virtualização podem acabar com essas
dificuldades, pois essa tecnologia fornece uma camada separada chamada “hypervisor”
alocada na parte superior do hardware, na qual diferentes softwares são instalados, tornando
o sistema operacional independente do hardware. Uma vez que os sistemas operacionais não
estão mais vinculados ao hardware, eles podem ser migrados ou deslocados para outro, sem
perder sua integridade. A virtualização executa menos sistemas com alto índice de utilização.
Assim, ao usar a virtualização há economia de espaço, de recursos e de meio ambiente.
Na virtualização da computação em nuvem as instâncias de diferentes sistemas operacionais
e seus aplicativos associados, chamados de “máquina virtual”, estão instalados na camada
hypervisor. O hypervisor possibilita a execução de diferentes sistemas operacionais e software
em um único servidor físico. Assim, ele consolida todos os servidores similares na rede em um
único grupo de equipamentos de alto desempenho, reduzindo o custo de manutenção do
data center.

Programação verde na nuvem

O agendamento de recursos é uma estratégia chave na computação em nuvem, pois é uma


maneira de determinar a realização das atividades. É onde as grandes máquinas virtuais
precisam ser alocadas para milhares de usuários distribuídos de forma dinâmica, justa e
lucrativa. Existem agendadores eficazes, como agendador FCFS, agendadores randomizados,
agendamento prioritário, etc., que podem reduzir o custo operacional e o tempo de espera da
fila e aumentar a utilização dos recursos. Um desses agendadores é o Celery, que cuida da
programação e gerenciamento de tarefas em um ambiente distribuído. Outro algoritmo de
agendamento eficiente é o DVFS – Dynamic Voltage & Frequency Scaling (DVFS), que reduz
substancialmente o consumo de energia, limitando dinamicamente a frequência de trabalho
e o consumo de energia. O algoritmo MapReduce pode melhorar a eficiência energética do
servidor, considerando a variação do consumo de energia e, em seguida, ajustar
dinamicamente os dados locais.
O agendamento funciona da seguinte maneira: para iniciar uma tarefa, o cliente coloca uma
mensagem na fila. Cada mensagem corresponde a uma tarefa específica. Cada tarefa contém
parâmetros como o nome da fila, o temporizador de contagem decrescente, etc. Esses
parâmetros são analisados e adequadamente guardados. As tarefas são, então, distribuídas
aos nós de trabalho, conforme o algoritmo de agendamento. Para seguir em frente, o
“broker” entrega a mensagem a um nó de trabalho que ouviu o chamado e ao receber a tarefa
a adiciona em sua própria fila e a executa quando chega a sua vez.

Alocação de recursos na nuvem

A computação em nuvem enfrenta desafios como a alocação adequada dos recursos aos
usuários, pois está sendo executada com recursos heterogêneos e diferentes aplicações.
Portanto, o provisionamento de recursos para um usuário deve ser feito com o agendamento
adequado para que, tanto a quantidade total de recursos, quanto sua localização sejam
transparentes para os usuários.
A alocação de recursos traz economia para o usuário final, bem como para o provedor de
serviços, porque proporciona a máxima satisfação ao consumidor e lucro ao provedor de
serviços. Portanto, o gerenciamento adequado de recursos é um fator primordial na nuvem.
A alocação de recursos é feita em três etapas. Primeiro, monitora o pedido do cliente e
verifica se há recursos suficientes disponíveis para atende-lo. Segundo, se encontrar
condições, a alocação de recursos é feita. E terceiro, após a atribuição dos recursos, percebe-
se que algum não está sendo utilizado corretamente. Ele pega os recursos de volta,
desativando-os ou alocando para outros usuários. Por conta disso, há uma ênfase para que os
recursos físicos, como núcleos de CPU, espaços de disco e largura de banda, sejam
compartilhados entre múltiplas solicitações por meio de virtualização e provisionamento.
Basicamente, o pedido de recursos virtualizado é caracterizado por três aspectos básicos:
espaço em disco, memória e processamento. O sistema sempre monitora os recursos
virtualizados no host físico. Se o sistema interromper a provisão, o agendador suspende a
solicitação e migra todos os recursos virtuais para outro host físico, caso contrário, ele
continuará fornecendo o pedido sob demanda.
Para qualquer software de alocação de recursos, o desempenho isolado é um ponto chave. E
esse isolamento será otimizado e mais transparente se o software tiver melhor controle
sobre os recursos. O software também considera os recursos computacionais e de rede e as
restrições ao programar máquinas virtuais nos servidores, bem como programar recursos de
rede para atender à demanda com precisão. Cientistas estão desenvolvendo um sistema de
alocação de recursos que evita a sobrecarga no servidor, além de suportar a computação
verde, reduzindo o número de servidores utilizados.

Gerenciamento de recursos

Roteamento na computação em nuvem

A computação em nuvem é reconhecida por sua portabilidade, escalabilidade, confiabilidade


e baixo custo. Para tornar a computação em nuvem resiliente, as informações ou os dados
solicitados devem acontecer com o mínimo possível de atraso na entrega. Para tanto, os
mesmos dados ou informações residem nos vários servidores, em diferentes data centers
localizados em diferentes locais. O processamento necessário para mover os dados será
reduzido se os data centers estiverem próximos das fontes geradoras de energia, resultando
em redução no consumo. No entanto, em alguns casos, a instabilidade da rede torna a nuvem
menos confiável e algumas técnicas de roteamento são ponderadas. Junta-se o roteamento e
o algoritmo de roteamento de duas opções de rotas mais curtas, para onde o usuário pode
enviar o pedido de recursos por uma máquina virtual, que contém a quantidade de recursos
necessários, ou ainda, o provedor de serviços da nuvem primeiro atende a fila dos pedidos das
máquinas virtuais e depois agenda-os para a máquina física.
Em outra discussão, são propostos dois algoritmos, usados para descobrir o roteamento
eficiente entre o “broker” e a nuvem. Aqui, o “broker” calcula a rota ideal ao usar o S-ORCF e a
nuvem mantém o fator de custo quando calcula o S-ORM para encontrar a rota ideal.

Conclusão

A computação em nuvem possui várias vantagens. Mas a computação em nuvem excessiva


gera graves efeitos colaterais para o meio ambiente e também o aumento de custos. Para
aproveitar a computação em nuvem, organizações e indústrias estão criando novos data
centers com máquinas mais poderosas e sofisticadas. Essas máquinas e servidores precisam
de mais energia para manter e refrigerar a infraestrutura, poluindo meio ambiente e aumento
o custo de energia. Assim, a TI verde e a computação em nuvem ecológica, com novas
tecnologias, como a virtualização, a consolidação de servidores e a alocação de recursos são
meios para economizar energia e reduzir a emissão de CO2.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os SD-WAN – Uma


melhorar a vida da riscos antes do solução, diversas
população lançamento possibilidades
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

Equipamentos FTTH Como a digital twin Os avanços e desafios


classes B+ e C+ pode otimizar a da Internet das coisas
27 de fevereiro de 2019 infraestrutura de 26 de fevereiro de 2019

comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


SD-WAN – Uma solução,
diversas possibilidades
A SD-WAN – Software Defined WAN é considerada uma das viabilizadoras da
adoção de diversas tecnologias digitais e, consequentemente, dessa jornada de
transformação.

Larisse Gois, gerente de tecnologia – SDX da Logicalis

A transformação digital vem sendo apontada como prioridade na agenda dos CIOs de
diferentes verticais de negócios. A SD-WAN – Software Defined WAN é considerada uma das
viabilizadoras da adoção de diversas tecnologias digitais e, consequentemente, dessa jornada
de transformação. Segundo a IDC, em 2019, mais de 40% das grandes empresas brasileiras já
utilizarão SD-WAN ao menos em parte dos seus sites e a expectativa é de que, até 2021, 80%
das organizações no mundo já terão iniciado a adoção da tecnologia. Essa expectativa se
reflete também nas promissoras projeções realizadas pela Frost & Sullivan para este mercado
na América Latina, prevendo uma CAGR – taxa de crescimento anual composta de,
aproximadamente, 79% entre 2018 e 2023.
Porém, apesar da grande importância da SD-WAN, de acordo com o estudo produzido pela
IDC, um em cada três tomadores de decisão das áreas de TI e telecomunicações das grandes
empresas ainda não tem familiaridade com a solução. Essa informação se confirma na prática
quando conversamos com esses profissionais e percebemos que realmente a grande maioria
não sabe ao certo do que se trata. Muitas vezes, o impacto desse desconhecimento é que os
executivos já começam a traçar as suas estratégias com base na solução de um fabricante
específico com a qual tenha mais familiaridade.
Mas por que isso acontece? Uma das possibilidades é que esse desconhecimento seja
proveniente do fato de a WAN definida por software não ser baseada em um padrão comum
estabelecido. Para mitigar o problema, os gestores de TIC – tecnologia da informação e
comunicação podem contar com as informações de órgãos importantes que trazem
definições e levantamento de requisitos que ajudam a entender quais as funcionalidades que
compõem a SD-WAN, e também a definir uma base comum de comparação entre as
diferentes soluções existentes no mercado.
O ONUG – Open Networking User Group define, entre outros, os seguintes requisitos para
uma solução de SD-WAN:
• Permitir a utilização de WAN híbrida, ou seja, permitir o uso de diferentes tipos de meio de
transporte WAN como MPLS, xDSL, 4G, garantindo a segurança dos dados.
• Permitir a utilização dos links WAN em modo ativo-ativo.
• Suportar CPEs físicos ou virtuais.
• Suportar a implantação da solução utilizando a funcionalidade ZTP – Zero Touch
Provisioning.
• Possuir APIs northbound abertas para acesso ao controle e gerenciamento da solução.
• Prover visibilidade do tráfego WAN.
• Prover dashboards de desempenho WAN.
Já o Gartner, em mais alto nível, define que as soluções de SD-WAN devem:
• Possuir controle centralizado.
• Ser agnósticas a meios de transporte, garantindo a segurança da WAN.
• Permitir a definição de políticas de encaminhamento de tráfego baseado em necessidades
de negócios e/ou aplicações.
Com essas definições, todos os gestores de TI que estão pensando em implementar SD-WAN
devem considerar apenas soluções que atendam a todos esses requisitos? Não
necessariamente. A única verdade absoluta que vemos atualmente em relação a esta
tecnologia é que, hoje, não existe definitivamente uma única solução que melhor enderece as
necessidades – técnicas e financeiras – de todo e qualquer cliente. Até por isso, é comum
vermos fabricantes e operadoras oferecendo diferentes soluções de SD-WAN em seus
portfólios.
Por isso, é muito importante que, antes de se decidir por uma solução específica, os gestores
busquem entender de maneira holística quais problemas existentes e quais necessidades
futuras (oriundas do plano de transformação digital) devem ser endereçadas no plano de
atualização da WAN. Só depois de ter essas definições muito claras, deve-se analisar as
soluções disponíveis no mercado para que se entenda qual trará mais benefícios para o seu
ambiente.
Além disso, dada a importância estratégica dessa solução, é importante buscar empresas
que tenham conhecimento e experiência na tecnologia e possam apoiá-los, de maneira
agnóstica, nessa jornada. Certamente, seguindo esses passos, as empresas conseguirão
extrair o máximo dos benefícios que a solução pode prover.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os TI verde e a


melhorar a vida da riscos antes do computação em
população lançamento nuvem
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

Equipamentos FTTH Como a digital twin Os avanços e desafios


classes B+ e C+ pode otimizar a da Internet das coisas
27 de fevereiro de 2019 infraestrutura de 26 de fevereiro de 2019

comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


Equipamentos FTTH classes
B+ e C+
Ronaldo Couto, Fundador da Primori

É cada vez mais comum os fabricantes de ativos de FTTH ofertarem a seus clientes
equipamentos de classe B+ ou classe C+.
No entanto, com frequência vejo os clientes com dúvida de qual equipamento escolher por
não saber a diferença entre eles.
Pois bem, vamos lá.
Como sabemos, um GBIC é composto internamente de um laser (para a conversão elétrica
em óptica) e de um detector (para a conversão óptica em elétrica).
Os lasers têm uma determinada potência de transmissão, que é a intensidade de luz que irá
ser acoplada à fibra óptica. Já os detectores têm o que chamamos de sensibilidade, ou seja, o
menor nível de potência óptica que podem receber (detectar) e converter em sinais elétricos,
sem que ocorram erros nesta conversão.
Dessa forma, a princípio, seria desejável termos lasers com a maior potência possível e a
menos sensibilidade, pois teríamos a possibilidade de realizar enlaces com perdas maiores.
Digo a princípio porque, obviamente, lasers mais potentes e detectores mais sensíveis
representam também dispositivos de maior custo e precisamos avaliar o quanto ou não vale a
pena pagarmos por isto.
É exatamente neste contexto que entram as classes dos GBICs, definindo quais são os seus
níveis de transmissão e sensibilidades.
Antes de citar quais são estes níveis, gostaria de comentar que estas classes foram definidas
pela recomendação ITU-T G.984-2 e são aplicadas para equipamentos do tipo GPON.
Já os equipamentos EPON, que seguem as recomendações do IEEE, possuem classes e níveis
de potência diferentes e que detalharemos a seguir.

Classe B+ ou C+? Valores definidos pela ITU-T G. 984-2

Como podemos verificar na figura acima, as recomendações diferenciam GBICs utilizados em


OLT empregadas nas ONUs e ainda os níveis de potência de transmissão e sensibilidade
conforme a sua classe.
Assim, quando um fabricante oferece OLTs classe B+ ou classe C+ somente está
diferenciando os GBICs que a sua porta OLT terá, e nada mais.
O que quero dizer é que não existem diferenças eletrônicas (processamento, memória, etc.)
entre cartões OLTs classe B+ e OLTs classe C+.
Ainda, é perfeitamente possível comprar um cartão classe B+ e substituir seus GBICs por
classe C+ ou vice-versa, sem nenhuma mudança de desempenho eletrônico da OLT.
Digo desempenho eletrônico, pois o conjunto “potência de transmissão da OLT e
sensibilidade da ONU” determina quantos dBs de perda podemos ter no sentido de
downstream. E, da mesma forma, o conjunto “potência de transmissão da ONU e
sensibilidade da OLT” indica a perda dBs para upstream.
E é exatamente aí que muitos acabam errando em suas escolhas.
Para esclarecer melhor este ponto, vamos analisar a figura abaixo.

Orçamento de potência: Quantos dBs?

Ela mostra as combinações possíveis entre OLT e ONU e seus respectivos orçamentos de
potência. Lembrando, que orçamento de potência é a menor potência do transmissor menos
a sensibilidade do detector.
Como exemplo, vamos aplicar as fórmulas apresentadas na figura acima e considerar uma
porta OLT classe B+ e uma ONU também classe B+. Neste caso, teremos um orçamento de
potência de:
OPds = 1,5 – (-27) = 28,5 dB
OPus = 0,5 – (-28) = 28,5 dB
Da mesma forma, em uma porta OLT de classe C+ com ONU classe B+, teremos o seguinte
resultado:
OPds = 3 – (-27) = 30 dB
Opus = 0,5 – (-28) = 28,5 dB
Observem que esta combinação proporcionou uma perda maior no downstream. Entretanto,
estamos limitados a mesma perda de 28,5 dB no upstream.
Ou seja, porta da OLT classe B+, em termos de orçamento de potência, não faz a menor
diferença para ONUs classe B+ ou classe C+. Neste caso, investir em ONUs classe C+ de
maior custo é simplesmente um desperdício.
Fazendo esta mesma análise com uma porta de OLT classe C+, vemos, pela figura, que
temos um ganho de orçamento de potência, chegando a 30 dB com uma ONU classe B+ ou a
32,5 dB com uma ONU classe C+.
Vale a pena pagar por ONUs de maior custo por estes dBs a mais?
A resposta vocês conhecem bem: Depende. Analisem os custos e a necessidade que a sua
rede tem por dBs e decidam pela melhor opção.

Ronaldo Couto
Atua há 25 anos nos mercados de telecomunicações e de redes de fibras ópticas. É graduado em Engenharia de
telecomunicações pelo Inatel – Instituto Nacional de Telecomunicações e MBA Executivo pelo Insper–SP.
É fundador da Primori, que desde 2009 oferece treinamentos e consultorias de planejamento de redes ópticas, marketing
estratégico e treinamento. Atua como instrutor dos treinamentos “Teoria e prática de fibras ópticas” e “Projeto e viabilidade de redes FTTH”,
tendo treinado mais de cinco mil profissionais em todo o Brasil.
Foi executivo da AGC NetTest para projetos, implantação, operação e manutenção de redes de fibras ópticas. Atuou pela UL – Underwriters
Laboratories e DQS Deutsche Gesellschaft zur Zertifizierung von Managementsystemen e na área de exportação para a América Latina pela
Metrocable, fabricante de cabos ópticos.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os TI verde e a


melhorar a vida da riscos antes do computação em
população lançamento nuvem
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

SD-WAN – Uma Como a digital twin Os avanços e desafios


solução, diversas pode otimizar a da Internet das coisas
possibilidades infraestrutura de 26 de fevereiro de 2019

27 de fevereiro de 2019 comunicação


27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


Medição do PUE em um data
center
Marcelo Barboza, da Clarity Treinamentos

  Na edição n ◦ 10 expliquei o conceito da métrica PUE, cobrindo a sua definição, princípio de


cálculo e principais finalidades. Aqui, vou elaborar mais sobre o tema, explorando detalhes da
sua medição e cálculo.
O PUE mostra o overhead de energia gasto em relação aos sistemas de TI, que auxiliam na
contínua operação dos sistemas críticos de TI, incluindo, mas não necessariamente se
limitando a:
Energia gasta na refrigeração/ventilação dos equipamentos de TI e dos sistemas
necessários ao seu funcionamento, incluindo bombas, chillers, ventoinhas, torres de
resfriamento, fancoils, evaporadoras e condensadoras.
Perdas elétricas nos equipamentos, cabos e conexões da distribuição elétrica (como
UPS, quadros elétricos, transformadores, geradores etc.).
Alimentação elétrica de sistemas auxiliares necessários, como alarmes de incêndio,
controle de acesso e automação.
Iluminação das salas que compõem o data center.

Ao computar a energia gasta pelos sistemas de TI, deve-se considerar, para além de
servidores, armazenamento e comunicações (switches e roteadores), todo o equipamento de
TI suplementar, como monitores, chaveadores KVM, estações de monitoramento etc., desde
que necessários à operação dos serviços críticos.
Então, um data center com PUE 1,60 significa que 60% de toda a energia por ele consumida é
gasta por esses sistemas acima listados como overhead. Obviamente, quanto mais perto de
1,00, mais eficiente esses sistemas serão ao atenderem as necessidades de TI.
Mas, onde medir o consumo de TI e qual a unidade utilizada? A primeira edição do PUE
descrevia somente uma relação entre picos de demanda. Ou seja, durante um período de
avaliação (por exemplo, um mês) é anotado o pico de demanda total do data center
(DEM_TOT) e o pico de demanda dos equipamentos de TI (DEM_TI), ambos medidos em kW.
O PUE seria então DEM_TOT/DEM_TI. Exemplo: pico de demanda do data center durante um
ano = 500 kW; pico de demanda de TI durante esse ano = 300 kW; e PUE = 500/300 = 1,67.
Posteriormente, foi lançada a segunda versão do PUE, em três níveis (1, 2 e 3). Esse novo PUE
(versão 2) prefere que o cálculo seja feito com dados de consumo, em kWh, e não de
demanda, como anteriormente. Então, durante o período de avaliação, é medido o consumo
elétrico total do data center (CONS_TOT) e o dos equipamentos de TI (CONS_TI).
O PUE é agora CONS_TOT/CONS_TI. Exemplo: consumo elétrico total do data center durante
um ano = 4.500.000 kWh; consumo elétrico de TI durante esse ano = 2.600.000 kWh; PUE =
4.500.000/2.600.000 = 1,73. Esta maneira é superior à anterior, pois utiliza o consumo total,
que já contabiliza todos os picos, vales e sazonalidades ocorridas durante o período.
Os três níveis do PUE versão 2 se referem ao local onde deve ser medido o consumo de TI,
bem como periodicidade mínima da medição (se usada a demanda pontual):
PUE1 (nível 1) – Medição na saída do UPS; se medido como demanda (kW), a
periodicidade deve ser mensal ou semanal.
PUE2 (nível 2) – Medição na saída do PDU; se medido como demanda (kW), a
periodicidade deve ser diária ou horária.
PUE3 (nível 3) – Medição na tomada elétrica dos equipamentos de TI (nos racks), se
medido como demanda (kW), a periodicidade deve ser de 15 minutos ou menos.

Atualmente, o PUE também é definido na norma ISO/IEC 30134-2 – Power Usage


Effectiveness.
A medição do consumo total é sempre realizada na entrada do data center. Deve-se deduzir
daí toda a energia utilizada para outros sistemas não relacionados ao data center, se
existirem.
Quanto mais perto da carga de TI for a medição, ou seja, quanto maior o nível do PUE, mais
precisa será a métrica ao identificar as perdas decorrentes do overhead das instalações.
Quando a medição for realizada por consumo (kWh), é importante manter o cálculo do PUE
trimestral de cada estação climática do ano, bem como o anual, de forma a ressaltar
(trimestral) e a nivelar (anual) os efeitos da temperatura externa no PUE.
Como curiosidade e para ilustração, podemos consultar o PUE dos data centers do Google
no link https://bit.ly/2E52CI7. Também é possível ver o gráfico dos cálculos anuais e
trimestrais do PUE.
O PUE1 e o PUE2 até admitem ter as suas medições de consumo realizadas de forma manual,
em rondas periódicas. É relativamente fácil obter dados de consumo de TI para o PUE1, pois
todos os UPS já vêm com recursos para informar os dados de fornecimento de energia. Para o
PUE2 é necessária a instalação de medidores nos quadros principais de distribuição de energia
ininterrupta para o data center (PDU).
O PUE3, por sua granularidade (medição em cada rack de TI), deve necessariamente ser
medido de forma automática. Isso não é um problema, pois para o PUE3 é necessária a
utilização de “PDU inteligente de rack” em todos os racks, os quais já são naturalmente
dotados de capacidade remota de monitoramento, via SNMP ou equivalente. Porém, isso
aumenta o custo de instalação, portanto não é uma solução viável para muitos data centers.
Se o data center adquirir outros recursos utilizados para alimentação elétrica ou
refrigeração, como diesel ou gás (para geração local regular), ou água potável (refrigeração) a
energia embutida em tais insumos também deve ser contabilizada na energia total
consumida pelo data center. A norma do PUE inclui fatores para a conversão dessa energia
embutida em energia a ser contabilizada pelo PUE.
O PUE, em princípio, não deve ser utilizado para comparar instalações diferentes, a não ser
que a metodologia de todos os locais seja compatibilizada. O PUE é bastante útil para servir
de base para o próprio data center medir a sua evolução com o tempo e após alterações
significativas da instalação.
Mas, atenção, o PUE não mede a eficiência elétrica dos equipamentos de TI. O aumento da
eficiência de TI (com o uso de técnicas de consolidação e virtualização, por exemplo) reduzirá
o consumo elétrico do data center, mas, se não houver um correspondente ajuste no parque
eletromecânico, o PUE poderá aumentar, mesmo que o consumo total da instalação tenha
diminuído.
Por outro lado, aumentar muito a temperatura de fornecimento do ar condicionado, para a
faixa “permitida” da ASHRAE, poderá proporcionar uma boa economia no gasto energético da
refrigeração. Porém, dependendo da temperatura e nível de carga dos servidores, pode ser
que as suas ventoinhas sejam aceleradas ao máximo, para compensar esse aumento. Isso
pode levar a um consumo extra que anula os ganhos com a redução da refrigeração, levando
a um maior consumo do data center. Nesse caso, paradoxalmente, o PUE pode melhorar, pois
o consumo das ventoinhas dos servidores é contabilizado como consumo de TI.
Assim, o PUE não deve ser o único recurso para acompanhar a eficiência elétrica do data
center. Ele deve sempre ser acompanhado por outros indicadores, como o consumo elétrico
total e índices de eficiência dos equipamentos de TI, como por exemplo o ITEU e o ITEE,
também definidos na norma ISO/IEC 30134.
Abaixo os links de onde é possível adquirir os documentos aqui citados.
The Green Grid® – PUE (https://bit.ly/2zuIZXd).
Norma ISO/IEC 30134-2:2016 (https://bit.ly/2E4w012).
A medição do PUE é apenas um dos itens avaliados para a obtenção do único selo de
eficiência energética para data centers, o CEEDA. Mais informações em
(https://bit.ly/1KQBY1r).

Marcelo Barboza
Marcelo Barboza é formado no Mackenzie, atua no desenvolvimento e aplicação de cursos e consultoria em cabeamento
estruturado e em projetos de telecomunicações em data centers. Instrutor oficial no Brasil para a Fluke Networks (certificação
de cabos de cobre e fibra óptica), Panduit (instalação de cabeamento estruturado) e DCProfessional (fundamentos e eficiência
energética de data centers). Certificado pela DCProfessional (Data Center Specialist – Design), pela BICSI (RCDD, DCDC e NTS) e
pelo Uptime Institute (ATS).

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os TI verde e a


melhorar a vida da riscos antes do computação em
população lançamento nuvem
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

SD-WAN – Uma Equipamentos FTTH Como a digital twin


solução, diversas classes B+ e C+ pode otimizar a
possibilidades 27 de fevereiro de 2019 infraestrutura de
27 de fevereiro de 2019 comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


Os avanços e desafios da
Internet das coisas
Longinus Timochenco, da Stefanini Rafael

Quando o termo IoT – Internet das coisas foi criado, na década de 1990, ainda não se tinha
ideia da importância que o assunto ganharia com o passar dos anos. A interconexão de
dispositivos inteligentes, capazes de controlar, trocar ou compartilhar informações e dados,
sem a necessidade de interação física com o ser humano, já é realidade em muitos setores e
deve impactar cada vez mais a economia brasileira.
Segundo o estudo “Internet das coisas: um plano de ação para o Brasil”, realizado pelo
BNDES e pelo MCTIC – Ministério da Ciência, Tecnologia, Inovações e Comunicações, a
estimativa do impacto potencial da IoT no Brasil, até 2025, é de US$ 50 bilhões a US$ 200
bilhões por ano, valores que representam cerca de 10% do PIB – Produto Interno Bruto no
país. Entre as prioridades de aplicação estão setores como saúde e indústria.
Monitoramento remoto das condições de saúde e do condicionamento físico por meio de
aparelhos vestíveis (wearables), sensores no leito de pacientes e apoio à identificação de
síndromes e epidemias são alguns dos exemplos de como a Internet das coisas pode
beneficiar tanto pacientes quantos hospitais e operadoras, permitindo melhorias na
comunicação entre todos e contribuindo com diagnósticos preventivos e assertivos.
No setor industrial, há diversas aplicações de IoT capazes de melhorar processos, reduzir
excessos e custos, criar novos modelos de negócios e aumentar a velocidade das operações. A
Internet das coisas industrial (IIoT – Industrial Internet of Things) permite o monitoramento
integrado de atividades, resultando em uma grande base de dados que auxilia nas tomadas de
decisões automáticas, a partir da integração de equipamentos e máquina.
Tamanho avanço também requer maior preocupação com a segurança da informação e a
proteção dos dados. É importante estar preparado para detectar possíveis ataques
cibernéticos, que busquem causar danos físicos em uma instalação industrial ou prejudicar a
funcionalidade da planta. Na área da saúde, o cuidado deve ser ainda maior, pois falhas
podem ter impactos irreversíveis na vida das pessoas.
Reforço aqui que, quanto maior o número de dispositivos conectados em uma rede, mais
oportunidades de exposição e exploração de falhas serão possíveis. Da mesma forma que a
Internet das coisas promete facilitar processos e atividades, ela também demanda muita
responsabilidade em relação à proteção. É fundamental manter uma política de segurança
consolidada, além do monitoramento contínuo dos dispositivos IoT e da adoção de medidas
de mitigação de danos.

Longinus Timochenco
É diretor de cyber security da Stefanini Rafael para América Latina. Tem mais de 25 anos de experiência em tecnologia e é
especialista em segurança da informação corporativa, cyber security, professor, palestrante e colunista.
O executivo possui forte atuação em defesa, governança corporativa, risco & fraude, compliance e gestão de TI. Membro do
Comitê Brasil de Segurança da Informação ISO IEC JTC1 SC 27 na ABNT Brasil, Timochenco desenvolveu uma série de trabalhos
junto a consultorias e grandes corporações globais no gerenciamento de projetos estratégicos, auditorias e combate a crimes cibernéticos. Em
seu currículo traz uma série de cases de sucesso com empresas nacionais e internacionais, como Oracle, Checkpoint, Rapid7, Pentest Magazine,
Projetos IT Green, Outsourcing de TI. Premiado – Security Leaders Brasil 2014 e 2016.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os TI verde e a


melhorar a vida da riscos antes do computação em
população lançamento nuvem
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

SD-WAN – Uma Equipamentos FTTH Como a digital twin


solução, diversas classes B+ e C+ pode otimizar a
possibilidades 27 de fevereiro de 2019 infraestrutura de
27 de fevereiro de 2019 comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


Como a digital twin pode
otimizar a infraestrutura de
comunicação
Mario Pires de Almeida Filho, da GDN Tecnologia

A breve menção sobre o tema digital twin/predictive twin no artigo da última edição
despertou a curiosidade de muitos profissionais.
Antes de mais nada, e para a surpresa geral da nação, a definição de digital twin, ou gêmeo
digital, não traz novidades, pois é o simples conceito de réplica digital em tempo real de um
dispositivo físico, conforme podemos encontrar em uma das muitas definições na Wikipedia.
A Nasa já utilizava este conceito nos programas espaciais das décadas de 1950 e 1960 com
limitados recursos computacionais, portanto, muito antes de 2002, quando se costuma
afirmar que é o nascimento da tecnologia.
Um exemplo são os simuladores de aviação usados para treinamentos de pilotos, assim
como os simuladores de Formula 1, e todo o tipo de simulação digital de um sistema físico,
incluindo a modelagem 3D. De uma forma ainda mais ampla, digital twin é um modelo virtual
de um produto, sistema, processo ou um serviço. Podemos inclusive realizar modelos
preditivos de análise de comportamento de redes e complexas infraestruturas de
comunicações. Então por que todo esse “buzz”?
Ocorre que com o advento da indústria 4.0 e do crescimento exponencial de sensores com a
IoT – Internet das coisas, associados à evolução de tecnologias analíticas e preditivas, bem
como de inteligência artificial e machine learning, os recursos de modelagem e simulação
atingiram patamares em que se pode afirmar que é possível, literalmente, replicar todas as
realidades comportamentais do mundo físico, algo como a pistola de portal multiverso da
série Ricky and Morty.
Brincadeiras à parte, a tecnologia pode ser usada não só para avaliar o comportamento de
algo real e realizar de modo eficiente o ciclo de melhorias continuada, como também prever
diferentes resultados com base em dados variáveis, daí o termo alternativo predictive twins,
de fato uma aplicação complementar da tecnologia focada em resultados preditivos.
No artigo publidado no site i-scoop existe uma definição bastante clara sobre digital twin:
“Se a réplica virtual é realmente um gêmeo digital e, assim, ela se comporta como algo real,
isso permite detectar possíveis problemas, testar novas configurações, simular todos os tipos
de cenários, analisar o que precisa ser analisado, fazer praticamente tudo o que queremos em
um ambiente virtual ou digital, sabendo que o que fazemos com esse gêmeo digital também
aconteceria com um ativo físico ‘real’. E é aí que falamos de inovação e design de produto de
forma inteiramente nova”.
A eficiência no desenvolvimento de produtos, a constante melhoria operacional e a agilidade
trazem benefícios substanciais de economia e eficiência na produção e melhoria de produtos,
sistemas e serviços. Nesse sentido, a tecnologia está se tornando uma ferramenta essencial,
não só na indústria e manufatura, onde a sua aplicabilidade se manifesta de forma mais
explícita, mas também em áreas como varejo, saúde e prestação de serviços diversos, num
ciclo de enriquecimento contínuo.
Finalmente, é importante diferenciar o conceito de virtual reality/augmented reality (VR/AR)
do de digital twin. Apesar de ambos tratarem da virtualização de um contexto físico ou do
mundo real e serem tecnologias promissoras, emergentes e com uma perspectiva de grande
evolução para o futuro próximo, os recursos VR/AR se comportam, basicamente, como uma
mídia ou um canal de experimentação, em relação a digital twin. Poderíamos dizer que a
tecnologia de digital twin pareia a realidade física em uma simulação muito próxima de
realidade, incluindo comportamento o físico, stress de materiais, limites operacionais e
funcionais; enquanto a VR/AR é um meio de tornar essas simulações uma experiência
sensorial que, combinados, compõem uma ferramenta poderosa nos modernos métodos de
produção.

Mario Pires de Almeida Filho


É executivo da GDN Tecnologia, uma cloud services provider e integradora especializada em SDN e SD-WAN. O executivo atua
nas áreas de pré-vendas e marketing de produto. Com formação em telecomunicações, tecnologia da informação e marketing
estratégico, Mário Pires tem mais de 36 anos de experiência no mercado, trabalhando em empresas como Embratel,
Cabletron/Enterasys, Medidata, Mtel, Innovo e 9Net.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os TI verde e a


melhorar a vida da riscos antes do computação em
população lançamento nuvem
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

SD-WAN – Uma Equipamentos FTTH Os avanços e desafios


solução, diversas classes B+ e C+ da Internet das coisas
possibilidades 27 de fevereiro de 2019 26 de fevereiro de 2019

27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


Câmeras inteligentes para
melhorar a mobilidade urbana
Paulo Santos, gerente de soluções da Axis Communications

Os temas engarrafamentos e acidentes de trânsito são complexos, mas nas suas raízes há
um princípio muito simples. Evitar qualquer tipo de incidente é a melhor maneira de oferecer
ambientes seguros para os usuários da infraestrutura rodoviária e reduzir a carga de trabalho
dos operadores de gerenciamento de tráfego e serviços de emergência. O tráfego sem
congestionamentos não é apenas mais seguro, mas também resulta em usuários mais
satisfeitos, um comércio mais dinâmico e uma vida diária mais fluida. Perfeito, mas como
fazer a prevenção?
Alguns avanços recentes já estão sendo usados para melhorar toda a rede de gerenciamento
de ocorrências em avenidas e rodovias, como a tecnologia de DAI – Detecção Automática de
Incidentes. A forma como ela funciona é muito clara: o sistema alerta os operadores de
gerenciamento de tráfego para a presença de veículos quebrados ou parados para que eles
possam enviar ajuda rapidamente. Além disso, ele fornece vídeo e imagens para apoiar os
serviços de emergência. Essa agilidade no atendimento também minimiza interrupções na
circulação, evitando acidentes em cadeia e o agravamento da situação.
Nesse sentido, as câmeras inteligentes fornecem uma análise precisa do fluxo dos veículos,
identificando os fatores que podem se tornar uma fonte potencial de engarrafamentos ou
retardar o tráfego. Com essas informações em mãos, que incluem a contagem de veículos e
até o tipo em cada faixa (carro, caminhão, ônibus), os operadores de gerenciamento de
tráfego podem modificar a sincronização dos semáforos e, assim, evitar que uma pequena fila
se torne um congestionamento de tráfego monumental, por exemplo.
Outra forma de agilizar o trânsito é utilizar câmeras inteligentes nos cruzamentos. Esses
sensores calculam continuamente o volume de veículos esperando o semáforo ficar verde. É
comum o acúmulo de veículos à espera numa das vias enquanto a via que cruza, com sinal
verde, permanece sem veículos ou com fluxo muito baixo. As câmeras resolvem isso ao
regular os semáforos de acordo com essa demanda.
Além desses ganhos mais evidentes para o motorista, a tecnologia traz outras melhorias
para os gestores. As próprias câmeras são capazes de detectar algumas infrações graves,
como veículos que trafegam na direção oposta. Tampouco é necessária a presença de agentes
de segurança no local para determinar se alguém cometeu uma infração ou para provar isso
no tribunal, graças à tecnologia de reconhecimento de placas e à confiabilidade das
evidências em vídeo. Sem dúvidas, uma opção mais eficiente e econômica do que expandir a
presença de agentes de trânsito no local.
O sistema não se limita a detectar ações localizadas, mas permite uma vigilância completa
das infrações, que em longo prazo ajudará os usuários a serem melhores condutores. Essa
afluência de dados pode até mesmo informar as melhores rotas ao motorista, em tempo real,
por meio de painéis de mensagens variáveis (PMVs).
A revolução em curso tem a ver com a transformação de câmeras em sensores de detecção
de tráfego, capazes de determinar os tipos de veículos, velocidades, número de ocupantes ou
placas. É a tradução, no trânsito, do conceito de IoT – Internet das coisas, que está mudando
a forma de se deslocar numa cidade.
Com essas informações, fica muito mais fácil saber como e quando as vias são utilizadas
para otimizar os cronogramas de manutenção, priorizar corretamente os novos
investimentos e melhorar a sensação de bem-estar nas cidades. Tudo isso terá, no futuro, um
impacto significativo no fluxo de veículos e na redução de acidentes de trânsito.

Paulo Santos
É gerente de soluções na Axis Communications, desde 2012. Formado em Engenharia Elétrica pela Faculdade de Engenharia São
Paulo, o executivo possui ainda o título de especialização em administração pela FGV. Antes de ingressar na Axis, Santos atuou
na Xylem e na Siemens.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os TI verde e a


melhorar a vida da riscos antes do computação em
população lançamento nuvem
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

SD-WAN – Uma Equipamentos FTTH Como a digital twin


solução, diversas classes B+ e C+ pode otimizar a
possibilidades 27 de fevereiro de 2019 infraestrutura de
27 de fevereiro de 2019 comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online


A importância do networking
Edgar Amorim, Analista comportamental e coach, da Amorim & Pimentel

Estamos num mundo em transformação intensa e rápida. A tecnologia trouxe possibilidades


inimagináveis – e muitas vezes além do que as pessoas conseguem assimilar ou aprender a
usar.
Todos os aspectos da nossa vida têm mudado e um deles, muito importante, é o emprego.
Hoje, já é comum o modelo de trabalho remoto, em home office, cafeterias, co-working e
tantas outras opções. A inteligência artificial tem assumido muitos papéis, antes possíveis de
serem executados apenas por humanos, e, certamente, esse é mais um ingrediente para a
nova forma de trabalho. Alguns especialistas dizem que no futuro (talvez não muito distante)
as pessoas não mais serão colaboradoras de uma única empresa. Elas irão oferecer as suas
especialidades para vários contratantes.
Mas como isso vai funcionar? É difícil saber com exatidão, mas temos uma pista: os
relacionamentos serão uma peça muito importante. E, principalmente, aqueles
relacionamentos que vão além de conhecer uma pessoa ou outra, ou seja o networking.
Provavelmente, você já ouviu falar dele, mas as suas características vão além do conhecer
pessoas. No networking você pode se fazer conhecido mostrando a sua especialidade em
redes sociais, particularmente com o LinkedIn para a vida profissional.
O “dar para receber” é prática importante do networking e, provavelmente, é o ponto que
mais deve ser praticado para ganhar destaque na sua rede de relacionamentos.
Mostre-se pronto para ajudar – e ajude, sem esperar nada em troca. Nunca use a sua rede
para pedir favores, sem antes ter feito muitos favores a outros. Faça-se conhecido, conte as
suas experiências de vida que levaram a resultados importantes e que possam inspirar outras
pessoas. Faça tudo isso antes de precisar de algo.
É claro que um networking não vive só no virtual. Convide as pessoas que se envolveram com
os seus posts e comentários para tomar um café e, assim, trocarem ideias sobre interesses
comuns. Faça isso antes de precisar de algo. Jamais envie currículos diretamente para pedir
ajuda – principalmente para as pessoas menos conhecidas. Pense bem, para quem um
recrutador ou alguém que não o conhece “bem” vai dar mais atenção? Faça-se conhecido.
Ajude antes de pedir ajuda.
Existem vários exemplos de pessoas que trabalham muito bem o networking e praticam o
“dar para receber”. O Ricardo Jordão, especialista em marketing e vendas, diz que usa 50% de
seu tempo para ensinar as pessoas – e, ainda assim, os seus cursos são um sucesso. O Rodrigo
Garçone e o André Santos são especialistas em networking e ensinam tudo sobre o tema de
graça. Seus cursos têm muitos participantes. O Kauê Linden e o Professor Guanabara ensinam
gratuitamente tudo sobre tecnologias de Internet e marketing digital (outros temas) e
vendem muito bem os seus serviços.
É provável que o LinkedIn seja a ferramenta que vai se alinhar à forma de oferecer o seu
trabalho no futuro e construir um bom networking. Portanto, cultive o seu perfil na rede,
conte as suas histórias positivas e negativas, servindo de exemplo para que outras pessoas
evitem trilhar caminhos que não tragam resultados adequados.
E aí? Quando você vai começar este trabalho?
Sucesso!!!

Edgar Amorim
É instrutor certificado Everything DiSC® formado pela Wiley Publishing, nos EUA, Master Coach e analista comportamental
pela Sociedade Latino Americana de Coaching, associada da International Association of Coaching (IAC). Pós-graduado em
sócio-psicologia pela Fundação Escola de Sociologia e Política de São Paulo, MBA em Administração de Negócios pelo Instituto
Mauá de Tecnologia e engenheiro eletrônico pela Faculdade de Engenharia São Paulo. Tem mais de 35 anos de experiência em
organizações de vários portes, incluindo multinacionais, onde assumiu funções de operações e executivas.

a Facebook d Twitter h Pinterest k LinkedIn J WhatsApp v Email

Tecnologia para 5G – Como reduzir os TI verde e a


melhorar a vida da riscos antes do computação em
população lançamento nuvem
27 de fevereiro de 2019 27 de fevereiro de 2019 27 de fevereiro de 2019

SD-WAN – Uma Equipamentos FTTH Como a digital twin


solução, diversas classes B+ e C+ pode otimizar a
possibilidades 27 de fevereiro de 2019 infraestrutura de
27 de fevereiro de 2019 comunicação
27 de fevereiro de 2019

Desenvolvido por Revista Digital Online

Você também pode gostar