Escolar Documentos
Profissional Documentos
Cultura Documentos
Introdução e conceituação às plataformas em nuvem, como IBM Cloud, Google Cloud, Amazon
AWS, além de Big Data e Analytics para indústria 4.0.
PROPÓSITO
Compreender os conceitos básicos de computação em nuvem, as principais plataformas
empregadas, como a IBM Cloud, Google Cloud e Amazon AWS; bem como os conceitos de Big
Data e Analytics no contexto da indústria 4.0, essencial ao profissional que deseja integrar os
diversos tipos de dispositivos para IoT.
PREPARAÇÃO
É necessário um computador com acesso à internet e um navegador para acessar as principais
plataformas de computação em nuvem.
OBJETIVOS
MÓDULO 1
MÓDULO 2
INTRODUÇÃO
Quando pensamos na indústria 4.0 é fácil associar o emprego da Internet das Coisas (IoT) com
um conjunto de dispositivos, sejam eles sensores, atuadores, ou quaisquer outros que estejam
interligados através da internet.
Na segunda parte, falaremos sobre a indústria 4.0, conceituando-a e mostrando sua evolução.
Apresentaremos as tecnologias que são a base da quarta revolução industrial e detalharemos
Big Data e Analytics ao leitor.
MÓDULO 1
CONCEITUANDO PLATAFORMAS NA
NUVEM
Antigamente, as empresas precisavam estimar hardware e software a serem comprados para
suportar suas operações diárias ou novos projetos – era frequente que grandes servidores
precisassem ser importados. Parte desse esforço consistia também em projetar a demanda por
cinco anos.
Acontece que o processo de compras em uma empresa costuma ser bastante lento. Reuniões,
relatórios, métricas e disponibilidade de orçamento precisam acontecer para que o processo de
aquisição de novos ativos seja iniciado. Isso pode demorar meses, e até anos.
Antigamente, além do risco que a empresa corria em perder dinheiro, comprando demais,
havia o risco de comprar de menos, fazendo com que a solução estimada não funcionasse
adequadamente, o que levaria, também, à perda de dinheiro, pelas receitas perdidas, ou
adicionando ineficiências aos processos da companhia, o que seria muito pior do que o cenário
da subutilização.
Justamente por isso, companhias costumavam exagerar na compra inicial, para criar folga na
infraestrutura a ser adquirida. Mas esse investimento inicial costumava demandar muito
investimento. Era necessário fazer um aporte financeiro inicial elevado na compra de
servidores, placas etc., para suportar o crescimento orgânico da demanda, em média, por cinco
anos. Assim, a infraestrutura adquirida estaria sempre subutilizada no início e sobrecarregada
no final.
Hardware
Software
O modelo inovador permitiu às empresas reduzir o investimento inicial trocando Capex por
Opex. Isso quer dizer que, no modelo de computação em nuvem, os clientes podem adquirir
exatamente os recursos de que precisam e pagar apenas pelo uso dos recursos contratados.
Funciona basicamente como um aluguel dos recursos. Havendo aumento de demanda, o
cliente consegue contratar mais recursos rapidamente, como por exemplo, mais licenças de
banco de dados, mais discos rígidos, mais servidores ou mais memória ou capacidade de
processamento. Se acontecer o contrário, os recursos podem ser liberados imediatamente e
deixam de ser faturados.
VOCÊ SABIA
Capex, do inglês, Capital Expenditure, ou despesas de capital, são despesas não recorrentes
destinadas à compra, ou à manutenção de ativos, como equipamentos, imóveis, veículos,
terras, patentes etc. Normalmente, os valores investidos como Capex seguem a estratégia de
evolução da empresa e são usados para aumentar ou gerar novas receitas, expandir a
operação ou ganhar novos mercados.
Todos os recursos disponibilizados são virtuais. Isto é, são máquinas virtuais (VMs):
COMENTÁRIO
Uma das grandes vantagens das VMs é permitir o armazenamento do seu estado corrente.
Desse modo, depois que está plenamente configurada e carregada, a VM pode ser
armazenada em disco rígido exatamente como um aplicativo convencional, como backup.
Reduz custo de operação, transferindo a gestão de TI dos grandes servidores físicos para o
fornecedor dos recursos em nuvem.
Os recursos adquiridos são entregues em tempo real, afinal, não são elementos físicos, mas
virtuais.
SELF-SERVICE
É a capacidade que o cliente tem em se servir (self-service), de acordo com suas necessidades
e demandas (on demand). O cliente cria e aloca tantos recursos quanto for preciso,
manualmente, ou pode, por meio de configuração, definir gatilhos para que mais recursos,
como memória, disco rígido ou banda sejam alocados, caso o uso se torne crítico.
FACILIDADE DE ACESSO
Diz respeito à facilidade de acesso, que deve ser provido pela rede e por meio de aplicativos
simples, não apenas para estações de trabalho e computadores mais robustos, mas também
para telefones inteligentes (smartphones) e tablets. O acesso deve ser simples e diversificado.
DIFERENTES USUÁRIOS
A computação em nuvem deve permitir a alocação de recursos para servir diferentes usuários.
Normalmente, eles estão disponíveis em um pool de recursos virtuais e são alocados
dinamicamente pelos clientes, de acordo com a demanda.
ELASTICIDADES
O cliente deve ser capaz de aprovisionar e liberar recursos e capacidades a qualquer
momento, como no caso de haver picos de demanda.
SOLUÇÕES EM NUVEM
Diz respeito à capacidade e à importância de medição das soluções baseadas em nuvem. O
faturamento e a cobrança dos clientes é feita de acordo com o uso. Por isso, a medição do uso
deve ser feita de maneira transparente e precisa, mensurando a utilização dos recursos
praticamente em tempo real.
Além disso, três modelos de serviços ofertados e três modelos de implantação também
compõem os modelos de computação em nuvem.
Amazon
Microsoft
Salesforce
VMware
Cisco
A empresa dona do portal fornece ambientes em que o cliente pode configurar e gerenciar
todos os itens contratados de maneira integrada, e recebe faturas mensais de acordo com a
utilização.
Os serviços ofertados, que estudaremos mais à frente, podem ser basicamente de três tipos:
Qualquer empresa que deseje migrar seu ambiente sistêmico para a nuvem deve examinar
cuidadosamente qual das três opções é mais aderente a sua realidade, tanto em termos de
custos quanto de regulação.
Na nuvem pública, os serviços estão disponíveis a qualquer cliente através da internet. Para
usá-los, basta se cadastrar no portal da empresa, que oferece os serviços e alugar os recursos
necessários.
COMENTÁRIO
Alguns serviços são até mesmo gratuitos, mas a maioria pode custar uma assinatura mensal
ou possuir uma tarifação sob demanda, como é o caso da banda de internet, faturada por
utilização.
Nuvens públicas costumam levantar dúvidas sobre segurança. É que os recursos alocados
para um cliente compartilham a mesma infraestrutura física subjacente a outros clientes: vários
“inquilinos” coexistem muito próximos uns dos outros, compartilhando os mesmos recursos
computacionais, sem que, no entanto, saibam disso.
Imagem: Shutterstock.com
Os críticos desse modelo dizem que o cliente tem quase ou nenhum controle sobre a
infraestrutura, o que de fato é verdade, já que todo o gerenciamento e manutenção é feito de
forma transparente ao cliente, que é apenas notificado quando tem algum serviço contratado
impactado.
No modelo de nuvem privado, os recursos físicos podem estar tanto fisicamente instalados
dentro do cliente, como podem ser acessíveis pela internet. A diferença é que a equipe de TI do
cliente é responsável por configuração, gerenciamento, segurança, disponibilidade, e deve
definir e executar os planos de recuperação e proteção contra desastres e manutenção
preventiva e reativa.
Há, portanto, um incremento nos custos de operação para que o cliente tenha total controle da
rede em nuvem. As vantagens continuam basicamente as mesmas: escalabilidade, flexibilidade
e segurança.
ATENÇÃO
A solução de nuvem híbrida tenta racionalizar os dois modelos anteriores em um modelo misto.
Nele, o cliente pode optar por manter dados sujeitos a forte regulação do governo ou
aplicativos de missão crítica confinados em uma nuvem privada, e usar uma nuvem pública
para outras necessidades da companhia, reduzindo custos de gestão operacional. Existe
também grande mobilidade de dados e sistemas entre uma e outra.
A nuvem híbrida fornece as vantagens da nuvem pública, mas também a segurança, o controle
e a conformidade com leis e regulações, como no caso da privacidade de dados, quando a
empresa é impedida por lei de terceirizar a gestão deles.
COMENTÁRIO
Quanto ao custo de operação, para o mesmo tamanho de rede, a nuvem híbrida acaba
custando um valor intermediário entre a pública e a privada.
MODELOS DE SERVIÇO
Como já estudamos, além dos modelos de implementação, existem os modelos de serviço, que
podem ser:
Foto: bangoland/Shutterstock.com
Para isso, é preciso primeiro ter uma conta no Google ou Gmail. O Console permite a criação
de projetos, a visualização e o aprovisionamento de vários recursos e a contratação de
serviços. Ele é a interface principal do usuário. Toda a gestão dos recursos é feita por meio do
Console, que funciona de forma transparente: é possível que os recursos estejam distribuídos
por diferentes data centers, sem que o usuário perceba.
A empresa mantém diversos data centers espalhados pelo mundo em cinco regiões diferentes:
Austrália, América do Norte, América do Sul, Europa e Ásia. Essas regiões são subdivididas em
zonas isoladas. O cliente pode escolher o data center mais próximo para reduzir tempos de
acesso, bem como espelhar seus ambientes em um ou mais data centers geograficamente
distantes, de acordo com o plano de alta disponibilidade e recuperação de catástrofe. Alguns
recursos estão disponíveis globalmente, outros apenas por região ou zona.
O cliente pode contratar diversos serviços, são muitas opções distribuídas em várias
categorias, entre as quais listamos algumas:
IoT
Mídia e Jogos
Banco de Dados
Rede
Migração de Dados
Ferramentas de Gestão
Contêineres
Cada uma dessas áreas contém diversos serviços relacionados. Por exemplo, na categoria IA
e Machine Learning é possível contratar serviços de reconhecimento de fala e transcrição em
mais de cem idiomas, bem como fazer o reverso, usar algoritmos que transformam texto em
fala.
Alguns dos serviços mais utilizados são: Big Query, Cloud CDN, Compute Engine, Data FLow,
Cloud SQL, Anthos, Cloud Storage, Operações e Google Kubernetes Engine.
BIG QUERY
É o serviço para grandes massas de dados: tabelas com bilhões de linhas e que podem ocupar
até petabytes de armazenamento.
ATENÇÃO
O Big Query não fornece uma base de dados transacional, por isso, é indicado apenas para
Big Data. O Google Cloud encapsula toda a complexidade do hardware subjacente. O usuário
precisa apenas carregar os dados na nuvem, seja em arquivos CSV ou em outros formatos,
que o Big Query já pode ser usado.
É possível, também, aplicar outros serviços como Data Analytics ou de ingestão de dados, este
último no caso de um fluxo contínuo.
O Cloud CDN possibilita ao usuário transmitir seu conteúdo pela internet com segurança e
rapidez. Em vez de usar redes públicas e roteamento de pacotes sem prioridade, o cliente
conecta o seu servidor de conteúdo diretamente com os servidores do Google na borda da
rede, em localidades próximas dos seus clientes.
O CDN faz uso da rede global do Google de servidores de borda (Google Global Edge), para
trazer o conteúdo o mais próximo quanto possível do seu destino. Além disso, os pacotes que
trafegam nesses canais diretos têm prioridade alta e são tarifados por volumes, cerca de fração
de dólar por gigabyte. A solução, portanto, acelera a entrega de conteúdo em nível global.
COMPUTE ENGINE
As primeiras vêm com configurações típicas de memória, cpu etc. O cliente precisa apenas
selecionar a imagem e o local em que ela deve operar e iniciá-la.
As máquinas do tipo E2 são as de melhor custo-desempenho, porque são de uso geral, mas a
plataforma oferece também algumas VMs otimizadas para atender necessidades específicas,
como, por exemplo, grande carga de processamento (tipo C2), no caso de jogos e algoritmos
pesados, ou sistemas que requeiram muita memória (M1 e M2), como grandes bases dados ou
algoritmos de uso intenso de memória. Neste último caso, por exemplo, uma única máquina
virtual pode conter até 12 TB de memória RAM.
A plataforma ainda permite que dados nas VMs sejam criptografados, por questões de
confidencialidade, e oferece um serviço de recomendação de dimensionamento automático.
Assim, a plataforma sugere redução ou expansão dos recursos, de acordo com o uso.
DATA FLOW
Em muitas aplicações empresariais, é preciso lidar com um enorme fluxo de dados produzidos
em tempo real, muitas vezes, por fontes distintas. Isso acontece com redes de IoT (Internet of
Things). As empresas precisam não somente armazenar os dados entrantes, mas também
processá-los. Acontece que os dados nem sempre vêm no formato esperado.
COMENTÁRIO
É possível também contratar serviços de Análise de Dados do Google para realizar a tarefa.
CLOUD SQL
Cloud SQL é o serviço de banco de dados na nuvem oferecido pela plataforma do Google. Ele
é baseado no MySQL, PostgreSQL e SQL Server.
Através do Console, o cliente pode facilmente instanciar qualquer um dos bancos citados, bem
como gerenciar a capacidade de armazenamento, criar réplicas e realizar backups. É possível
automatizar a criação de backup por meio da configuração no Console. O serviço ainda fornece
ferramentas integradas para migração de dados e drivers para conexão. De forma similar às
VMs, o cliente, ao provisionar o banco de dados na nuvem, precisa escolher a região em que
ele será hospedado. Isso permite flexibilidade para que o banco seja posicionado o mais
próximo quanto possível dos usuários, reduzindo tempo de acesso. Ainda é possível escolher a
quantidade de memória e a quantidade de CPUs da máquina que servirá o banco, bem como o
tipo de disco rígido, se convencional ou SSD (SOLID STATE DRIVE).
COMENTÁRIO
A empresa de consultoria Garter posicionou o Google Cloud como líder de sistemas de bancos
de dados em nuvem, em 2020.
ANTHOS
É muito difícil para uma grande empresa usar apenas um provedor de serviços de nuvem. A
heterogeneidade é comum e aumenta a complexidade de gerenciamento dos recursos virtuais,
bem como riscos associados com permissões de utilização e cotas de uso. Para mitigar esse
problema, o Google oferece o serviço Anthos, que é um sistema de gestão de recursos na
nuvem multiplataforma. Com ele é possível gerenciar a infraestrutura tanto da Google Cloud do
cliente, como nuvens privadas e plataformas de nuvens públicas de outros fabricantes.
O Anthos permite gerenciar clusters Kubernetes, serviços, regras de acesso, alarmes, verificar
informações operacionais e automatizar procedimentos, como o carregamento de aplicações,
independentemente da plataforma onde eles estão ativos. O cliente, então, tem a visão de toda
sua infraestrutura em nuvem completa e consolidada em um único sistema, o Anthos, e pode
usá-lo para otimizar o uso dos seus recursos, manualmente. Entretanto, a plataforma também
faz recomendações automáticas de otimização sobre o uso dos recursos instanciados. Ainda é
possível estabelecer regras e políticas para diferentes regiões distintas, cruzando diferentes
plataformas, basta organizá-los em grupos lógicos chamados de environs.
CLOUD STORAGE
Cria-se uma organização, que pode representar um departamento ou mesmo toda a empresa.
O cliente carrega os arquivos, sejam fotos, vídeos ou relatórios, e os associa com os devidos
buckets de acordo com lógica organizacional.
Além dos serviços citados, o módulo chamado de IAM (Identify and Access Management) faz
parte do Console. Ele é responsável pelas regras de segurança, autorização e identificação de
acesso para a plataforma. A partir dele, o usuário administrador pode adicionar e criar perfis de
usuários para interagir com recursos específicos: podem ser segmentados por times,
departamentos, áreas da empresa, e cada equipe tem visibilidade apenas dos seus recursos.
Também é possível estabelecer cotas de utilização, para evitar que o orçamento seja
consumido de forma desigual entre os times.
Entretanto, o Google disponibiliza aplicativos para smartphones que rodam tanto iOS como
Android, e que funcionam como clientes leves para o Google Cloud, permitindo ao cliente
monitorar recursos e usuários da mesma maneira, em um computador de mesa ou notebook.
Imagem: Shutterstock.com
AWS CLOUD
AWS é a plataforma de nuvem da Amazon. Ele funciona de forma semelhante ao Google
Cloud. É preciso criar uma conta que dará acesso a interface do usuário. Atualmente, a AWS
conta com diversos data centers espalhados pelo mundo, organizados em 25 regiões
geográficas, subdivididas em 80 zonas de disponibilidade. Devido a essa capilaridade, a
empresa promete oferecer a menor latência entre as concorrentes: abaixo de dez
milissegundos.
A partir do Console, é possível instanciar e configurar recursos, bem como contratar serviços.
São mais de 200, que rivalizam com o Google Cloud.
AWS LAMBDA
O serviço AWS Lambda permite ao cliente carregar funções na nuvem e executá-las de forma
transparente, sem a necessidade de configurar um servidor. Ele é escalável e bastante flexível.
O serviço faz o dimensionamento automático, de acordo com a carga de trabalho.
AMAZON GLACIER
Além do S3, a Amazon oferece um serviço de armazenamento de longo prazo que custa
apenas um dólar por terabyte por mês, porém, cobra pelo tempo de acesso aos dados. Além
disso, o serviço garante uma taxa de durabilidade de 99.99%, porque persiste os dados de
forma redundante, em diversos discos localmente, mas também em diferentes data centers,
implementando proteção contra desastres de forma transparente para o cliente.
ATENÇÃO
Diferentemente do S3, o Glacier deve ser usado para guardar grandes quantidades de dados
por longos períodos, sem que haja a necessidade de consultá-los frequentemente.
AMAZON EC2
A empresa disponibiliza serviços computacionais através do Amazon EC2. No portal, o cliente
pode instanciar diversos tipos de máquinas virtuais, escolhendo desde o processador
(capacidade de processamento), sistema operacional memória e disco. O serviço é
extremamente seguro, flexível e escalável, permitindo melhorias (upgrades) e rebaixamentos
(downgrades) nas máquinas contratadas. A empresa alega ter cerca de 400 tipos de instâncias
diferentes, suportando inclusive macOS e provê um SLA de 99.99% de disponibilidade.
Além dos diversos serviços, e similarmente ao Google Cloud, a plataforma AWS também
oferece um marketplace, em que diversos fornecedores parceiros oferecem suas soluções aos
clientes da plataforma. As soluções podem ser do tipo SaaS e API. O cliente pode escolher
pagar mensalmente, conforme o uso, ou pagar pela previsão de uso nos próximos anos, até
três anos.
COMENTÁRIO
Uma vez que o cliente compra o que deseja, a entrega tanto pode ser feita pela Amazon, pelo
marketplace, ou diretamente pelo fornecedor.
IBM CLOUD
IBM Cloud é uma plataforma de computação em nuvem de propriedade da empresa de mesmo
nome, que implementa serviços baseados na nuvem. Ela oferece tanto nuvem pública como
híbrida e suporta gerenciamento multicloud.
Similarmente ao Google Cloud e ao Amazon AWS, ela tem presença global com vários data
centers posicionados em regiões distintas. A IBM Cloud oferece serviços de infraestrutura
(IaaS) e de plataforma (PaaS) para pequenas, médias e grandes empresas. Entre eles,
destacamos servidores virtuais (VMs) e físicos (nuvem híbrida), Containers etc.
Todos os recursos podem ser gerenciados através do IBM Cloud Console, inclusive a
segurança do ambiente, usando-se controles para gerenciamento de acesso e de identidade.
O catálogo de produtos oferecidos pela plataforma é bem menor do que o das duas
anteriormente vistas, mas possui pontos de diferenciação que podem justificar sua escolha,
como, por exemplo, o sistema de inteligência artificial Watson. Além disso, grandes empresas,
por causa do porte, podem barganhar termos melhores junto à IBM, fazendo contratos
customizados. Entretanto, isso não é possível no AWS, nem na Google Cloud.
COMPUTE
Serviço de recursos computacionais, em que tanto máquinas virtuais como servidores bare
metal podem ser configurados e instanciados.
BLOCKCHAIN
O serviço de Blockchain da IBM Cloud permite ao cliente criar uma rede descentralizada
baseada na tecnologia de mesmo nome. Ela disponibiliza também a tecnologia Hyperledger
Fabric, desenvolvida em consórcio com outras empresas. Essa tecnologia permite incorporar
componentes de Blockchain, como o mecanismo de consenso, a outras aplicações
rapidamente, de forma plug and play.
DATABASES
CONTAINERS
DEVELOPER TOOLS
A plataforma da IBM disponibiliza diversas ferramentas para que o cliente interaja com as
aplicações e as faça evoluir. Uma delas é o IBM Cloud CLI (Command Line Interface), que
permite a criação de scripts automáticos capazes de realizar diversas tarefas, como a
instanciação automática de recursos na nuvem.
AI E MACHINE LEARNING
Uma das aplicações mais conhecidas de IA da IBM é o serviço IBM Watson Machine Learning.
O cliente pode carregar modelos de aprendizado de máquina e inteligência artificial para operar
sobre os dados carregados na nuvem.
MOBILE
O serviço Mobile permite que o cliente desenvolva e gerencie aplicativos para plataformas
móveis. Para isso, a plataforma oferece diversas SDKs completamente integradas ao ambiente
na nuvem. O Mobile Developer Console é a interface que ajuda o cliente a desenvolver e
instanciar seus aplicativos para plataformas móveis.
INTEGRATION
Hoje em dia, mais do que nunca, as empresas empreendem esforços para conectar sistemas.
Integração de sistemas, portanto, tem um papel bastante relevante na modernização de
ambientes sistêmicos. A IBM Cloud oferece diversos serviços de integração para seus clientes.
O IBM Cloud Park é um deles. A empresa alega que usando o sistema, a velocidade do
desenvolvimento pode aumentar em até 300%.
INTERNET OF THINGS
O serviço de IoT da IBM permite ao cliente conectar milhares ou até mesmo milhões de
dispositivos de forma prática e rápida. Além disso, através do Console, o usuário pode
gerenciá-los, e através das APIs conectar com dispositivos para fazer atualizações ou
configurações em lote.
AS PLATAFORMAS DE COMPUTAÇÃO EM
NUVEM PARA IOT
B) Os serviços não estão disponíveis a qualquer cliente através da internet e usa recursos
compartilhados entre os inquilinos, porém, de forma transparente.
C) Os serviços estão disponíveis a qualquer cliente através da internet e usa recursos físicos
dedicados entre os inquilinos, porém, de forma transparente.
E) Os serviços estão disponíveis através de uma rede privada, desconectada da internet e usa
recursos compartilhados entre os inquilinos, porém, de forma transparente.
A) Big Query.
B) Compute Engine.
C) Anthos.
D) Watson.
E) Lambda.
GABARITO
Na nuvem pública, os serviços estão disponíveis para o público em geral através da internet.
Além disso, os recursos físicos subjacentes são compartilhados entre os inquilinos (tenants)
sem que estes tenham visibilidade sobre isto.
O serviço Watson faz parte da categoria AI/Machine Learning da IBM Cloud. Ele é específico
para essa plataforma. Os outros serviços listados não são parte da IBM Cloud.
MÓDULO 2
Imagem: Shutterstock.com
COMENTÁRIO
Entretanto, a novidade é que a quarta revolução industrial quer tornar os processos fabris
inteligentes e até certa medida, autônomos, descentralizados e virtualizados. Além disso, há
diversas externalidades positivas.
A revolução vigente é bastante diferente de suas predecessoras em outros aspectos. Tome-se,
por exemplo, o perfil médio do trabalhador de chão de fábrica. Ele está mudando. Via de regra,
a atividade fabril é intensa em mão de obra e esse trabalhador é remunerado minimamente.
Há, inclusive, o uso de mão de obra infantil em países subdesenvolvidos. Entretanto,
automação, analytics, uso intensivo de sistemas em nuvem, sensores dos mais diversos e
aplicação de IA estão reduzindo a necessidade desses trabalhadores menos capacitados e
demandando profissionais mais qualificados: engenheiros de sistemas, programadores e
cientistas de dados, que são mais bem remunerados.
Foto: Shutterstock.com
Para isso, é preciso mudar os processos vigentes. Note que a transformação digital produziu e
tornou disponível dados de toda a cadeia de produção incluindo logística.
Veículos aéreos autônomos vêm sendo largamente usados, seja na agricultura para
monitoramento de plantações ou de gado, seja na indústria de defesa: diversos países
empregam drones munidos de câmeras especiais, sensores infravermelhos e toda uma
parafernália que os torna capazes de coletar informações estratégicas do campo de batalha e
realizar monitoramento de tropas e pessoal.
Para ilustrar bem essa junção de produtos existentes com as novas tecnologias 4.0, voltemos
aos carros autônomos. Cada veículo consiste em um enorme conjunto de sensores inteligentes
e modernos capazes de fornecer um volume sem precedentes de dados, por segundo.
É tudo muito dinâmico, porque o carro está em movimento, trocando de antenas o tempo todo,
e pode, inclusive, acessar diferentes servidores. A rede de telecomunicações, portanto, precisa
proporcionar altas velocidades de transmissão e ter baixa latência para permitir que essa troca
de informações seja quase em tempo real.
Por isso, a rede 5G é tão esperada, pois ela viabilizará diversos produtos da indústria 4.0.
É verdade que ver carros movendo-se sem intervenção humana impressiona, mas eles são
uma fração da mudança que está começando. A quarta revolução industrial afetará de forma
disruptiva diversas indústrias, não apenas a automotiva, mas a de transporte, de aço, a naval,
têxtil, de segurança, defesa, mineração e a agricultura. Todas elas apostam em mudanças
radicais no modo de operar seus processos industriais.
BIG DATA
Big Data é um dos pilares da indústria 4.0. Conceitualmente, consiste em enormes quantidades
de todo tipo de dado, estruturados ou não.
É um volume tão grande, que pode superar dezenas de exabytes e requer técnicas especiais
de gerenciamento, não apenas pelo seu tamanho, mas também pela complexidade. Tudo fica
mais complicado, desde o armazenamento, processamento, a análise, e sobretudo, a
transferência e a visualização deles.
OFICIALMENTE, O VOLUME DE DADOS PASSA A SER
BIG DATA QUANDO AS CARACTERÍSTICAS DOS
DADOS IMPEDEM QUE SEJAM USADOS OS MÉTODOS
CONVENCIONAIS PARA GERENCIÁ-LOS, E ANALISÁ-
LOS.
Um exemplo típico é trocar bancos de dados relacionais por NoSQL (não relacionais).
Além disso, alguns autores falam em 5 Vs (vês) do Big Data, que seriam as características
básicas:
Valor.
Variedade.
Volume.
Velocidade.
Veracidade.
ATENÇÃO
É importante mencionar os cuidados que a indústria 4.0 precisa ter quanto à privacidade e a
proteção desses dados.
No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD), normatiza o tratamento que
os dados privados devem receber para preservar os direitos fundamentais das pessoas e
empresas. Ela é válida para todo o território nacional e foi sancionada em agosto de 2018.
Um dos pontos mais importantes da lei é que ela define o que são dados pessoais e
estabelece outros princípios, como o da necessidade do consentimento do cidadão, da
finalidade e da necessidade para coleta do dado, da responsabilidade de fiscalização, e as
penalidades que devem incorrer sobre quem não respeitar a lei.
COMENTÁRIO
O Big Data na quarta revolução industrial começa com a necessidade de gerir, proteger e
extrair valor dessa enorme quantidade de informação, mas também, e sobretudo, fazê-lo de
forma eficiente.
Esse novo cenário tecnológico vem apresentando novos desafios às empresas que
começaram a usar tecnologias e processos da indústria 4.0. Não é raro que grandes
companhias tenham operações em diversos países.
Uma das gigantes de vendas no varejo por internet no mundo opera cerca de dez data centers
(DC) próprios, geograficamente dispersos com milhares de computadores físicos e máquinas
virtuais.
Com a migração para nuvem, os DCs passaram a responder por todo o poder computacional
da empresa e cresceram enormemente. Em cada um deles, milhares de operações em batch
são executadas diariamente, e muitos processos acessam dados de outros DCs. Isso porque
sistemas de gestão empresariais, logística, vendas, CRM e principalmente analytics precisam
cada vez mais cruzar e consolidar dados.
O crescimento desse acesso cruzado vem consumindo cada vez mais banda da rede WAN que
os conecta. Isso tem elevado sobremaneira os custos de operação, não somente da empresa,
mas de muitas outras que operam data centers geograficamente muito distantes.
Para mitigar esse problema, muitas vêm desenvolvendo e aplicando técnicas modernas de
realocação e replicação de dados e processos, de acordo com critérios que visam otimizar o
desempenho e reduzir o uso de banda da rede WAN. Ainda, é preciso que qualquer solução
adotada para esse fim permita a empresa escalar e manter níveis baixos de interdependência
entre processos.
Outro problema típico é a dificuldade de sincronização de dados entre DCs para suportar alta
disponibilidade: HA (High Availability). Um ambiente sistêmico virtual contendo aplicações
empresariais disponíveis para milhares ou milhões de usuários possui de centenas a milhares
de máquinas virtuais, trabalhando de forma coordenada.
Algumas máquinas virtuais são responsáveis pelo payload: sistema que é o motivo da
arquitetura existir.
Outras máquinas virtuais cumprem as mais diversas funções, como: hospedar bases de dados,
logs, backups locais, perfis de configuração, balanceamento de carga etc.
COMENTÁRIO
Obviamente que ambos os ambientes precisam ser sincronizados regularmente porque ambos
os ambientes precisam estar consistentes, mas o volume de dados cada vez maior tem
demandado janelas de operação também cada vez mais longas. As empresas vêm batalhando
para reduzir esse tempo.
Diversas soluções estão sendo usadas, mas a mais promissora delas é a tecnologia Software
Defined Wide Area Network (SDWAN). Ela permite que se estabeleça um path temporário de
alta velocidade para transmissão dos dados, viabilizando, portanto, a sincronização entre
clusters.
ANALYTICS
A moderna análise de dados na indústria 4.0 começou com a enxurrada de dados produzidos
em todos as etapas da operação da empresa, desde a compra de insumos, passando pela
fabricação ou transformação do produto até sua venda e a interação dos clientes com os
portais e canais de atendimento da empresa.
O fato é que a introdução maciça de sensores no chão de fábrica e até mesmo máquinas
autônomas e dispositivos de IoT começou a produzir um gigantesco volume de dados.
Muitas empresas estão usando modelos de Inteligência Artificial ou de Machine Learning para
extrair significado deles, encontrar padrões de comportamento, fazer predições, classificações
e até sugerir produtos e serviços para seus clientes.
EXEMPLO
Empresas que operam frotas de veículos ou grande parque de máquinas estão usando os
dados coletados da maquinaria para antecipar falhas e tornar a manutenção preventiva mais
eficiente, além de prever quando uma máquina vai falhar.
Todavia, a análise de dados não é uma tarefa fácil, tampouco simples. Ela envolve a coleta e a
transformação de grandes quantidades de dados, além do uso de algoritmos e sistemas
avançados. É uma tarefa bastante complexa.
As empresas vêm usando plataformas em nuvem para hospedar e analisar os dados, porque é
muito rápido e barato organizar a infraestrutura.
Existem basicamente quatro tipos de análises de dados que podem ser executadas no
contexto da indústria 4.0, dependendo do tipo e da quantidade de dados disponíveis.
ANÁLISE DESCRITIVA
Ela consolida os dados e informa o que está acontecendo na operação, sempre usando os
dados mais recentes e, muitas vezes, em tempo real. Também é possível usar o histórico de
dados para revelar tendencias e tipificar cenários evolutivos. A visualização dos dados aqui é
extremamente importante.
ANÁLISE PREDITIVA
ANÁLISE PRESCRITIVA
ANÁLISE DIAGNÓSTICA
Concluindo, e a despeito da análise que venha a ser empregada, as empresas já notaram que
analisar os dados significa aumentar a produtividade e a receita, seja pela economia de custos
operacionais, identificação de pontos de ineficiência ou falhas, redução de acidentes,
otimização de processos ou pelo aumento das vendas. De fato, empresas em quase todos os
segmentos da indústria, turismo, logística, saúde etc. estão usando análise de dados para
suportar tomada de decisões estratégicas.
OVERFITTING
Overfitting ocorre quando o modelo se adaptou muito bem aos dados com os quais está
sendo treinado; porém, não generaliza bem para novos dados. Ou seja, o modelo
decorou o conjunto de dados de treino, mas não aprendeu de fato o que diferencia
aqueles dados para quando precisar enfrentar novos testes.
VERIFICANDO O APRENDIZADO
GABARITO
2. Marque a seguir a opção que contém uma alternativa correta sobre tipos de Análises.
CONCLUSÃO
CONSIDERAÇÕES FINAIS
A computação em nuvem é uma realidade consolidada e muitas empresas já moveram seus
ambientes sistêmicos de TI para algumas das plataformas baseadas em nuvens existentes no
mercado. No que tange à tecnologia IoT, devido ao volume de dados transmitidos e a
quantidade de dispositivos conectados, usar as plataformas baseadas em nuvem é
fundamental para reduzir tanto custos de operação quanto a complexidade de gestão da rede.
AVALIAÇÃO DO TEMA:
REFERÊNCIAS
IBM. What is the IBM Cloud platform? IBM, 19 maio 2021.
LIN, S. W.; MURPHY, B.; CLAUER, E.; LOEWEN, U.; NEUBERT, R.; BACHMANN, G.; PAI, M.;
HANKEL, M. Architecture Alignment and Interoperability. An Industrial Internet Consortium
and Plattform Industrie 4.0 Joint Whitepaper. The Industrial Internet Consortium, 5 fev. 2017.
MELL, P.; GRANCE, T. The NIST Definition of Cloud Computing. Recommendations of the
National Institute of Standards and Technology. Gaithersburg: NIST, set. 2011.
WATTS, S.; RAZA, M. SaaS vs PaaS vs IaaS: What’s the Difference & How To Choose. Irvine:
BMC, 15 jun. 2019.
EXPLORE+
Acesse o site das plataformas de computação em nuvem Amazon AWS, IBM Cloud e Google
Cloud e verifique as características dos serviços que são oferecidos por cada um.
CONTEUDISTA
Michel Souza Medeiros
CURRÍCULO LATTES