Você está na página 1de 41

DESCRIÇÃO

Introdução e conceituação às plataformas em nuvem, como IBM Cloud, Google Cloud, Amazon
AWS, além de Big Data e Analytics para indústria 4.0.

PROPÓSITO
Compreender os conceitos básicos de computação em nuvem, as principais plataformas
empregadas, como a IBM Cloud, Google Cloud e Amazon AWS; bem como os conceitos de Big
Data e Analytics no contexto da indústria 4.0, essencial ao profissional que deseja integrar os
diversos tipos de dispositivos para IoT.

PREPARAÇÃO
É necessário um computador com acesso à internet e um navegador para acessar as principais
plataformas de computação em nuvem.
OBJETIVOS

MÓDULO 1

Identificar as principais características das mais relevantes plataformas de computação em


nuvem para IoT

MÓDULO 2

Descrever os conceitos de Big Data e Analytics aplicados no contexto de computação em


nuvem

INTRODUÇÃO
Quando pensamos na indústria 4.0 é fácil associar o emprego da Internet das Coisas (IoT) com
um conjunto de dispositivos, sejam eles sensores, atuadores, ou quaisquer outros que estejam
interligados através da internet.

Entretanto, a quantidade de dispositivos empregados e o volume de informação gerados pode


se tornar um problema complexo, que dificulte a adoção e administração dessa tecnologia.

Com o objetivo de facilitar a integração dos dispositivos, a coleta e o processamento dos


dados, é comum a adoção de plataformas de computação em nuvem, como as de IBM Cloud,
Google Cloud e AWS Cloud.

Essas plataformas possuem soluções que permitem a rápida integração de dispositivos e


ferramentas que fazem a análise dos dados gerados, gerando informação para a empresa para
que ela possa otimizar os seus processos.

Neste material, abordaremos os conceitos relacionados à computação na nuvem, tais como


nuvem pública, privada e híbrida, SaaS, PaaS e IaaS. Mostraremos, também, as justificativas
para a adoção do modelo e apresentaremos três plataformas baseadas em nuvem (cloud), que
figuram entre as principais disponíveis no mercado.

Na segunda parte, falaremos sobre a indústria 4.0, conceituando-a e mostrando sua evolução.
Apresentaremos as tecnologias que são a base da quarta revolução industrial e detalharemos
Big Data e Analytics ao leitor.

MÓDULO 1

 Identificar as principais características das mais relevantes plataformas de


computação em nuvem para IoT

PLATAFORMAS DE NUVEM PARA IOT: IBM


CLOUD, GOOGLE CLOUD, AWS CLOUD

Neste módulo, introduzimos o conceito de computação em nuvem e falamos um pouco sobre


três das principais plataformas em nuvem usadas para IoT.

CONCEITUANDO PLATAFORMAS NA
NUVEM
Antigamente, as empresas precisavam estimar hardware e software a serem comprados para
suportar suas operações diárias ou novos projetos – era frequente que grandes servidores
precisassem ser importados. Parte desse esforço consistia também em projetar a demanda por
cinco anos.

O investimento costumava ser grande, além do risco.

Caso a demanda ficasse abaixo do esperado, as máquinas e os sistemas comprados ficariam


subutilizados.
Havendo demanda acima do previsto, novos hardwares e softwares precisariam ser
adquiridos, reiniciando o ciclo.

Acontece que o processo de compras em uma empresa costuma ser bastante lento. Reuniões,
relatórios, métricas e disponibilidade de orçamento precisam acontecer para que o processo de
aquisição de novos ativos seja iniciado. Isso pode demorar meses, e até anos.

Antigamente, além do risco que a empresa corria em perder dinheiro, comprando demais,
havia o risco de comprar de menos, fazendo com que a solução estimada não funcionasse
adequadamente, o que levaria, também, à perda de dinheiro, pelas receitas perdidas, ou
adicionando ineficiências aos processos da companhia, o que seria muito pior do que o cenário
da subutilização.

Justamente por isso, companhias costumavam exagerar na compra inicial, para criar folga na
infraestrutura a ser adquirida. Mas esse investimento inicial costumava demandar muito
investimento. Era necessário fazer um aporte financeiro inicial elevado na compra de
servidores, placas etc., para suportar o crescimento orgânico da demanda, em média, por cinco
anos. Assim, a infraestrutura adquirida estaria sempre subutilizada no início e sobrecarregada
no final.

Observe que as máquinas eram compradas e trazidas fisicamente ao local do comprador.


Então, elas precisavam ser instaladas e homologadas. O pessoal interno tinha que receber
treinamento e certificação, tanto para hardware (os servidores, placas etc.) quanto para
software (sistemas operacionais, bancos de dados, software de redundância e proteção de
dados, segurança etc.). As ineficiências desse modelo são óbvias.

Com a virtualização e a comoditização do hardware, um novo modelo de negócios surgiu,


baseado na computação em nuvem, que consiste em usar sob demanda recursos de hardware
e de software:

Hardware

Servidores, rede, banda de transmissão, processamento, armazenamento, memória.

Software

Banco de dados, sistemas operacionais, balanceamento de carga, sistemas de analytics,


aprendizado de máquina e gerenciamento.

O modelo inovador permitiu às empresas reduzir o investimento inicial trocando Capex por
Opex. Isso quer dizer que, no modelo de computação em nuvem, os clientes podem adquirir
exatamente os recursos de que precisam e pagar apenas pelo uso dos recursos contratados.
Funciona basicamente como um aluguel dos recursos. Havendo aumento de demanda, o
cliente consegue contratar mais recursos rapidamente, como por exemplo, mais licenças de
banco de dados, mais discos rígidos, mais servidores ou mais memória ou capacidade de
processamento. Se acontecer o contrário, os recursos podem ser liberados imediatamente e
deixam de ser faturados.

 VOCÊ SABIA

Capex, do inglês, Capital Expenditure, ou despesas de capital, são despesas não recorrentes
destinadas à compra, ou à manutenção de ativos, como equipamentos, imóveis, veículos,
terras, patentes etc. Normalmente, os valores investidos como Capex seguem a estratégia de
evolução da empresa e são usados para aumentar ou gerar novas receitas, expandir a
operação ou ganhar novos mercados.

Opex, do inglês, Operating Expenditures, ou despesas de operação, são despesas recorrentes


e ordinárias, necessárias para manter a operação da empresa, tais como: aluguéis e salários.

Todos os recursos disponibilizados são virtuais. Isto é, são máquinas virtuais (VMs):

VMS SÃO SOFTWARES QUE EMULAM


COMPUTADORES E RECURSOS EXATAMENTE COMO
SE FOSSEM REAIS. ELES TÊM MEMÓRIA,
PROCESSADOR, PLACAS DE REDE, SISTEMA
OPERACIONAL, SOFTWARES INSTALADOS, MAS NÃO
EXISTEM NO MUNDO FÍSICO. AS MÁQUINAS VIRTUAIS
USAM RECURSOS FÍSICOS DO SERVIDOR REAL QUE
AS HOSPEDA.

Assim, as VMs usam parte da memória, dos processadores e de outras capacidades


disponibilizadas entre todos os recursos totais do servidor físico real subjacente, mas de forma
transparente para o usuário, que percebe os recursos como se fossem partes independentes.
Os softwares também são instalados nas máquinas virtuais da mesma forma que nas
máquinas reais: instalação e uso de bancos de dados, aplicativos, sistemas operacionais
seguem o mesmo procedimento que em uma máquina física.

 COMENTÁRIO

Uma das grandes vantagens das VMs é permitir o armazenamento do seu estado corrente.
Desse modo, depois que está plenamente configurada e carregada, a VM pode ser
armazenada em disco rígido exatamente como um aplicativo convencional, como backup.

No caso de falha, apaga-se a VM defeituosa e usa-se o backup para reestabelecer o servidor


imediatamente. Esse processo leva alguns minutos. Antigamente, poderia levar horas.

O modelo de negócios baseado em computação na nuvem, portanto, resolve diversos


problemas para as empresas:

Ajuda a suavizar a curva de investimento, eliminando a necessidade de grandes aportes


financeiros para compra de ativos no início do projeto, transformando Capex em Opex.

Reduz custo de operação, transferindo a gestão de TI dos grandes servidores físicos para o
fornecedor dos recursos em nuvem.

Ajusta os recursos computacionais à curva de demanda, permitindo a contratação exata da


capacidade computacional necessária além de permitir o escalonamento da solução
rapidamente: havendo a necessidade de mais memória, processamento, ou licenças, basta
adicioná-los com um clique de botão e custeá-los como despesas operacionais, sem a
necessidade de processos de compra lentos e burocráticos.

Os recursos adquiridos são entregues em tempo real, afinal, não são elementos físicos, mas
virtuais.

De acordo com o National Institute of Standards and Technology (NIST), a computação em


nuvem possui cinco características essenciais:

SELF-SERVICE
É a capacidade que o cliente tem em se servir (self-service), de acordo com suas necessidades
e demandas (on demand). O cliente cria e aloca tantos recursos quanto for preciso,
manualmente, ou pode, por meio de configuração, definir gatilhos para que mais recursos,
como memória, disco rígido ou banda sejam alocados, caso o uso se torne crítico.

FACILIDADE DE ACESSO
Diz respeito à facilidade de acesso, que deve ser provido pela rede e por meio de aplicativos
simples, não apenas para estações de trabalho e computadores mais robustos, mas também
para telefones inteligentes (smartphones) e tablets. O acesso deve ser simples e diversificado.

DIFERENTES USUÁRIOS
A computação em nuvem deve permitir a alocação de recursos para servir diferentes usuários.
Normalmente, eles estão disponíveis em um pool de recursos virtuais e são alocados
dinamicamente pelos clientes, de acordo com a demanda.

ELASTICIDADES
O cliente deve ser capaz de aprovisionar e liberar recursos e capacidades a qualquer
momento, como no caso de haver picos de demanda.

SOLUÇÕES EM NUVEM
Diz respeito à capacidade e à importância de medição das soluções baseadas em nuvem. O
faturamento e a cobrança dos clientes é feita de acordo com o uso. Por isso, a medição do uso
deve ser feita de maneira transparente e precisa, mensurando a utilização dos recursos
praticamente em tempo real.

De acordo com o NIST, a computação em nuvem é um modelo que permite o acesso


onipresente, conveniente e sob demanda à rede compartilhada e ao conjunto de recursos de
computação configuráveis (por exemplo, redes, servidores, armazenamento, aplicativos e
serviços), que pode ser provisionado e liberado rapidamente com o mínimo de esforço de
gerenciamento ou interação do provedor de serviços.

Além disso, três modelos de serviços ofertados e três modelos de implantação também
compõem os modelos de computação em nuvem.

Grandes gigantes de tecnologia perceberam as vantagens desse modelo e criaram suas


próprias plataformas baseadas em nuvem para fornecer recursos virtuais para seus clientes.

Alguns exemplos são:

Amazon

Google

Microsoft
Salesforce

VMware

Cisco

DE MANEIRA GERAL, PODE-SE DIZER QUE


PLATAFORMA NA NUVEM É UM PORTAL EM QUE O
CLIENTE CONTRATA E CONSOME RECURSOS
VIRTUAIS SOB DEMANDA, PARA SUPRIR SUAS
NECESSIDADES DE RECURSOS COMPUTACIONAIS E
SOFTWARE.

A empresa dona do portal fornece ambientes em que o cliente pode configurar e gerenciar
todos os itens contratados de maneira integrada, e recebe faturas mensais de acordo com a
utilização.

Os serviços ofertados, que estudaremos mais à frente, podem ser basicamente de três tipos:

INFRAESTRUTURA COMO SERVIÇO

(Infrastructure as a Service - IaaS)

PLATAFORMA COMO SERVIÇO

(Platform as a Service - PaaS)

SOFTWARE COMO SERVIÇO

(Software as a Service - SaaS)


É importante frisar que uma variedade de tecnologias, tanto de código fechado como de código
aberto são ofertadas pelas plataformas.

MODELOS DE COMPUTAÇÃO EM NUVEM


Os três tipos mais comuns de implementação de modelos na nuvem são:

Nuvem Pública (Public Cloud);

Nuvem Privada (Private Cloud);

Nuvem Híbrida (Hybrid Cloud).

Qualquer empresa que deseje migrar seu ambiente sistêmico para a nuvem deve examinar
cuidadosamente qual das três opções é mais aderente a sua realidade, tanto em termos de
custos quanto de regulação.

NUVEM PÚBLICA (PUBLIC CLOUD)

Na nuvem pública, os serviços estão disponíveis a qualquer cliente através da internet. Para
usá-los, basta se cadastrar no portal da empresa, que oferece os serviços e alugar os recursos
necessários.

 COMENTÁRIO

Alguns serviços são até mesmo gratuitos, mas a maioria pode custar uma assinatura mensal
ou possuir uma tarifação sob demanda, como é o caso da banda de internet, faturada por
utilização.

Nuvens públicas costumam levantar dúvidas sobre segurança. É que os recursos alocados
para um cliente compartilham a mesma infraestrutura física subjacente a outros clientes: vários
“inquilinos” coexistem muito próximos uns dos outros, compartilhando os mesmos recursos
computacionais, sem que, no entanto, saibam disso.

Imagem: Shutterstock.com

As empresas provedoras de nuvem pública, todavia, garantem que se as medidas de


segurança forem implementadas corretamente, esse risco é mínimo.

Os críticos desse modelo dizem que o cliente tem quase ou nenhum controle sobre a
infraestrutura, o que de fato é verdade, já que todo o gerenciamento e manutenção é feito de
forma transparente ao cliente, que é apenas notificado quando tem algum serviço contratado
impactado.

Custo, escalabilidade, confiabilidade, proteção contra desastre são vantagens importantes


desse modelo, que permitem ao cliente operar de modo mais eficiente, exatamente por não
precisar se preocupar com todos esses aspectos. O provedor dos serviços é o responsável por
garantir todos eles, bem como em realizar a manutenção dos recursos físicos, aliviando o
departamento de TI do cliente.

O MODELO DE NUVEM PÚBLICA É O MAIS UTILIZADO.


NUVEM PRIVADA (PRIVATE CLOUD)

No modelo de nuvem privado, os recursos físicos podem estar tanto fisicamente instalados
dentro do cliente, como podem ser acessíveis pela internet. A diferença é que a equipe de TI do
cliente é responsável por configuração, gerenciamento, segurança, disponibilidade, e deve
definir e executar os planos de recuperação e proteção contra desastres e manutenção
preventiva e reativa.

Há, portanto, um incremento nos custos de operação para que o cliente tenha total controle da
rede em nuvem. As vantagens continuam basicamente as mesmas: escalabilidade, flexibilidade
e segurança.

 ATENÇÃO

No quesito segurança, inexistem outros clientes compartilhando os mesmos recursos: toda a


infraestrutura é dedicada a um único cliente.

NUVEM HÍBRIDA (HYBRID CLOUD)

A solução de nuvem híbrida tenta racionalizar os dois modelos anteriores em um modelo misto.
Nele, o cliente pode optar por manter dados sujeitos a forte regulação do governo ou
aplicativos de missão crítica confinados em uma nuvem privada, e usar uma nuvem pública
para outras necessidades da companhia, reduzindo custos de gestão operacional. Existe
também grande mobilidade de dados e sistemas entre uma e outra.

A nuvem híbrida fornece as vantagens da nuvem pública, mas também a segurança, o controle
e a conformidade com leis e regulações, como no caso da privacidade de dados, quando a
empresa é impedida por lei de terceirizar a gestão deles.

 COMENTÁRIO
Quanto ao custo de operação, para o mesmo tamanho de rede, a nuvem híbrida acaba
custando um valor intermediário entre a pública e a privada.

MODELOS DE SERVIÇO
Como já estudamos, além dos modelos de implementação, existem os modelos de serviço, que
podem ser:

INFRAESTRUTURA COMO SERVIÇO


(INFRASTRUCTURE AS A SERVICE – IAAS)
Consiste no aluguel de infraestrutura de TI. Em vez de comprar os ativos, o cliente paga por
servidores, máquinas virtuais, capacidade de processamento, armazenamento, rede, entre
outros, de acordo com o uso.

PLATAFORMA COMO SERVIÇO (PLATFORM AS A


SERVICE – PAAS)
Além dos recursos computacionais, as empresas precisam desenvolver e integrar sistemas sob
medida. As plataformas de computação em nuvem fornecem plataformas que permitem aos
clientes desenvolver, testar e gerenciar os aplicativos, isolando essas tarefas da complexidade
de manejar os recursos computacionais que suportam as aplicações desenvolvidas.

SOFTWARE COMO SERVIÇO (SOFTWARE AS A


SERVICE – SAAS)
Tradicionalmente, software é distribuído sob licenciamento. No modelo SaaS, ele passa a ser
comercializado por meio de aluguel ou assinatura. Cabe ao provedor da plataforma da nuvem
atualizar, instalar patches de segurança e manutenir o sistema. O cliente pode encerrar o uso
do software a qualquer momento.

Atualmente, no mercado, existem diversas empresas que fornecem plataformas de


computação na nuvem. Amazon, Microsoft, Joyent, IBM, Digital Ocean, VMware, Oracle; todas
elas possuem nuvens, que fornecem diferentes serviços e implementam distintos modelos. Nos
próximos tópicos, veremos um pouco sobre IBM Cloud, Google Cloud e Amazon AWS.
GOOGLE CLOUD
Google Cloud é a plataforma pública de computação em nuvem do Google. Ela é acessível
através do Google Cloud Console.

Foto: bangoland/Shutterstock.com

Para isso, é preciso primeiro ter uma conta no Google ou Gmail. O Console permite a criação
de projetos, a visualização e o aprovisionamento de vários recursos e a contratação de
serviços. Ele é a interface principal do usuário. Toda a gestão dos recursos é feita por meio do
Console, que funciona de forma transparente: é possível que os recursos estejam distribuídos
por diferentes data centers, sem que o usuário perceba.

A empresa mantém diversos data centers espalhados pelo mundo em cinco regiões diferentes:
Austrália, América do Norte, América do Sul, Europa e Ásia. Essas regiões são subdivididas em
zonas isoladas. O cliente pode escolher o data center mais próximo para reduzir tempos de
acesso, bem como espelhar seus ambientes em um ou mais data centers geograficamente
distantes, de acordo com o plano de alta disponibilidade e recuperação de catástrofe. Alguns
recursos estão disponíveis globalmente, outros apenas por região ou zona.

O cliente pode contratar diversos serviços, são muitas opções distribuídas em várias
categorias, entre as quais listamos algumas:

Inteligência Artificial e Machine Learning


Análise de Dados

IoT

Mídia e Jogos

Banco de Dados

Rede

Migração de Dados

Saúde e Ciências Biológicas

Ferramentas de Gestão

Contêineres

Cada uma dessas áreas contém diversos serviços relacionados. Por exemplo, na categoria IA
e Machine Learning é possível contratar serviços de reconhecimento de fala e transcrição em
mais de cem idiomas, bem como fazer o reverso, usar algoritmos que transformam texto em
fala.

Alguns dos serviços mais utilizados são: Big Query, Cloud CDN, Compute Engine, Data FLow,
Cloud SQL, Anthos, Cloud Storage, Operações e Google Kubernetes Engine.

Vamos ver alguns detalhes sobre eles.

BIG QUERY

É o serviço para grandes massas de dados: tabelas com bilhões de linhas e que podem ocupar
até petabytes de armazenamento.

Os dados são persistidos no BigTable – o sistema de armazenamento proprietário da empresa


para armazenamento de Big Data –, e permite ao usuário executar queries SQL complexas
muito rapidamente.

 ATENÇÃO
O Big Query não fornece uma base de dados transacional, por isso, é indicado apenas para
Big Data. O Google Cloud encapsula toda a complexidade do hardware subjacente. O usuário
precisa apenas carregar os dados na nuvem, seja em arquivos CSV ou em outros formatos,
que o Big Query já pode ser usado.

É possível, também, aplicar outros serviços como Data Analytics ou de ingestão de dados, este
último no caso de um fluxo contínuo.

O Google Cloud encapsula toda a complexidade do hardware subjacente. O usuário precisa


apenas carregar os dados na nuvem, seja em arquivos CSV ou em outros formatos, que o Big
Query já pode ser usado. É possível, também, aplicar outros serviços como Data Analytics ou
de ingestão de dados, este último no caso de um fluxo contínuo.

BIG QUERY, PORTANTO, É INDICADO PARA


CIENTISTAS DE DADOS QUE PRECISAM DE
AGILIDADE NA ANÁLISE DE GRANDES VOLUMES OU
FLUXOS DE DADOS, E QUE NÃO QUEREM PERDER
TEMPO COM A INFRAESTRUTURA DE HARDWARE E
SOFTWARE NECESSÁRIA PARA ISSO.

CLOUD CDN (CONTENT DELIVERY NETWORK)

O Cloud CDN é um serviço de entrega de conteúdo: aplicativos, vídeo etc. Normalmente, os


pacotes oriundos de um servidor de conteúdo e que precisam ser entregues em diferentes
lugares do mundo viajam longas distâncias, passando por diversas redes públicas, o que
frequentemente causa atrasos e insatisfação.

O Cloud CDN possibilita ao usuário transmitir seu conteúdo pela internet com segurança e
rapidez. Em vez de usar redes públicas e roteamento de pacotes sem prioridade, o cliente
conecta o seu servidor de conteúdo diretamente com os servidores do Google na borda da
rede, em localidades próximas dos seus clientes.
O CDN faz uso da rede global do Google de servidores de borda (Google Global Edge), para
trazer o conteúdo o mais próximo quanto possível do seu destino. Além disso, os pacotes que
trafegam nesses canais diretos têm prioridade alta e são tarifados por volumes, cerca de fração
de dólar por gigabyte. A solução, portanto, acelera a entrega de conteúdo em nível global.

COMPUTE ENGINE

É o serviço de máquinas virtuais (VMs) da plataforma. Elas podem ser predefinidas ou


customizadas.

As primeiras vêm com configurações típicas de memória, cpu etc. O cliente precisa apenas
selecionar a imagem e o local em que ela deve operar e iniciá-la.

Já as máquinas customizadas permitem ao cliente escolher exatamente a configuração que


precisa.

As máquinas do tipo E2 são as de melhor custo-desempenho, porque são de uso geral, mas a
plataforma oferece também algumas VMs otimizadas para atender necessidades específicas,
como, por exemplo, grande carga de processamento (tipo C2), no caso de jogos e algoritmos
pesados, ou sistemas que requeiram muita memória (M1 e M2), como grandes bases dados ou
algoritmos de uso intenso de memória. Neste último caso, por exemplo, uma única máquina
virtual pode conter até 12 TB de memória RAM.

A plataforma ainda permite que dados nas VMs sejam criptografados, por questões de
confidencialidade, e oferece um serviço de recomendação de dimensionamento automático.
Assim, a plataforma sugere redução ou expansão dos recursos, de acordo com o uso.

DATA FLOW

Em muitas aplicações empresariais, é preciso lidar com um enorme fluxo de dados produzidos
em tempo real, muitas vezes, por fontes distintas. Isso acontece com redes de IoT (Internet of
Things). As empresas precisam não somente armazenar os dados entrantes, mas também
processá-los. Acontece que os dados nem sempre vêm no formato esperado.

O serviço de Data Flow do Google cuida de recebê-los e fazer o processamento necessário


para formatá-los ou transformá-los, então persistidos, para que sejam posteriormente lidos e
analisados. Em todo esse processamento intermediário, realizado após a coleta dos dados e
antes da entrega final, eles são organizados em um tipo genérico chamado de PCollection.

O Data Flow permite o encadeamento de transformações em batch (pipeline), modificando os


dados passo a passo, e salvando-os sempre como PCollections, de maneira automática. Esse
pipeline pode ser tanto escrito em Java quanto em Python e é chamado de Data Flow Job. A
plataforma permite que o cliente crie diversos pipelines que reutilizam código e são executados
paralelamente. Ao final da última transformação, os dados são armazenados em um Data Sink
e podem ser, então, analisados ou usados de qualquer outra forma.

 COMENTÁRIO

É possível também contratar serviços de Análise de Dados do Google para realizar a tarefa.

CLOUD SQL

Cloud SQL é o serviço de banco de dados na nuvem oferecido pela plataforma do Google. Ele
é baseado no MySQL, PostgreSQL e SQL Server.

Através do Console, o cliente pode facilmente instanciar qualquer um dos bancos citados, bem
como gerenciar a capacidade de armazenamento, criar réplicas e realizar backups. É possível
automatizar a criação de backup por meio da configuração no Console. O serviço ainda fornece
ferramentas integradas para migração de dados e drivers para conexão. De forma similar às
VMs, o cliente, ao provisionar o banco de dados na nuvem, precisa escolher a região em que
ele será hospedado. Isso permite flexibilidade para que o banco seja posicionado o mais
próximo quanto possível dos usuários, reduzindo tempo de acesso. Ainda é possível escolher a
quantidade de memória e a quantidade de CPUs da máquina que servirá o banco, bem como o
tipo de disco rígido, se convencional ou SSD (SOLID STATE DRIVE).

 COMENTÁRIO
A empresa de consultoria Garter posicionou o Google Cloud como líder de sistemas de bancos
de dados em nuvem, em 2020.

ANTHOS

É muito difícil para uma grande empresa usar apenas um provedor de serviços de nuvem. A
heterogeneidade é comum e aumenta a complexidade de gerenciamento dos recursos virtuais,
bem como riscos associados com permissões de utilização e cotas de uso. Para mitigar esse
problema, o Google oferece o serviço Anthos, que é um sistema de gestão de recursos na
nuvem multiplataforma. Com ele é possível gerenciar a infraestrutura tanto da Google Cloud do
cliente, como nuvens privadas e plataformas de nuvens públicas de outros fabricantes.

O Anthos permite gerenciar clusters Kubernetes, serviços, regras de acesso, alarmes, verificar
informações operacionais e automatizar procedimentos, como o carregamento de aplicações,
independentemente da plataforma onde eles estão ativos. O cliente, então, tem a visão de toda
sua infraestrutura em nuvem completa e consolidada em um único sistema, o Anthos, e pode
usá-lo para otimizar o uso dos seus recursos, manualmente. Entretanto, a plataforma também
faz recomendações automáticas de otimização sobre o uso dos recursos instanciados. Ainda é
possível estabelecer regras e políticas para diferentes regiões distintas, cruzando diferentes
plataformas, basta organizá-los em grupos lógicos chamados de environs.

O APELO DO SERVIÇO É REDUZIR A COMPLEXIDADE


E A QUANTIDADE DE HORAS NECESSÁRIAS PARA
GERENCIAR UM AMBIENTE HETEROGÊNEO,
NECESSITANDO DE MENOS GENTE PARA ISSO.

CLOUD STORAGE

O Cloud Storage é a solução do Google para a gestão de arquivos na nuvem. De fato, o


serviço funciona como um servidor de arquivos hierarquizado.

O cliente pode espelhar a estrutura de projetos da empresa nele.

Cria-se uma organização, que pode representar um departamento ou mesmo toda a empresa.

Os projetos estão subordinados à entidade organização.

Cada projeto é independente e consome seus próprios recursos do Cloud Storage.

Abaixo de cada um deles, estão os buckets, os organizadores lógicos genéricos para os


arquivos.

O cliente carrega os arquivos, sejam fotos, vídeos ou relatórios, e os associa com os devidos
buckets de acordo com lógica organizacional.

Além dos serviços citados, o módulo chamado de IAM (Identify and Access Management) faz
parte do Console. Ele é responsável pelas regras de segurança, autorização e identificação de
acesso para a plataforma. A partir dele, o usuário administrador pode adicionar e criar perfis de
usuários para interagir com recursos específicos: podem ser segmentados por times,
departamentos, áreas da empresa, e cada equipe tem visibilidade apenas dos seus recursos.

Também é possível estabelecer cotas de utilização, para evitar que o orçamento seja
consumido de forma desigual entre os times.

O CONSOLE PODE SER ACESSADO DE DIVERSAS


FORMAS, SENDO O COMPUTADOR PESSOAL A MAIS
USADA.

Entretanto, o Google disponibiliza aplicativos para smartphones que rodam tanto iOS como
Android, e que funcionam como clientes leves para o Google Cloud, permitindo ao cliente
monitorar recursos e usuários da mesma maneira, em um computador de mesa ou notebook.

Outro recurso interessante da plataforma é o marketplace, em que é possível encontrar


fornecedores que customizaram ou desenvolveram soluções diversas, desde aprendizado de
máquina, até migração de dados ou pacotes de aplicativos. A maioria dos produtos listados é
vendida, mas é possível encontrar muitos gratuitos.

Imagem: Shutterstock.com
AWS CLOUD
AWS é a plataforma de nuvem da Amazon. Ele funciona de forma semelhante ao Google
Cloud. É preciso criar uma conta que dará acesso a interface do usuário. Atualmente, a AWS
conta com diversos data centers espalhados pelo mundo, organizados em 25 regiões
geográficas, subdivididas em 80 zonas de disponibilidade. Devido a essa capilaridade, a
empresa promete oferecer a menor latência entre as concorrentes: abaixo de dez
milissegundos.

A partir do Console, é possível instanciar e configurar recursos, bem como contratar serviços.
São mais de 200, que rivalizam com o Google Cloud.

Os serviços são organizados em categorias, como Análise, Computação, Bancos de Dados,


Blockchain, Robótica, Satélite, Game Tech, Armazenamento, Tecnologias Quânticas, Serviços
de Mídia, entre outras.

Alguns dos serviços mais populares são:

AMAZON S3 (AMAZON SIMPLE STORAGE SERVICE)


Ele consiste num serviço de armazenamento de dados para Big Data. O cliente então pode
carregar e recuperar massas de dados muito grande, até 5 terabytes, bem como gerenciar
acessos e permissões. O serviço S3 é para dados que precisam ser acessados
frequentemente.

AWS LAMBDA
O serviço AWS Lambda permite ao cliente carregar funções na nuvem e executá-las de forma
transparente, sem a necessidade de configurar um servidor. Ele é escalável e bastante flexível.
O serviço faz o dimensionamento automático, de acordo com a carga de trabalho.

AMAZON GLACIER
Além do S3, a Amazon oferece um serviço de armazenamento de longo prazo que custa
apenas um dólar por terabyte por mês, porém, cobra pelo tempo de acesso aos dados. Além
disso, o serviço garante uma taxa de durabilidade de 99.99%, porque persiste os dados de
forma redundante, em diversos discos localmente, mas também em diferentes data centers,
implementando proteção contra desastres de forma transparente para o cliente.
 ATENÇÃO

Diferentemente do S3, o Glacier deve ser usado para guardar grandes quantidades de dados
por longos períodos, sem que haja a necessidade de consultá-los frequentemente.

AMAZON EC2
A empresa disponibiliza serviços computacionais através do Amazon EC2. No portal, o cliente
pode instanciar diversos tipos de máquinas virtuais, escolhendo desde o processador
(capacidade de processamento), sistema operacional memória e disco. O serviço é
extremamente seguro, flexível e escalável, permitindo melhorias (upgrades) e rebaixamentos
(downgrades) nas máquinas contratadas. A empresa alega ter cerca de 400 tipos de instâncias
diferentes, suportando inclusive macOS e provê um SLA de 99.99% de disponibilidade.

Além dos diversos serviços, e similarmente ao Google Cloud, a plataforma AWS também
oferece um marketplace, em que diversos fornecedores parceiros oferecem suas soluções aos
clientes da plataforma. As soluções podem ser do tipo SaaS e API. O cliente pode escolher
pagar mensalmente, conforme o uso, ou pagar pela previsão de uso nos próximos anos, até
três anos.

 COMENTÁRIO

Uma vez que o cliente compra o que deseja, a entrega tanto pode ser feita pela Amazon, pelo
marketplace, ou diretamente pelo fornecedor.

IBM CLOUD
IBM Cloud é uma plataforma de computação em nuvem de propriedade da empresa de mesmo
nome, que implementa serviços baseados na nuvem. Ela oferece tanto nuvem pública como
híbrida e suporta gerenciamento multicloud.

Similarmente ao Google Cloud e ao Amazon AWS, ela tem presença global com vários data
centers posicionados em regiões distintas. A IBM Cloud oferece serviços de infraestrutura
(IaaS) e de plataforma (PaaS) para pequenas, médias e grandes empresas. Entre eles,
destacamos servidores virtuais (VMs) e físicos (nuvem híbrida), Containers etc.

Todos os recursos podem ser gerenciados através do IBM Cloud Console, inclusive a
segurança do ambiente, usando-se controles para gerenciamento de acesso e de identidade.

O catálogo de produtos oferecidos pela plataforma é bem menor do que o das duas
anteriormente vistas, mas possui pontos de diferenciação que podem justificar sua escolha,
como, por exemplo, o sistema de inteligência artificial Watson. Além disso, grandes empresas,
por causa do porte, podem barganhar termos melhores junto à IBM, fazendo contratos
customizados. Entretanto, isso não é possível no AWS, nem na Google Cloud.

Os seguintes grupos de serviços estão disponíveis através do Console: Compute, Blockchain,


Databases, Containers, Developer Tools, AI e Machine Learning, Mobile, Integration, Internet of
Things, entre outros. Alguns são muito parecidos com os de suas concorrentes.

COMPUTE

Serviço de recursos computacionais, em que tanto máquinas virtuais como servidores bare
metal podem ser configurados e instanciados.

BLOCKCHAIN

O serviço de Blockchain da IBM Cloud permite ao cliente criar uma rede descentralizada
baseada na tecnologia de mesmo nome. Ela disponibiliza também a tecnologia Hyperledger
Fabric, desenvolvida em consórcio com outras empresas. Essa tecnologia permite incorporar
componentes de Blockchain, como o mecanismo de consenso, a outras aplicações
rapidamente, de forma plug and play.

DATABASES

É o serviço de banco de dados em nuvem da IBM. A plataforma disponibiliza bases de dados


relacionais como MySQL e PostgreSQL, bem como bases não relacionais (NoSQL), como
MongoDB e Apache CouchDB.

CONTAINERS

O serviço de Containers da IBM Cloud é baseado no Kubernetes. Através do Console, o cliente


pode automatizar a criação de clusters Kubernetes, bem como isolar e monitorar aplicações em
Containers.

DEVELOPER TOOLS

A plataforma da IBM disponibiliza diversas ferramentas para que o cliente interaja com as
aplicações e as faça evoluir. Uma delas é o IBM Cloud CLI (Command Line Interface), que
permite a criação de scripts automáticos capazes de realizar diversas tarefas, como a
instanciação automática de recursos na nuvem.

AI E MACHINE LEARNING

Uma das aplicações mais conhecidas de IA da IBM é o serviço IBM Watson Machine Learning.
O cliente pode carregar modelos de aprendizado de máquina e inteligência artificial para operar
sobre os dados carregados na nuvem.

MOBILE

O serviço Mobile permite que o cliente desenvolva e gerencie aplicativos para plataformas
móveis. Para isso, a plataforma oferece diversas SDKs completamente integradas ao ambiente
na nuvem. O Mobile Developer Console é a interface que ajuda o cliente a desenvolver e
instanciar seus aplicativos para plataformas móveis.
INTEGRATION

Hoje em dia, mais do que nunca, as empresas empreendem esforços para conectar sistemas.
Integração de sistemas, portanto, tem um papel bastante relevante na modernização de
ambientes sistêmicos. A IBM Cloud oferece diversos serviços de integração para seus clientes.
O IBM Cloud Park é um deles. A empresa alega que usando o sistema, a velocidade do
desenvolvimento pode aumentar em até 300%.

INTERNET OF THINGS

O serviço de IoT da IBM permite ao cliente conectar milhares ou até mesmo milhões de
dispositivos de forma prática e rápida. Além disso, através do Console, o usuário pode
gerenciá-los, e através das APIs conectar com dispositivos para fazer atualizações ou
configurações em lote.

AS PLATAFORMAS DE COMPUTAÇÃO EM
NUVEM PARA IOT

Assista ao vídeo e aprofunde o seu conhecimento sobre as três plataformas de computação


em nuvem para IoT.
VERIFICANDO O APRENDIZADO

1. ASSINALE A ALTERNATIVA QUE MELHOR DESCREVE UMA NUVEM


PÚBLICA:

A) Os serviços estão disponíveis a qualquer cliente através da internet e usa recursos


compartilhados entre os inquilinos, porém, de forma transparente.

B) Os serviços não estão disponíveis a qualquer cliente através da internet e usa recursos
compartilhados entre os inquilinos, porém, de forma transparente.

C) Os serviços estão disponíveis a qualquer cliente através da internet e usa recursos físicos
dedicados entre os inquilinos, porém, de forma transparente.

D) Os serviços estão disponíveis a qualquer cliente através da internet e usa recursos


compartilhados entre os inquilinos, em que todos têm conhecimento da divisão destes.

E) Os serviços estão disponíveis através de uma rede privada, desconectada da internet e usa
recursos compartilhados entre os inquilinos, porém, de forma transparente.

2. QUAL DOS SERVIÇOS A SEGUIR É ESPECÍFICO DA IBM CLOUD?

A) Big Query.

B) Compute Engine.
C) Anthos.

D) Watson.

E) Lambda.

GABARITO

1. Assinale a alternativa que melhor descreve uma nuvem pública:

A alternativa "A " está correta.

Na nuvem pública, os serviços estão disponíveis para o público em geral através da internet.
Além disso, os recursos físicos subjacentes são compartilhados entre os inquilinos (tenants)
sem que estes tenham visibilidade sobre isto.

2. Qual dos serviços a seguir é específico da IBM Cloud?

A alternativa "D " está correta.

O serviço Watson faz parte da categoria AI/Machine Learning da IBM Cloud. Ele é específico
para essa plataforma. Os outros serviços listados não são parte da IBM Cloud.

MÓDULO 2

 Descrever os conceitos de Big Data e Analytics aplicados no contexto de


computação em nuvem

O QUE É INDÚSTRIA 4.0


A quarta revolução industrial ou, como é mais popularmente chamada, a indústria 4.0 é o
resultado da evolução e dos melhoramentos dos processos de manufatura nas três gerações
anteriores (a primeira revolução ocorreu após o advento de ferrovias e máquinas a vapor);
agora, a indústria 4.0 vem sendo enriquecida com a convergência das tecnologias de
aprendizado de máquina (Machine Learning), Inteligência Artificial, Analytics, internet das
coisas (IoT) e virtualização (Cloud).

Imagem: Shutterstock.com

 COMENTÁRIO

Isso só é possível porque na etapa anterior, iniciada na década de 1960, empresas e


processos fabris adotaram a tecnologia de informação e posteriormente transformaram-se
digitalmente (revolução digital): foram automatizados (robotizados), interconectados,
conectados à internet e passaram a produzir dados digitais. Muitos autores afirmam também
que está havendo uma conexão entre o mundo físico e o biológico.

ASSIM COMO SUAS ANTECESSORAS, O OBJETIVO DA


INDÚSTRIA 4.0 TAMBÉM É TORNAR OS PROCESSOS
DE FABRICAÇÃO MAIS EFICIENTES E PRODUTIVOS,
AGILIZANDO-OS, REDUZINDO CUSTOS E
INEFICIÊNCIAS.

Entretanto, a novidade é que a quarta revolução industrial quer tornar os processos fabris
inteligentes e até certa medida, autônomos, descentralizados e virtualizados. Além disso, há
diversas externalidades positivas.
A revolução vigente é bastante diferente de suas predecessoras em outros aspectos. Tome-se,
por exemplo, o perfil médio do trabalhador de chão de fábrica. Ele está mudando. Via de regra,
a atividade fabril é intensa em mão de obra e esse trabalhador é remunerado minimamente.
Há, inclusive, o uso de mão de obra infantil em países subdesenvolvidos. Entretanto,
automação, analytics, uso intensivo de sistemas em nuvem, sensores dos mais diversos e
aplicação de IA estão reduzindo a necessidade desses trabalhadores menos capacitados e
demandando profissionais mais qualificados: engenheiros de sistemas, programadores e
cientistas de dados, que são mais bem remunerados.

Foto: Shutterstock.com

O contraste existe também quanto ao impacto no meio ambiente. Equipamentos, sensores e


materiais que consomem cada vez menos eletricidade estão ajudando a viabilizar o uso de
energia renováveis, reduzindo o uso de combustíveis fósseis e, consequentemente, poluindo e
degradando menos o ambiente.

A MUDANÇA DE PARADIGMA CONSISTE, PORTANTO,


EM TORNAR AS FÁBRICAS INTELIGENTES.

Para isso, é preciso mudar os processos vigentes. Note que a transformação digital produziu e
tornou disponível dados de toda a cadeia de produção incluindo logística.

Engenheiros e analistas cuidavam de armazenar os dados em bancos ou arquivos, formatá-los,


para depois analisá-los aplicando técnicas e ferramentas de BI (Business Intelligence) para
extrair significado.

Agora, nas fábricas inteligentes, os dados são processados em tempo real.

A sociedade já começa a perceber os resultados da quarta onda da revolução industrial. Os


veículos autônomos são os exemplos mais emblemáticos. Carros conscientes do seu entorno e
capazes de navegar de forma autônoma em vias públicas já estão nas ruas. Alguns modelos
do fabricante de automotores Tesla já são comercializados com computadores de bordo, que
permitem ao motorista largar o volante e apenas desfrutar o passeio.

Veículos aéreos autônomos vêm sendo largamente usados, seja na agricultura para
monitoramento de plantações ou de gado, seja na indústria de defesa: diversos países
empregam drones munidos de câmeras especiais, sensores infravermelhos e toda uma
parafernália que os torna capazes de coletar informações estratégicas do campo de batalha e
realizar monitoramento de tropas e pessoal.

Atualmente, os Estados Unidos vivem uma escassez de motoristas de caminhão. Em resposta,


diversas empresas já estão trabalhando para viabilizar caminhões ou comboios de caminhões
autônomos para transporte de carga interestadual. Até o momento, legislação, regulamentação
e outros aspectos legais e jurídicos têm limitado a difusão de veículos autônomos mais do que
a tecnologia existente.

Para ilustrar bem essa junção de produtos existentes com as novas tecnologias 4.0, voltemos
aos carros autônomos. Cada veículo consiste em um enorme conjunto de sensores inteligentes
e modernos capazes de fornecer um volume sem precedentes de dados, por segundo.

Imagine um carro que se move numa pista de alta velocidade.

Parte do processamento dos dados coletados do ambiente é feito pelo computador do


automóvel, mas muito da computação precisa ser realizada em computadores remotos. Os
dados são, então, enviados pela internet para servidores na borda da rede de
telecomunicações que estejam o mais próximo quanto possível do automóvel. Neles, diversas
funções virtuais hospedadas em máquinas também virtuais são alocadas para processar o
fluxo de dados entrante e retornar para o veículo.
Imagem: Shutterstock.com

É tudo muito dinâmico, porque o carro está em movimento, trocando de antenas o tempo todo,
e pode, inclusive, acessar diferentes servidores. A rede de telecomunicações, portanto, precisa
proporcionar altas velocidades de transmissão e ter baixa latência para permitir que essa troca
de informações seja quase em tempo real.

Por isso, a rede 5G é tão esperada, pois ela viabilizará diversos produtos da indústria 4.0.

É verdade que ver carros movendo-se sem intervenção humana impressiona, mas eles são
uma fração da mudança que está começando. A quarta revolução industrial afetará de forma
disruptiva diversas indústrias, não apenas a automotiva, mas a de transporte, de aço, a naval,
têxtil, de segurança, defesa, mineração e a agricultura. Todas elas apostam em mudanças
radicais no modo de operar seus processos industriais.

BIG DATA
Big Data é um dos pilares da indústria 4.0. Conceitualmente, consiste em enormes quantidades
de todo tipo de dado, estruturados ou não.

É um volume tão grande, que pode superar dezenas de exabytes e requer técnicas especiais
de gerenciamento, não apenas pelo seu tamanho, mas também pela complexidade. Tudo fica
mais complicado, desde o armazenamento, processamento, a análise, e sobretudo, a
transferência e a visualização deles.
OFICIALMENTE, O VOLUME DE DADOS PASSA A SER
BIG DATA QUANDO AS CARACTERÍSTICAS DOS
DADOS IMPEDEM QUE SEJAM USADOS OS MÉTODOS
CONVENCIONAIS PARA GERENCIÁ-LOS, E ANALISÁ-
LOS.

Um exemplo típico é trocar bancos de dados relacionais por NoSQL (não relacionais).

Além disso, alguns autores falam em 5 Vs (vês) do Big Data, que seriam as características
básicas:

Valor.
Variedade.
Volume.
Velocidade.
Veracidade.

 ATENÇÃO

É importante mencionar os cuidados que a indústria 4.0 precisa ter quanto à privacidade e a
proteção desses dados.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD), normatiza o tratamento que
os dados privados devem receber para preservar os direitos fundamentais das pessoas e
empresas. Ela é válida para todo o território nacional e foi sancionada em agosto de 2018.

Um dos pontos mais importantes da lei é que ela define o que são dados pessoais e
estabelece outros princípios, como o da necessidade do consentimento do cidadão, da
finalidade e da necessidade para coleta do dado, da responsabilidade de fiscalização, e as
penalidades que devem incorrer sobre quem não respeitar a lei.

 COMENTÁRIO
O Big Data na quarta revolução industrial começa com a necessidade de gerir, proteger e
extrair valor dessa enorme quantidade de informação, mas também, e sobretudo, fazê-lo de
forma eficiente.

As empresas que se transformaram digitalmente em anos recentes e mesmo as que nasceram


digitais, precisaram contratar pessoal, desenvolver políticas, práticas e processos para
gerenciar a grande quantidade de informação produzida diariamente e que está
geograficamente dispersa.

Os dados são oriundos das mais diversas fontes:

Dados de telemetria enviados por sensores e equipamentos sofisticados aplicados diretamente


ou que suportam indiretamente a linha de produção e que são consolidados em sistema de
controle industriais em larga escala (SCADA, DCS, PLC).

Fluxos de dados provenientes dos sensores de milhares de dispositivos de IoT.

Registros das interações de usuários com os portais ou canais de atendimento da empresa,


perfis sociais, ordens de compra, devoluções, controle de estoque, logística, comentários em
redes sociais, transações, avaliações de produtos, dados históricos e mineração de dados
brutos da internet.

Esse novo cenário tecnológico vem apresentando novos desafios às empresas que
começaram a usar tecnologias e processos da indústria 4.0. Não é raro que grandes
companhias tenham operações em diversos países.

Uma das gigantes de vendas no varejo por internet no mundo opera cerca de dez data centers
(DC) próprios, geograficamente dispersos com milhares de computadores físicos e máquinas
virtuais.

Com a migração para nuvem, os DCs passaram a responder por todo o poder computacional
da empresa e cresceram enormemente. Em cada um deles, milhares de operações em batch
são executadas diariamente, e muitos processos acessam dados de outros DCs. Isso porque
sistemas de gestão empresariais, logística, vendas, CRM e principalmente analytics precisam
cada vez mais cruzar e consolidar dados.

O crescimento desse acesso cruzado vem consumindo cada vez mais banda da rede WAN que
os conecta. Isso tem elevado sobremaneira os custos de operação, não somente da empresa,
mas de muitas outras que operam data centers geograficamente muito distantes.

Para mitigar esse problema, muitas vêm desenvolvendo e aplicando técnicas modernas de
realocação e replicação de dados e processos, de acordo com critérios que visam otimizar o
desempenho e reduzir o uso de banda da rede WAN. Ainda, é preciso que qualquer solução
adotada para esse fim permita a empresa escalar e manter níveis baixos de interdependência
entre processos.

Outro problema típico é a dificuldade de sincronização de dados entre DCs para suportar alta
disponibilidade: HA (High Availability). Um ambiente sistêmico virtual contendo aplicações
empresariais disponíveis para milhares ou milhões de usuários possui de centenas a milhares
de máquinas virtuais, trabalhando de forma coordenada.

Algumas máquinas virtuais são responsáveis pelo payload: sistema que é o motivo da
arquitetura existir.

Outras máquinas virtuais cumprem as mais diversas funções, como: hospedar bases de dados,
logs, backups locais, perfis de configuração, balanceamento de carga etc.

O ambiente é clusterizado e replicado em pelo menos outro DC geograficamente distante, para


servir de salvaguarda para uma situação de catástrofe. Tem-se, então, o cluster principal e o de
stand by. Em caso de uma falha grave do cluster principal, é preciso reverter toda operação de
forma transparente ao usuário final para o ambiente de modo de espera. Isso implica a
sincronização de centenas de bases de dados e a transmissão de centenas de terabytes de
informação, não apenas das transações vigentes, mas as configurações das máquinas virtuais
e os estados em que elas se encontram.

 COMENTÁRIO

Obviamente que ambos os ambientes precisam ser sincronizados regularmente porque ambos
os ambientes precisam estar consistentes, mas o volume de dados cada vez maior tem
demandado janelas de operação também cada vez mais longas. As empresas vêm batalhando
para reduzir esse tempo.

Diversas soluções estão sendo usadas, mas a mais promissora delas é a tecnologia Software
Defined Wide Area Network (SDWAN). Ela permite que se estabeleça um path temporário de
alta velocidade para transmissão dos dados, viabilizando, portanto, a sincronização entre
clusters.
ANALYTICS
A moderna análise de dados na indústria 4.0 começou com a enxurrada de dados produzidos
em todos as etapas da operação da empresa, desde a compra de insumos, passando pela
fabricação ou transformação do produto até sua venda e a interação dos clientes com os
portais e canais de atendimento da empresa.

O fato é que a introdução maciça de sensores no chão de fábrica e até mesmo máquinas
autônomas e dispositivos de IoT começou a produzir um gigantesco volume de dados.

Acontece que os dados brutos precisam ser tratados, transformados, categorizados e


persistidos em uma base de Big Data para eliminar qualquer tipo de inconsistência ou ruído
antes de serem analisados, muitas vezes em tempo real. Entretanto, devido ao volume, essa
tarefa é impossível de ser feita manualmente.

A ANÁLISE DE DADOS VEM DESEMPENHANDO UM


PAPEL IMPORTANTE NA INDÚSTRIA 4.0, POIS
POSSIBILITA QUE AS EMPRESAS SEJAM MAIS
EFICIENTES AO SUBMETER OS DADOS ANALISADOS
A DIVERSOS TIPOS DE ALGORITMOS.

Muitas empresas estão usando modelos de Inteligência Artificial ou de Machine Learning para
extrair significado deles, encontrar padrões de comportamento, fazer predições, classificações
e até sugerir produtos e serviços para seus clientes.

 EXEMPLO

Empresas que operam frotas de veículos ou grande parque de máquinas estão usando os
dados coletados da maquinaria para antecipar falhas e tornar a manutenção preventiva mais
eficiente, além de prever quando uma máquina vai falhar.
Todavia, a análise de dados não é uma tarefa fácil, tampouco simples. Ela envolve a coleta e a
transformação de grandes quantidades de dados, além do uso de algoritmos e sistemas
avançados. É uma tarefa bastante complexa.

As empresas vêm usando plataformas em nuvem para hospedar e analisar os dados, porque é
muito rápido e barato organizar a infraestrutura.

Além disso, não são necessários grandes investimentos iniciais.

Existem basicamente quatro tipos de análises de dados que podem ser executadas no
contexto da indústria 4.0, dependendo do tipo e da quantidade de dados disponíveis.

ANÁLISE DESCRITIVA

Ela consolida os dados e informa o que está acontecendo na operação, sempre usando os
dados mais recentes e, muitas vezes, em tempo real. Também é possível usar o histórico de
dados para revelar tendencias e tipificar cenários evolutivos. A visualização dos dados aqui é
extremamente importante.

ANÁLISE PREDITIVA

A análise preditiva requer que os especialistas da empresa treinem modelos matemáticos


capazes de simular comportamentos futuros baseados no histórico de dados. Aqui,
frequentemente, a figura de um cientista de dados é necessária para os casos mais complexos,
visto a dificuldade do tema. O modelo matemático, quando bem treinado e isento de
overfitting, pode revelar padrões e comportamentos extremamente relevantes sobre o futuro
da operação da companhia.

ANÁLISE PRESCRITIVA

Muitas empresas implementaram assistência automática para prescrição de melhores práticas


ou ajustes para tornar a operação mais eficientes. Novamente aqui, modelos matemáticos são
treinados para que o sistema que opera sobre os dados consiga identificar as ineficiências da
empresa e fazer recomendações de ajustes operacionais.

ANÁLISE DIAGNÓSTICA

A análise diagnóstica é empregada para identificar a causa de problemas e falhas. Comumente


chamada de diagnóstico de causa-raiz (root cause), é um dos tipos mais complexos, porque
requer que o problema seja completamente esmiuçado. Um cenário típico é o de cientistas de
dados analisando séries temporais sobre a operação da empresa.

Concluindo, e a despeito da análise que venha a ser empregada, as empresas já notaram que
analisar os dados significa aumentar a produtividade e a receita, seja pela economia de custos
operacionais, identificação de pontos de ineficiência ou falhas, redução de acidentes,
otimização de processos ou pelo aumento das vendas. De fato, empresas em quase todos os
segmentos da indústria, turismo, logística, saúde etc. estão usando análise de dados para
suportar tomada de decisões estratégicas.

OVERFITTING

Overfitting ocorre quando o modelo se adaptou muito bem aos dados com os quais está
sendo treinado; porém, não generaliza bem para novos dados. Ou seja, o modelo
decorou o conjunto de dados de treino, mas não aprendeu de fato o que diferencia
aqueles dados para quando precisar enfrentar novos testes.

BIG DATA E ANALYTICS NA INDÚSTRIA 4.0


Não deixe de assistir sobre o papel do Big Data e Analytics na indústria 4.0.

VERIFICANDO O APRENDIZADO

1. MARQUE A ALTERNATIVA QUE CONTÉM TECNOLOGIAS


FUNDAMENTAIS E QUE FAZEM PARTE DA INDÚSTRIA 4.0:

A) Automação, IoT e internet 4G.

B) Internet das Coisas e processos robotizados.

C) Inteligência Artificial, IoT e Transformação Digital.

D) Machine Learning, IoT e virtualização.

E) Transformação Digital e Machine Learning.

2. MARQUE A SEGUIR A OPÇÃO QUE CONTÉM UMA ALTERNATIVA


CORRETA SOBRE TIPOS DE ANÁLISES.

A) Análise prescritiva e cognitiva.

B) Análise diagnóstica e cumulativa.

C) Análise diagnóstica e sensitiva.

D) Análise diagnóstica e preditiva.


E) Análise preemptiva e descritiva.

GABARITO

1. Marque a alternativa que contém tecnologias fundamentais e que fazem parte da


indústria 4.0:

A alternativa "D " está correta.

A quarta revolução industrial é baseada nas tecnologias de aprendizado de máquina (Machine


Learning), Inteligência Artificial, Analytics, internet das coisas (IoT) e virtualização (Cloud).

2. Marque a seguir a opção que contém uma alternativa correta sobre tipos de Análises.

A alternativa "D " está correta.

Os tipos de análises de dados são apenas: descritiva, diagnóstica, preditiva e prescritiva.

CONCLUSÃO

CONSIDERAÇÕES FINAIS
A computação em nuvem é uma realidade consolidada e muitas empresas já moveram seus
ambientes sistêmicos de TI para algumas das plataformas baseadas em nuvens existentes no
mercado. No que tange à tecnologia IoT, devido ao volume de dados transmitidos e a
quantidade de dispositivos conectados, usar as plataformas baseadas em nuvem é
fundamental para reduzir tanto custos de operação quanto a complexidade de gestão da rede.

No primeiro módulo, apresentamos os conceitos básicos de computação na nuvem, bem como


as vantagens que justificam sua adoção. Falamos também de três plataformas bastante
utilizadas no mercado, identificamos os principais serviços disponíveis e explicamos como usar
a documentação disponibilizada pelo fabricante para entender melhor o seu funcionamento.
Finalmente, no último módulo, analisamos o conceito de indústria 4.0, bem como as principais
tecnologias que o suportam. Compreendemos o conceito de Big Data e como a análise de
dados (analytics) está presente nas empresas 4.0 e seus principais tipos.

AVALIAÇÃO DO TEMA:

REFERÊNCIAS
IBM. What is the IBM Cloud platform? IBM, 19 maio 2021.

LIN, S. W.; MURPHY, B.; CLAUER, E.; LOEWEN, U.; NEUBERT, R.; BACHMANN, G.; PAI, M.;
HANKEL, M. Architecture Alignment and Interoperability. An Industrial Internet Consortium
and Plattform Industrie 4.0 Joint Whitepaper. The Industrial Internet Consortium, 5 fev. 2017.

MELL, P.; GRANCE, T. The NIST Definition of Cloud Computing. Recommendations of the
National Institute of Standards and Technology. Gaithersburg: NIST, set. 2011.

WATTS, S.; RAZA, M. SaaS vs PaaS vs IaaS: What’s the Difference & How To Choose. Irvine:
BMC, 15 jun. 2019.

EXPLORE+
Acesse o site das plataformas de computação em nuvem Amazon AWS, IBM Cloud e Google
Cloud e verifique as características dos serviços que são oferecidos por cada um.
CONTEUDISTA
Michel Souza Medeiros

 CURRÍCULO LATTES

Você também pode gostar