Você está na página 1de 30

UNIVERSIDADE DO VALE DO RIO DOS SINOS - UNISINOS

UNIDADE ACADÊMICA DE GRADUAÇÃO


CURSO DE SISTEMAS DE INFORMAÇÃO

LUCIANO SCHITZ VALLE

PREDIÇÃO DE FALHAS NA INDÚSTRIA DE AÇOS ESPECIAIS:


O estudo da viabilidade de implantação de um sistema para predição de falhas
na indústria de aços especiais

Porto Alegre
2022
LUCIANO SCHITZ VALLE

PREDIÇÃO DE FALHAS NA INDÚSTRIA DE AÇOS ESPECIAIS:


O estudo da viabilidade de implantação de um sistema para predição de falhas
na indústria de aços especiais

Artigo apresentado como requisito parcial


para obtenção do título de Bacharel em
Sistemas de informação, pelo Curso de
Sistemas de informação da Universidade
do Vale do Rio dos Sinos - UNISINOS

Orientador: Prof. Rafael Kunst

Porto Alegre
2022
1

PREDIÇÃO DE FALHAS NA INDÚSTRIA DE AÇOS ESPECIAIS: O estudo da


viabilidade de implantação de um sistema para predição de falhas na indústria
de aços especiais

FAILURE PREDICTING ON SPECIAL STEEL INDUSTRY: The feasibility study of


implementing a system for predicting failures in the special steel industry

Luciano Schitz Valle


Prof. Rafael Kunst

Resumo: A ideia de acompanhar a quarta revolução industrial passa por


agregar inteligência ás máquinas, sejam elas modernas ou antigas, desde que
tenham a capacidade de integrar-se à automação e ás redes de dados, trocando
informações e ganhando através destas, cada vez mais autonomia. A condição de
produção destas máquinas pode e deve ser aperfeiçoada à medida que os
processos se tornam mais complexos, competitivos e exigem mais autonomia
principalmente nas tarefas rotineiras e de alta complexidade. Quando se refere às
máquinas e processos produtivos, o desafio é conectar o universo digital com o
físico, respeitando também as questões envolvidas com a qualidade do produto e
eventuais imprevistos e obstáculos que possam aparecer. Esta pesquisa tem por
objetivo levantar informações e testar a implantação de conceitos como coleta de
dados, treinamento de modelos de aprendizado de máquina e análise de dados nos
processos de produção de aços especiais, atuando de forma alinhada com as
práticas que contextualizam a Indústria 4.0. Ao final da pesquisa, se obteve os
resultados esperados ao verificar o sistema realizando predições acertadas e
verificadas através das métricas de teste de algoritmo e também do uso prático em
situações reais no chão de fábrica.

Palavras-chave: Machine Learning. Análise de dados. Siderurgia. Indústria 4.0

1 INTRODUÇÃO

A relação entre o ser humano e a máquina é marcada por uma constante


evolução, em especial nos últimos anos quando a inteligência se tornou atributo
também de máquinas e equipamentos

* Aluno graduando em Sistemas de Informação pela Unisinos. luciano.schitz@gmail.com


** Professor orientador do programa de graduação em computação aplicada na Unisinos.
rafaelkunst@unisinos.br
2

. Agregar inteligência ás máquinas artificiais, é também construir a indústria


moderna, que se torna a cada dia mais limpa, prudente e eficiente, reduzindo assim
o uso de força física humana e cada vez mais entregando gradativamente o trabalho
pesado e repetitivo ás máquinas, o que aumenta a capacidade e reduz o custo de
produção (ALMEIRA, 2019). O que se faz hoje não é transferir a inteligência para a
máquina, e sim usar a nossa inteligência na construção de máquinas inteligentes.
Segundo a NBR 5462, (ABNT, 1994) a falha ocorre quando um equipamento
não desempenha corretamente as funções para a qual foi desenvolvido, enquanto o
defeito é uma irregularidade no funcionamento de um dos equipamentos, podendo
este levar até a falha. A falha pode ter várias origens. Entender a origem da falha
nos leva a entender também como evita-la.
Prever falhas em equipamentos ou componentes, pode levar ao aumento de
eficiência e performance ao reduzir interrupções não planejadas, ao mesmo tempo
em que representa um desafio aos profissionais que precisam lidar com grande
quantidade de sensores e conectá-los a grandes sistemas de armazenamento de
informações de modo a criar um ambiente passível de pesquisas e geração de
inteligência (YAN, 2017).
Falhas representam um prejuízo grande na indústria siderúrgica. O trabalho
envolvendo material em alta temperatura faz com que o tempo perdido seja a
diferença entre entregar ou não o produto na especificação correta e dentro do
prazo. Uma tonelada de aço não produzido em um lote, é uma tonelada que só
poderá ser produzida em um próximo ciclo de produção, o que pode não ocorrer nos
próximos dias ou até meses. Em caso de necessidade de retrabalho, é possível que
seja necessário alterar todo o planejamento para retomar a produção daquela
especificação de aço, afim de realizar a entrega ao cliente.
A formação de uma indústria mais eficiente e lucrativa passa invariavelmente
pela redução de custos, e dentro da enorme gama de ações que podem promover
esta redução, temos as interrupções operacionais. No contexto onde esta pesquisa
será aplicada, verificamos no primeiro semestre de 2021 um índice de interrupções
operacionais (entre questões de processo, e manutenção) em torno de 13%. Isto
pode representar até 4 dias por mês em interrupções não planejadas, originadas por
falha humana ou de equipamentos, o que abre uma grande oportunidade e espaço
para desenvolver melhorias.
3

O objetivo deste trabalho é verificar a viabilidade de implantação de um


sistema que faça predição de falhas durante o andamento do processo de produção
de aços especiais, de modo que seja possível bloquear a falha o mais cedo possível,
evitando as suas consequências. Alguns dos pontos onde podem ser aplicados
recursos de inteligência artificial para obter ganhos são monitoramento de barras
perdidas nas gaiolas de desbaste, monitoramento de coerência de sensores, erro de
calibração de gaiolas, monitoramento de fluxo e linha de tempo em processos
automatizados (objeto de experimento neste trabalho).

2 FUNDAMENTAÇÃO TEÓRICA

2.1 Modernização da indústria

Os ciclos históricos de desenvolvimento trazem heranças que perduram por


anos, cirando conceitos que podem ser usados por várias gerações. A chamada
primeira revolução industrial ocorreu entre 1760 e 1840, marcada pela chegada das
máquinas a vapor criada por James Watt em 1765 (ALMEIRA, 2019) e pela
construção de ferrovias, tornando realidade o uso de máquinas construídas pelo
homem ao invés do uso de força humana ou de animais domesticados. Esta
transformação trouxe uma maior força e consequentemente uma capacidade de
transformação de bens superior à força exclusivamente muscular disponível até
então. A segunda revolução industrial foi marcada no final do século XIX pela
produção em massa, trazendo a ampliação da capacidade produtiva apoiada pela
energia elétrica (SCHWAB, 2016) e produção em linha implantada por Henry Ford
(ALMEIRA, 2019). Já a terceira revolução (1960-2015) marca a entrada de
semicondutores e computadores como ferramenta de apoio e automatização de
máquinas e processos o que inicialmente ocorria em ilhas ainda com pouca ou
nenhuma integração e fortemente apoiada e coordenada pelo ser humano
(SCHWAB, 2016).
As três primeiras revoluções vieram no sentido de aumentar cada vez mais a
capacidade produtiva, usando os recursos disponíveis em cada época de seu
acontecimento. Inicialmente aumentando a força do maquinário, mais tarde
ampliando os ferramentais e métodos produtivos, e finalmente aumentando a
automação. A possibilidade de produzir mais com cada vez menos mão de obra
4

humana traz redução de custo, retira o ser humano de tarefas repetitivas e


potencialmente perigosas ou degradantes. Quando nos primórdios da indústria, era
comum a sobrecarga de trabalho, tanto em horas trabalhadas quanto á força física
em si, além da falta de condições e direitos trabalhistas (ALMEIRA, 2019).

2.2 Indústria 4.0

O conceito Indústria 4.0 ou quarta revolução industrial proposta inicialmente


na feira de Hannover na Alemanha fala na capacidade de conexão e troca de
informações entre as máquinas com ferramentas de inteligência para proporcionar
maior automação e eficiência nos processos produtivos (ALMEIRA, 2019).

Figura 1 - Representação das quatro revoluções industriais

Fonte: ENGPROCESS (2018) - Adaptação

Segundo ALMEIRA (2019), a virtualização é uma tendência que acompanha


os processos produtivos. Acompanhada de estruturas baseadas em sistemas ciber-
físicos, a virtualização permite modelagem real e dinâmica antes do lançamento de
produtos, e o monitoramento online aumenta a confiabilidade da máquina, a um
custo baixo se comparado com a relação custo benefício de inspeção humana.
A análise e mineração de dados, big data, internet das coisas e computação
em nuvem são importantes aspectos no desenvolvimento da Indústria 4.0. Estes
recursos possibilitam que grandes volumes de dados possam ser processados por
recursos tecnológicos de ponta do campo da inteligência artificial. Estes recursos
garantem grande redução de custo, tempo e eficiência na produção em geral
(ALMEIRA, 2019). A robótica é um recurso já presente desde antes da revolução
5

4.0, porém segue em evolução e desta vez apoiada por sistemas cada vez mais
inteligentes que passam a ter uma fatia cada vez maior de comando, autonomia e
até mesmo tomada de decisões sobre os processos produtivos.

2.3 Manutenção

Com papel fundamental em qualquer planta ou sistema produtivo, a


manutenção deve ser realizada afim de manter ou retomar a operação de um item
de modo que este possa desempenhar suas funções plenamente (GREGÓRIO,
2018). Quando se trata de equipamentos caros, raros ou críticos dentro de um
contexto de linha de produção, o investimento em manutenção traz retorno pois
contribui para eficiência, segurança operacional e de pessoas, atendimento aos
prazos de produção, qualidade no produto e confiança no processo.
Existem diferentes tipos de manutenção, com diferentes características,
vantagens e desvantagens:
A manutenção corretiva ocorre após a ocorrência da falha do equipamento, e
geralmente em data e hora não programado ou planejado. Seu objetivo é a
retomada do funcionamento, sendo mais propícia a causar maiores prejuízos como a
interrupção não planejada de linhas produtivas, danos mais profundos na máquina
ou instalações, perdas de processo e até riscos à segurança humana. Embora possa
parecer um tipo de manutenção que deva ser evitada, existem sim situações onde
pode se contar e gerenciar o risco sobre as manutenções corretivas. Peças de
reposição ou mesmo paradas planejadas podem oferecer um custo alto demais para
que se faça trocas ou revisões precoces (GREGÓRIO, 2018).
A manutenção preventiva prioriza a não ocorrência da falha, e é importante
onde os custos da ocorrência da falha sejam muito altos ou que hajam riscos à vida
e instalações (GREGÓRIO, 2018). Na aviação comercial por exemplo, os critérios
para execução de manutenção levam à uma intolerância às falhas, dada a natureza
do transporte de tantas vidas. O mesmo ocorre em manutenção de equipamentos
hospitalares de suporte à vida. A manutenção preventiva consiste em avaliar a vida
útil de componentes de forma periódica, condições dos mesmos, execução de
ajustes e limpezas periódicas, visando manter o bom funcionamento da máquina.
Diferentemente da manutenção corretiva, o objetivo aqui é tomar as ações
6

necessárias para evitar a falha, ainda que não se saiba exatamente se ela está ou
não prestes a ocorrer (GREGÓRIO, 2018).
Assim como na manutenção preventiva, a preditiva tem o objetiva de evitar a
quebra ou falha do equipamento. A maior diferença é que neste caso não só se
avalia periodicamente o comportamento, mas também os sintomas de cada
componente ou peça para, através de técnicas de estatística que estas avaliações
possam indicar quando haverá a falha, permitindo assim uma redução de
interrupções não planejadas e redução do risco de ter uma peça trocada ou uma
manutenção feita de forma precoce (GREGÓRIO, 2018). Um exemplo de uso
clássico da manutenção preditiva é a avaliação de vibração e ruído em rolamentos
de modo a acompanhar sua evolução ao longo da operação, o que pode através de
cálculos e levando em conta a criticidade deste componente e o trabalho que
executa, informar a data de provável quebra, portanto permitindo a manutenção
antes que isto ocorra.

2.4 Machine Learning

Machine learning ou aprendizado de máquina é considerado um campo de


estudos derivada da inteligência artificial, e seu objetivo é trabalhar dados que
podem ser complexos para o entendimento e análise humana, mediante aplicação
de seus modelos específicos para cada situação (MINING, 2021). MINING (2021)
define machine learning como uma forma de tecnologia da computação onde a
máquina tem uma complexa gama de conhecimento que permite pegar certas
entradas de dados e usar complexas estratégias de análise estatísticas de dados
para criar valores de saída que se tornem conhecimento, dados ou informações.
Machine learning trata de estatística e dados em geral, portanto pode ser aplicada
em vários diferentes segmentos. Serviços financeiros, operadoras de saúde,
marketing e vendas, petróleo e gás, transportes, logística e governos tem aplicado
machine learning, obtendo processos mais eficientes, lucrativos e seguros (SAS,
2021). A análise estatística é a base de funcionamento de machine learning, pois é
usada por algoritmos que foram construídos baseados nos seus conceitos que se
tornam ferramentas poderosas na análise de dados, construção de insights, modelos
e resultados que seriam de difícil ou impossível produção por humanos (SILVA,
LENZ, FREITAS, SANTOS, 2019). Quatro métodos são reconhecidos como formas
7

de implantação de machine learning: O aprendizado supervisionado, o não-


supervisionado, semi-supervisionado e aprendizagem por reforço.
O método de aprendizagem supervisionada é composto de uma série de
algoritmos capazes de analisar conjuntos de dados de entrada e saída, normalmente
um vetor na entrada e um valor objetivado como saída, através de modelos
matemáticos que tratam de pares de conjuntos de dados que inferem uma função a
partir dos mesmos. Estes dados de entrada e saída são submetidos ao algoritmo,
servindo como base para o treinamento e como exemplo de um resultado tido como
esperado. Outros vetores de entrada que não trazem resultados desejados na saída,
serão submetidos durante a fase de treinamento do algoritmo, compondo a
construção da função ao mostrar o que deve ser considerado como saída esperada
ou não, e se o algoritmo estiver devidamente treinado, será capaz de definir com
muita precisão qual será o valor de saída de um determinado vetor de entrada
(MINING, 2021). Para que seja corretamente treinado e configurado como
aprendizagem supervisionada, é necessário submeter alguns exemplos já marcados
com o resultado de saída como esperado ou não, para que a máquina desenvolva a
sua função durante esta etapa de treinamento.

2.5 Ferramentas e bibliotecas

A linguagem Python é reconhecida como uma linguagem ideal para assuntos


relacionados à inteligência artificial e machine learning, porém a linguagem em si
não detém os recursos mais importantes para tal, mas sim suas bibliotecas.
Bibliotecas devem ser instaladas e chamadas dentro do código, pois este
procedimento acopla “acessórios” que podem ser utilizados sem que seja necessário
reescrever novamente várias linhas de código, o que tornaria o programa maior,
mais difícil e demorado de ser concluído. Um exemplo de como invocar uma
biblioteca em Python é este que importa a biblioteca Numpy:
import Numpy as np

2.5.1 Scikit-learn

Scikit learn é uma biblioteca python aplicável à projetos de machine learning e


data mining (mineração de dados). Além de ser gratuita, disponibiliza uma grande
8

variedade de exemplos, facilitando o aprendizado e também possibilitando um


código limpo, com poucas linhas, visto o grande poder de suas funções embutidas
(MINING, 2021). Entre suas ferramentas, é possível realizar regressões,
classificações, redução dimensional, agrupamento e pré-processamento.
Assim como outras, a biblioteca scikit learn ou sklearn possui código aberto, e
possui uma vasta documentação online. Apesar de muito utilizada, é necessário
desdobrar esta biblioteca em muitos módulos, dada a extensão de suas diferentes
aplicações.

2.5.2 Pandas

Pandas é um pacote de alta relevância na área de análise e manipulação de


dados. A própria documentação cita a sua meta de ser a mais poderosa e flexível
ferramenta código aberto independente de linguagem de programação. A
especialidade do Pandas é trabalhar com estruturas de dados relacionais ou
rotulados, o que permite através de funções de alto nível, uma análise prática dos
dados. Chama a atenção para esta extensão, a possibilidade de uma análise de
dados provenientes de fontes como bancos de dados SQL, planilhas em Excel,
arquivos CSV estruturados. A possibilidade de trabalhar com séries de dados
temporais de frequência não fixada é um recurso importante dentro do contexto
desta pesquisa. Pandas também permite processamentos de matrizes
bidimensionais rotuladas e vários outros tipos de conjuntos de dados, inclusive não
rotulados. A biblioteca Pandas permite durante o primeiro contato com o conjunto de
dados, já estruturar e organizar questões relacionadas aos cabeçalhos, formatação
e a admissão dos dados em si.

2.5.3 NumPy

É uma biblioteca para Python que traz rotinas de computação científica que
permite a aplicação em tarefas relacionadas a matrizes, inclusive as complexas e de
grande volume de dados. Em termos de comparação com outros recursos padrão do
próprio Python, esta biblioteca permite modelos muito mais avançados e um
processamento mais rápido. Assim como outras bibliotecas, ao escrever um código,
ela deve ser importada, o que abre um leque de funções e recursos.
9

Numpy tem nativamente recursos importantes não só para matrizes, mas


também criação de vetores e arrays. Através destes recursos, a criação de uma rede
neural é possível usando o Numpy, sem a necessidade de escrever muitos códigos
ou reinventar a roda (MINING, 2021).

2.6 métodos de classificação:

Support vector machine ou SVM é hoje usado principalmente como uma


técnica de classificação para predição de resultados categóricos, tanto em
problemas com resultados binários quanto multiclasse. Muito útil para resolver
relações complexas e reduzir pontos fora da curva e anomalias (THEOBALD, 2017).
Além disto, é eficaz em espaços de grandes dimensões, em casos em que o número
de dimensões é maior que o número de amostras.
K-nearest neighbor ou Knn, em tradução livre, remete à ”vizinho mais próximo
de k”, onde k é um ponto e a classificação se dá por encontrar um ponto mais
próximo deste dentro de um determinado contexto e usando uma técnica análoga a
um processo de votação. Assim como na Clusterização, a distância entre os pontos
é determinada por uma função, geralmente uma função Euclidiana simples define se
um ponto é próximo do outro o suficiente para afirmar sua similaridade.
O algoritmo árvores de decisão ou decision tree é baseado como o próprio
nome diz, no formato gerado pela ramificação de possíveis decisões ao longo de um
processo. Trata se de um algoritmo onde h: X → Y capaz de predição de modo que
ao percorrer (fazendo analogia com uma árvore) da raiz até as folhas podendo tratar
de vários diferentes tipos de problemas (SHAI, 2014). GRUS (2021) faz uma
referência interessante ao associar as árvores de decisão com jogos de adivinhação,
onde se fazem perguntas simples sobre determinado tema, e cada resposta
direciona o fluxo da árvore para uma nova pergunta. Após um determinado número
de perguntas, é possível chegar até a resposta, até pela eliminação que foi realizada
nas perguntas anteriores. A eficácia do algoritmo pode ser percebida por sua
versatilidade ao resolver o problema tratando uma etapa por vez, desta forma
reduzindo gradativamente o tamanho do lado direito da equação até chegar à
resposta final. Isto infelizmente não significa que o algoritmo seja eficiente, pois não
trata a solução como um todo e nem adota o caminho mais rápido, sendo a visão da
solução limitada ao nó atual. O algoritmo visto de uma forma geral, usa recursividade
10

ao chamar a si próprio, bastando passar como parâmetros um conjunto de dados de


treinamento que conta com entradas e saídas correspondentes. Após feito o
treinamento, chama-se a função para a predição em si, passando o conjunto de
condições de entrada.

3 TRABALHOS RELACIONADOS

Durante as pesquisas, trabalhos semelhantes foram avaliados no sentido de


entender como e onde estavam sendo aplicadas soluções de mesmo nível ou
interesse. Os trabalhos pesquisados abordam o uso de técnicas ou conceitos de
machine learning, análise de dados e Indústria 4.0.
(DALZOCHIO, 2020) traz propostas que auxiliam no entendimento de
aplicação de algoritmos de machine learning com o objetivo de realizar predições
voltadas à manutenção preditiva. Diante de um determinado cenário, o autor utiliza
algoritmos de machine learning apoiados por python para realizar testes e obter
determinados resultados. O estudo da estrutura citada no documento forneceu uma
base de estudos para aplicar algoritmos (embora não sejam os mesmos) com o
objetivo de fazer predições. No entanto, o objetivo do referido trabalho é bem mais
abrangente e aqui estamos desenvolvendo algo mais pontual e direcionado.
Em outro trabalho desenvolvido, PAZ (2020) usou recursos de machine
learning voltado à predição de resultados em processos de usinagem. Este trabalho
trouxe uma abordagem semelhante ao que este trabalho tem na relação do uso de
técnicas de machine learning para obtenção de dados de máquinas, além do
alinhamento e abordagens aos conceitos de Indústria 4.0, porém focado em outro
processo de fabricação.

4 METODOLOGIA

A metodologia da pesquisa está baseada na aplicação de tecnologias e


recursos disponíveis para avaliar o funcionamento de um sistema de predição de
falhas utilizando técnicas de análise de dados e machine learning. As referências e
ideias contidas nesta pesquisa partem da leitura de livros relacionados e também
artigos publicados.
11

A metodologia usada para validar a pesquisa seguirá as 5 etapas para


implantação de um sistema de machine learning que pode também representar um
sistema cíclico ao receber um resultado abaixo do esperado ou que possa receber
melhorias, desta forma retornamos à primeira etapa fazendo correções ou melhorias
nesta e nas etapas seguintes. As 5 etapas são: Coletar dados, tratamento dos
dados, treinar modelo, testar dados e implementar melhorias (BERTOZZO, 2019).

Figura 2 - Ciclo de implantação de machine learning

Fonte: Elaborado pelo autor

4.1 Coleta de dados

4.1.1 Escolha dos dados

Para chegar até o resultado final, é necessário definir qual falha será
monitorada usando muitas variáveis relacionadas àquele processo, o que pode
resultar em um excesso ou falta de informações. A quantidade de atributos
escolhidos e também a periodicidade de atualização dos dados vai definir o tamanho
da base dados gerada no processo intermediário e também o tempo de
processamento dos arquivos. A meta então é encontrar uma boa relação de custo
versus benefício, onde o custo trata de tempo e espaço ocupado.
Durante a produção de aços laminados, o tempo é peça chave. Para evitar
quebra da máquina, saída de barra do laminador ou até mesmo defeitos de
processo na barra produzida, é preciso respeitar o tempo máximo de barra na linha
de produção. Até que a barra passe pelo último processo de conformação ou seja,
em que ela ainda está tomando forma por através da pressão gerada pelos cilindros
de laminação, a barra precisa estar dentro de uma faixa bem apertada de
temperatura, por isto seu processamento deve ocorrer em até poucos minutos após
deixar o forno de reaquecimento. Uma vez saído dentro deste e passando por
alguns processos, não mais ela poderá voltar ao forno, sendo necessário
12

reprocessar este aço como sucata novamente, ou seja, voltar à primeira etapa do
processo de produção. A linha do tempo que conduz o processo deve ser objeto de
estudo pois é também um ponto de grandes perdas de processo. É preciso verificar
a viabilidade de aprender qual é o tempo normal e quais os limites de permanência
da barra fora do forno sem que seja considerada como barra perdida. A grande
gama de tipos, dimensões e todas as variáveis que envolvem o processo siderúrgico
geram uma dificuldade de ter uma métrica exata para definir este limite de tempo.

4.1.2 Arquivos CSV

Uma técnica avaliada é a utilização de um arquivo log gerado via script pelo
software supervisório da máquina. Este método viabiliza a troca de informações
onde existem restrições tecnológicas sobre o uso de outros métodos como bancos
de dados, farejador de rede OPC. Neste caso, é possível interceptar a rede OPC
com o supervisório, e neste através de um script, direcionar os dados para um
arquivo “.CSV” (ou valores separados por vírgula). Para que isto funcione, é
necessário que o software supervisório tenha as tags que deverão compor o arquivo
de dados. A bibliotecas pandas possui recursos para trabalhar com leitura de
arquivos do tipo “.CSV”.

4.2 Limpeza, preparação e manipulação de dados

A preparação dos dados trata-se de identificar quais dados serão necessários


para alimentar o modelo e obter as respostas adequadas à solução do problema.
Após a escolha, os dados devem ser limpos e preparados, para evitar distorções ou
dados imprecisos, e para isto é necessário um trabalho de base de modo a garantir
com que os sensores estejam devidamente calibrados, ajustados e operantes. Caso
haja falhas históricas, o período pode ser descartado. Também há situações onde
será necessário descartar períodos em que a máquina está fora de operação ou
ociosa. Interrupções causadas por outros equipamentos e outras naturezas
impactam diretamente na linha de produção, por isto não devem ser levados em
conta na análise da predição de falhas. Deve-se também observar a definição de
limites mínimos e máximos conforme a tradução da realidade sobre um determinado
atributo. Valores são esperados dentro de determinadas faixas, sendo que valores
13

fora destas indicam alguma falha na coleta ou geração dos dados, por exemplo: Um
pirômetro detectar uma barra com temperatura superior à 1250ºC, indica uma
provável falha neste pois esta é a temperatura máxima esperada para trabalho com
estes tipos de aço.
Quando se trata de dados de máquinas dispostas em linha, mas com
diferentes construções, automações e características, temos também um problema a
ser resolvido: Como sincronizar os dados gerados em momentos diferentes. Da
primeira etapa do processo até o final da linha de produção uma única peça fica no
mínimo 3 horas na linha de produção, inclusive dividindo espaço com outras peças,
o que faz com que a indexação dos dados gerador com o identificador de uma peça
ou lote específico requeira um bom trabalho de montagem na hora da coleta dos
dados. Dependendo do ponto a ser monitorado, é necessário armazenar
temporariamente os dados básicos do produto como número de peça, ordem de
produção, tipo de aço, já no primeiro processo. Á medida que este produto for
avançando na linha, a coleta de dados deve garantir que os dados sejam associados
à peça ou lote corretos, de modo a assegurar a fidelidade das relações entre estes
dados. No caso de busca de dados históricos, faz-se necessário sincronizar
diferentes bases de dados.
Durante o processo de escolha e tratamento dos dados, alguns testes
precisam ser feitos para identificar quais os melhores atributos a serem usados para
cada modelo específico. Associar uma falha em um dos pontos do processo com o
tipo de aço ou ainda com a temperatura em que o produto se encontrava quando
apresentou a falha.

4.3 Treinamento do modelo e aplicação do algoritmo

O treinamento do modelo traz a relação entre entradas e saídas. Através


deste, pode-se usar diferentes algoritmos que apresentarão diferentes resultados.
Algoritmos de regressão linear e logística apresentam resultados de tendência, o
que pode ser um recurso útil para predição de falhas relacionadas à desgaste ou
deterioração.
Para análise de comportamento de sensores, os algoritmos de classificação
devem ser submetidos a um treinamento de modo a apresentar resultados melhores
ou piores conforme a qualidade dos dados selecionados e também a eficácia do
14

algoritmo em si. Após a obtenção de resultados, avalia-se o comportamento e os


erros, e mais tarde reiniciar o processo aplicando correções ou mudança de método.
Este processo forma um ciclo de observação e comportamento de cada algoritmo
em relação ao universo de dados apresentado.
Algoritmos de predição podem ser os mais adequados quanto à obtenção de
resultados de saída conforme as mudanças nos dados de entrada, porém análises
de discrepância também se aplicam, por observar mudanças no comportamento do
processo. Segundo RAMESH (2019), são muitos os algoritmos que podem realizar
predições, e apenas 2 para análise de discrepâncias.

Tabela 1 - Quadro de algoritmos e suas aplicações

Série temporal
Segmentação

Classificação

discrepância
Regressão

Análise de
Predição

Algoritmo

Árvores de decisão X X
Redes neurais X X
Máq. vetores suporte X X
kNN X X X
Näive bayes X X
GA X X X
Regressão linear/não linear X X
ANN X X
Árvores de regressão X X
Métodos autoregressivos X X
Métodos extração médias X X
Suavização exponencial X X
ARIMA X X
k-means X X
Maximização de expectativa X X

Fonte: RAMESH, 2019


15

RAMESH (2019) cita o uso da classificação supervisionada como


provavelmente a técnica mais usada em mineração de dados, sendo baseada em
armazenar dados históricos, e então a partir de classes pré-definidas, gerar modelos
que são capazes de prever comportamentos futuros.

5 RESULTADOS

Para uma primeira avaliação da implantação do algoritmo de análise de dados


e machine learning, foi adotado um modelo que pudesse fornecer uma boa resposta
em pouco tempo, permitindo assim uma rápida e consistente avaliação das melhores
técnicas, atributos e melhor estrutura de geração e transporte de dados. Este
método de implantação permitiu a obtenção rápida de resultados, e também realizar
de maneira ágil, as correções e ajustes necessários para o bom funcionamento do
sistema.

5.1 Escolha do objetivo

No objetivo de obter um modelo capaz de realizar análises de dados,


predições e diagnósticos de falha de forma online e autônoma, foi necessário
escolher primeiramente um processo ou equipamento para implantar o sistema e
realizar os testes. Foi escolhido o processo de descarga de tarugos do forno de
reaquecimento para desenvolvimento e testes do modelo. Apesar de não ser o
processo mais crítico do escopo, este demonstrou como principal vantagem a
grande oferta diária de ciclos de operação e uma grande variedade de falhas
pequenas, médias ou grandes que não teríamos (pelo menos a curto prazo) em
outros processos, mesmo que mais críticos. Estes processos e falhas mais críticas
podem ocorrer de modo a permitir a análise e teste destes dados, porém seria
necessário aguardar muito tempo até obter outras falhas e amostras do mesmo tipo
de falha. No processo escolhido, as falhas são recorrentes, permitindo a coleta de
várias amostras e do teste em ambiente real das mesmas. Apesar de realizar testes
de modo online no ambiente real, também foi necessário realizar testes com a base
de dados afim de obter respostas mensuráveis sobre a acurácia em diferentes
técnicas e cenários de falhas.
16

O processo escolhido trata-se de um conjunto de equipamentos que manipula


tarugos, removendo-os de dentro de um forno que opera em torno de 1250ºC,
portanto sem a viabilidade de intervenção humana e com recursos limitados de
visibilidade e sensoriamento. Os equipamentos envolvidos neste processo operam
com motores elétricos, acionados por inversores de frequência, além de cilindros
hidráulicos e pneumáticos. Os sensores que nos retornam as informações são do
tipo de proximidade, HMD (detector de metal quente) e encoder de pulsos, além de
dados já gerados em processos anteriores por medidores de distância a laser. O
equipamento opera normalmente de forma totalmente automatizada, exigindo
intervenção humana somente quando há algum desvio no processo. A taxa de ciclos
de descarga gira em torno de 500 a 750 por dia, o que nos permite a coleta de um
número grande de amostra de dados e permitiu também a rápida decisão e ajuste
do conjunto de dados de entrada a ser utilizado.

5.2 Geração e coleta de dados

A geração dos dados que serão analisados poderia ser feita no software do
próprio PLC do equipamento ou então pelo software em python que também faria a
análise dos mesmos. Em função de limitação de tecnologia e de exigir um alto
tráfego de rede em um ponto que já apresentava congestionamento, houve opção
por gerar os dados no próprio PLC da máquina, entregando-os já prontos para
análise. O uso de um farejador de dados na rede OPC não foi viável devido á versão
antiga do PLC não oferecer suporte, embora em uma futura atualização tecnológica
o equipamento possa sim se tornar compatível.
Foi desenvolvida uma função e gravada no PLC SIEMENS STEP7, que visa
monitorar o desempenho de um ciclo de descarga, começando por um temporizador
que é disparado ao detectar um pedido de descarga, que geralmente é disparado
automaticamente por outro temporizador que marca o ritmo de produção. O
temporizador disparado deve monitorar se a peça descarregada chegou até o último
sensor do processo dentro de um determinado tempo, constatando assim se o ciclo
ocorreu ou não com sucesso (fazer a tarefa dentro do tempo esperado). Dentro
deste tempo, também são coletados outros dados binários, como por exemplo
desarme de disjuntores, se determinado detector de metal quente foi acionado, se
algum sensor de fim de curso foi atingido ou se os inversores de frequência
17

apresentaram falhas. Dentro da mesma função, foi feito um monitoramento de


“checkpoints” tanto na movimentação do equipamento em si quanto da peça a ser
descarregada. Usando os sensores já disponíveis, os tempos destes checkpoints
são gerados e armazenados em um bloco de dados. Por fim, a coleta de medidas
traz informações de posição física ocupada pelo tarugo descarregado, curso
percorrido pelo equipamento manipulador, tamanho do tarugo em milímetros e peso
em Quilogramas.
Gerados os dados, precisamos entregá-los ao software de análise. Para isto
foi criado um script em visual basic no software supervisório usado para fazer a
interface com o código python. Por receber já os dados via rede OPC, a opção deste
método permitiu usar a infraestrutura existente, sem a necessidade de envolver
novas instalações ou custo com licenças extras. O script obtém os dados da rede
OPC, estruturando-os e adicionando-os, a cada ciclo realizado, em um arquivo do
tipo .CSV (valores separados por vírgula).

Figura 3 - Fluxo dos dados ao longo do sistema

Fonte: elaborado pelo autor


18

5.3 Análise, extração e tratamento dos dados

Após a obtenção de um arquivo .CSV com informações sobre cada ciclo, o


olho treinado de uma pessoa experiente poderia já obter alguns resultados sobre o
comportamento da máquina, porém, seria inviável analisar caso a caso, ainda mais
considerando pequenas variações dentro de um conjunto grande de dados. Mais
inviável ainda considerando que nem todas as pessoas envolvidas tem a experiência
neste processo. Por isto, foi desenvolvido um código em python que opera com
algumas bibliotecas já citadas na fundamentação teórica. Ao verificar a alteração no
arquivo .CSV, o software em python analisa os dados do mesmo, seguindo etapas
até a entrega do resultado final.
A primeira etapa é extrair os dados. O código busca os dados no arquivo
.CSV, estruturando-os em um dataset ou conjunto de dados. Neste momento, são
selecionados os atributos mais importantes para o modelo. Neste caso em especial
quase todos os atributos foram implementados, pois seria necessária uma
quantidade maior de dados para obter um modelo contando só com os atributos
mais significativos. Mesmo assim, o mapa de calor a seguir aponta a correlação
entre os atributos do dataset. É possível perceber por exemplo, a alta relação entre o
“PC_DESENF_OK” e o “CHEGOU_FOTO” que tratam dos últimos sensores do
processo, portanto um ciclo bem-sucedido deve levar o material até os últimos
sensores.
19

Figura 4 - Mapa de calor: Correlação entre atributos

Fonte: Elaborado pelo autor


O próximo passo é fazer o tratamento dos dados. Nesta etapa, são removidas
eventuais entradas com valores nulos, assim como entradas ainda não analisadas e,
portanto, de classe não definida. Também nesta etapa, o dataset se torna um
Numpy array, que será o formato trabalhado nas próximas etapas.
Por se tratar de dados de diferentes tipos, escalas e significados, o algoritmo
pode entender e dar importâncias indevidas para pequenas variações em cada um
dos dados. Para permitir a comparação de valores de diferentes amplitudes, dando a
devida importância a cada um deles, é feita uma padronização através da função
“standardScaler”.
É feita então a divisão na base de dados, sendo feita a seleção e mantidos
apenas os preditores importantes para o correto treinamento. Os atributos preditores
serão tratados como X. As classes (neste caso uma coluna) serão tratada como Y,
contendo nesta, o texto referente ao tipo de diagnostico ou defeito encontrado neste
evento. Além da divisão e especificação das colunas, também é feita uma divisão de
20

registros, para fins de validação da eficiência dos algoritmos. Neste teste, a função
train_test_split separa de forma aleatória, um percentual de registros para formar a
base de dados de treinamento, sendo o restante submetido ao teste.
Na etapa de treinamento, quatro diferentes técnicas foram usadas:
LinearSVC, decision tree, SVC e kNN. O desenvolvimento de modelos com as
quatro técnicas foi importante para verificar qual delas ofereceria os melhores
resultados. Após o treinamento, o processo de predição usando estes modelos é
executado, fornecendo os resultados de predição sobre as entradas selecionadas
para este fim. Estas técnicas foram escolhidas mediante estudo sobre a aplicação de
modelos para determinada finalidade, feito durante o levantamento da metodologia.

5.4-Testes e suas métricas

De posse de um percentual de eventos separados durante o processo de


divisão, e que não fizeram parte da base de dados de treinamento, é possível cruzar
os resultados reais com os do processo de predição, submetendo-os á estudos de
modo a comparar os resultados de acurácia de cada uma das técnicas utilizadas.
Inicialmente é feito um estudo da acurácia, comparando as quatro técnicas:

Gráfico 1 - Comparativo da acurácia

Fonte: Elaborado pelo autor

Através do gráfico fica visível que todas as técnicas apresentam uma acurácia
importante, todas acima de 98%, destacando-se dentre elas a linearSVC. A escolha
destas técnicas ocorreu em experiências práticas, de modo que elas apresentaram
21

resultados mais adequados já nos primeiros testes, além de suas literaturas


apontarem uma viabilidade de uso na finalidade em questão.
Em complemento ao teste de acurácia, podemos também levantar a
pontuação de precisão, especificidade e f_score. A precisão ou precision, determina
a habilidade de não rotular uma amostra negativa como positiva, por exemplo. O
recall ou especificidade já foca em encontrar as amostras positivas. Por fim o f-score
traz a média harmônica balanceada entre precisão e especificidade.

Gráfico 2 - Comparação de técnicas

Fonte: Elaborado pelo autor

Ao comparar os gráficos gerados pelas métricas de testes, o linearSVC


também apresenta os melhores resultados o que atesta a escolha desta técnica na
implementação deste modelo. O impacto desta análise é
No próximo passo da avaliação, são avaliadas as matrizes de confusão que
indicam na linha diagonal a quantidade de diagnósticos corretos, e alguns pontos
onde os diagnósticos não foram acertados. Novamente é perceptível aqui a
superioridade da técnica de linearSVC em relação ás demais.
22

Gráfico 3 – Matriz de confusão LinearSVC

Fonte: Elaborado pelo autor


Na imagem acima, foi avaliado o cruzamento entre os eixos X e Y, que
apresentavam eventos reais versus predições. Nesta matriz, a maioria dos eventos
se encontram na diagonal central, o que significa que a predição é igual ao evento
real, ou seja, a classificação foi acertada. Em três eventos, houve divergência. Em
sete eventos, por exemplo, o sistema diagnosticou uma degradação ou atraso na
movimentação do apalpador direito, o que caracteriza um mal funcionamento ou
perda de desempenho, que provavelmente culminará em um trancamento total,
portanto uma falha. Também muito importante é a verificação do equilíbrio aparente
diante da inexistência de um grande número de divergências em uma classe
minoritária, o que caracterizaria um problema, pois poderia se mascarar uma taxa de
erros de classificação muito alta em uma classe minoritária por um número elevado
de classificações corretas em uma classe majoritária. Este tipo de desequilíbrio não
seria detectado em uma análise mais rasa usando somente um comparativo de
acurácia, por exemplo.
23

Nas matrizes a seguir, é verificada a eficácia de demais técnicas como


árvores de decisão, knn e SVC. Percebe-se uma maior ocorrência de eventos fora
da diagonal, o que significa divergências. Em especial na knn e SVC, ocorre uma
grande divergência em uma das classes, demonstrando dificuldades em um ponto
específico.

Gráfico 4 - Matrizes de confusão árvores decisão, knn e SVC

Fonte: Elaborado pelo autor


A alta precisão dos resultados depende, além da correta seleção dos
atributos, de uma base de dados sólida e precisa. Durante o processo de reforço da
aprendizagem, é feito um diagnóstico de cada evento, tendo este evento resultado
ou não em um defeito. Quando um defeito é incorretamente diagnosticado, ele pode
também contaminar a base de dados, fornecendo diagnósticos incorretos nas
predições futuras.
A curva ROC ou Receiver Operating Characteristics Curve nos indica a
relação entre positivos verdadeiros e falsos positivos. Deste modo, assim como nos
testes anteriores, a maioria das classes testadas apresentou um índice de AUC
(área sob a curva) de 1 ou próximo de 1, o que significa uma alta taxa de bons
24

resultados. Neste caso foram analisados cada classe caso a caso, e depois gerado
um gráfico com todas as classes onde se destacam as que tiveram AUC diferente de
0,5 e 1.

Figura 5 - Estudo de uma das classes

Fonte: Elaborado pelo autor

5.5 A predição de falhas na prática

Os testes realizados utilizaram a base de dados obtida no campo, ou seja,


tratam-se de eventos reais e dados fiéis ao mundo real, portanto os gráficos
mostrados aqui vêm de testes realizados dentro da base de dados histórica com o
objetivo de definir e validar a escolha das melhores técnicas e tags no algoritmo de
análise de dados e machine learning. Na versão que roda na fábrica, o algoritmo
recebe uma modificação na sua estrutura para permitir análises em tempo de
execução, além da predição de falha em si antes que ela ocorra. Nesta versão o
código roda em loop fazendo predições online e jogando os resultados na tela de
operação da máquina.
25

Figura 6 – Feedback na tela do operador

Fonte: Elaborado pelo autor

Durante os testes práticos, o sistema obteve diagnóstico de diversas


situações reais onde o ciclo poderia ou não terminar bem-sucedido. Apesar de
importante, o recebimento de um diagnóstico binário de “ok” ou “não ok” não seria
suficiente nem seria uma informação realmente relevante. Por isto, foi necessário
adicionar também rótulos que pudessem dar o diagnóstico mais preciso de cada
falha, como por exemplo “falhou componente X”, o que levaria a rápida resposta ao
atendimento de uma falha, e provavelmente representaria um ciclo malsucedido.
Dentro da gama de ciclos bem-sucedidos, podemos também encontrar casos que
apesar de resultar em uma peça descarregada, houve alguma alteração de
comportamento do equipamento, o que poderia indicar o precursor de uma falha,
dando assim o alerta antecipado e o tempo necessário para tomar alguma ação
preventiva.
Testes práticos foram realizados durante uma parada de produção de final de
semana, onde foram realizados alguns ciclos em que foram adicionadas algumas
falhas propositais, não só no objetivo de testar, mas também de promover
aprendizado sobre falhas que talvez demorem a ocorrer. Foram feitos ciclos com o
ar comprimido fechado e também restrito tanto na válvula geral como em cilindros
específicos. Foram feitos ciclos com baixa pressão hidráulica, com sensores
desconectados, com velocidade do motor elétrico reduzida, com motor de rolo
desligado. Depois de rotular cada uma destas falhas, foram feitos testes nas
mesmas condições, onde os diagnósticos foram corretos, inclusive apontando de
forma preventiva alguns ciclos como “OK”, porém com degradação de desempenho
em algum ponto (ex.: “OK-APALPADOR ESQUERDO LENTO”), o que nos leva ao
objetivo final desta pesquisa.
26

5.6 Desafios e implantação

A etapa de pesquisa trouxe muitas informações sobre técnicas e recursos não


utilizados na experiência prática, mas isto não significa que não possa ser utilizado
em trabalhos futuros. O processo usado no experimento tem caraterísticas e
tecnologias diferentes das encontradas em outros processos. Mesmo neste
processo, algumas modificações podem ser feitas para melhoria de performance à
medida que o sistema se mostrar maduro e consolidado. Por se tratar de certa forma
de um projeto alinhado com as tendências e objetivos da empresa, é possível que
haja a continuidade prática deste trabalho, inclusive com investimentos necessários
para aumento de desempenho e abrangência.
Consolidar uma nova tecnologia depende muito da confiabilidade, praticidade
e usabilidade do mesmo. Historicamente, a mudança acaba enfrentando alguma
resistência principalmente quando esta vem ao substituir alguma prática antiga e já
consolidada, porém ao apresentar uma ferramenta alternativa que consegue
acompanhar de forma paralela os antigos métodos de diagnóstico e predição, é
possível atingir uma aceitação maior ao mesmo tempo em que o sistema evolui.
Durante a realização de testes, o projeto apresentou resultados rapidamente,
chegando a fornecer respostas rápidas durante um evento real que teve um pronto
atendimento da manutenção graças ao seu correto diagnóstico.

6 CONCLUSÃO

Através desta pesquisa, foi possível demonstrar a viabilidade do uso de


análise de dados e técnicas de machine learning como ferramenta de apoio à
manutenção e produção, por meio da predição de falhas na indústria de aços
especiais. Os recursos de automação disponíveis atualmente permitem também que
novos projetos sejam desenvolvidos sem que haja a necessidade de grandes
investimentos em hardware de automação, visto já aproveitar os recursos existentes.
Os métodos aqui usados podem e devem ser usados como base de conhecimento
para a implementação deste modelo em outros pontos e outros processos. Os
métodos de pesquisa, a fundamentação teórica e a implementação prática dos
conhecimentos adquiridos foram extremamente importantes e úteis no entendimento
e formação de base de conhecimento para projetos futuros, como monitoramento de
27

comportamento de motores e gaiolas de laminação, redução de erros em operações


manuais, redução de sucateamento e defeitos por barras frias, redução de perdas
térmicas em fornos, entre outros.

REFERÊNCIAS

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT). Confiabilidade e


mantenabilidade. Brasil: ABNT, 1994.

ALMEIRA PSD. Indústria 4.0 – Princípios básicos, aplicabilidade e implantação na


área industrial. São Paulo: Editora Saraiva; 2019.

BEAM, Andrew L.; KOHANE Isaac S.– Big data and machine learning in health care.
Disponível em: https://jamanetwork.com/journals/jama/article-abstract/2675024.
Acessado em: 15/10/2021. Jama, 2018

BERTOZZO, Richard Junior – Aplicação de machine learning em dataset de


consultas médicas do SUS. Disponível em:
https://repositorio.ufsc.br/bitstream/handle/123456789/202663/TCC.pdf. Acessado
em: 20/10/2021. Florianópolis: UFSC, 2019.

DALZOCHIO, Jovane. An ensembled-Based Learning Framework for predictive


maintenance in industry 4.0. Unisinos, 2020. Disponível em:
http://www.repositorio.jesuita.org.br/handle/UNISINOS/9220. Acessado em:
09/11/2021.
ENGPROCESS, Site. 2018. Disponível em: https://engprocess.com.br/a-quarta-
revolucao-industrial/. Acessado em: 09/11/2021.

GOMES, Bruno. Indústria 4.0: Panorama da Inovação. Publicações Firjan: Cadernos


SENAI de inovação, São Paulo, v. 1, n. 1, p.1-20, abr. 2016.

GOMES, Elisabeth; BRAGA, Fabiane – Inteligência competitiva em tempos de big


data - Analisando informações e identificando tendências em tempo real. Rio de
Janeiro: Alta Books, 2017.

GREGÓRIO, Gabriela Fonseca Parreira. Engenharia de manutenção. Porto Alegre:


SAGAH, 2018.
GRUS, Joel. Data Science do Zero. Rio de Janeiro: Editora Alta Books, 2021.

JAZDI, N. Cyber physical systems in the context of Industry 4.0. 2014 Ieee
International Conference On Automation, Quality And Testing, Robotics, Disponível
em: http://dx.doi.org/10.1109/aqtr.2014.6857843. Acessado em: 10/10/2021.
Stuttgart, Germany, v. 1, n. 1, p.1-3, maio 2014. IEEE.

MINING, Ethem – Machine Learning for begginers. Everooks, 2021.

MINING, Ethem – Python Machine learning: Understand python libraries. 2019


28

Monostori, L., Kádár, B., Bauernhansl, T., Kondoh, S., Kumara, S., Reinhart, G.,
Sauer, O., Schuh, G., Sihn, W., & Ueda, K.. Cyber-physical systems in
manufacturing. CIRP Annals, 65 (2), 621-
641. https://doi.org/10.1016/j.cirp.2016.06.005, 2016.

PAZ, Matheus Ramage. Machine learning aplicado á usinagem. Unisinos, 2019.


Disponível em: http://www.repositorio.jesuita.org.br/handle/UNISINOS/9643.
Acessado em: 28/09/2021
RAJKUMAR, R.; LEE, I.; SHA, L.; STANKOVIC, J.; 2011 Cyber-physical Systems:
The Next Computing Revolution. Proceedings of the Design Automation Conference
Disponível em: https://ieeexplore.ieee.org/abstract/document/5523280. Anheim, CA,
US, 2010, p. 731–736. Acessado em: 23/10/2021.

RAMESH, SHARDA – Business intelligence e Análise de dados para gestão do


negócio. Porto Alegre: Bookman, 2019.

SAS - Machine learning – O que é e qual a sua importância


https://www.sas.com/pt_br/insights/analytics/machine-learning.html, SAS: 2021.

SCHWAB, Klaus. A QUARTA REVOLUÇÃO INDUSTRIAL. São Paulo: Edipro, 2016.

SHAI, Shalev-Shwartz and Shai Ben-David – Understanding Machine learning: From


theory to algoritms. Disponível em:
http://www.cs.huji.ac.il/~shais/UnderstandingMachineLearning. New York:
Cambridge University Press, 2014.

SILVA, Fabrício Machado; LENZ, Maikon Lucian; FREITAS, Pedro H. Chagas,


SANTOS, Sidney C. Bispo – Inteligência artificial. Porto Alegre: SAGAH, 2019.

THEOBALD, Oliver. Machine Learning for Absolute Beginners: A plain English


Introduction - Second Edition. Scatterplot Press, 2017.

YAN, J et al. Industrial Big Data in an Industry 4.0 Environment: Challenges,


Schemes and Applications for Predictive Maintenance. Disponível em:
https://ieeexplore.ieee.org/abstract/document/8085101 IEEE Access ( Volume: 5), p.
23484-23491, 2017. Acessado em: 28/09/2021

Você também pode gostar