Escolar Documentos
Profissional Documentos
Cultura Documentos
Porto Alegre
2022
LUCIANO SCHITZ VALLE
Porto Alegre
2022
1
1 INTRODUÇÃO
2 FUNDAMENTAÇÃO TEÓRICA
4.0, porém segue em evolução e desta vez apoiada por sistemas cada vez mais
inteligentes que passam a ter uma fatia cada vez maior de comando, autonomia e
até mesmo tomada de decisões sobre os processos produtivos.
2.3 Manutenção
necessárias para evitar a falha, ainda que não se saiba exatamente se ela está ou
não prestes a ocorrer (GREGÓRIO, 2018).
Assim como na manutenção preventiva, a preditiva tem o objetiva de evitar a
quebra ou falha do equipamento. A maior diferença é que neste caso não só se
avalia periodicamente o comportamento, mas também os sintomas de cada
componente ou peça para, através de técnicas de estatística que estas avaliações
possam indicar quando haverá a falha, permitindo assim uma redução de
interrupções não planejadas e redução do risco de ter uma peça trocada ou uma
manutenção feita de forma precoce (GREGÓRIO, 2018). Um exemplo de uso
clássico da manutenção preditiva é a avaliação de vibração e ruído em rolamentos
de modo a acompanhar sua evolução ao longo da operação, o que pode através de
cálculos e levando em conta a criticidade deste componente e o trabalho que
executa, informar a data de provável quebra, portanto permitindo a manutenção
antes que isto ocorra.
2.5.1 Scikit-learn
2.5.2 Pandas
2.5.3 NumPy
É uma biblioteca para Python que traz rotinas de computação científica que
permite a aplicação em tarefas relacionadas a matrizes, inclusive as complexas e de
grande volume de dados. Em termos de comparação com outros recursos padrão do
próprio Python, esta biblioteca permite modelos muito mais avançados e um
processamento mais rápido. Assim como outras bibliotecas, ao escrever um código,
ela deve ser importada, o que abre um leque de funções e recursos.
9
3 TRABALHOS RELACIONADOS
4 METODOLOGIA
Para chegar até o resultado final, é necessário definir qual falha será
monitorada usando muitas variáveis relacionadas àquele processo, o que pode
resultar em um excesso ou falta de informações. A quantidade de atributos
escolhidos e também a periodicidade de atualização dos dados vai definir o tamanho
da base dados gerada no processo intermediário e também o tempo de
processamento dos arquivos. A meta então é encontrar uma boa relação de custo
versus benefício, onde o custo trata de tempo e espaço ocupado.
Durante a produção de aços laminados, o tempo é peça chave. Para evitar
quebra da máquina, saída de barra do laminador ou até mesmo defeitos de
processo na barra produzida, é preciso respeitar o tempo máximo de barra na linha
de produção. Até que a barra passe pelo último processo de conformação ou seja,
em que ela ainda está tomando forma por através da pressão gerada pelos cilindros
de laminação, a barra precisa estar dentro de uma faixa bem apertada de
temperatura, por isto seu processamento deve ocorrer em até poucos minutos após
deixar o forno de reaquecimento. Uma vez saído dentro deste e passando por
alguns processos, não mais ela poderá voltar ao forno, sendo necessário
12
reprocessar este aço como sucata novamente, ou seja, voltar à primeira etapa do
processo de produção. A linha do tempo que conduz o processo deve ser objeto de
estudo pois é também um ponto de grandes perdas de processo. É preciso verificar
a viabilidade de aprender qual é o tempo normal e quais os limites de permanência
da barra fora do forno sem que seja considerada como barra perdida. A grande
gama de tipos, dimensões e todas as variáveis que envolvem o processo siderúrgico
geram uma dificuldade de ter uma métrica exata para definir este limite de tempo.
Uma técnica avaliada é a utilização de um arquivo log gerado via script pelo
software supervisório da máquina. Este método viabiliza a troca de informações
onde existem restrições tecnológicas sobre o uso de outros métodos como bancos
de dados, farejador de rede OPC. Neste caso, é possível interceptar a rede OPC
com o supervisório, e neste através de um script, direcionar os dados para um
arquivo “.CSV” (ou valores separados por vírgula). Para que isto funcione, é
necessário que o software supervisório tenha as tags que deverão compor o arquivo
de dados. A bibliotecas pandas possui recursos para trabalhar com leitura de
arquivos do tipo “.CSV”.
fora destas indicam alguma falha na coleta ou geração dos dados, por exemplo: Um
pirômetro detectar uma barra com temperatura superior à 1250ºC, indica uma
provável falha neste pois esta é a temperatura máxima esperada para trabalho com
estes tipos de aço.
Quando se trata de dados de máquinas dispostas em linha, mas com
diferentes construções, automações e características, temos também um problema a
ser resolvido: Como sincronizar os dados gerados em momentos diferentes. Da
primeira etapa do processo até o final da linha de produção uma única peça fica no
mínimo 3 horas na linha de produção, inclusive dividindo espaço com outras peças,
o que faz com que a indexação dos dados gerador com o identificador de uma peça
ou lote específico requeira um bom trabalho de montagem na hora da coleta dos
dados. Dependendo do ponto a ser monitorado, é necessário armazenar
temporariamente os dados básicos do produto como número de peça, ordem de
produção, tipo de aço, já no primeiro processo. Á medida que este produto for
avançando na linha, a coleta de dados deve garantir que os dados sejam associados
à peça ou lote corretos, de modo a assegurar a fidelidade das relações entre estes
dados. No caso de busca de dados históricos, faz-se necessário sincronizar
diferentes bases de dados.
Durante o processo de escolha e tratamento dos dados, alguns testes
precisam ser feitos para identificar quais os melhores atributos a serem usados para
cada modelo específico. Associar uma falha em um dos pontos do processo com o
tipo de aço ou ainda com a temperatura em que o produto se encontrava quando
apresentou a falha.
Série temporal
Segmentação
Classificação
discrepância
Regressão
Análise de
Predição
Algoritmo
Árvores de decisão X X
Redes neurais X X
Máq. vetores suporte X X
kNN X X X
Näive bayes X X
GA X X X
Regressão linear/não linear X X
ANN X X
Árvores de regressão X X
Métodos autoregressivos X X
Métodos extração médias X X
Suavização exponencial X X
ARIMA X X
k-means X X
Maximização de expectativa X X
5 RESULTADOS
A geração dos dados que serão analisados poderia ser feita no software do
próprio PLC do equipamento ou então pelo software em python que também faria a
análise dos mesmos. Em função de limitação de tecnologia e de exigir um alto
tráfego de rede em um ponto que já apresentava congestionamento, houve opção
por gerar os dados no próprio PLC da máquina, entregando-os já prontos para
análise. O uso de um farejador de dados na rede OPC não foi viável devido á versão
antiga do PLC não oferecer suporte, embora em uma futura atualização tecnológica
o equipamento possa sim se tornar compatível.
Foi desenvolvida uma função e gravada no PLC SIEMENS STEP7, que visa
monitorar o desempenho de um ciclo de descarga, começando por um temporizador
que é disparado ao detectar um pedido de descarga, que geralmente é disparado
automaticamente por outro temporizador que marca o ritmo de produção. O
temporizador disparado deve monitorar se a peça descarregada chegou até o último
sensor do processo dentro de um determinado tempo, constatando assim se o ciclo
ocorreu ou não com sucesso (fazer a tarefa dentro do tempo esperado). Dentro
deste tempo, também são coletados outros dados binários, como por exemplo
desarme de disjuntores, se determinado detector de metal quente foi acionado, se
algum sensor de fim de curso foi atingido ou se os inversores de frequência
17
registros, para fins de validação da eficiência dos algoritmos. Neste teste, a função
train_test_split separa de forma aleatória, um percentual de registros para formar a
base de dados de treinamento, sendo o restante submetido ao teste.
Na etapa de treinamento, quatro diferentes técnicas foram usadas:
LinearSVC, decision tree, SVC e kNN. O desenvolvimento de modelos com as
quatro técnicas foi importante para verificar qual delas ofereceria os melhores
resultados. Após o treinamento, o processo de predição usando estes modelos é
executado, fornecendo os resultados de predição sobre as entradas selecionadas
para este fim. Estas técnicas foram escolhidas mediante estudo sobre a aplicação de
modelos para determinada finalidade, feito durante o levantamento da metodologia.
Através do gráfico fica visível que todas as técnicas apresentam uma acurácia
importante, todas acima de 98%, destacando-se dentre elas a linearSVC. A escolha
destas técnicas ocorreu em experiências práticas, de modo que elas apresentaram
21
resultados. Neste caso foram analisados cada classe caso a caso, e depois gerado
um gráfico com todas as classes onde se destacam as que tiveram AUC diferente de
0,5 e 1.
6 CONCLUSÃO
REFERÊNCIAS
BEAM, Andrew L.; KOHANE Isaac S.– Big data and machine learning in health care.
Disponível em: https://jamanetwork.com/journals/jama/article-abstract/2675024.
Acessado em: 15/10/2021. Jama, 2018
JAZDI, N. Cyber physical systems in the context of Industry 4.0. 2014 Ieee
International Conference On Automation, Quality And Testing, Robotics, Disponível
em: http://dx.doi.org/10.1109/aqtr.2014.6857843. Acessado em: 10/10/2021.
Stuttgart, Germany, v. 1, n. 1, p.1-3, maio 2014. IEEE.
Monostori, L., Kádár, B., Bauernhansl, T., Kondoh, S., Kumara, S., Reinhart, G.,
Sauer, O., Schuh, G., Sihn, W., & Ueda, K.. Cyber-physical systems in
manufacturing. CIRP Annals, 65 (2), 621-
641. https://doi.org/10.1016/j.cirp.2016.06.005, 2016.