Você está na página 1de 9

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com

Disponível online emwww.sciencedirect.com

ScienceDirect
Procedia Manufacturing 46 (2020) 591–599

13ª Conferência Internacional Interdisciplinaridade em Engenharia (INTER-ENG 2019)

Da Indústria 4.0 à Robótica 4.0 - Uma Estrutura Conceitual para


Sistemas robóticos colaborativos e inteligentes

Zhen Gaouma,*, Tom Wayamauma, Ishwar Singhuma, Anoop Gadhrriuma, Reiner Schmidta, b

umaW Booth School of Engineering Practice and Technology, McMaster University, 1280 Main Street West, Hamilton, Canadá L8S 0A3
bRoboteurs Inc. Hamilton, Canadá

Abstrato

Este trabalho gostaria de revisitar os papéis do sistema robótico colaborativo e inteligente e suas tecnologias de habilitação, incluindo ROS e
ROS2, sistema de acionamento integrado, sensores robóticos, integração horizontal de uma rede robótica, interação humana-robô amigável
e natural e aprendizado profundo robôs. Espera-se que na Robótica 4.0, inteligências incluindo movimento, computação, percepção e
cognição sejam perfeitamente integradas para atender às necessidades industriais e sociais diversificadas. Roadmap e estudos de caso
serão fornecidos para demonstrar o esforço atual para alcançar a ideia da Robótica 4.0.

© 2020 Os autores. Publicado por Elsevier BV


Este é um artigo de acesso aberto sob a licença CC BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/4.0/) Revisão por pares sob
responsabilidade da comissão científica da 13ª Conferência Internacional Interdisciplinaridade em Engenharia.

Palavras-chave:Indústria 4.0; Robótica 4.0; Colaboração; Inteligência; Estrutura de alto nível

1. Introdução

A tecnologia robótica que deu uma contribuição insubstituível na indústria moderna tem experimentado um desenvolvimento
dramático nestes anos devido ao surgimento e popularidade da Indústria 4.0 [1-3]. Prevê-se que a próxima geração de robótica e
suas tecnologias associadas desempenharão um papel mais significativo para atender às necessidades dinâmicas de fabricação
colaborativa e inteligente no contexto da Indústria 4.0 e da Internet Industrial das Coisas.

* Autor correspondente. Tel.: +1-905-525-9140; fax: +0-000-000-0000 .


Endereço de email:gaozhen@mcmaster.ca

2351-9789©2020 Os Autores. Publicado por Elsevier BV


Este é um artigo de acesso aberto sob a licença CC BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/4.0/) Revisão por pares sob
responsabilidade da comissão científica da 13ª Conferência Internacional Interdisciplinaridade em Engenharia. 10.1016/j.promfg.2020.03.085
592 Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599

Voltando à história da robótica industrial, durante o estágio da Robótica 1.0, o robô mal tinha percepção de seus arredores, então o ensino de waypoint era fortemente utilizado para realizar tarefas repetitivas, chatas e trabalhosas. Esta

fase foi tipicamente aconteceu de 1960 a 1980. As principais tecnologias nesta etapa foram servomotores, controladores e acionamentos de motores. Os esquemas de controle dos primeiros porótipos, como o Verstran da Amf e o Unimate da

Unimation, eram semelhantes aos da máquina de controle numérico, embora configurados com componentes mecânicos diferentes. Na era da Robótica 2.0, graças à adaptação massiva da tecnologia de aquisição de informações e computação, o

sistema automático com feedback impulsionou o desenvolvimento de robôs industriais para mais aplicações de fabricação. Esta fase ocorreu principalmente entre as décadas de 1990 e 2000. As principais tecnologias nesta etapa foram sensor de

força/torque, sistema de visão, Ethernet, sistemas embarcados e de tempo real, aquisição de dados e processamento único. Atualmente, a Robótica 3.0 e suas tecnologias de habilitação estão dominando com as explorações e integrações de

reconhecimento de imagem em tempo real em larga escala, compreensão de cena, comunicação vocal, aprendizado profundo, interação natural humano-robô, identificação por radiofrequência, interoperabilidade de sistemas e Sistema

Operacional do Robô (ROS). Graças à Robotics 3.0, a fabricação personalizada e em nuvem são amplamente aceitas e se tornam prósperas. Conforme mostrado na Fig. 1, este estágio é chamado de 'Big Bang' por causa de inúmeras tecnologias de

habilitação, incluindo, mas não se limitando a, interação natural humano-robô com base no processamento de linguagem natural [4], aprendizado profundo para compreensão da cena [5], geminação digital para sistemas ciberfísicos [6], adoção

massiva do Raspberry Pi como computador de placa única incorporado [7], sistemas ciberfísicos robóticos colaborativos industriais [8-9], colaboração segura entre humanos e robôs [10], cognição amigável para humanos robot [11], etc. O estágio

geralmente começa a partir de 2010 e espera-se que seja transferido para Robotics 4.0 no início de 2020. Nesta fase, as tecnologias disruptivas, incluindo, mas não se limitando a internet de robôs [12], Brain-on-Cloud (BoC), Inteligência Artificial

das Coisas (AIoT) [13], assistente de robô doméstico [14], implantação de 5G para robôs [15], aprendizado profundo e integrações de habilidades cognitivas de robôs [16] serão perfeitamente integrados para atender às necessidades industriais e

sociais. A Fig. 1 mostra o roteiro das evoluções do robô para previsão passada, presente e futura. adoção massiva do Raspberry Pi como computador de placa única incorporado [7], sistemas ciberfísicos robóticos colaborativos industriais [8-9],

colaboração segura homem-robô [10], robô cognitivo amigável ao homem [11], etc. O estágio geralmente começa a partir de 2010 e espera-se que seja transferido para Robotics 4.0 no início de 2020. Nesta fase, as tecnologias disruptivas,

incluindo, mas não se limitando a internet de robôs [12], Brain-on-Cloud (BoC), Inteligência Artificial das Coisas (AIoT) [13], assistente de robô doméstico [14], implantação de 5G para robôs [15], aprendizado profundo e integrações de habilidades

cognitivas de robôs [16] serão perfeitamente integrados para atender às necessidades industriais e sociais. A Fig. 1 mostra o roteiro das evoluções do robô para previsão passada, presente e futura. adoção massiva do Raspberry Pi como

computador de placa única incorporado [7], sistemas ciberfísicos robóticos colaborativos industriais [8-9], colaboração segura homem-robô [10], robô cognitivo amigável ao homem [11], etc. O estágio geralmente começa a partir de 2010 e

espera-se que seja transferido para Robotics 4.0 no início de 2020. Nesta fase, as tecnologias disruptivas, incluindo, mas não se limitando a internet de robôs [12], Brain-on-Cloud (BoC), Inteligência Artificial das Coisas (AIoT) [13], assistente de

robô doméstico [14], implantação de 5G para robôs [15], aprendizado profundo e integrações de habilidades cognitivas de robôs [16] serão perfeitamente integrados para atender às necessidades industriais e sociais. A Fig. 1 mostra o roteiro das

evoluções do robô para previsão passada, presente e futura. sistemas ciberfísicos robóticos colaborativos industriais [8-9], colaboração segura entre humanos e robôs [10], robô cognitivo amigável para humanos [11], etc. . Nesta fase, as

tecnologias disruptivas, incluindo, mas não se limitando a internet de robôs [12], Brain-on-Cloud (BoC), Inteligência Artificial das Coisas (AIoT) [13], assistente de robô doméstico [14], implantação de 5G para robôs [15], aprendizado profundo e

integrações de habilidades cognitivas de robôs [16] serão perfeitamente integrados para atender às necessidades industriais e sociais. A Fig. 1 mostra o roteiro das evoluções do robô para previsão passada, presente e futura. sistemas ciberfísicos

robóticos colaborativos industriais [8-9], colaboração segura entre humanos e robôs [10], robô cognitivo amigável para humanos [11], etc. . Nesta fase, as tecnologias disruptivas, incluindo, mas não se limitando a internet de robôs [12], Brain-on-

Cloud (BoC), Inteligência Artificial das Coisas (AIoT) [13], assistente de robô doméstico [14], implantação de 5G para robôs [15], aprendizado profundo e integrações de habilidades cognitivas de robôs [16] serão perfeitamente integrados para atender às necessidades ind

Fig. 1. Evoluções do robô.


Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599 593

2. Tecnologias Emergentes

2.1. ROS e ROS2

O mercado de robôs industriais tem sido dominado por essas empresas gigantes de robôs por mais de uma década. A maioria desses fabricantes de robôs tem seus produtos com ecossistema autossuficiente

que normalmente não é de código aberto para maximizar o lucro e proteger a propriedade intelectual. Existe uma situação totalmente oposta na comunidade de aprendizado de máquina (ML) e inteligência artificial

(IA), cujo desenvolvimento depende fortemente da política mundial de código aberto na indústria e na academia. Acontece que o primeiro tem uma configuração de limite de acesso do setor muito mais alta em

comparação com o último. No entanto, devido à cultura de código aberto e ao ambiente de fácil acesso, a comunidade de IA é aparentemente mais dinâmica e está evoluindo muito mais rápido nos últimos anos. Para

que a Robotics 4.0 aconteça em menos tempo, sistema robótico deve ser mais compatível e conveniente ao se conectar com dispositivos/máquinas/seres humanos. O surgimento do Robot Operating System (ROS)

apresenta alto potencial para quebrar as barreiras atuais do ecossistema de robôs. O ROS funciona como um middleware em vez de um sistema operacional ou um sistema operacional em tempo real [17]. O ROS foi

projetado do zero para permitir e acelerar o desenvolvimento de software e integração de sistemas de robôs colaborativos e inteligentes por meio de metodologia de projeto modular [18]. Como uma importante

atualização do ROS 1, o ROS 2 possui uma interface de middleware abstrata baseada na qual a comunicação entre dispositivos/componentes/módulos é aparentemente melhorada [19]. O ROS funciona como um

middleware em vez de um sistema operacional ou um sistema operacional em tempo real [17]. O ROS foi projetado do zero para permitir e acelerar o desenvolvimento de software e integração de sistemas de robôs

colaborativos e inteligentes por meio de metodologia de projeto modular [18]. Como uma importante atualização do ROS 1, o ROS 2 possui uma interface de middleware abstrata baseada na qual a comunicação entre

dispositivos/componentes/módulos é aparentemente melhorada [19]. O ROS funciona como um middleware em vez de um sistema operacional ou um sistema operacional em tempo real [17]. O ROS foi projetado do

zero para permitir e acelerar o desenvolvimento de software e integração de sistemas de robôs colaborativos e inteligentes por meio de metodologia de projeto modular [18]. Como uma importante atualização do ROS

1, o ROS 2 possui uma interface de middleware abstrata baseada na qual a comunicação entre dispositivos/componentes/módulos é aparentemente melhorada [19].

2.2. Sistema de acionamento integrado para robôs colaborativos

Em comparação com os braços robóticos industriais tradicionais, os robôs colaborativos possuem maior nível de
flexibilidade, destreza e sensibilidade. O sistema de acionamento integrado torna-se essencial na customização do projeto e
desenvolvimento de robôs colaborativos para diversas aplicações [20]. Um acionamento integrado considera os componentes
mecânicos, motor e seu acionamento, freio, encoders e circuitos elétricos juntos e os monta de forma adequada para produzir
uma única peça. A Fig. 2 mostra um exemplo de sistema de acionamento integrado e compacto que é aplicado para um braço
robótico colaborativo de 6 eixos [21].

Fig. 2. CAD do sistema de acionamento integrado.

2.3. Sensores para robôs colaborativos

Os sensores são a maneira como robôs e máquinas obtêm a percepção de seu entorno e ambiente. De um
modo geral, a adição de número e tipos de sensores pode aumentar a adaptabilidade e autonomia. A aquisição de
sinal sensorial multi-fonte oferece a possibilidade de melhorar a inteligência de movimento, inteligência de
percepção e inteligência cognitiva. Outras tecnologias/conceitos, incluindo internet industrial das coisas, sistemas
ciberfísicos e análise de big data, não podem funcionar completamente sem consultar o histórico e o tempo real
594 Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599

informações sensoriais. Os sensores que são essenciais como parte da ontologia de robôs colaborativos e inteligentes incluem: sensor de
força/torque, sensor tátil, sensores de visão, sensor de detecção de colisão, sensores de segurança, sensor de proximidade da pele e
sensores de detecção de objetos [22-25]. Com a fusão de sensores, é mais promissor que os robôs assumam tarefas mais desafiadoras e
complexas.

2.4. Comunicação para robôs colaborativos

Na Learning Factory da W Booth School of Engineering Practice and Technology, McMaster University,
vários robôs colaborativos, incluindo o ABB Yumi Robot e 3 Universal Robots, foram implantados como parte
integrante da fábrica inteligente para fabricação inteligente com paradigma da Indústria 4.0. Normalmente,
os robôs colaborativos são compatíveis com a maioria dos protocolos de comunicação, incluindo EtherNet/IP,
TCP/IP, Modbus, CAN bus, Profinet e Message Queuing Telemetry Transport (MQTT) [26-27]. De fato, a
Ethernet e outras redes industriais estão substituindo rapidamente a fiação rígida em aplicações de robôs. A
economia nos custos de cabeamento por si só muitas vezes justifica o uso de redes industriais, enquanto os
benefícios adicionais, como fornecimento de diagnósticos, coexistência de soluções com e sem fio,

A figura abaixo mostra a integração horizontal de um sistema robótico com interface Profinet coexistindo na mesma rede
Ethernet com dispositivos como um Raspberry Pie e um telefone celular. Além disso, há um dispositivo Ethernet/IP, bem como um
PC com um cliente Modbus TCP na rede. Todos esses dispositivos podem compartilhar dados através de um servidor OPC
multicanal, como o servidor KEPServer OPC. Na verdade, o robô pode ser facilmente controlado por um aplicativo no celular.

Fig. 3. Integração horizontal de um sistema robótico.

2.5. Interação humano-robô amigável e natural

A teleoperação flexível baseada em feedback tátil ou telepresença de realidade virtual pode superar
a distância ou restrições estruturais [28]. A pele artificial baseada em sistema de feedback tátil modular
e em tempo real projetado com strain-gauge é uma forma alternativa de percepção e interação natural,
que apresentou resultados mais promissores em comparação com a eletromiografia [29]. O microarray
de detecção tátil é projetado com vários nós sensoriais fabricados por nanomaterial misto condutor de
pressão. Detecção de gestos baseada em sensor de imagem 3D e aprendizado de correlação para
interação cooperativa humano-robô pode ser alcançada por meio de estrutura de aprendizado online
[30]. Outras abordagens eficazes para a interação humano-robô, incluindo reconhecimento de voz,
compreensão emocional, identificação intencional e consciência do contexto [31]. No geral,
Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599 595

2.6. Robôs de aprendizado profundo

O aprendizado profundo (DL) como um subconjunto mais dinâmico de mitologias de aprendizado de máquina em inteligência
artificial tem experimentado um rápido progresso nos últimos anos, especialmente em relação à sua aplicação no reconhecimento
e compreensão de imagens em larga escala [32-33]. Recentemente, na área de Processamento de Linguagem Natural (PLN), a rede
neural recorrente superou a rede Bayesiana em termos de classificação de texto e geração de texto [34]. Pesquisadores em [34]
exploraram a possibilidade de usar um microcontrolador para experimentos visuais de aprendizado profundo em robôs
educacionais. No entanto, a real integração de EAD e robótica ainda tem um longo caminho a percorrer. O diagrama a seguir (Fig.
4) ilustra a relação atual entre IA, ML, DL e robótica. A DL depende de um conjunto de dados em larga escala para treinamento
online ou offline. Quando o algoritmo atinge o limite de tempo, ou atende à precisão exigida, ou não pode ser melhorado, o
treinamento será encerrado. A precisão do treinamento varia. De um modo geral, para aplicações robóticas, como usinagem de
alta precisão, cirurgia médica e impressão 3D de ultraprecisão, a precisão deve ser relativa muito maior do que a aplicação regular,
como pesquisa na Internet. Além disso, em muitos cenários, é difícil ou extremamente demorado coletar grandes quantidades de
dados do sistema robótico móvel.

Fig. 4. Relação entre IA, ML, DL e robótica.

Para Robotics 4.0, cada aplicação pode ser tratada como uma habilidade específica. Com base em experimentos empíricos, uma vez que
essa habilidade é treinada com sucesso, ela é transferível para outros robôs com estruturas mecânicas iguais ou semelhantes. Um banco de
dados global de modelos de robôs, conforme mostrado na Fig. 5, pode registrar especificações de modelos de robôs industriais disponíveis
no mercado. As diferenças em termos de estruturas cinemáticas, motores, componentes mecânicos, controladores, cargas úteis, espaços de
trabalho etc., serão reconhecidas e compensadas para garantir que os modelos DL propostos e pré-treinados possam ser transferidos para
outros tipos de robôs.

Fig. 5. Cenário de trabalho para robôs industriais de aprendizado profundo.

3. Roteiro para Robótica 4.0

Da Robótica 1.0 à Robótica 4.0, os focos foram gradualmente deslocados da motorização para automação,
digitalização, colaboração e cognição. A principal mudança foi alinhada com a evolução industrial e social
596 Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599

necessidades em termos de individualização (sob medida), reconfiguração, sustentabilidade e virtualização. Isso se refletiu principalmente
no foco de hardware para o foco de software na tendência recente de pesquisa e desenvolvimento de robôs.
Na era da Robótica 1.0, o robô era tratado como uma máquina programada que era simplesmente controlada por uma linguagem
semelhante ao código G ou assembly. As invenções de servomotores, derivações de motores e controladores relacionados foram a principal
ênfase em P&D. Resolver a cinemática e a dinâmica foram os principais problemas teóricos.
Quando foi mudado para Robotics 2.0, mais pesquisas foram sobre os projetos e experimentos de vários sensores,
incluindo sensores de força/torque, sensor tátil, sensores de proximidade, sensores de aceleração, sensores angulares, sensores
térmicos e câmeras 2D/3D que poderiam estender os recursos de robôs para sentir seus arredores e ganhar mais consciência
através de várias formas físicas. A teleoperação baseada em armas mestre-escravo também foi um dos principais temas desse
período. No entanto, em muitos cenários, os sistemas robóticos ainda funcionavam como ilhas isoladas.
Quando entrou na era digital, havia três características principais: 1. Melhorar a conectividade; 2. Melhorar a
percepção; e 3. Enriquecendo o fluxo de dados. Em termos de conectividade, integrando os conceitos de IoT e Indústria 4.0
em um ambiente industrial, a IIoT pode ser implementada e aplicada ao sistema robótico para monitorar, coletar,
examinar e verificar resultados valiosos. Mais algoritmos foram testados para melhorar as capacidades de conscientização
e interação dos robôs. Mais dados foram obtidos e puderam ser enviados para um servidor baseado em nuvem que foi
então compartilhado com vários usuários de forma mais produtiva. Ao combinar comunicação máquina a máquina, rede
segura e análise de big data, a IIoT capacita os sistemas robóticos com maior eficiência, produtividade e desempenho
otimizado. A figura a seguir mostra um estudo de caso sobre o robô colaborativo da ABB para montagem de chave de
fenda baseado em IIoT. Mais informações sobre este caso podem ser encontradas na referência [36].

Fig. 6. Robô colaborativo ABB para montagem de chave de fenda baseado em IIoT.

A figura a seguir ilustra os principais recursos da Robotics 1.0 a 4.0. Ao transitar da Robótica 3.0 para a Robótica 4.0, o sistema
robótico será mais festejado como: 1. Baseado em nuvem; 2. Interações naturais; 3. Inteligências híbridas e contínuas de
movimento, computação, percepção e cognição. Em primeiro lugar, um controlador principal baseado em nuvem serve como um
centro de computação centralizado de robôs fornecidos por um fornecedor. Pode ser chamado de Brain-on-Cloud (BoC). O BoC é
responsável pela computação, simulação e análise de ultra grande escala de dados, eventos e comportamentos. Então, cada
estação tem um sistema de controle distribuído que pode lidar com as circunstâncias e situações locais em tempo real. A interação
entre robô e humano será mais natural. O compartilhamento de informações vocais e baseadas em visão será mais frequente e
preciso.
Outro conceito essencial é chamado de Inteligência Artificial das Coisas (AIoT) [37]. A IoT e a IA alcançaram grandes avanços
separadamente nos últimos anos [38]. No entanto, como tornar a IoT mais inteligente com base em técnicas de IA ainda permanece um
enorme espaço aberto para os pesquisadores. O objetivo de integrar a IA à IoT é tornar os dispositivos de IoT em rede mais ágeis, sensíveis,
preditivos e resilientes para melhorar as qualidades de interação humano-robô e utilização de dados de várias fontes.
A figura a seguir mostra três Robôs Universais (URs) onde foram implantados na Learning Factory na W Booth School of
Engineering Practice and Technology, McMaster University. Cada um deles tinha arquiteturas e aplicativos de rede
relativamente diferentes. O UR-1, alimentado por uma câmera, foi instalado em cima de um Robô Industrial Móvel (MIR). O
UR-1 pode reconhecer o código de barras de várias caixas de onde pegar diferentes peças. o
Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599 597

a comunicação entre robô, câmera e MIR era baseada na API Representational State Transfer (REST), que na
verdade era baseada no HyperText Transfer Protocol (HTTP). O UR-1 foi capaz de navegar no porão do Edifício de
Tecnologia de Engenharia da Universidade McMaster para coletar e entregar vários itens e peças. O UR-2 foi
apresentado com várias garras auto-projetadas para lidar com diferentes aplicações em um acessório. O UR-2 foi
conectado ao Modbus e o último foi conectado ao Open Platform Communications (OPC). Esta estação foi
responsável principalmente pelos trabalhos de montagem. O UR-3, localizado na parte inferior da Fig. 8, serviu
como um veículo entre um transportador industrial e uma máquina-ferramenta de controle numérico
computadorizado (CNC) de 5 eixos. Ele transportou as peças do transportador e as colocou na estação do pórtico
XY.

Fig. 7. As principais características da Robotics 1.0 a 4.0.

Fig. 8. Robôs universais na SEPT Learning Factory.


598 Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599

Além da interação natural baseada no controle de voz, para comunicação máquina a máquina desta estação, o OPC foi
abordado pelo Modbus (que foi então conectado ao UR-3), OPC Unified Architecture (UA), DeviceNet do Allen Bradley
Programmable Logic Controller ( PLC) e Ethernet/IP, respectivamente. No geral, os três URs funcionaram como parte
integrante da Fábrica de Aprendizagem para navegação, coleta/colocação e montagem. Eles podem ser monitorados na
Interface Homem-Máquina (IHM) local ou remota para verificar o status do sistema, o progresso e o consumo de energia.

4. Conclusões

A robótica é um assunto multidisciplinar que envolve as integrações de engenharia mecânica, engenharia


elétrica, ciência da computação, comunicação e redes, inteligência artificial, sensores e tecnologia de materiais.
Acredita-se que atualmente tecnologias de ponta, incluindo sistema de acionamento integrado, sistema
operacional de robô, comunicação e conectividade, inteligência em nuvem, AIoT, etc., o robô pode apresentar
recursos mais avançados em termos de colaboração, percepção e autonomia, que acabam por contribuir próxima
geração de robôs na versão 4.0.

Referências

[1] LS Dalenogare, GB Benitez, NF Ayala, AG Frank, A contribuição esperada das tecnologias da Indústria 4.0 para o desempenho
industrial, International Journal of Production Economics, 204(2018) 383-394.
[2] AS Ullah, Modelagem e simulação de fenômenos de fabricação complexos usando sinais de sensores da perspectiva da Indústria 4.0,
Informática de Engenharia Avançada, 39 (2019) 1-13.
[3] F. Zezulka, P. Marcon, Z. Bradac, J. Arm, T. Benesl, I. Vesely, Sistemas de comunicação para a Indústria 4.0 e a IIoT, IFAC-PapersOnLine, 51(2018)
150-155.
[4] B. Xu, R. Cai, Z. Zhang, X. Yang, Z. Hao, Z. Li, Z. Liang, NADAQ: consulta de banco de dados de linguagem natural com base em aprendizado profundo, IEEE
Access, 7 (2019) 1 -6.
[5] S. Yang, W. Wang, C. Liu, W. Deng, Compreensão da cena em controladores de ponta a ponta baseados em aprendizado profundo para veículos
autônomos, Transações IEEE em Sistemas, Homem e Cibernética: Sistemas, 49( 2019) 53-63.
[6] Y. He, J. Guo e X. Zheng, Da vigilância ao gêmeo digital: desafios e avanços recentes do processamento de sinal para a internet industrial das
coisas, Revista IEEE Signal Processing, 35 (2018) 120-129.
[7] A. Monteiro, M. de Oliveira, R. de Oliveira, T. da Silva, Aplicação embarcada de redes neurais convolucionais em Raspberry Pi para SHM, Electronics
Letters, 54(2018) 680-682.
[8] A. Khalid, P. Kirisci, ZH Khan, Z. Ghrairi, KD Thoben, J. Pannek, Estrutura de segurança para sistemas ciberfísicos robóticos colaborativos industriais,
Computadores na Indústria, 97(2018) 132-145.
[9] E. Lovellette, H. Hexmoor, K. Rodriguez, Argumentação automatizada para colaboração entre atores de sistemas ciber-físicos na borda da Internet
das Coisas, Internet das Coisas, 5(2019) 84-96.
[10] N. Nikolakis, V. Maratos, S. Makris, Uma abordagem de sistema físico cibernético (CPS) para colaboração segura entre humanos e robôs em um local de trabalho
compartilhado, Robotics and Computer-Integrated Manufacturing, 56 (2019) 233-243.
[11] NM Arar, H. Gao, JP Thiran, Uma estrutura de calibração de usuário baseada em regressão para estimativa de olhar em tempo real, IEEE Transactions
on Circuits and Systems for Video Technology, 27 (2017) 2623-2638.
[12] H. Li, AV Savkin, Navegação baseada em rede de sensores sem fio de micro robôs voadores na internet industrial das coisas, IEEE Transactions
on Industrial Informatics, 14(2018) 3524-3533.
[13] YC Wu, Y. Jim Wu, SM Wu, Uma perspectiva de uma futura cidade inteligente em Taiwan, da pós-Internet das coisas à inteligência artificial Internet das
coisas, Smart Cities: Issues and Challenges, 2019, 263-282.
[14] N. Chivarov, D. Chikurtev, E. Markov, S. Chivarov, P. Kopacek, Robô de serviço telecontrolado orientado ao custo para aumentar a qualidade de
vida de idosos e deficientes, ROBCO 18, IFAC-PapersOnLine, 51( 2018) 192-197.
[15] M. Condoluci, G. Araniti, T. Mahmoodi, M. Dohler, Habilitando a era da máquina IoT com 5g: serviços multicast do tipo máquina para aplicativos inovadores
em tempo real, IEEE Access, 4(2016) 5555-5569.
[16] J. Hwang, J. Tani, Integração perfeita e coordenação de habilidades cognitivas em robôs humanóides: uma abordagem de aprendizado profundo,
IEEE Transactions on Cognitive and Developmental Systems, 10 (2018) 345-358.
[17] Saeid Mokaram, Jonathan M. Aitken, Uriel Martinez-Hernandez, Iveta Eimontaite, James Law, A API integrada ao ROS para o robô colaborativo
KUKA LBR iiwa, IFAC-PapersOnLine, Volume 50, Edição 1, julho de 2017, Páginas 15859 -15864
[18] Z. Forgo, A. Hypki, B. Kuhlenkoetter, programação de robôs baseada em gestos usando plataforma ROS, 50º Simpósio Internacional de Robótica, 2018,
Munique, Alemanha, 455-461
[19] http://design.ros2.org/articles/changes.html
[20] M. Uğur, O. Keysan, Otimização de projeto multifísico de um sistema de acionamento de motor modular integrado baseado em GaN, The Journal of Engineering, 17 (2019)
3900-3905
Zhen Gao et ai. / Procedia Manufacturing 46 (2020) 591–599 599

[21] O Parab, J. Ma, N. Maiti, I. Singh, R. Schmidt, Projeto de braço robótico colaborativo de 6 eixos, Projeto M. Eng, Escola de Prática e Tecnologia de
Engenharia, Universidade McMaster.
[22] https://blog.robotiq.com/bid/72633/7-Types-of-Industrial-Robot-Sensors
[23] S. Tsuji, T. Kohama, sensor de pele de proximidade usando sensor de tempo de voo para robô colaborativo humano, IEEE Sensors Journal, 19(2019)
5859-5864.
[24] M. Geiger, C. Waldschmidt, sensor de proximidade de radar de 160 GHz com antenas distribuídas e flexíveis para robôs colaborativos, IEEE Access, 7(2019)
14977-14984.
[25] Y. Li, W. Sheng, G. Yang, B. Liang, Z. Su, Z. Chen, quadro colaborativo baseado em assistente doméstico de fusão multissensor para robô social,
13º Congresso Mundial de Controle Inteligente e Automação (WCICA), 2018, Changsha, China.
[26] X. Wang, L. Kong, G. Chen, S. Lin, H. Tang, Co2-Robot: Um protocolo de comunicação colaborativa para robôs de enxame, IEEE 24th
International Conference on Parallel and Distributed Systems (ICPADS), 2018, Cingapura.
[27] M. Mukhandi, D. Portugal, S. Pereira, MS Couceiro, Uma nova solução para a segurança das comunicações de robôs com base no protocolo
MQTT e ROS, IEEE/SICE International Symposium on System Integration (SII), 2019, Paris, França .
[28] J. Zhang, interação homem-robô natural em sistemas de telepresença de realidade virtual, 2018 IEEE Conference on Virtual Reality and 3D User Interfaces
(VR), Reutlingen, Alemanha
[29] T. Masaki, M. Ando, T. Takei, H. Fujimoto, H. Mochiyama, Sistema de detecção de ondulação de superfície usando camada de pele artificial vestível com
medidor de tensão, 2nd IEEE International Conference on Soft Robotics (RoboSoft), 2019, Seul , Coréia
[30] T. Obo, R. Kawabata, N. Kubota, Interação cooperativa humano-robô baseada em gestos de apontar em espaço estruturado informacionalmente, 2018 World
Automation Congress (WAC), Stevenson, WA, EUA
[31] J. Quintas, GS Martins, L. Santos, P. Menezes, J. Dias, Rumo a uma estrutura de interação humano-robô sensível ao contexto baseada no desenvolvimento
cognitivo, IEEE Transactions on Systems, Man, and Cybernetics: Systems, 49 (2019) 227-237
[32] L. Joseph, S. Pramod, LS Nair, Reconhecimento de emoções em um robô social para terapia assistida por robô para tratamento de autistas usando
aprendizado profundo, 2017 Conferência Internacional sobre Avanços Tecnológicos em Energia e Energia (TAP Energy), 2017 Kollam, Índia
[33] R. Wason, Deep learning: Evolution and expansion, Cognitive Systems Research, 52(2018) 701-708
[34] E. Saquete, D. Tomás, P. Moreda, PM-Barco, M. Palomar, Combatendo a pós-verdade usando processamento de linguagem natural: Uma revisão e desafios abertos,
Sistemas especialistas com aplicativos, No prelo, pré-prova de revista , Disponível online em 9 de setembro de 2019, Artigo 112.943
[35] H. Hu, um robô educacional Arduino para experimentos visuais de aprendizado profundo, 14ª Conferência Internacional sobre Computação Natural,
Sistemas Fuzzy e Descoberta de Conhecimento (ICNC-FSKD), 2018, Huangshan, China
[36] J. Grimm, A. Hasselman, S. Nijjar, S. Riyaz, R. Schmidt, I. Singh, Z. Gao, Integração IIoT com robôs colaborativos: uma ferramenta multifuncional para a Fábrica
de Aprendizagem, Conferência Internacional sobre Móvel Interativo Comunicação, Tecnologias e Aprendizagem, 2018, Hamilton, Ontário, Canadá

[37] S. Mahfoudhi, M. Frehat, T. Moulahi, Aprimorando o desempenho da nuvem das coisas evitando dados desnecessários por meio de ferramentas de
inteligência artificial, 15ª Conferência Internacional de Comunicações Sem Fio e Computação Móvel (IWCMC), 2019, Tânger, Marrocos
[38] A. Ghosh, D. Chakraborty, A. Law, Inteligência artificial na Internet das coisas, CAAI Transactions on Intelligence Technology, 3(2018), IET,
208-218

Você também pode gostar