Você está na página 1de 23

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com

sensores

Análise

Tecnologia de captura de movimento em


aplicações industriais: uma revisão sistemática

Matteo Menolotto * , Dimitrios-Sokratis Komaris * , Salvatore Tedesco , Brendan O'Flynn and


Michael Walsh
Instituto Nacional Tyndall, University College Cork, T23 Cork, Irlanda; salvatore.tedesco@tyndall.ie (ST);
brendan.oflynn@tyndall.ie (BO); michael.walsh@tyndall.ie (MW)
* Correspondência: matteo.menolotto@tyndall.ie (MM); sokratis.komaris@tyndall.ie (D.-SK)
---- -
Recebido: 9 de setembro de 2020; Aceito: 2 de outubro de 2020; Publicado: 5 de outubro de 2020 ---

Abstrato:Os rápidos avanços tecnológicos da Indústria 4.0 abriram novos vetores para novos
processos industriais que exigem soluções de detecção avançadas para sua realização. Sensores
de captura de movimento (MoCap), como câmeras visuais e unidades de medição inercial (IMUs),
são frequentemente adotados em ambientes industriais para dar suporte a soluções em robótica,
manufatura aditiva, teletrabalho e segurança humana. Esta revisão sintetiza e avalia estudos que
investigam o uso de tecnologias MoCap em pesquisas relacionadas à indústria. Foi realizada uma
busca no Embase, Scopus, Web of Science e Google Scholar. Foram considerados apenas estudos
em inglês, a partir de 2015, sobre aplicações industriais primárias e secundárias. A qualidade dos
artigos foi avaliada com a ferramenta AXIS. Os estudos foram categorizados com base no tipo de
sensores usados, setor industrial beneficiário, e tipo de aplicação. As características do estudo, os
principais métodos e resultados também foram resumidos. No total, 1.682 registros foram
identificados e 59 foram incluídos nesta revisão. Vinte e um e 38 estudos foram avaliados como
propensos a riscos médios e baixos de viés, respectivamente. Sensores baseados em câmeras e
IMUs foram usados em 40% e 70% dos estudos, respectivamente. Construção (30,5%), robótica
(15,3%) e automotivo (10,2%) foram os setores da indústria mais pesquisados, enquanto saúde e
segurança (64,4%) e melhoria de processos ou produtos industriais (17%) foram as aplicações
mais visadas. Os sensores inerciais foram a primeira escolha para aplicações industriais de MoCap.
Os sistemas MoCap baseados em câmeras tiveram melhor desempenho em aplicações robóticas,
mas as obstruções de câmeras causadas por trabalhadores e máquinas foram o problema mais
desafiador.

Palavras-chave:saúde e segurança; IMU; indústria 4.0; rastreamento de movimento; controle do robô; sensores vestíveis

1. Introdução

A captura de movimento (MoCap) é o processo de rastreamento e recodificação digital dos movimentos de


objetos ou seres vivos no espaço. Diferentes tecnologias e técnicas foram desenvolvidas para capturar o movimento.
Sistemas baseados em câmeras com câmeras infravermelhas (IR), por exemplo, podem ser usados para triangular a
localização de corpos rígidos retrorrefletivos ligados ao assunto alvo. As câmeras sensíveis à profundidade,
projetando luz em direção a um objeto, podem estimar a profundidade com base no atraso de tempo da emissão de
luz até a detecção de luz retroespalhada [1]. Sistemas baseados em sensores inerciais [2], Campos electromagnéticos [
3] e potenciômetros que rastreiam os movimentos relativos de estruturas articuladas [4] também existem. Os
sistemas híbridos combinam diferentes tecnologias MoCap para melhorar a precisão e reduzir as oclusões da câmera
[5]. A pesquisa também se concentrou no manuseio e processamento de conjuntos de dados de alta dimensão com
uma ampla gama de técnicas de análise, como aprendizado de máquina [6], filtros de Kalman [7], agrupamento
hierárquico [8] e mais.

Sensores2020,20, 5687; doi:10.3390/s20195687 www.mdpi.com/journal/sensors


Sensores2020,20, 5687 2 de 23

Graças à sua versatilidade, as tecnologias MoCap são empregadas em uma ampla gama de aplicações. Em
ambientes clínicos e de saúde, eles auxiliam no diagnóstico e tratamento de doenças físicas, por exemplo,
revisando a função motora de um paciente ou comparando registros anteriores para ver se uma abordagem
de reabilitação teve o efeito desejado.9]. As aplicações esportivas também se beneficiam do MoCap, quebrando
o movimento dos atletas para analisar a eficiência da postura atlética e fazer modificações para melhorar o
desempenho [10]. Em ambientes industriais, o MoCap é predominantemente usado no entretenimento.11] e
indústria de jogos [12], seguido por relativamente poucas aplicações industriais nos setores de robótica [13],
automotivo [14] e construção [15]. No entanto, a necessidade de equipamentos altamente especializados,
rotinas de calibração regulares, volumes de captura limitados, marcadores inconvenientes ou trajes
especializados, bem como os custos significativos de instalação e operação dos sistemas MoCap, têm impedido
a adoção de tais tecnologias em outros sistemas primários (ou seja, extração de matérias-primas e produção
de energia) e aplicações industriais secundárias (ou seja, fabricação e construção). No entanto, a quarta
revolução industrial trouxe novas formas de processos industriais que exigem soluções de detecção avançadas
e inteligentes; à medida que a tecnologia MoCap se torna mais conveniente e acessível [16], e aplicável em
ambientes desafiadores [17], sua aplicação torna-se mais atrativa para uma gama maior de cenários
industriais.
Como as tecnologias industriais estão em constante mudança e evolução para atender às
demandas de diferentes setores, é importante acompanhar o progresso tecnológico e as novas
tendências em avanços de hardware e software. Revisões anteriores focaram em MoCap em robótica [13
], terapia clínica e reabilitação [18], animação por computador [12] e esportes [19]; no entanto, o uso de
MoCap para aplicações industriais ainda não foi registrado de forma sistemática. O objetivo deste
trabalho é relatar o desenvolvimento e aplicação de diferentes soluções MoCap comerciais e sob medida
em ambientes industriais, apresentar os setores que mais se beneficiam delas (por exemplo, robótica e
construção) e identificar as aplicações mais direcionadas (por exemplo, infraestrutura vigilância e saúde
e segurança dos trabalhadores). Nessa linha, esta revisão visa fornecer informações sobre os recursos
(por exemplo, estimativa robusta de pose) e limitações (por exemplo, ruído e obstruções) da solução
MoCap na indústria, juntamente com as soluções de análise de dados e aprendizado de máquina que são
usadas em conjunto com Tecnologias MoCap para melhorar a potência dos sensores,

2. Materiais e métodos

2.1. Procurar estratégia

Este estudo foi alinhado com a declaração Preferred Reported Item for Systematic review and Meta-Analysis (PRISMA) [
20]. Foi realizada uma pesquisa bibliográfica nas bases de dados Embase, Scopus e Web of Science de 9 a 16 de março de
2020. Títulos, resumos e palavras-chave dos autores foram selecionados com uma string de pesquisa de quatro componentes
usando operadores booleanos. Os três primeiros componentes da string foram vinculados a operadores AND e foram
formados por palavras-chave e suas variações ortográficas que estão associadas à análise de movimento (por exemplo,
biomecânica, cinemática, posição), aos sensores usados para capturar o movimento (por exemplo, IMUs) e o ambiente
industrial (por exemplo, indústria, ocupação, fábrica), respectivamente. Um operador NOT precedeu a quarta seção da string
que era uma concatenação de termos separados dos objetivos desta revisão (por exemplo, cirurgia, terapia, esportes,
animais). O Google Acadêmico também foi empregado para rastrear palavras-chave em resumos que foram publicados até
um ano antes da busca na literatura. As strings de pesquisa completas usadas no Google Scholar e para cada pesquisa de
banco de dados também estão incluídas no ApêndiceUMA.
Os estudos atenderam aos critérios de inclusão se fossem escritos em inglês e publicados a partir de janeiro de
2015. A busca incluiu tanto na imprensa como artigos publicados que foram publicados em revistas científicas ou
anais de conferências. Artigos de revisão e resumos de conferências foram todos excluídos deste trabalho, pois
normalmente não relatam todos os elementos das tabelas predefinidas que foram usadas para extração de dados.
Para garantir a consistência da comparação, apenas estudos que empregam ativamente sensores projetados para
medir diretamente o movimento (ou seja, a posição, deslocamento, velocidade ou
Sensores2020,20, 5687 3 de 23

aceleração de um objeto) para aplicações industriais primárias e secundárias; neste contexto, uma aplicação industrial foi
definida como qualquer processo relacionado com a extração de matérias-primas (por exemplo, metais ou agricultura), ou a
fabricação e montagem de bens (por exemplo, automóveis ou edifícios). Portanto, documentos de prova de conceito que não
foram testados experimentalmente, simulações e estudos sobre trabalhadores de colarinho branco (por exemplo, escritório
ou outros trabalhadores não manuais) e foram excluídos; além disso, trabalha empregando sensores que podem medir
indiretamente o movimento (por exemplo, eletromiografia (EMG) em conjunto com algoritmos de aprendizado de máquina [
21]) também foram omitidos. Os artigos foram incluídos apenas se o tamanho da amostra dos participantes (quando
aplicável) e o tipo, número e localização de todos os sensores utilizados foram relatados. Os artigos de periódicos foram
priorizados no evento em que seus conteúdos também foram abordados em publicações anteriores da conferência; nos casos
em que essa sobreposição foi apenas parcial, várias publicações foram incluídas.

Todos os artigos foram importados para um software padrão de publicação e gerenciamento de bibliografias e as
duplicatas foram removidas automaticamente. Dois revisores independentes examinaram todos os títulos e resumos e
rotularam cada artigo com base em sua conformidade com os objetivos do estudo. Os artigos que ambos os revisores
consideraram não conformes com os critérios de inclusão predefinidos foram excluídos da revisão posterior. Os artigos
restantes foram então totalmente selecionados, e cada revisor forneceu as razões para cada exclusão. Os conflitos entre os
revisores foram debatidos até que ambas as partes concordassem com uma conclusão. Finalmente, as listas de referência de
todos os artigos aprovados foram navegadas para descobrir artigos elegíveis que não foram encontrados anteriormente;
mais uma vez, ambos os revisores realizaram individualmente triagens de texto completo e avaliaram todas as publicações
recém-encontradas.

2.2. Avaliação do risco de viés

Dois revisores avaliaram o risco de viés e a qualidade de todos os estudos considerados usando uma versão adaptada
da ferramenta de avaliação AXIS para estudos transversais [22]. As questões 6, 7, 13, 14, 15 e 20 da ferramenta original de
avaliação AXIS foram desconsideradas, pois avaliam questões que muitas vezes não são aparentes em estudos sobre
aplicações industriais, como coleta de amostras de populações representativas, não respondedores, não respondedores
preconceito e consentimento dos participantes. Os demais elementos da lista AXIS foram adaptados para formar doze
questões que podiam ser respondidas com “sim” ou “não” e foram utilizados para avaliar cada estudo (Tabela1) somando
todas as respostas afirmativas e fornecendo uma pontuação final de 12. Os estudos com classificação abaixo de 6 foram
vistos como de alto risco de viés, enquanto os estudos com classificações acima de 7 e 10 foram considerados de médio ou
baixo risco, respectivamente. As classificações médias dos estudos de ambos os revisores também foram computadas para
confirmar a consistência da avaliação entre avaliadores.

Tabela 1.Questões de avaliação de risco e qualidade da ferramenta AXIS modificada.

Pergunta EIXO
INTRODUÇÃO
Número Código da pergunta

Q1 1 Os objetivos/objetivos do estudo foram claros?


MÉTODOS
Q2 2 O desenho do estudo foi apropriado para o(s) objetivo(s) declarado(s)?
O tamanho da amostra foi justificado, claramente definido e retirado de um
Q3 3, 4 e 5
população?
Q4 8 As variáveis de desfecho medidas foram adequadas aos objetivos do estudo?
As variáveis de resultado foram medidas corretamente usando
Q5 9 instrumentos/medidas que foram testados, pilotados ou publicados
anteriormente?
Está claro o que foi usado para determinar a significância estatística e/ou precisão?
Q6 10
estimativas? (por exemplo,p-valores, intervalos de confiança)
Q7 11 Os métodos foram suficientemente descritos para permitir sua repetição?
RESULTADOS

Q8 12 Os dados básicos foram descritos adequadamente?


Q9 16 Os resultados foram apresentados para todas as análises descritas nos métodos?
DISCUSSÃO
Sensores2020,20, 5687 4 de 23

Tabela 1.Cont.

Pergunta EIXO
INTRODUÇÃO
Número Código da pergunta

Q10 17 As discussões e conclusões dos autores foram justificadas pelos resultados?


Q11 18 As limitações do estudo foram discutidas?
OUTRO
Houve alguma fonte de financiamento ou conflito de interesse que possa afetar o
Q12 19
interpretação dos autores dos resultados?

2.3. Extração de dados

Os dados de todos os artigos considerados foram extraídos por cada revisor de forma independente usando tabelas pré-
definidas. Os dados cumulativos registrados foram sistematicamente monitorados por ambas as partes para garantir a coleta de dados
coerente. Nomes dos autores, ano de publicação, tamanho da amostra, colocação do sensor (combinados: máquinas, corpo superior,
inferior ou completo), número e tipos de todos os sensores usados (por exemplo, IMU ou câmeras), sistemas de validação secundária
(quando aplicável) e principais achados foram todos registrados. Em referência aos seus respectivos objetivos amplos, todos os artigos
considerados foram alocados em quatro grupos com base no objetivo de garantir a saúde e segurança dos trabalhadores (por
exemplo, avaliação postural, prevenção de lesões musculoesqueléticas, detecção de tropeções e quedas), para aumentar diretamente
a produtividade dos trabalhadores (por exemplo, localização dos trabalhadores e análise do caminho a pé), para realizar
monitoramento de máquinas e controle de qualidade (por exemplo, inspeções de ferramentas de corte), ou para melhorar um
processo industrial (por exemplo, sistemas de montagem híbridos) ou o design de um produto (por exemplo, assentos de carro). Se
uma obra pode se enquadrar em mais de uma categoria [23] (por exemplo, saúde e segurança e produtividade dos trabalhadores), o
papel foi alocado na categoria de maior destaque. Além disso, foi registrado o setor industrial diretamente beneficiado (por exemplo,
construção, aeroespacial, automotivo ou energia); no caso de uma aplicação generalizada, o artigo correspondente foi rotulado como
“genérico”. Estudos que empregaram aprendizado de máquina foram registrados adicionalmente, juntamente com o algoritmo usado,
tipo de dados de entrada, conjunto de dados de treinamento, saída e desempenho.

3. Resultados

3.1. Procurar Resultados

A pesquisa no banco de dados retornou 1682 registros (Figura1). Após a remoção de duplicatas (n = 185), os
títulos, palavras-chave e resumos de 1.497 artigos foram selecionados e 1.353 registros foram excluídos por não
atenderem aos critérios de inclusão. Os demais artigos (n = 144) foram avaliados quanto à elegibilidade e 47 artigos
foram retidos na análise final. Mais doze registros foram adicionados após a triagem das listas de referência dos
artigos elegíveis, elevando o número total de estudos incluídos para 59. Quatro, 13 e 16 registros foram publicados
em 2015, anualmente de 2016 a 2018, e em 2019, respectivamente, subjacentes o crescente interesse da comunidade
de pesquisa sobre o tema.

3.2. Avaliação de risco

Vinte e um e 38 estudos foram avaliados como propensos a riscos médios e baixos de viés, respectivamente
(Tabela2). Nenhum dos artigos considerados obteve pontuação inferior a seis na lista de verificação de avaliação
empregada. Todos os artigos revisados apresentaram medidas confiáveis (Q5) e conclusões justificadas por seus
resultados (Q10); ainda assim, muitos autores relataram ou justificaram inadequadamente as características da
amostra (Q3, 37%), limitações do estudo (Q11, 53%) e fontes de financiamento ou possíveis conflitos (Q12, 51%).
Estatísticas (Q6, 81%) e métodos gerais (Q7, 88%) foram tipicamente descritos em profundidade. Geralmente, os
estudos foram avaliados favoravelmente em relação a todos os demais itens do instrumento de avaliação empregado
(Q1, 95%; Q2, 92%; Q4, 93%; Q8, 98%; Q9, 93%). As avaliações de ambos os revisores foram consistentes e
comparáveis com pontuações médias de revisão de 9,9±1,6 e 9,9±0,9.
Sensores2020,20, 5687 5 de 23

Figura 1.Estratégia de pesquisa Item reportado preferencial para revisão sistemática e fluxograma de meta-análise
(PRISMA).

Mesa 2.Avaliação do risco de viés.

Risco de viés Pontuação Estudar Número de estudos

Alto 0–6 - 0
Médio 7 [24,25] 2
Médio 8 [23,26–33] 8
Médio 9 [34–45] 12
Baixo 10 [14,15,36,46–60] 19
Baixo 11 [17,61–70] 11
Baixo 12 [71–77] 7

3.3. Tecnologias MoCap na Indústria

Nos estudos revisados, a estimativa de pose e posição foi realizada com sensores inerciais ou baseados em câmera (ou
seja, RGB, infravermelho, profundidade ou câmeras ópticas), ou em combinação entre si (Tabela3). Sensores inerciais têm sido
amplamente empregados em todos os setores da indústria (49,2% dos trabalhos revisados), seja o objeto rastreado uma
ferramenta automatizada, o efetor final de um robô [30,37,64], ou o operador [27,36,39]. Em 30,5% dos estudos analisados,
dispositivos de prateleira baseados em câmeras, como RGB, IR e câmeras de profundidade, principalmente provenientes da
indústria de jogos (por exemplo, Microsoft Kinect e Xbox 360), foram empregados com sucesso para rastreamento de
atividade humana, e classificação de gestos ou posturas [25,77]. Sensores inerciais e baseados em câmera foram usados em
sinergia em 10,2% dos trabalhos considerados, no rastreamento do corpo do operador durante o trabalho de parto ou na
interação do operador com um sistema automatizado (por exemplo, braço robótico). EMG, redes de banda ultralarga (UWB),
sensores resistivos de dobra ou sonares de varredura
Sensores2020,20, 5687 6 de 23

foram usados juntamente com IMUs para melhorar a pose e estimativa de posição em cinco estudos (8,5%). Um estudo
também acoplou um sensor IMU com um CCTV e medições de rádio. Geralmente, sensores baseados em IMU e câmera foram
usados consistentemente na indústria durante os últimos 5 anos (Figura2).

Tabela 3.Sensores usados nos estudos relatados.

Número de Percentagem
Sensores Estudar
Estudos de Estudos

IMUs [24,26–30,35–37,39,44,47–51,58–60,64–66,69,71–76] 29 49,2%

Sensores baseados em câmera * [14,23,25,32–34,38,41–43,46,52,53,55,67,68,70,77] 18 30,5%

IMUs + Sensores baseados em câmera [15,45,56,61–63] 6 10,2%

IMUs + Outras Tecnologias [17,31,54,57,78] 5 8,5%


IMUs + baseado em câmera +
[40] 1 1,7%
Outras tecnologias
* Sensores baseados em câmera incluem câmeras RGB, infravermelhas, de profundidade ou ópticas.

Figura 2.Número de publicações por ano dividido por tipo de tecnologia MoCap adotada.

Considerando que os sensores mais utilizados na indústria foram IMUs (por exemplo, Xsens MVN) e sistemas de
câmera baseados em marcadores ou sem marcadores (por exemplo, Kinect), suas características, vantagens e
desvantagens também foram mapeadas4) para avaliar como cada tipo de sensor é adequado às diferentes aplicações.
Naturalmente, as características de cada sistema variam muito em função do número, posicionamento, configurações
e requisitos de calibração dos sensores, porém, recomendações gerais podem ser feitas para a adoção de um
determinado tipo de sensor para tarefas distintas. Além disso, dado o nível necessário de precisão, volume de captura,
limitações de orçamento e local de trabalho ou outras considerações, a Tabela4mostra as especificações e aplicações
industriais mais favorecidas para cada tipo de sensor (por exemplo, reconhecimento de atividade ou colaboração
humano-robô).

Tabela 4.Características dos sistemas MoCap mais utilizados.

Sensores

Baseado em câmera
IMUs
Baseado em marcadores Sem marcador

Muito alto (0,1 mm e 0,5◦)1; Baixo (estático, 0,0348 m [79])


Precisão Alta (0,75◦para 1,5◦)3 sujeito a número/local sujeito à distância de
de câmeras Câmera

Para a frente; sujeito Requer tempo e Geralmente requer tabuleiro de xadrez


Configurar
ao número de IMUs calibrações frequentes calibrações
Sensores2020,20, 5687 7 de 23

Tabela 4.Cont.

Sensores

Baseado em câmera
IMUs
Baseado em marcadores Sem marcador

Apenas sujeito à distância Campo de visualização: 70,6◦×60◦; faixa de


Capturar volumes Varia; até 15×15×6m1
da estação (se necessário) profundidade de 8 m5

De USD 50 por unidade a


Varia; a partir de US$ 5.0002para
Custo de instalação mais de US$ 12.000 por um USD 2005por unidade
US$ 150.0001
terno de corpo inteiro4

Facilidade de uso e dados Geralmente dados brutos do sensor Geralmente altamente automatizado, Requer feito sob medida
em processamento para arquivos ASCII produz cinemática 3D completa algoritmos de processamento

Invasão (individual) Mínimo Alta (fixação dos marcadores) Mínimo


Alta (normalmente, 6 a 12 câmeras Médio (normalmente, 1 a 4
Invasão (local de trabalho) Mínimo
sistemas) sistemas de câmeras)

Necessidade de linha de visão Não Sim Sim


Portabilidade Sim Limitado Sim
Normalmente até 20 m de Baixo: alcance de rastreamento do esqueleto
Variar Até 30 m de câmera para marcador1
estação3(se sem fio) de 0,5 m a 4,5 m5
Geralmente de 60 a Normalmente até 250 Hz1(sujeito Varia; 15–30Hz5ou mais alto
Taxa de amostragem
120 Hz3(se sem fio) para resolução) para câmeras de alta velocidade

Requer software sob medida,


Geralmente requer software sob
Programas Requer software de prateleira soluções de prateleira não
medida ou pronto para uso
acessível
Fontes de ruído e Ferromagnético Interferência IR com
de Meio Ambiente distúrbios, Luz brilhante e vibrações cobertura sobreposta, ângulo de
interferência mudanças de temperatura superfície observada

Obstruções da câmera,
Drift, duração da bateria, sem
Outras limitações Obstruções da câmera dificuldades em rastrear brilhantes ou
rastreamento direto da posição
objetos escuros

Reconhecimento de atividade [31],


identificação de Colaboração homem-robô [42], Acompanhamento de atividades [34],
Aplicativos favoritos
eventos/poses perigosos planejamento de trajetória do robô [52] classificação de gestos ou poses [25,45,53]
[44,58,60,65,66,69,75]

1Com base em um layout de amostra com 24 Primex41 câmeras Optritrack.2Baseado em um layout de amostra com 4 câmeras Flex
3 Optritrack.3Baseado nas especificações do Xsens MTW Awinda.4Baseado no Xsens MVN.5Baseado no Kinect V2.

3.4. Tipos de Setores da Indústria

Mais frequentemente, as tecnologias MoCap foram adotadas pela indústria da construção (Tabela5, 30,5%),
seguido por aplicações no aperfeiçoamento de robôs industriais (22%), fabricação de automóveis e bicicletas (10,2%) e
agricultura e madeira (8,5%). Em algumas ocasiões, os autores se envolveram em aplicações nas indústrias alimentícia
(5,1%) e aeroespacial (3,4%), enquanto as indústrias de energia, petróleo e siderurgia foram discutidas em um único
estudo (1,7%). Todas as aplicações restantes foram consideradas genéricas (22%) com exemplos típicos de estudos
que monitoram a fadiga física [48,71], postura [45] e dor pescoço-ombro [74] em trabalhadores. Construção,
aplicações genéricas e robóticas foram os únicos tópicos pesquisados em 2015, enquanto aplicações automotivas,
agrícolas e industriais de alimentos foram exploradas todos os anos após 2016; As tecnologias MoCap nas indústrias
aeroespacial, energética, siderúrgica e petrolífera foram divulgadas apenas recentemente (Figura3, deixei).

Tabela 5.Tipos de setores da indústria sugeridos direta ou indiretamente como potenciais destinatários das soluções
MoCap desenvolvidas nos trabalhos revisados.

Número de Percentagem
Indústria Estudar
Estudos de Estudos

Indústria de construção [15,24,36,39,40,44,47,55,58–60,63,65,66,69,75,76,78] 18 30,5%

Genérico [14,23,25,26,31,45,48,53,54,71,73,74,77] 13 22,0%


Sensores2020,20, 5687 8 de 23

Tabela 5.Cont.

Número de Percentagem
Indústria Estudar
Estudos de Estudos

Fabricação de robôs industriais [30,32,33,41–43,46,52,57] 9 15,3%

Indústria automotiva e de ciclismo [28,29,34,38,61,62] 6 10,2%

Agricultura e Madeira [50,51,56,67,68] 5 8,5%


Indústria alimentícia [27,70,72] 3 5,1%
Fabricação Aeroespacial [35,49] 2 3,4%
Indústria de energia [17] 1 1,7%
Indústria petrolífera [37] 1 1,7%
Indústria siderúrgica [64] 1 1,7%

Figura 3.Número de publicações por ano e tipo de setor da indústria (deixei) e aplicação (certo).

3.5. Aplicações Industriais MoCap

As técnicas de MoCap para aplicações industriais foram usadas principalmente para a avaliação de riscos de saúde e
segurança no ambiente de trabalho (Tabela6, 64,4%), enquanto a fadiga e a postura adequada foram os problemas mais
visados [48,49,72]. O interesse de pesquisa da indústria em aplicações de MoCap de saúde e segurança aumentou de forma
constante ao longo do período revisado (Figura3, certo). A avaliação de produtividade foi a segunda aplicação mais difundida
(20,3%), com estudos tipicamente visando identificar ineficiências ou abordagens alternativas para melhorar os processos
industriais. Da mesma forma, as técnicas de MoCap também foram empregadas para melhorar diretamente a produtividade
dos trabalhadores (10,1%), enquanto 8,5% dos estudos se concentraram no monitoramento de tarefas [17] ou no controle de
qualidade de um processo industrial [30].

Tabela 6.Aplicações genéricas de MoCap na indústria.

Número de Percentagem
Formulários Estudar
Estudos de Estudos

[14,15,25–29,33,35,36,39,41,42,44,45,47–51,53–55,
Saúde e Segurança dos Trabalhadores 38 64,4%
58–60,65,66,69–78]
Aperfeiçoamento de Industriais
[32,43,46,52,56,57,61,62,67,68] 10 17,0%
Processo ou Produto

Produtividade dos Trabalhadores


[23,24,31,34,38,40] 6 10,1%
Melhoria
Monitoramento de Máquinas e
[17,30,37,63,64] 5 8,5%
Controle de qualidade
Sensores2020,20, 5687 9 de 23

3.6. Processamento de dados MoCap

Na maioria dos trabalhos revisados, as gravações brutas dos sensores foram submetidas à sincronização de
dados, pré-processamento e classificação. A sincronização de dados foi ocasionalmente relatada como parte do
estágio de pré-processamento e incluída no algoritmo de fusão de dados [24,34,36], mas detalhes técnicos foram
frequentemente omitidos nos estudos revisados [27,28]; ainda, quando a estratégia de sincronização foi relatada,
uma unidade de controle mestre [36,50,51,54] ou uma rede de comunicação comum [15,31,67] foram usados.
Diferentes taxas de amostragem de fluxos de dados foram abordadas por interpolação linear e correlação cruzada [73
] técnicas, ou introduzindo um evento conhecido que aciona todos os sensores [29,47,49,55].
Na fase de pré-processamento, os dados foram filtrados para mitigar o ruído e desvio de endereço, outliers e
pontos ausentes nos fluxos de dados (para evitar a dessincronização, por exemplo), depois foram fundidos e
processados para extrair os valores numéricos de interesse ; nos estudos considerados por esta revisão, isso foi
alcançado principalmente por meio de filtros passa-baixa (por exemplo, Butterworth de ordem n, janela deslizante e
filtros medianos) [15,31,40,45,58,61–63,66,69,73,75,77], filtros de Kalman [17,28,29,40,41,51,54,57,60,71,73] e filtros
passa-banda quando os dados EMG foram coletados [29,49–51,54]. O desvio de dados inerciais, um problema típico
de sensores inerciais, às vezes era abordado no estágio de pré-processamento, implementando métodos de filtragem,
como a técnica de atualização de velocidade zero.44,59,60].
A classificação dos dados foi obtida por meio do estabelecimento de limites ou por meio de classificadores de
aprendizado de máquina. Um exemplo de limite foi dado por [39], onde a flexão do tronco de mais de 90◦foi selecionado para
identificar um alto risco ergonômico, ou por [31] onde a posição do centro de massa do operador e o aumento da pressão da
palma da mão identificaram uma tarefa de alcançar e pegar. Tais limites foram obtidos com base em observações ou modelos
e padrões estabelecidos (por exemplo, RULA: Avaliação Rápida de Membros Superiores e REBA: pontuações de Avaliação
Rápida de Todo o Corpo). Técnicas de aprendizado de máquina foram empregadas em 18,6% dos trabalhos revisados (Tabela
7), com o objetivo de construir um sistema não supervisionado ou semissupervisionado capaz de melhorar sua própria
robustez e precisão ao mesmo tempo em que aumenta o número de resultados que foram corretamente previstos. Os
algoritmos mais utilizados foram Rede Neural Artificial (RNA), Support Vector Machine (SVM) e Random Forest (RF), sendo ANN
e SVM mais empregados para classificação binária ou de três grupos, enquanto floresta aleatória para classificação
multiclasse. A precisão dos algoritmos de aprendizado de máquina desenvolvidos normalmente variou de 93% a 99% (Tabela7
).

Tabela 7.Abordagens de classificação de aprendizado de máquina.

Máquina
Estudar Dados de entrada Conjunto de dados de treinamento Saída de Classificação Precisão
Modelo de Aprendizagem

Magnitude de linear e angular Rotulado manualmente


[24] ANN, k-NN Reconhecimento de atividade 94,11%
aceleração. sequências de vídeo

Oito componentes de movimento diferentes


2.000 dados de amostra
(trajetórias de posição 2D, magnitude 2 estados de fadiga
[71] SVM pontos manualmente 90%
do perfil de vel., acc. e jerk, (Sim ou não)
rotulado
ângulo e velocidade).

Sensor rotulado Tipo de pontos de referência (elevador,


[63] Classificador Bayes Aceleração. 96,8% *
recursos de dados escada, etc)
Velocidade de corte, taxa de alimentação,
Corte rotulado
profundidade de corte e as três amplitudes do Condição da ferramenta gasta
[64] ANN e dados de vibração 94,9%
espectro de pico dos sinais de vibração (Sim ou não)
de 9 experimentos
em 3 direções.
Quaternions, aceleração 14 Atividades (por exemplo,
k-NN, MLP, RF, Rotulado manualmente Melhor RF,
[36] tridimensional, velocidade linear e flexão e
SVM sequências de vídeo com 79,83%
velocidade angular. curvar-se)
Ângulos articulares avaliados a partir de um
Rotulado manualmente
[25] RF modelo artificial construído a partir de uma 5 posturas diferentes 87,1%
sequências de vídeo
segmentação de imagens de profundidade.

[47] ANN Aceleração tridimensional. Conjunto de dados rotulado Caminhar/escorregar/viagem 94%


Recursos de comparação de profundidade (DCF) Conjunto de dados rotulado de
[53] RF 7 posturas de pontuação RULA 93%
a partir de imagens de profundidade. 5.000 imagens
Sensores2020,20, 5687 10 de 23

Tabela 7.Cont.

Máquina
Estudar Dados de entrada Conjunto de dados de treinamento Saída de Classificação Precisão
Modelo de Aprendizagem

Conjunto de dados adquirido Objetos leves, grandes


[57] DAG-SVM Ângulo de rotação e sinais EMG. com objeto conhecido objetos e pesados 96,67%
peso objetos

Conjunto de dados normal 2 estados (caminhada,


[69] SVM de uma classe Aceleração. 86,4%
amostras de caminhada quedas quase perdidas)

Conjunto de dados pré-existente


Distância do ponto mais próximo, curvatura
[32] CNN de objetos de Tipo de objeto 97,3% *
e cor HSV.
YOLO [80]
* Precisão combinada do processo de classificação e a taxa de sucesso da tarefa. Abreviaturas usadas:
RNA = Rede Neural Artificial; k-NN = k-Vizinho mais próximo; SVM = Máquina de Vetor de Suporte; MLP = Perceptron
Multicamada; DAG = Gráfico Acíclico Dirigido; CNN = Rede Neural Convolucional; HSV = Valor de saturação de matiz.

3.7. Projetos de estudo e avaliações de precisão

No geral, os estudos revisados lidaram com amostras pequenas de menos de vinte participantes, com exceção
de Tao et al. [56], Müller et ai. [38] e Hallman et al. [74] que recrutou 29, 42 e 625 participantes, respectivamente.
Dezoito, 13 e 8 estudos colocaram sensores IMU na parte superior, total e inferior do corpo, respectivamente,
enquanto seis autores anexaram IMUs em máquinas (Tabela8). Dos 41 estudos que empregaram unidades inerciais
(70% de todos os trabalhos), a maioria dos autores utilizou menos de três sensores (25 estudos, Tabela8), enquanto
sete grupos usaram 17 sensores, como parte de um modelo biomecânico pré-desenvolvido com sistemas como o
Xsens MVN, para capturar movimentos de corpo inteiro. O posicionamento do sensor para todos os estudos que não
adotaram modelos pré-desenvolvidos está representado graficamente na Figura4. Seis estudos acompanharam
tecnologias de rastreamento de movimento com sensores EMG [29,49–51,54,57], dois com plataformas de força [73,75
], dois com tapetes de pressão [61,62] e um com sapatos instrumentados [73]. Dois trabalhos também usaram o
headset de realidade virtual Oculus Rift para avaliar remotamente locais industriais e controlar elementos robóticos [
39,43]. A precisão de rastreamento dos sistemas desenvolvidos foi avaliada diretamente em relação aos sistemas
MoCap padrão ouro (por exemplo, Vicon ou Optotrack; Table8, em negrito) em seis obras [14,15,55,59,73,77],
enquanto a precisão de classificação ou identificação de um processo foi frequentemente avaliada com inspeção
visual de câmeras de vídeo ou telefone [15,29,36,44,60,63,69]. Um diagrama completo mostrando as conexões entre o
tipo de indústria, aplicação e sistema MoCap, para cada estudo considerado também é apresentado na Figura5.

Tabela 8.Resumo dos desenhos e resultados do estudo.

Amostra Sensor Número de Sistemas MoCap e


Estudar Resultados do estudo
Tamanho Canal IMUs Sensores Complementares

A avaliação das trilhas dos trabalhadores em linhas de


6×Kinect, montagem mostrou uma diferença média de 0,86 m em
[34] 1 -
16×IRCs ARTtrack2 a distância entre o planejado e o registrado
trilhar caminhos.

Reconhecimento de atividade de mais de 90% entre


Superior
[24] 1 1 - as diferentes atividades de construção; precisão
Corpo
muito boa nas medições de duração da atividade.

Ambos os substitutos de teste de colisão de carro testados


16×VICON IRCs
tiveram pontuações ISO gerais comparáveis; THOR-M obteve melhor
(50×marcadores passivos),
[61] 8 - 3 pontuação nos dados de aceleração e velocidade angular;
1×sensor de pressão,
Híbrido III teve maior média ISO/TS 18571
2×células de carga da correia
pontuações em dados de excursão.

As IMUs podem discriminar descanso de trabalho, mas são


Frequência cardíaca, pele
Superior menos precisas diferenciando trabalho moderado de trabalho
[26] 11 2 temperatura, umidade do ar,
Corpo árduo. A atividade é um preditor confiável de estresse por frio
temperatura e VO2
para trabalhadores em ambientes de clima frio.

Mais baixo Detecção de fadiga de trabalhadores com precisão


[71] 20 1 -
Corpo de 80%.
Sensores2020,20, 5687 11 de 23

Tabela 8.Cont.

Amostra Sensor Número de Sistemas MoCap e


Estudar Resultados do estudo
Tamanho Canal IMUs Sensores Complementares

Os trabalhadores da vinha gastaram mais de 50% do seu


tempo com o tronco flexionado por mais de 30◦.
[72] 15 Tronco 1 1×algômetro eletrônico
Não há relação entre a duração da flexão para frente
ou rotação do tronco e a intensidade da dor.

Prova de conceito de um sistema MoCap para


[23] 1 - - 4×Kinect avaliação do trabalho humano em montagem
estações de trabalho.

Trabalhadores levantando barris de diferentes alturas


[27] 5 Corpo todo 17 -
mostraram diferentes ângulos de flexão/extensão do tronco.

Prova de conceito de um sistema IMU para análises


[28] 2 Corpo todo 7 - posturais de trabalhadores, com aplicação exemplar
na indústria automotiva.

Não houve diferenças significativas em termos de postura


corporal entre os assentos de caminhão testados; a pressão
4×IRCs Optotrack (ativos
máxima e média do assento foi maior com assentos padrão da
[62] 20 Tronco 3 marcadores), 2×Xsensor
indústria; a flexão média do tronco foi maior
almofadas de pressão
com assentos padrão da indústria por 16% dos
RoM total.
Em tarefas de construção, a precisão da avaliação
1×UWB, 1×Neurônio de percepção, automática de risco de segurança foi de 83%, em
[78] 3 Tronco 17
1×câmera do telefone comparação com os resultados da avaliação de vídeo
por um especialista em segurança.

A precisão do rastreamento de posição de veículos


1×escaneamento mecânico operados remotamente em uma usina nuclear foi
[17] - Maquinário 1
sonar dentro do nível do centímetro quando comparado a um
método de posicionamento visual.

As diferenças quadráticas médias entre os


1×Certus Optotrak, 6× forças manuais estimadas e medidas durante
[73] 16 Corpo todo 17 Kistler FPs, 2×Xsens tarefas de manuseio manual de materiais de IMUs e
sapatos instrumentados sapatas de força instrumentadas variaram entre
17-21N.
Prova de conceito de um sistema de análise de movimento
[81] 1 Corpo todo - 4×câmeras de profundidade para avaliação do trabalho humano em montagem
estações de trabalho.

Demonstrou um sistema IMU MoCap para avaliação da


[35] 10 Corpo todo 17 - postura dos trabalhadores no espaço aeroespacial
indústria.

1×câmera vestível, Prova de conceito de um sistema EMG e IMU para


[29] 1 Tronco 4 3×câmeras de vídeo 6 a avaliação de risco da biomecânica dos trabalhadores
×Sensores BTS EMG sobrecarga nas linhas de montagem.

Mais tempo gasto em atividades físicas de lazer foi


associado a menores níveis de dor em um período
[74] 625 Corpo todo 4 - superior a 12 meses. Dependendo do sexo e do trabalho
domínio, a alta atividade física teve um
efeito sobre o curso da dor ao longo de 12 meses.

Localização tridimensional de alvo distante


[63] - Maquinário 1 1×câmera do celular objetos na indústria com erros médios de
posição de 3% na localização dos objetos visados.
Detecção de desgaste de ferramentas em máquinas CNC
[64] - Maquinário 1 - usando um acelerômetro e uma rede neural artificial
com uma precisão de 88,1%.

Distinguir tarefas de baixo risco de queda (caminhar


Mais baixo confortável) de tarefas de alto risco (carregar um lado
[65] 8 1 1×câmera de vídeo
Corpo carga ou caminhada em alta velocidade) na construção
trabalhadores andando em vigas I.

Usar um arnês carregado com ferramentas


comuns de ferreiros pode ser considerado um
[75] 10 Tronco 1 1×plataforma de força
tarefa de risco de queda, enquanto segura uma caixa de ferramentas ou

agachamento como uma tarefa de alto risco.

Teleoperação do efetor final de um robô através da


imitação do movimento do braço do operador com
[46] 1 Tronco - 1×Kinect
uma similaridade de 96% entre demonstrado e
trajetórias imitadas.
Sensores2020,20, 5687 12 de 23

Tabela 8.Cont.

Amostra Sensor Número de Sistemas MoCap e


Estudar Resultados do estudo
Tamanho Canal IMUs Sensores Complementares

A estatística Shapiro-Wilk da métrica de aceleração


usada pode distinguir os movimentos dos trabalhadores em
[66] 10 Tronco 1 -
ambientes perigosos (piso escorregadio) de
áreas não perigosas.
A estabilidade da marcha ao caminhar em aço revestido
Mais baixo
[76] 16 1 - superfícies de vigas é muito afetada pela
Corpo
escorregadia das superfícies (p=0,024).

Dois sensores IMU no quadril e pescoço ou cabeça


mostrou precisão de reconhecimento de movimento semelhante
[36] 1 Corpo todo 17 1×câmera de vídeo
(superior a 0,75) para um modelo de corpo inteiro de 17
IMUs (0,8) para classificação de movimento.

Classificação postural em operações de montagem a partir de


um fluxo de imagens de profundidade com precisão de 87%;
[25] 8 Corpo todo - 1×Kinect
semelhante, mas sistematicamente superestimado
pontuações do EAWS.

Identificação de eventos de escorregamento e tropeço na caminhada


Mais baixo dos trabalhadores usando um acelerômetro ANN e telefone com
[47] 3 1 -
Corpo precisão de detecção de 88% para escorregamento, e
94% para tropeçar.

Vibrações de alta frequência podem ser detectadas por


[30] - Maquinário 2 - acelerômetros comuns e podem ser usadas para
Monitoramento de soldador a ponto micro série.

As medições da IMU e dos sensores de força foram usadas para


E-luva da ênfase um reconhecimento da atividade do operador
[31] 1 Corpo todo 17
Telemática modelo para tarefas de pegar e colocar (precisão
96,12%).
IMUs foram um melhor preditor de fadiga do que o ECG. Os
[48] 8 Corpo todo 4 1×ECG movimentos do quadril podem prever o nível de
cansaço físico.
A orientação de um robô (face do relógio e ângulos
de orientação) para inspeção de tubos pode ser
[37] - Maquinário 1 -
estimado por meio de um modelo inverso usando um
IMU a bordo.
A reconstrução da pose 3D pode ser alcançada por
Sistema de análise de movimento integrando restrições morfológicas e
[77] 12 Corpo todo - (45×marcadores passivos), visão computacional discriminativa. O
2×filmadoras desempenho foi dependente da atividade e foi
afetada pela oclusão do self e do objeto.

Trabalhadores em uma colheita de banana se adaptam ao


1×aperto manual
[49] 3 Corpo todo 17 posição dos cachos e das ferramentas utilizadas
dinamômetro, 1×EMG
levando ao risco musculoesquelético e fadiga.

Um estudo de caso sobre a utilidade da integração das


Superior
[50] 2 8 6×EMG tecnologias cinemática e EMG para avaliar a
Corpo
sobrecarga biomecânica em linhas de produção.

Demonstração de um protocolo integrado EMG-


Superior
[51] 2 8 6×EMG IMU para avaliação postural durante atividades de
Corpo
trabalho, testado em ambiente automotivo.

4×IRCs (5×passiva Planejamento da trajetória do robô de soldagem com


[52] - Maquinário -
marcadores) erro na trajetória do efetuador inferior a 3 mm.

A transferência de conhecimento de montagem entre os


trabalhadores é mais rápida com instruções impressas do que
[38] 42 - - 1×Kinect com o local de trabalho de montagem inteligente desenvolvido
sistema (p-valor = 7×10−9) conforme testado no
montagem de um e-hub de bicicleta.

RULA em tempo real para a análise ergonômica para


[53] - - - 1×Kinect operações de montagem em ambientes industriais
com precisão de 93%.
Sensores de smartphones para monitorar o corpo dos trabalhadores
[39] - - 3 1×Kinect, 1×Oculus rift posturas, com erros nas medidas de
flexões de tronco e ombros de até 17◦.
Prova de conceito de uma plataforma MoCap em tempo real,
permitindo que os trabalhadores trabalhem remotamente em
[67] - - - 1×Kinect um problema comum de engenharia durante uma sessão de
colaboração, auxiliando na colaboração
projetos, tarefas de inspeção e verificações.
Sensores2020,20, 5687 13 de 23

Tabela 8.Cont.

Amostra Sensor Número de Sistemas MoCap e


Estudar Resultados do estudo
Tamanho Canal IMUs Sensores Complementares

Um sistema de posicionamento para rastrear pessoas em


1×CFTV, rádio canteiros de obras com precisão de
[40] - - 1
transmissor aproximadamente 0,8 m na trajetória de
o alvo.
Um sistema vestível sem fio para avaliação de riscos de
Superior distúrbios musculoesqueléticos relacionados ao trabalho
[54] 10 3 EMG
Corpo com precisão de cálculo de 95% e 45% do RULA
e métricas SI, respectivamente.

Avaliação ergonômica RULA em condições


1×Kinect,15×Vicon IRC reais de trabalho usando Kinect com
[14] 12 - -
(47×marcadores passivos) pontuações em comparação com observações de especialistas

(p=0,74).
Digitalização do processo de carregamento de rodas
2×Kinect, 1×laser na indústria automotiva, para rastrear o cubo da roda
[68] - - -
rastreador de movimento em movimento com um erro menor que o necessário
tolerância de montagem de 4 mm.

Uma demonstração de uma trajetória em tempo real


algoritmo de geração para colaboração humano-
robô que prevê o espaço que o trabalhador humano
[41] - - - 1×Kinect, 1×Xção
pode ocupar dentro do tempo de parada do robô e
modifica a trajetória para
garantir a segurança do trabalhador.

Uma demonstração de um algoritmo de prevenção de


Superior 1×OptiTrack V120: Trio
[42] - - colisões para robótica visando evitar colisões com
Corpo sistema
obstáculos sem perder as tarefas planejadas.

Uma abordagem baseada em visão e sensor de medição


angular para medir os movimentos dos trabalhadores. As
1×Kinect, 1×abelha abordagens baseadas em visão tiveram cerca de 5 a 10 graus
Mais baixo câmera XB3, 1× de erro nos ângulos do corpo (desempenho do Kinect),
[55] - -
Corpo filmadora 3D,2×Optotrack enquanto uma abordagem baseada em sensor de medição
IRCs, 1×Goniômetro angular mediu os ângulos do corpo
com cerca de 3 graus de erro durante
diversas tarefas.

Usando o Oculus rift para controlar robôs remotos para


1×Oculus Rift, 2×
interface homem-computador. O método supera o
[43] - - - Olho PlayStation
mouse em tempo de subida, porcentagem
máquinas fotográficas
overshoot e tempo de acomodação.

Maquinário
Método de prova de conceito para a avaliação de
[56] 29 e superior 6 11×IRC Águia Digital
conforto da postura sentada em um veículo.
Corpo

Uma demonstração de um sistema de monitoramento da


Superior
[45] - 7 1×Kinect postura humana visando estimar a amplitude de movimento dos
Corpo
ângulos do corpo em ambientes industriais.

Prova de conceito de um sistema de rastreamento de movimento em


Superior tempo real para processos de montagem visando identificar
[33] - - 1×Sistema HTC Vive
Corpo se as partes do corpo do trabalhador humano entrarem no
espaço de trabalho restrito do robô.
Uma demonstração de um sistema para a
[15] 6 Corpo todo 8 1×câmera de vídeo identificação de posturas prejudiciais em
canteiros de obras.
Um sistema vestível para tarefas de montagem
colaborativa humano-robô usando intenções e
Superior
[57] 10 1 8×EMG gestos de transferência. Gestos e intenções de
Corpo
diferentes indivíduos foram reconhecidos com
taxa de sucesso de 73,33% a 90%.

Superior Detecção de quase acidentes de trabalhadores da


[58] 2 1 -
Corpo construção civil com 74,9% de precisão e 89,6% de recall.

Detecte e documente automaticamente quedas de quase acidente a


Superior
[69] 5 1 - partir de dados cinemáticos com 75,8% de recuperação e
Corpo
Precisão de detecção de 86,4%.

Uma demonstração de um método para detectar


Mais baixo
[44] 4 2 câmeras de vídeo riscos de segurança no local de trabalho de ferreiros por
Corpo
analisando anomalias da marcha.
Sensores2020,20, 5687 14 de 23

Tabela 8.Cont.

Amostra Sensor Número de Sistemas MoCap e


Estudar Resultados do estudo
Tamanho Canal IMUs Sensores Complementares

Na identificação dos riscos de queda física na construção, os


Mais baixo resultados mostraram uma forte correlação entre a localização
[60] 9 1 câmeras de vídeo
Corpo dos riscos e o comportamento dos trabalhadores.
respostas (0,83).
Distinguir as condições perigosas das normais
Mais baixo em canteiros de obras com 1,2 a 6,5 erro
[59] 4 2 Sistema de IRC Osprey
Corpo percentual absoluto médio em não-perigo e 5,4
a 12,7 em ambientes perigosos.
Apresentação de um sistema de visão robótica baseado em
[32] - - - 1×câmera de vídeo CNN e um algoritmo de Monte Carlo com uma taxa de
sucesso de 97,3% para a tarefa pick-and-place.

Um sistema que visa alertar uma pessoa durante a


lavagem das mãos se for detectada aplicação inadequada
[70] 15 - - 1×câmera de profundidade
de sabão com base em gestos com as mãos, com 94%
precisão de detecção de gestos.

Em negrito: Sistemas de validação.IRC: câmera infravermelha; THOR-M: dispositivo de teste para contenção de ocupantes humanos; VO2:
consumo de oxigênio; FP: plataforma de força; EAWS: Planilha de montagem europeia; ECG: eletrocardiograma; CNC = Controle Numérico
Computadorizado.

Figura 4.Colocação de IMUs nos estudos revisados. Os modelos pré-desenvolvidos são excluídos.
Sensores2020,20, 5687 15 de 23

Figura 5.As relações entre tipo de indústria, aplicação e sistema MoCap, para cada estudo considerado. Os
índices no topo de cada ramo especificam o número de estudos associados a cada bloco.

4. Discussão

A Indústria 4.0 introduziu novos processos que exigem soluções de detecção avançadas. O uso de tecnologias MoCap
na indústria vem aumentando constantemente ao longo dos anos, permitindo o desenvolvimento de soluções inteligentes
que podem fornecer estimativa avançada de posição, auxiliar em processos automatizados de tomada de decisão, melhorar a
inspeção de infraestrutura, permitir a teleoperação e aumentar a segurança dos trabalhadores humanos . A maioria dos
sistemas MoCap usados na indústria eram baseados em IMU (em 70% dos estudos, Tabela3), enquanto os sensores
baseados em câmera foram empregados com menos frequência (40%), provavelmente devido ao aumento do custo
operacional e de processamento e outras limitações funcionais, como obstruções de câmera por trabalhadores e máquinas,
que foram relatados como os problemas mais desafiadores [25,45,55]. Os resultados sugerem que a seleção do sistema
MoCap ideal a ser adotado foi impulsionado principalmente pelo tipo de aplicação (Figura5); por exemplo, o monitoramento e
o controle de qualidade foram alcançados principalmente por meio de sensores IMUs, enquanto a melhoria da produtividade
por meio de sistemas baseados em câmeras (sem marcadores). O tipo de indústria foi o segundo fator que influenciou na
escolha de um sistema MoCap (Figura5);
Sensores2020,20, 5687 16 de 23

por exemplo, em um ambiente altamente dinâmico, como em canteiros de obras, onde a configuração do
espaço físico muda ao longo do tempo, os sensores inerciais vestíveis eram a melhor opção, pois podiam
garantir uma avaliação robusta e contínua da saúde e segurança do operador . Em vez disso, na fabricação de
robôs industriais, onde as restrições ambientais são conhecidas e constantes, as questões de saúde e
segurança foram abordadas principalmente por sistemas baseados em câmeras.
O aumento do uso de IMUs promoveu o desenvolvimento de métodos algorítmicos avançados (por exemplo,
filtros de Kalman e aprendizado de máquina, Tabela7) para processamento de dados e estimativa de parâmetros que
não são medidos diretamente com sistemas inerciais [17]. As tecnologias optoeletrônicas tiveram melhor
desempenho e maior precisão de rastreamento em tarefas de colaboração humano-robô.33] e planejamento de
trajetória do robô [32,46,52], devido às condições favoráveis em tais aplicações (por exemplo, o volume de trabalho
limitado e as configurações conhecidas do robô) que permitiram que as câmeras evitassem obstruções. Em geral, os
sistemas híbridos que incorporam sensores de visão e inerciais apresentam desempenho de rastreamento
aprimorado em ambientes industriais ruidosos e altamente dinâmicos, compensando problemas de deriva de
sensores inerciais e oclusões de longo prazo que podem afetar sistemas baseados em câmeras.15,40]. Por exemplo,
em Papaioannou et al. [40], o erro de rastreamento de trajetória causado por oclusão em um sistema híbrido foi
aproximadamente metade daquele de um sistema de rastreamento baseado em câmera.
A saúde e segurança dos trabalhadores foi considerada a área de pesquisa mais prolífica. Embora os sensores
vestíveis sejam amplamente utilizados em ambientes clínicos para o monitoramento remoto de parâmetros
fisiológicos (por exemplo, frequência cardíaca, pressão arterial, temperatura corporal, VO2), apenas um único estudo [
26] empregou vários sensores para a medição de tais métricas em cenários industriais. Isso pode ser atribuído ao
interesse das indústrias envolvidas na prevenção de incidentes relacionados ao trabalho que podem levar ao
afastamento do trabalho, e não na função normativa do corpo de trabalhadores. Conforme previsto, a pesquisa em
saúde e segurança se concentrou nas condições musculoesqueléticas mais comuns (por exemplo, dores nas costas) e
lesões (por exemplo, viagens ou lesões devido à má postura corporal), enquanto as indústrias em que os
trabalhadores lidam com cargas biomecânicas pesadas ou alto risco de acidentes (por exemplo, construção, Tabela5)
foram as indústrias que impulsionaram a pesquisa. Fadiga e desconforto postural também foram detectados com
sucesso por tecnologias de MoCap inerciais vestíveis.27,39,49,71,72]. Quando os sistemas MoCap foram combinados
com sensores EMG (Tabela8), a avaliação musculoesquelética e postural de trabalhadores durante atividades físicas
genéricas (Tabela5) foi melhorado [29,48–51,54,57]. Os sensores inerciais também apresentaram bons resultados para
a identificação de eventos perigosos, como tropeços e quedas na construção civil.44,58,60,65,66,69,75], mas as
posições e os números das IMUs usadas foram relatados para impactar na identificação da atividade intra-sujeito [26].
Por exemplo, menos IMUs colocadas em seções anatômicas específicas (por exemplo, quadril e pescoço) mostraram
desempenho de classificação de tarefas semelhante a um número maior de IMUs distribuídos em todo o corpo36]. Em
Kim et ai. [36], um classificador de tarefa baseado em apenas duas IMUs no quadril e na cabeça do sujeito atingiu uma
precisão de 0,7617 contra 0,7983 do classificador baseado em 17 IMUs colocadas em todo o corpo. O reconhecimento
de atividades também foi bem realizado pelas IMUs, e combinado com medições de duração das atividades,
possibilitou a avaliação da produtividade dos trabalhadores nos canteiros de obras [24]. Esse tema também foi foco de
interesse de mais de 10% dos estudos nos últimos anos (Tabela6). No entanto, quando a avaliação envolveu a
identificação ou classificação de tarefas [26], sensores secundários eram frequentemente necessários além das IMUs
(células de força, sensores de temperatura, etc.).
Avanços também foram relatados no desenvolvimento de algoritmos de classificação de dados eficientes que
requerem grandes fluxos de dados, como classificadores baseados em aprendizado de máquina (Tabela7). O uso de
tais algoritmos foi documentado em 11 trabalhos de um total de 59, e foi acompanhado com um alto nível de
precisão. A saída de classificação dos algoritmos revisados diferiu muito entre os trabalhos revisados e abrangeu
aplicações desde detecção de atividade e fadiga até monitoramento de condição de ferramenta e reconhecimento de
objeto (Tabela7). No entanto, a necessidade de grandes conjuntos de dados de treinamento, que geralmente exigem
rotulagem manual especializada para ser produzida, contradizia os tamanhos de amostra muito pequenos que
normalmente eram recrutados (Tabela8) e, portanto, potencialmente impedindo o uso mais amplo do aprendizado de
máquina além da prova de conceito em casos aplicados na indústria. A falta geral de informações sobre a capacidade
em tempo real dos algoritmos de classificação apresentados também foi identificada como um
Sensores2020,20, 5687 17 de 23

potencial desvantagem na aplicação no mundo real, sugerindo que é necessário mais trabalho para enfrentar esse
desafio. No entanto, os trabalhos revisados geralmente delinearam a capacidade dos sensores MoCap em conjunto
com soluções de aprendizado de máquina para fornecer soluções para reconhecimento de atividades, inspeção de
ferramentas e avaliação ergonômica no local de trabalho. Essas descobertas destacaram como a atividade de
pesquisa em sistemas vestíveis para aplicações industriais está indo para soluções que podem ser facilmente
incorporadas em panos de trabalho. Melhorar os fatores-chave, como usabilidade, lavabilidade, duração da bateria,
armazenamento de dados e computação de borda será, portanto, essencial. Essa melhoria no design do hardware
terá um impacto direto na quantidade e na qualidade da coleta de dados. Isso também terá um efeito benéfico no
desenvolvimento de software, especialmente para aplicativos de aprendizado de máquina, onde uma grande
quantidade de dados é necessária. Nesse sentido, devem ser feitas tentativas para o desenvolvimento e distribuição
comercial de algoritmos de processamento que melhorem a facilidade de uso de tais sistemas e o processamento de
dados.
Avaliação direta da precisão e desempenho de rastreamento de um sistema MoCap desenvolvido [14,55] foi
geralmente obtido por meio de comparações com um sistema baseado em câmera de alta precisão. Este é até agora o
processo mais confiável, pois garante uma referência de verdade do terreno adequada. No entanto, o desempenho de
processos algorítmicos (por exemplo, avaliação de posturas corporais ou detecções de quedas por quase acidente) foi
tipicamente validado contra observações visuais de gravações de vídeo [69] ou a verdade básica que foi fornecida por
especialistas na área [78], e, portanto, potencialmente influenciando a precisão do respectivo método. No que diz
respeito à utilização de soluções MoCap comercialmente disponíveis, foi feita uma comparação das suas limitações,
vantagens e aplicabilidade a aplicações industriais (Tabela4), enquanto a precisão dos sistemas MoCap prontos para
uso também foi extensivamente revisada por van der Kruk e Reijne [82].
Embora todos os trabalhos revisados tenham sido avaliados individualmente como propensos a médio e
baixo risco de viés (Tabela2), a principal limitação em nível de estudo foi que mais da metade dos trabalhos
revisados (51%) não relatou adequadamente fontes de financiamento e conflito. Isso pode ser uma indicação
de uma fonte crítica de viés, particularmente em estudos conduzidos diretamente pela indústria beneficiária ou
em trabalhos que demonstram sistemas MoCap que podem estar comercialmente disponíveis no futuro. Uma
limitação desta revisão decorre do potencial viés de publicação e relatórios seletivos entre os estudos, o que
pode afetar o acúmulo de evidências completas no campo. Esforços de órgãos da indústria para incorporar
aplicativos MoCap em suas instalações que não tiveram sucesso ou não foram divulgados em revistas
científicas provavelmente foram negligenciados nesta revisão. Finalmente, outra limitação em nível de revisão
decorre do curto período de revisão que restringiu o relato dos achados em um período de cinco anos; no
entanto, o período de revisão selecionado retornou um número adequado de registros para a justificativa de
conclusões e exposição de tendências (por exemplo, Figura3), além de facilitar o relato de vários aspectos dos
artigos revisados, como o desenho dos estudos e os principais achados (Tabela8).

5. Conclusões

Esta revisão sistemática destacou como a estrutura da indústria 4.0 levou os ambientes industriais a incorporar
lentamente as soluções MoCap, principalmente para melhorar a saúde e segurança dos trabalhadores, aumentar a
produtividade e melhorar um processo industrial. Predominantemente, a pesquisa foi impulsionada pelos setores de
construção, fabricação de robôs e automotivo. As IMUs ainda são vistas como a primeira escolha para tais aplicações,
pois são relativamente simples em sua operação, econômicas e apresentam impacto mínimo no fluxo de trabalho
industrial em tais cenários. Além disso, sensores inerciais adquiriram, ao longo dos anos, requisitos de desempenho
(por exemplo, baixo consumo de energia, modularidade) e tamanho para serem aplicados também no
monitoramento da atividade corporal, principalmente na forma de sistemas vestíveis prontos para uso.
Nos próximos anos, os sensores e sistemas que serão utilizados em aplicações industriais avançadas se tornarão
mais inteligentes com funções integradas e algoritmos embutidos, como aprendizado de máquina e filtros Kalman,
que serão incorporados no processamento de fluxos de dados recuperados por IMUs , a fim de aumentar sua
funcionalidade e apresentar um substituto para sistemas MoCap baseados em câmeras altamente precisos (e caros).
Além disso, espera-se que os sistemas se tornem menores e portáteis para interferir menos nos trabalhadores e no
local de trabalho, enquanto o (bio)feedback em tempo real deve acompanhar
Sensores2020,20, 5687 18 de 23

aplicações de saúde e segurança para auxiliar na adoção e aceitação de tais tecnologias pelos trabalhadores da
indústria. Os sistemas MoCap sem marcadores, como o Kinect, são de baixo custo e oferecem precisão
adequada para determinadas tarefas de classificação e rastreamento de atividades; no entanto, devem ser
feitas tentativas para o desenvolvimento e distribuição comercial de algoritmos de processamento que
melhorem sua facilidade de uso e capacidade de realizar tarefas de processamento de dados. A optoeletrônica
tem sido amplamente e consistentemente utilizada em robótica nos últimos anos, particularmente no campo
de pesquisa de sistemas colaborativos e demonstrou aumentar a segurança dos operadores humanos. No
futuro, a queda de preço dos sensores optoeletrônicos e o lançamento de soluções híbridas e de fusão de
dados mais compactas e fáceis de implementar,83–85], levará a menos obstruções nos locais de trabalho e
melhorará a praticidade das abordagens baseadas em câmeras em outros setores da indústria.

Contribuições do autor:Conceituação, MM, D.-SK, ST, BO e MW; metodologia, MM e D.-SK; análise formal, MM
e D.-SK; investigação, MM e D.-SK; curadoria de dados, MM e D.-SK; redação—preparação do rascunho original,
MM e D.-SK; redação – revisão e edição, MM, D.-SK, ST, BO e MW; visualização, MM e D.-SK; supervisão, ST, BO e
MW; aquisição de financiamento, ST, BO e MW Todos os autores leram e concordaram com a versão publicada
do manuscrito.
Financiamento:Esta pesquisa foi financiada em parte pela Science Foundation Ireland sob a concessão número 16/
RC/3918 (CONFIRM), que é co-financiada pelo Fundo Europeu de Desenvolvimento Regional. Aspectos desta
publicação resultaram de pesquisas realizadas com o apoio financeiro da Science Foundation Ireland sob o número
de Grant 12/RC/2289-P2 (INSIGHT) e 13/RC/2077-CONNECT que são co-financiados pelo Fundo Europeu de
Desenvolvimento Regional.

Conflitos de interesse:Os autores declaram que não têm interesses financeiros concorrentes conhecidos ou
relacionamentos pessoais que possam ter influenciado o trabalho relatado neste artigo.

Apêndice A

Tabela A1.Strings de pesquisa do banco de dados.

Base de dados Seqüência de pesquisa

('motion analys*':ab,kw,ti OR 'movement analys*':ab,kw,ti OR 'motion monitor*':ab,kw,ti OR


'biomech*':ab,kw,ti OR 'kinematic *':ab,kw,ti OR 'position*':ab,kw,ti OR 'location*':ab,kw,ti) AND
('motion capture':ab,kw,ti OR 'mocap':ab, kw,ti OU 'acceleromet*':ab,kw,ti OU 'rastreamento de
movimento':ab,kw,ti OU 'sensor vestível*':ab,kw,ti OU 'sensor inercial*':ab,kw,ti OU 'medida
inercial*':ab,kw,ti OU 'imu':ab,kw,ti OU 'magnetomet*':ab,kw,ti OU 'giroscópio*':ab,kw,ti OU
'mems':ab, kw,ti) AND ('industr*':ab,kw,ti OR 'fabricante*':ab,kw,ti OR 'ocupação*':ab,kw,ti OR
Embase
'factory':ab,kw,ti OR ' assembly':ab,kw,ti OR 'safety':ab,kw,ti) NOT ('animal':ti,kw OR 'surg*':ti,kw OR
'reabilitação':ti,kw OR 'doença*' :ti,kw OU 'esporte*':kw,ti OU 'terapia*':kw,ti OU 'tratamento':kw,ti OU
'paciente':kw,ti) E ([artigo]/lim OU [artigo no prelo]/lim OU [documento de conferência]/lim OU
[revisão de conferência]/lim OU [documentos de dados]/lim OU [revisão]/lim) AND [inglês]/ lim AND
[abstracts]/lim AND ([embase]/lim OR [medline]/lim OR
[pubmed-not-medline]/lim) AND [2015–2020]/py AND [medline]/lim
TITLE-ABS-KEY (“análise de movimento*” OU “análise de movimento*” OU “monitor de movimento*”
OU biomecânico* OU cinemático* OU posição* OU localização*) E TITLE-ABS-KEY(“captura de
movimento” OU mocap OU aceleromet* OU “rastreamento de movimento” OU sensor vestível* OU
“sensor inercial*” OU “medida inercial*” OU imu OU magnetomet* OU giroscópio* OU mems) E
Scopus
TÍTULO-ABS-KEY(indústria* OU fabricação* OU ocupação* OU fábrica OU montagem OU segurança)
AND PUBYEAR > 2014 AND (LIMIT-TO (PUBSTAGE, “final”)) AND (LIMIT-TO (DOCTYPE, “cp”) OU LIMIT-
TO (DOCTYPE, “ar”) OU LIMIT-TO (DOCTYPE, “cr”) OU LIMIT-TO (DOCTYPE, “re”))

TS = (imu OR “sensor vestível*” OU vestível*) AND TS = (“análise de movimento*” OU “faixa de movimento*”


OU “análise de movimento*” OU “análise de movimento*” OU biomecânica* OU cinemática*) AND TS =
Web da ciência (indústria* OU manufatura* OU ocupação* OU fábrica OU montagem OU segurança) NÃO TS = (animal* OU
paciente*) NÃO TS = (cirurgia* OU reabilitação OU doença* OU esporte* OU terapia* OU tratamento* OU
reabilitação OU “colheita de energia*”)

(“movimento|análise de movimento|monitoramento” OR biomecânica OR cinemática OR posição OR


Google Scholar Localização) (“captura de movimento|rastreamento” OR mocap OR acelerômetro OR “vestível|sensor
inercial|medição” OR mems) (indústria OR manufatura OR ocupação OR fábrica OR segurança)
Sensores2020,20, 5687 19 de 23

Referências

1. Zhang, Z. Sensor Kinect da Microsoft e seu efeito.Multimídia IEEE2012,19, 4-10. [CrossRef]


2. Roetenberg, D.; Luinge, H.; Slycke, P. Xsens MVN: Rastreamento de movimento humano 6DOF completo usando sensores inerciais em
miniatura. Xsens Motion Technologies BV.Tecnologia Representante2009,1.
3. Bohannon, RW; Harrison, S.; Kinsella-Shaw, J. Confiabilidade e validade do teste de pêndulo medidas de espasticidade obtidas com o
sistema de rastreamento Polhemus de pacientes com acidente vascular cerebral crônico.J. Neuroeng. Reabil. 2009,6, 30. [
CrossRef]
4. Parque, Y.; Lee, J.; Bae, J. Desenvolvimento de uma luva sensora vestível para medir o movimento dos dedos usando
potenciômetros lineares e fios flexíveis.Trans. IEEE Ind. Informar.2014,11, 198-206. [CrossRef]
5. Sistema de captura de movimento híbrido visual e sem fio da Bentley, M.. Patente dos EUA 9.320.957, 26 de abril de 2016.
6. Komaris, D.-S.; Perez-Valero, E.; Jordan, L.; Barton, J.; Hennessy, L.; O'Flynn, B.; Tedesco, S.; OrFlynn, B. Prevendo
forças tridimensionais de reação do solo em execução usando redes neurais artificiais e cinemática inferior do
corpo.Acesso IEEE2019,7, 156779-156786. [CrossRef]
7. Jin, M.; Zhao, J.; Jin, J.; Yu, G.; Li, W. O filtro de Kalman adaptativo baseado em lógica fuzzy para sistema de captura de
movimento inercial.Medição2014,49, 196-204. [CrossRef]
8. Komaris, D.-S.; Govind, C.; Clarke, J.; Ewen, A.; Jeldi, A.; Murphy, A.; Riches, PL Identificando estratégias de movimento de
entrada de carros antes e depois da artroplastia total do joelho.Int. Biomec.2020,7, 9-18. [CrossRef]
9. Aminian, K.; Najafi, B. Capturando o movimento humano usando sensores fixos no corpo: medição ao ar livre e
aplicações clínicas.Computar. Animação Mundos virtuais2004,15, 79-94. [CrossRef]
10. Tamir, M.; Oz, G. Rastreamento de objetos em tempo real e captura de movimento em eventos esportivos. Pedido de Patente dos EUA Nº
11/909.080, 14 de agosto de 2008.
11. Bregler, C. Tecnologia de captura de movimento para entretenimento [no centro das atenções].Sinal IEEE. Processo. Mag.2007, 24. [
CrossRef]
12. Geng, W.; Yu, G. Reutilização de dados de captura de movimento em animação: uma revisão. DentroAnais das Notas de Aula em
Ciência da Computação; Springer Science and Business Media LLC: Berlim/Heidelberg, Alemanha, 2003; págs. 620-629.
13. Campo, M.; Stirling, D.; Naghdy, F.; Pan, Z. Captura de movimento na revisão de robótica. In Proceedings of the 2009 IEEE
International Conference on Control and Automation; Instituto de Engenheiros Elétricos e Eletrônicos (IEEE),
Christchurch, Nova Zelândia, 9–11 de dezembro de 2009; págs. 1697-1702.
14. Plantard, P.; Shum, HPH; Le Pierres, A.-S.; Multon, F. Validação de um método de avaliação ergonômica usando dados do
Kinect em condições reais de trabalho.Aplic. Ergon.2017,65, 562-569. [CrossRef]
15. Valero, E.; Sivanathan, A.; Bosché,F.; Abdel-Wahab, M. Análise dos movimentos do corpo do trabalhador da construção civil usando
uma rede de sensores de movimento vestível e sem fio.Autom. Constr.2017,83, 48-55. [CrossRef]
16. Brigante, CMN; Abbate, N.; Basile, A.; Faulisi, AC; Sessa, S. Rumo à miniaturização de um sistema de captura de
movimento vestível baseado em MEMS.Trans. IEEE Ind. Elétron.2011,58, 3234-3241. [CrossRef]
17. Dong, M.; Li, J.; Chou, W. Um novo método de posicionamento para veículo operado remotamente da usina
nuclear.Ind. Robô. Int. J.2019,47, 177-186. [CrossRef]
18. Hondori, HM; Khademi, M. Uma revisão sobre o impacto técnico e clínico do Microsoft Kinect na fisioterapia
e reabilitação.J. Med. Eng.2014,2014, 1-16. [CrossRef] [PubMed]
19. Barris, S.; Button, C. Uma revisão da análise de movimento baseada em visão no esporte.Méd. Esportivo.2008,38, 1025-1043. [
CrossRef] [PubMed]
20. Moher, D.; Liberati, A.; Tetzlaff, J.; Altman, UG Itens de relatório preferidos para revisões sistemáticas e
meta-análises: A declaração PRISMA.PLoS Med.2009,6, e1000097. [CrossRef] [PubMed]
21. Loconsole, C.; Leonardis, D.; Barsotti, M.; Solazzi, M.; Frisoli, A.; Bergamasco, M.; Troncossi, M.; Foumashi, MM; Mazzotti, C.;
Castelli, VP Um exoesqueleto robótico de mão baseado em emg para treinamento bilateral de preensão. In Proceedings
of the 2013 World Haptics Conference (WHC); Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), Daejeon, Coréia,
14–17 de abril de 2013; págs. 537-542.
22. Downes, MJ; Brennan, ML; Williams, HC; Dean, RS Desenvolvimento de uma ferramenta de avaliação crítica para avaliar a
qualidade de estudos transversais (AXIS).BMJ Open2016,6, e011458. [CrossRef]
Sensores2020,20, 5687 20 de 23

23. Bortolini, M.; Faccio, M.; Gamberi, M.; Pilati, F. Sistema de Análise de Movimento (MAS) para avaliação de produção
e ergonomia nos processos de fabricação.Computar. Ind. Eng.2020,139, 105485. [CrossRef]
24. Akhavian, R.; Behzadan, AH Análise de produtividade das atividades dos trabalhadores da construção civil usando sensores de
smartphones. In Proceedings of the 16th International Conference on Computing in Civil and Building Engineering
(ICCCBE2016), Osaka, Japão, 6–8 de julho de 2016.
25. Krüger, J.; Nguyen, TD Análise ergonômica ao vivo baseada em visão automatizada em operações de montagem.CIRP Ann.
2015,64, 9-12. [CrossRef]
26. Austad, H.; Wiggen, Ø.; Ferevik, H.; Seeberg, TM Rumo a um sistema de sensor vestível para avaliação contínua do
estresse por frio ocupacional.Ind. Saúde2018,56, 228-240. [CrossRef]
27. Brents, C.; Hischke, M.; Reiser, R.; Rosecrance, JC Biomecânica lombar do manuseio de barris usando unidades de medida
inercial. DentroEngenharia de Software em Sistemas Inteligentes; Springer Science and Business Media: Berlim/
Heidelberg, Alemanha, 2018; Volume 825, pp. 71-81.
28. Caputo, F.; Greco, A.; D'Amato, E.; Notaro, I.; Sardo, ML; Spada, S.; Ghibaudo, L. Um sistema de rastreamento inercial de
posturas humanas para avaliações ergonômicas. In Proceedings of the 20th Congress of the International Ergonomics
Association (IEA 2018), Florença, Itália, 26 a 30 de agosto de 2018; Springer Science and Business Media LLC: Berlim/
Heidelberg, Alemanha, 2018; Volume 825, pp. 173-184.
29. Greco, A.; Muio, M.; Lamberti, M.; Gerbino, S.; Caputo, F.; Miraglia, N. Dispositivos vestíveis integrados para avaliar
a sobrecarga biomecânica na fabricação. In Proceedings of the 2019 II Workshop on Metrology for Industry 4.0
and IoT (MetroInd4.0&IoT), Nápoles, Itália, 4 a 6 de junho de 2019; págs. 93-97. [CrossRef]
30. Lin, HJ; Chang, HS Monitoramento em processo de soldagem a ponto micro série usando sistema de acelerômetro duplo.
Soldar. Mundo2019,63, 1641-1654. [CrossRef]
31. Malaisé,UMA.; Maurício, P.; Colas, F.; Charpillet, F.; Ivaldi, S. Reconhecimento de Atividade com Vários Sensores
Wearable para Aplicações Industriais. In Proceedings of the ACHI 2018-11th International Conference on
Advances in Computer-Human Interactions, Roma, Itália, 25 de março de 2018.
32. Zhang, Y.; Zhang, C.; Nestler, R.; Notni, G. Abordagem de rastreamento de objetos 3D eficiente com base em rede neural
convolucional e algoritmos de Monte Carlo usados para um robô pick and place.Fotônica Educ. Medir. Sci.2019, 11144,
1114414. [CrossRef]
33. Tuli, TB; Manns, M. Rastreamento de movimento em tempo real para humanos e robôs em uma tarefa de montagem colaborativa.
Processos2020,42, 48. [CrossRef]
34. Agethen, P.; Oto, M.; Mengel, S.; Rukzio, E. Usando sistemas de captura de movimento sem marcadores para análise de caminho de
caminhada em linhas de fluxo de montagem com ritmo.Procedia CIRP2016,54, 152-157. [CrossRef]
35. Fletcher, S.; Johnson, T.; Thrower, J. Um estudo para testar o uso de captura de movimento inercial não óptica para
análise ergonômica do trabalho de fabricação.Proc. Inst. Mec. Eng. Papel. B J. Eng. Manuf.2016,232, 90-98. [
CrossRef]
36. Kim, K.; Chen, J.; Cho, YK Avaliação de algoritmos de aprendizado de máquina para reconhecimento de movimento do trabalhador usando
sensores de movimento.Computar. Civil Eng.2019, 51-58.
37. McGregor, A.; Dobie, G.; Pearson, N.; MacLeod, C.; Gachagan, A. Posicionamento de robôs móveis usando
acelerômetros para inspeção de tubos. In Proceedings of the 14th International Conference on Concentrator
Photovoltaic Systems, Puertollano, Espanha, 16–18 de abril de 2018; Publicação AIP: Melville, NY, EUA, 2019;
Volume 2102, p. 060004.
38. Müller, BC; Nguyen, TD; Dang, Q.-V.; Duque, BM; Seliger, G.; Kruger, J.; Kohl, H. Motion tracking aplicado em montagem
para treinamento de trabalhadores em diferentes locais.Procedia CIRP2016,48, 460-465. [CrossRef]
39. Nath, ND; Akhavian, R.; Behzadan, AH Análise ergonômica das posturas corporais do trabalhador da construção civil
usando sensores móveis vestíveis.Aplic. Ergon.2017,62, 107-117. [CrossRef]
40. Papaioannou, S.; Markham, A.; Trigoni, N. Rastreamento de pessoas em ambientes industriais altamente dinâmicos. Trans.
IEEE Mob. Computar.2016,16, 2351-2365. [CrossRef]
41. Ragaglia, M.; Zanchetina, AM; Rocco, P. Algoritmo de geração de trajetória para colaboração segura entre humanos e robôs com
base em várias medições de sensores de profundidade.Mecatrônica2018,55, 267-281. [CrossRef]
42. Scimmi, LS; Melchiorre, M.; Mauro, S.; Pastorelli, SP Implementando um algoritmo de prevenção de colisões
baseado em visão em um robô UR3. In Proceedings of the 2019 23rd International Conference on Mechatronics
Technology (ICMT), Salerno, Itália, 23 a 26 de outubro de 2019; Instituto de Engenheiros Elétricos e Eletrônicos
(IEEE): Nova York, NY, EUA, 2019; págs. 1–6.
Sensores2020,20, 5687 21 de 23

43. Sesito, AG; Frasca, TM; O'Rourke, A.; Ma, L.; Dow, DE Controle para câmera de uma interface telerobótica de
computador humano.Educ. Globo.2015,5. [CrossRef]
44. Yang, K.; Ahn, C.; Vuran, MC; Kim, H. Sensing Trabalhadores com anormalidade de marcha para identificação de risco de segurança.
In Proceedings of the 33rd International Symposium on Automation and Robotics in Construction (ISARC), Auburn, AL, EUA, 18–
21 de julho de 2016; págs. 957-965.
45. Tarabini, M.; Marinoni, M.; Mascetti, M.; Marzaroli, P.; Corti, F.; Gilberti, H.; Vila, A.; Mascagni, P. Monitoramento da postura
humana em ambiente industrial: Um estudo de viabilidade. In Proceedings of the 2018 IEEE Sensors Applications
Symposium (SAS), Seul, Coréia, 12 a 14 de março de 2018; págs. 1–6. [CrossRef]
46. Jha, A.; Chiddarwar, SS; Butte, RY; Alakshendra, V.; Nikhade, G.; Khandekar, PM Aprendizagem por imitação em robôs
industriais. In Proceedings of the Advances in Robotics on-AIR '17, Nova Delhi, Índia, 28 de junho a 2 de julho de 2017;
págs. 1–6.
47. Lim, T.-K.; Park, S.-M.; Lee, H.-C.; Lee, D.-E. Classificador slip-trip baseado em rede neural artificial usando sensor
inteligente para local de trabalho de construção.J. Constr. Eng. Gerenciar2016,142, 04015065. [CrossRef]
48. Maman, ZS; Yazdi, MAA; Cavuoto, LA; Megahed, FM Uma abordagem baseada em dados para modelar a fadiga
física no local de trabalho usando sensores vestíveis.Aplic. Ergon.2017,65, 515-529. [CrossRef] [PubMed]
49. Merino, GSAD; Da Silva, L.; Mattos, D.; Guimarumaes, B.; Merino, EAD Avaliação ergonômica dos riscos
musculoesqueléticos em uma atividade de colheita de banana por meio de medidas qualitativas e quantitativas,
com ênfase em captura de movimento (Xsens) e EMG.Int. J. Ind. Ergon.2019,69, 80-89. [CrossRef]
50. Mônaco, MGL; Fiori, L.; Marchesi, A.; Greco, A.; Ghibaudo, L.; Spada, S.; Caputo, F.; Miraglia, N.; Silvetti, A.; Draicchio, F.
Avaliação de sobrecarga biomecânica na fabricação: Uma nova abordagem com sEMG e integração de captura de
movimento inercial. DentroEngenharia de Software em Sistemas Inteligentes; Springer Science and Business Media LLC:
Berlim/Heidelberg, Alemanha, 2018; Volume 818, pp. 719-726.
51. Mônaco, MGL; Marchesi, A.; Greco, A.; Fiori, L.; Silvetti, A.; Caputo, F.; Miraglia, N.; Draicchio, F. Avaliação de carga
biomecânica por meio de dispositivos vestíveis em ambientes industriais: Um sistema de captura de movimento inercial
e protocolo baseado em sEMG. DentroEngenharia de Software em Sistemas Inteligentes; Springer Science and Business
Media LLC: Berlim/Heidelberg, Alemanha, 2018; Volume 795, pp. 233-242.
52. Mueller, F.; Deuerlein, C.; Koch, M. Programação intuitiva de robôs de soldagem via captura de movimento e realidade
aumentada.IFAC-PapersOnLine2019,52, 294-299. [CrossRef]
53. Nahavandi, D.; Hossny, M. Avaliação ergonômica RULA sem esqueleto usando sensores Kinect.Intel. Decis. Tecnol.
2017,11, 275-284. [CrossRef]
54. Peppoloni, L.; Filippeschi, A.; Ruffaldi, E.; Avizzano, CA Um novo sistema vestível para avaliação online do risco de
carga biomecânica em esforços repetitivos.Int. J. Ind. Ergon.2016,52, 1-11. [CrossRef]
55. Seo, J.; Alwasel, AA; Lee, S.; Abdel-Rahman, EM; Haas, C. Um estudo comparativo de abordagens de captura de movimento
em campo para medição de cinemática corporal na construção.Robotica2017,37, 928-946. [CrossRef]
56. Tao, Q.; Kang, J.; Sun, W.; Li, Z.; Huo, X. Avaliação digital do conforto da postura sentada no sistema homem-veículo
sob a estrutura da indústria 4.0.Queixo. J. Mec. Eng.2016,29, 1096-1103. [CrossRef]
57. Wang, W.; Li, R.; Diekel, ZM; Chen, Y.; Zhang, Z.; Jia, Y. Controlando a transferência de objetos na colaboração humano-
robô por meio de sensores vestíveis naturais.Trans. IEEE Zumbir. Mach. Sistema2019,49, 59-71. [CrossRef]
58. Yang, K.; Jebelli, H.; Ahn, CR; Vuran, MC Abordagem Baseada em Limites para Detectar Quedas Quase Acidentais de Trabalhadores
do Ferro Usando Unidades de Medição Inercial.Computar. Civil Eng.2015, 148-155. [CrossRef]
59. Yang, K.; Ahn, C.; Kim, H. Validando a técnica de avaliação da marcha ambulatorial para detecção de perigos em ambientes
de construção.Autom. Constr.2019,98, 302-309. [CrossRef]
60. Yang, K.; Ahn, C.; Vuran, MC; Kim, H. Sensoriamento coletivo dos padrões de marcha dos trabalhadores para identificar os riscos de
queda na construção.Autom. Constr.2017,82, 166-178. [CrossRef]
61. Alberto, DL; Beeman, SM; Kemper, AR Cinemática de ocupantes do híbrido III, THOR-M e substitutos humanos
postmortem sob várias condições de contenção em testes de trenó frontal em escala real.Traffc Inj. Anterior2018,19,
S50-S58. [CrossRef]
62. Cardoso, M.; McKinnon, C.; Viggiani, D.; Johnson, MJ; Callaghan, JP; Albert, WJ Investigação biomecânica de
condução prolongada em um protótipo de assento de caminhão projetado ergonomicamente.Ergonomia2017,
61, 367-380. [CrossRef]
Sensores2020,20, 5687 22 de 23

63. Ham, Y.; Yoon, H. Motion e localização de objetos distantes orientada por dados visuais para relatórios de campo.J. Computação.
Civil Eng.2018,32, 04018020. [CrossRef]
64. Herwan, J.; Kano, S.; Ryabov, O.; Sawada, H.; Kasashima, N.; Misaka, T. Retrofitting CNC antigo com um
acelerômetro em um local remoto para a Indústria 4.0.Manuf. Lett.2019,21, 56-59. [CrossRef]
65. Jebelli, H.; Ahn, CR; Stentz, TL Avaliação abrangente do risco de queda de trabalhadores da construção civil usando unidades de medida
inercial: Validação da métrica de estabilidade da marcha para avaliar o risco de queda de trabalhadores de ferro.J. Computação. Civil Eng.
2016,30, 04015034. [CrossRef]
66. Kim, H.; Ahn, C.; Yang, K. Identificando riscos de segurança usando respostas corporais coletivas de trabalhadores.J. Constr. Eng.
Gerenciar2017,143, 04016090. [CrossRef]
67. Oyekan, J.; Prabhu, V.; Tiwari, A.; Baskaran, V.; Burgess, M.; McNally, R. Colaboração remota em tempo real através
da troca síncrona de interações homem-peça digitalizadas.Futuro. Gerador. Computar. Sistema2017, 67, 83-93. [
CrossRef]
68. Prabhu, VA; Canção, B.; Atirador, J.; Tiwari, A.; Webb, P. Digitalização de uma operação de montagem móvel usando vários
sensores de imagem de profundidade.Int. J. Av. Manuf. Tecnol.2015,85, 163-184. [CrossRef]
69. Yang, K.; Ahn, C.; Vuran, MC; Aria, SS Detecção semi-supervisionada de queda de quase acidente para ferreiros com uma
unidade de medição inercial vestível.Autom. Constr.2016,68, 194-202. [CrossRef]
70. Zhong, H.; Kanhere, SS; Chou, CT WashInDepth: Monitor leve de lavagem das mãos usando sensor de profundidade. In
Proceedings of the 13th Annual International Conference on Mobile and Ubiquitous Systems: Computing, Networking
and Services, Hiroshima, Japão, 28 de novembro a 1 de dezembro de 2016; págs. 28–37.
71. Baghdadi, A.; Megahed, FM; Esfahani, ET; Cavuoto, LA Uma abordagem de aprendizado de máquina para detectar mudanças nos
parâmetros da marcha após uma tarefa ocupacional cansativa.Ergonomia2018,61, 1116-1129. [CrossRef]
72. Balaguier, R.; Madeleine, P.; Rose-Dulcina, K.; Vuillerme, N. Cinemática do tronco e dor lombar durante a poda
entre os trabalhadores da vinha-Um estudo de campo no Chateau Larose-Trintaudon.PLoS UM2017, 12,
e0175126. [CrossRef] [PubMed]
73. Faber, GS; Koopman, AS; Kingma, I.; Chang, C.; Dennerlein, JT; Van Dieën, JH Monitoramento ambulatorial contínuo da
força da mão durante o manuseio manual de materiais usando sapatos de força instrumentados e um traje de captura
de movimento inercial.J. Biomec.2018,70, 235-241. [CrossRef]
74. Hallman, DM; Jørgensen, MB; Holtermann, A. Atividade física medida objetivamente e trajetórias de 12 meses de
dor no pescoço-ombro em trabalhadores: Um estudo prospectivo em DPHACTO.Digitalizar. J. Saúde Pública
2017,45, 288-298. [CrossRef]
75. Jebelli, H.; Ahn, C.; Stentz, TL Análise de risco de queda de trabalhadores da construção civil usando unidades de medida
inercial: validando a utilidade das métricas de estabilidade postural na construção.Saf. Sci.2016,84, 161-170. [CrossRef]

76. Kim, H.; Ahn, C.; Stentz, TL; Jebelli, H. Avaliando os efeitos de revestimentos de vigas de aço escorregadias para a estabilidade da
marcha dos ferreiros.Aplic. Ergon.2018,68, 72-79. [CrossRef]
77. Mehrizi, R.; Peng, X.; Xu, X.; Zhang, S.; Metaxas, D.; Li, K. Um método baseado em visão computacional para estimativa de
postura 3D de levantamento simétrico.J. Biomec.2018,69, 40-46. [CrossRef]
78. Chen, H.; Luo, X.; Zheng, Z.; Ke, J. Uma estrutura de avaliação de risco de segurança dos trabalhadores proativa com base na fusão
de dados de posição e postura.Autom. Constr.2019,98, 275-288. [CrossRef]
79. Dutta, T. Avaliação do Kinect™sensor para medição cinemática 3-D no local de trabalho.Aplic. Ergon. 2012,
43, 645-649. [CrossRef] [PubMed]
80. Redmon, J.; Divvala, S.; Girshick, R.; Farhadi, A. Você só olha uma vez: detecção unificada de objetos em tempo real. In
Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, NV, EUA, 27–30 de junho
de 2016; pp. 779-788.
81. Ferrari, E.; Gamberi, M.; Pilati, F.; Regattieri, A. Sistema de Análise de Movimento para digitalização e avaliação de
processos manuais de fabricação e montagem.IFAC-PapersOnLine2018,51, 411-416. [CrossRef]
82. Van Der Kruk, E.; Reijne, MM Precisão de sistemas de captura de movimento humano para aplicações esportivas; revisão
de última geração.EUR. J. Esporte Sci.2018,18, 806-819. [CrossRef] [PubMed]
83. Kim, G.; Menon, R. A imagem computacional permite uma câmera sem lente “transparente”.Optar. Expressar2018,26,
22826-22836. [CrossRef] [PubMed]
Sensores2020,20, 5687 23 de 23

84. Abraham, L.; Urru, A.; Wilk, deputado; Tedesco, S.; O'Flynn, B. Alcance e rastreamento 3D usando sensores inteligentes
sem lentes. In Proceedings of the 11th Smart Systems Integration, SSI 2017: International Conference and Exhibition on
Integration Issues of Miniaturized Systems, Cork, Irlanda, 8–9 de março de 2017; págs. 1–8.
85. Normani, N.; Urru, A.; Abraão, A.; Walsh, M.; Tedesco, S.; Cenedese, A.; Susto, GA; O'Flynn, B. Uma abordagem de aprendizado de
máquina para reconhecimento de gestos com um sistema de sensor inteligente sem lentes. In Proceedings of the 2018 IEEE
15th International Conference on Wearable and Implantable Body Sensor Networks (BSN), Las Vegas, NV, EUA, 4 a 7 de março de
2018; págs. 136-139. [CrossRef]

©2020 pelos autores. Licenciado MDPI, Basileia, Suíça. Este artigo é um artigo de acesso
aberto distribuído sob os termos e condições da licença Creative Commons Attribution
(CC BY) (http://creativecommons.org/licenses/by/4.0/).

Você também pode gostar