Escolar Documentos
Profissional Documentos
Cultura Documentos
eletroeletrônica
Resumo: Entender o desempenho do trabalhador nos processos produtivos é fator crucial para
a melhoria da produtividade das Organizações. Nesse sentido, o estudo quantitativo da
confiabilidade possibilita, através da construção de um modelo matemático, a identificação de
padrões de falhas ocasionadas por erros humanos. O presente trabalho dedica-se à análise da
confiabilidade humana em um processo de montagem de itens de pequeno porte dentro de uma
indústria eletroeletrônica. Assim, para que essa pesquisa fosse possível, utilizou-se, em função
da presença de censura nos dados coletados, um método não-paramétrico de análise,
conhecido como Estimador de Kaplan-Meier. Os resultados do modelo revelaram que,
justificado pela solidez do processo, as falhas acontecem à uma taxa constante – o que significa
que, por mais que as linhas de montagem já tenham alcançado um elevado nível de
padronização, erros humanos ainda estão presentes em situações pontuais do processo.
Palavras-chave: Confiabilidade humana; Análise quantitativa; Estimador de Kaplan-Meier.
1. Introdução
Desde a Segunda Revolução Industrial, iniciada na segunda metade do século XIX, com
o desenvolvimento dos setores de energia – destacando-se o petróleo e a utilização da energia
elétrica –, o emprego de equipamentos que auxiliavam na manufatura de itens de grande porte
deu início à uma importante ideia que foi utilizada nos modelos de produção que surgiram nos
anos seguintes: a linha de produção (BERNAL, 2011).
A partir desse momento, e somado aos esforços de Frederick Taylor e Henry Ford, que,
já no começo do século XX, desenvolveram as ideias do Taylorismo e do Fordismo,
respectivamente; os ambientes de fábrica começaram a se tornar locais cada vez mais propícios
ao estudo de tempos e movimentos dos funcionários. Dessa forma, em se tratando da otimização
dos processos de fabricação, não só a disponibilidade das máquinas deveria ser levada em
consideração, mas também a maneira com a qual os homens trabalhavam precisaria de,
compulsoriamente, se tornar objeto de estudo nesse cenário.
Dentro desse contexto, entretanto, apesar de a análise quantitativa do desempenho
humano ser fundamental para o entendimento dos processos nos quais o homem está inserido,
o levantamento dos aspectos qualitativos do trabalho também deve ser ferramenta considerada
na metodologia de estudo da confiabilidade humana – essencial, principalmente, às indústrias
nas quais a atividade que o funcionário desempenha tem papel relevante no escopo do processo.
Por fim, transportando essas características históricas para as necessidades do mundo
moderno, as empresas, com o objetivo de atender às altas expectativas dos consumidores, têm,
cada vez mais, se esforçado para entregar produtos sofisticados aos seus clientes, utilizando-se,
para isso, de processos cada vez mais robustos. Itens que antes eram triviais, hoje possuem, em
alguns casos, centenas de componentes – o que aumenta substancialmente suas chances de
falharem. Como consequência, a adoção de novos métodos de avaliação desses riscos torna-se
necessária, culminando-se, portanto, no estudo da confiabilidade e suas variações.
Dessa forma, este artigo tem o objetivo principal de apresentar os resultados de um
estudo quantitativo, no que se refere à análise da confiabilidade humana, realizado no setor de
montagem de uma indústria eletroeletrônica. Além disso, como objetivos secundários, define-
se: entender o padrão de falhas dos funcionários da empresa escolhida para o estudo de caso e
propor explicações, baseados nos resultados numéricos deste trabalho, para o problema de
recorrência de erro humano dentro da fábrica.
Os resultados obtidos com esse estudo serão utilizados na elaboração de planos de ação
para o desenvolvimento de operadores – visando, portanto, minimizar os erros no processo de
produção oriundos de falhas humanas e, assim, aumentar a eficiência geral do sistema. Espera-
se, também, que o trabalho possa ser fonte de pesquisa para profissionais de áreas similares que
almejam melhorar a qualificação de sua mão-de-obra.
2. Confiabilidade
De acordo com Lafraia (2008), o termo confiabilidade pode ser definido como a
probabilidade de funcionamento de um item (componente, produto ou sistema), isento de
falhas, durante um período de tempo predeterminado e sob condições únicas de operação. Dessa
forma, e a partir dessa conceituação, torna-se importante analisar alguns termos que são cruciais
para o correto entendimento de todo esse estudo.
Em primeiro lugar, deve-se entender o conceito de “falha” que, de acordo com Kardec
e Nascif (2009), representa a perda de função de um item; ou seja, o componente, produto ou
sistema deixa de operar de maneira satisfatória. Assim, para que um item seja considerado, de
fato, falho, é necessário que ele, mais do que perder desempenho ou deixar de realizar tarefas
secundárias à sua principal utilidade, não exerça mais, com total plenitude, a atividade para a
qual ele foi desenvolvido. Além disso, e em adição a essa definição, existe, também, o conceito
de “modo de falha” que, de acordo com Palady (2011), diz respeito à forma através da qual um
sistema pode falhar; isto é, relaciona-se com os motivos potenciais de falhas desse item.
Um segundo ponto importante é compreender que a variável aleatória de interesse nesse
contexto dependerá, na maioria das vezes, do tempo. Portanto, existirá sempre, para os métodos
paramétricos e não-paramétricos de análise, uma variável aleatória •(•••••) classificada
como “quantitativa” (em relação à natureza numérica de sua população) e “contínua ou
discreta” (a depender do possível intervalo de valores que irão compor a amostra estudada).
Assim, a partir do momento que esses conceitos iniciais se tornam claros, pode-se,
então, dar início a um estudo mais elementar das relações numéricas dentro do escopo de o que
é confiabilidade. Para tal, a primeira função necessária para se compreender esse tipo de análise
a é Função de Risco (ou ℎ(•)) que, de maneira conceitual, pode ser entendida como a taxa de
falhas apresentada por um item específico; isto é, ela representa a quantidade de falhas que
surgiram na amostra analisada em relação ao tempo decorrido de coleta.
A fim de generalizar o comportamento dessa função, existe um elemento gráfico
conhecido como “curva da banheira” que mostra como a taxa de falhas cresce ou decresce
conforme o item considerado é submetido a ciclos de intervalos de tempo de operação
(SELLITTO, 2005). A figura a seguir ilustra esse componente:
FIGURA 1 – Curva da banheira (ℎ(•)). Fonte: Adaptado de Sellitto (2005).
Como observado na FIGURA 1, a taxa de falhas no início de operação de um item
qualquer tende a começar alta, considerando que a etapa de implementação desse item analisado
pode ser mais suscetível a erros (fase conhecida como “de mortalidade infantil”). À medida que
o tempo de operação desse item cresce, sua taxa de falhas tende a diminuir, estabelecendo-se
em um nível contínuo – isso acontece por causa da estabilização típica do sistema; ou seja, o
“aprendizado” acumulado reduz a recorrência dos erros – (fase conhecida como “de
maturidade”). E, por último, existe a fase “de mortalidade senil” ou “de envelhecimento”
(FOGLIATTO; RIBEIRO, 2009), na qual a taxa de falhas cresce subitamente em decorrência,
principalmente, do envelhecimento do item observado e desgaste de suas características físicas.
Além da Função de Risco, outra relação numérica, advinda de conceitos estatísticos, é
necessária para a verificação do comportamento dessa taxa de falhas no tempo: a Função
Densidade de Probabilidade (FDP) – utilizada para representar variáveis aleatórias contínuas –
ou a Função Massa de Probabilidade (FMP) – utilizada para representar variáveis aleatórias
discretas. Esse tipo de função, descrita por (•), tem a finalidade de associar um valor de
probabilidade a cada uma das possíveis entradas (ou intervalos de entradas, para grandezas
contínuas) da variável aleatória analisada.
Como resultado, para variáveis aleatórias contínuas, a área total abaixo da curva
definida pela Função Densidade de Probabilidade até o eixo das abscissas, corresponde,
numericamente, ao total de falhas no tempo considerado. Da mesma forma, em se tratando de
variáveis aleatórias discretas, o somatório de todas as entradas da Função Massa de
Probabilidade resultará, como no primeiro caso, no montante acumulado de falhas. À essa
relação do número de falhas em função do tempo, dá-se o nome de Função de Falhas (!(•)),
que, em termos algébricos, conecta-se com a FDP (EQUAÇÃO 1) e com a FMP (EQUAÇÃO
2) das seguintes formas:
%&'*+ (,-./0)
!(•) = # (•) $• (1)
%&'*+ (-.-1-/0)
%&'*+ (,-./0)
GRÁFICO 1 – Função Confiabilidade (•# (•)) com Estimador de Kaplan-Meier. Fonte: Elaborado pelos autores.
A partir do GRÁFICO 1, pode-se constatar que a confiabilidade do processo estudado,
durante o intervalo de 26 semanas, decresceu até chegar ao valor de 96.5%; ou seja, a cada 200
itens produzidos, cerca de 193 deles sobreviveram à exposição ao risco do processo de
montagem.
Em adição à essa análise, torna-se importante destacar a Função de Falhas (ou $(•)),
que, em relação à Função Confiabilidade, respeita a relação descrita na EQUAÇÃO 3 (ou na
EQUAÇÃO 2, caso a correspondência fosse construída sobre uma Função Massa de
Probabilidade). Dessa forma, tem-se, inverso ao comportamento que o GRÁFICO 1 apresenta,
a representação das falhas acumuladas no tempo:
GRÁFICO 2 – Função de Falhas ($% (•)) com Estimador de Kaplan-Meier. Fonte: Elaborado pelos autores.
O GRÁFICO 2, por outro lado, mostra como as falhas ocasionadas por erros humanos
evoluíram ao longo das semanas observadas – de 0%, no instante • = 0, até 3.50%, no final
desse período (o que, mais uma vez, evidencia o fato de que a função $ (•) pode ser interpretada
como o complemento da •(•), e vice-versa).
Assim, seguindo com a ideia de compreender completamente o que o conjunto de dados
coletados representa, pode-se, a partir da $(•), obter a Função Massa de Probabilidade (&(•)).
A FMP, como explicada através da EQUAÇÃO 2, representa o quanto a função $(•) cresce a
cada iteração de tempo; dessa forma, definir &(•) para um • qualquer, é o mesmo que calcular
$(•) − $(• − 1). O gráfico da Função Massa de Probabilidade é representado por:
GRÁFICO 3 – Função Massa de Probabilidade (&# (•)). Fonte: Elaborado pelos autores.
Através do GRÁFICO 3, percebe-se que a probabilidade de ocorrência de uma falha
diminui ao longo do tempo. Esse efeito, entretanto, está associado ao fato de que o volume total
de itens expostos ao risco também aumenta (em uma taxa muito maior, se comparada à das
falhas) no decorrer das semanas; sendo assim, quanto mais avançado for o instante de tempo
escolhido, menor a razão entre o “número de falhas” e “número total de produtos já montados”
tende a ser.
Além do mais, ainda sobre o gráfico da Função Massa de Probabilidade, vale destacar
que, assim como indica a EQUAÇÃO 2, a soma dos valores das barras verticais é igual ao
percentual total das falhas acumuladas ao final das 26 semanas (cerca de 3.50%).
Por fim, para que todos os principais aspectos da modelagem de confiabilidade da
situação-problema observada sejam considerados, é necessário construir e interpretar o gráfico
da Função de Risco (ℎ(•)). Como indicado na EQUAÇÃO 4, a função ℎ(•), também conhecida
como “taxa de falhas”, pode ser relacionada com as funções, já definidas, “Massa de
Probabilidade” e “Confiabilidade”. Logo, o gráfico de ℎ(•) se comporta da seguinte maneira:
GRÁFICO 4 – Função de Risco – ou “taxa de falhas” (ℎ(•)). Fonte: Elaborado pelos autores.
O GRÁFICO 4, de ℎ(•), assim como representado pela Função Massa de Probabilidade,
decresce abruptamente nos primeiros intervalos de tempo; contudo, à medida que as semanas
avançam, a “taxa de falhas” se mantem, de modo geral, constante. Esse comportamento inicial
do gráfico da Função de Risco deve-se, mais uma vez, ao fato de que o número de itens
produzidos aumenta semana a semana.
Sendo assim, ao analisar como a “taxa de falhas” varia ao longo do período estudado –
sobretudo depois dos primeiros ciclos de tempo – percebe-se, como explicado na seção “2.
Confiabilidade”, que o processo se encontra em “fase de maturidade” (de acordo com
classificação feita pela “curva da banheira”); ou seja, as falhas não variam expressivamente ao
longo do tempo.
Esse nível aproximadamente constante da “taxa de falhas” pode ser interpretado,
considerando o contexto do processo produtivo analisado, como uma falta de padrão para o
acontecimento das falhas – em outras palavras: as falhas acontecem de maneira aleatória ao
longo das semanas. Isso significa dizer que o processo de montagem se encontra em um estágio
no qual as falhas causadas por padrões de erros já foram removidas, restando, somente, o fator
“acaso” – intrínseco ao trabalho humano nessa situação.
5. Considerações Finais
O estudo e aplicação da confiabilidade humana, enquanto extensão dos métodos de
análise e modelagem de confiabilidade para itens mecanizados, mostrou-se uma ferramenta
essencial para o correto entendimento das falhas advindas de erros humanos no cenário
estudado. Dessa forma, e considerando o indivíduo que compõe o sistema produtivo como
elemento de importância para a garantia da qualidade do processo e dos itens produzidos, a
modelagem de falhas humanas pode ser útil, principalmente, para empresas que utilizam
processos pouco automatizados e com alto nível de repetitividade nas tarefas executadas por
operadores.
Além disso, para as situações nas quais a construção de um modelo paramétrico de
análise não é viável ou possível – seja por presença de censura, seja pela complexidade da
situação considerada –, o uso do Estimador de Kaplan-Meier pode se tornar uma alternativa à
essas limitações. Na indústria eletroeletrônica sobre a qual este trabalho foi desenvolvido, as
especificidades do conjunto de dados, justificadas pela falta de informações completas sobre o
tempo até a falha dos itens expostos ao risco, forçaram a utilização desse tipo de técnica.
Contudo, e levando em consideração as restrições que esse tipo de abordagem apresenta, foi
possível, ao final do estudo, levantar um modelo que descreve, dentro dos limites de tempo
estudados, o padrão de falhas e, por consequência, o nível de confiabilidade que o processo de
montagem apresenta.
Assim, respeitando a interpretação apresentada sobre a taxa de falhas relativamente
constante que o processo produtivo apresenta, algumas estratégias podem ser tomadas a fim de
melhorar os números de itens conformes manufaturados dentro do ambiente de interesse. O uso
de curvas de aprendizagem, sobretudo como forma de medir a performance individual de cada
um dos operários pode ser uma alternativa à dificuldade de eliminar as falhas remanescentes de
um processo, já realizado, de padronização dos procedimentos executados pelos trabalhadores.
Dessa forma, através do levantamento dos indivíduos que, em maior nível, são responsáveis
pelas falhas que acontecem no processo, ações focadas e personalizadas podem ser empregadas
como alternativa para combater os erros aleatórios que ainda se fazem presentes nas linhas de
montagem.
Por fim, como sugestão de pesquisas futuras, pode-se tentar empregar esse mesmo tipo
de análise a outras áreas da mesma indústria – principalmente aquelas nas quais o emprego de
mão-de-obra humana ainda é maior que o uso de máquinas. Além disso, e como forma de
identificar os pontos problemáticos do processo sobre os quais a empresa tem que, com
prioridade, atuar, recomenda-se um estudo paralelo, de caráter econômico, com o objetivo de
identificar e, por consequência, reduzir, as perdas financeiras associadas aos erros humanos em
cada um desses setores da Organização.
Referências
ANZANELLO, Michel José; FOGLIATTO, Flávio Sanson. Curvas de aprendizado: estado da arte e perspectivas
de pesquisa. Gestão & Produção, v. 14, n. 01, p. 109-123, jan./abr. 2007.
BERNAL, John Desmond. Science and Industry in the Nineteenth Century. London: Routledge, 2011.
BORGES, Fábio Morais; MENEGON, Nilton Luiz. Fator Humano: confiabilidade às instabilidades do sistema
de produção. Gestão da Produção, Operações e Sistemas, v. 04, n. 04, p. 37-48, out./dez. 2009.
DRAGAN, Irina-Maria; ISAIC-MANIU, Alexandru. The Reliability of the human factor. Procedia Economics
and Finance, v. 15, p. 1486-1494, 2014.
FOGLIATTO, Flávio Sanson; RIBEIRO, José Luis Duarte. Confiabilidade e manutenção industrial. Rio de
Janeiro: Elsevier, 2009.
FREITAS, Marta Afonso; COLOSIMO, Enrico Antônio. Confiabilidade: análise de tempo de falha e testes de
vida acelerados. Belo Horizonte: Fundação Christiano Ottoni, 1997.
HERRMANN, Letícia. Estimação de curvas de sobrevivência para estudos de custo-efetividade. 2011. 119f.
Monografia (Conclusão de curso) – Universidade Federal do Rio Grande do Sul, Instituto de Matemática e
Estatística, Porto Alegre.
KARDEC, Alan; NASCIF, Júlio. Manutenção: função estratégica. 3. ed. Rio de Janeiro: Qualitymark:
Petrobras, 2009.
LAFRAIA, João Ricardo Barusso. Manual de Confiabilidade, Mantenabilidade e Disponibilidade. 5. ed. Rio
de Janeiro: Qualitymark: Petrobras, 2008.
MARTINS, Vera Lucia Milani; WERNER, Liane. Análise não paramétrica de falhas ao longo do calendário para
alto-falantes. Produto e Produção, v. 11, n. 3, p. 07-18, 2010.
MIGUEL, Paulo Augusto Cauchick et al. Metodologia de pesquisa em engenharia de produção e gestão de
operações. 2. ed. Rio de Janeiro: Elsevier, 2012.
OLIVEIRA; Aline Fernanda de; SELLITTO, Miguel Afonso. Análise qualitativa de aspectos influentes em
situações de risco observadas no gerador de vapor de uma planta petroquímica. Produção, v. 20, n. 4, p. 677-
688, out./dez. 2010.
PALADY, Paul. FMEA – análise dos modos de falha e efeitos: prevendo e prevenindo problemas antes que
ocorram. 5. ed. São Paulo: IMAN, 2011.
PALLEROSI, Carlos Amadeu; MAZZOLINI, Beatriz Pinheiro Machado; MAZZOLINI, Luiz Ricardo.
Confiabilidade humana: conceitos, análises, avaliações e desafios. São Paulo: All Print Editora, 2011.
REASON, James. Human Error. British Medical Journal, v. 320, n. 7237, p. 768-770, 2000.
RECH, Gustavo; ANZANELLO, Michel José; DUTRA, Camila Costa. Curvas de aprendizado e FMEA na
análise de confiabilidade do processo de separação manual de uma distribuidora de medicamentos. Produção
Online, v. 13, n. 03, p. 873-892, jul./set. 2013.
RELIASOFT. Life Data Analysis Reference Book. Disponível em:
<http://www.reliawiki.org/index.php/Life_Data_Analysis_Reference_Book>. Acesso em: 24 nov. 2017.
SELLITTO, Miguel Afonso. Formulação estratégica da manutenção industrial com base na confiabilidade dos
equipamentos. Produção, v. 15, n. 01, p. 44-59, jan./abr. 2005.
Tabela 1 – Dados de Falhas e de Itens sob risco.
Data Semana Falhas (• ) Itens sob risco (! ) F. Confiab. (%) F. de Falhas (%) F. Massa Prob. (%) F. de Risco (%)
10/02 a 16/02 01 153 21780 99.29752066 0.702479339 0.702479339 0.707449022
17/02 a 23/02 02 175 40503 98.86848908 1.13151092 0.429031581 0.433941678
24/02 a 02/03 03 106 45777 98.63955184 1.360448155 0.228937236 0.232094765
03/03 a 09/03 04 143 52870 98.37275676 1.627243236 0.266795081 0.271208299
10/03 a 16/03 05 112 56480 98.17768331 1.822316691 0.195073455 0.198694295
17/03 a 23/03 06 86 67536 98.05266434 1.947335656 0.125018964 0.127501853
24/03 a 30/03 07 121 79477 97.90338377 2.096616232 0.149280577 0.152477443
31/03 a 06/04 08 124 90645 97.76945449 2.230545512 0.13392928 0.136984788
07/04 a 13/04 09 68 97640 97.70136433 2.298635669 0.068090157 0.069692125
14/04 a 20/04 10 110 106425 97.60038101 2.399618991 0.100983322 0.103466115
21/04 a 27/04 11 213 125162 97.43428522 2.56571478 0.166095789 0.170469552
28/04 a 04/05 12 145 138090 97.33197534 2.668024661 0.10230988 0.105114357
05/05 a 11/05 13 141 150929 97.24104644 2.758953564 0.090928904 0.093508767
12/05 a 18/05 14 114 158857 97.17126368 2.82873632 0.069782756 0.07181419
APÊNDICE A – Dados de Falhas e Itens sob risco